<?xml version="1.0" encoding="utf-8"?>
<!DOCTYPE wml PUBLIC "-//WAPFORUM//DTD WML 1.1//EN" "http://www.wapforum.org/DTD/wml_1.1.xml">
<wml>
<head><meta forua="true" http-equiv="Cache-Control" content="max-age=0" /></head>
<card title="详解高密度数据中心改造方案" id="card1">
<p> 游客</p><p>
标题:详解高密度数据中心改造方案<br/>
正文:<br/>
Facebook庞大的用户基数给其数据中心带来了巨大的压力，当 Facebook的用户基数突破了5亿的时候，这意味着Facebook需要更多的服务器，更大面积的数据中心。为了解决这一问题，Facebook研究的是如何在有限的空间内提高服务器计算效率，从而应付急剧膨胀的业务增长。在数据中心内部大量的采用高密度机架，对于管理这些机架和冷却是一个巨大的挑战。最近，Facebook为数据中心配备了全新的高密度服务器，在效能方面有了很大提升，每年能够节省280万千瓦电力，相当于减少排放温室气体1088吨。而且Facebook还和大家一起分享了这一高密度数据中心的改造经验。小规模 高收益Facebook改良后的数据中心位于硅谷，面积仅为14560平方英尺。但可别小看了这个不大的面积，其计算能力非常高，而且还采用了空气冷却方式，有效降低制冷成本。尽管改良后的数据中心面积较小，但其效率却高于原来56000平方英尺的数据中心。这个高密度数据中心的散热通道宽度为八英尺，通道的地砖采用打孔设计，以增强空气流通性。里面的服务器为45U设计，前面板部分经过了改造，安装了气流分析、冷通道控制等设施，同时减少了服务器风扇能源，从而提高散热质量。Facebook的服务器和数据中心工程师Amir Michael发明了一个新的配电设计，这个配电设计免除了传统的数据中心不间断电源（UPS）和数据中心配电单元（PDU）。新的设计把数据中心的UPS和电池备份功能转移到储藏柜，每个服务器电力供应增加了一个12伏的电池。这个发明其实是来源于谷歌的一个灵感，因为之前谷歌曾经发布过集成一个12伏电池的一种电源，并允许它作为一种车载UPS.这种数据中心，除了具有能源高效的数据外，公司也把这种设计作为一个主要的因素。电源使用效率（PUE）额定值在1.1到1.2之间。冷通道的控制第一步是处理冷通道上的设计问题。在分析冷通道和高架地板的空气压力后，Facebook安装了一个冷通道控制系统，这个系统包括塑料的屋顶以及在每个通道的末端设置推拉门。数据中心工程的负责人 Jay Park和他的团队还将地面的瓷砖换掉，用实心的砖来取代传统的两孔砖。另外，Facebook还采取多种措施，密封冷空气使其无法外溢，最大限度的提高冷空气的冷却效率。第二个步骤是针对风扇的效率。由于冷通道控制系统能够更好的控制气流，所以这就允许Facebook<br/><a href="http://www.xmwzidc.com/blog/wap.asp?mode=WAP&amp;act=View&amp;id=1675&amp;Page=1">[&lt;&lt;]</a><a href="http://www.xmwzidc.com/blog/wap.asp?mode=WAP&amp;act=View&amp;id=1675&amp;Page=1">[[1]]</a><a href="http://www.xmwzidc.com/blog/wap.asp?mode=WAP&amp;act=View&amp;id=1675&amp;Page=2">[2]</a><a href="http://www.xmwzidc.com/blog/wap.asp?mode=WAP&amp;act=View&amp;id=1675&amp;Page=3">[3]</a><a href="http://www.xmwzidc.com/blog/wap.asp?mode=WAP&amp;act=View&amp;id=1675&amp;Page=3">[&gt;&gt;]</a><br/>
<br/>
<a href="wap.asp?act=Com&amp;id=1675">查看评论(0)</a><br/>
<a href="wap.asp?act=AddCom&amp;inpId=1675">发表评论</a><br/><br/>

<br/>

<br/>
<a href="http://www.xmwzidc.com/blog/wap.asp">首页</a>
</p>
</card>
</wml>