互联网数据中心 (IDC) 的耗电量一直是一个大问题。大公司如谷歌的数据中心运行时的功率几乎相当于一个大中型城市的家庭用电量,数据中心的维护者一直都在服务器节能方面下了大功夫。而佐治亚理工大学(Georgia Tech)的一些研究者则另辟蹊径,提出了一种高效的数据中心散热系统——你可能不知道的是,数据中心的所消耗的电力中有三分之一并不能用来直接驱动服务器,而是要用来维持一个强大的散热系统保证那些服务器不会过热!
几台单独的计算机散发的热量可能不很明显,但在数据中心数量级,所有的热量都集中在一个小的范围内,如果散热系统效率不够则危险极大。现有的数据中心散热系统一般采用巨大的抽风机将凉爽的空气吹到机架之间,并通过架空楼层来保证机器下方也有空气对流空间。Georgia Tech 的 Yogendra Joshi教授带领的研究小组搭建了一个1100平方英尺的模拟数据中心,并在里面摆放了各式的机架服务器以研究散热系统的真实工作情况。
Joshi小组发现,机架的组织方式是决定散热系统消耗的一个重要因素。他们在搭建的模拟数据中心里试验了各种机架组织模式和散热模式之间的组合,并仔细测量了各种热量产生和传播数据,包括使用烟雾发生装置和激光探测器来记录空气流通模型、使用红外传感器记录热量数值、使用气流传感器监控风扇输出、以及在主板上安装温度传感器记录各处主机的温度变化。
更进一步,他们还开发了一套面向散热控制的数据中心负载平衡系统。随着不同任务的到达,每台服务器的散热量也是在不断变化的。新的负载平衡系统可以自动的把非关键性的任务分配到当前散热量相对较小的服务器上运行,以免造成数据中心局部的过热。
Joshi 小组还在研究了在采用新的散热系统时机房掉电的情况。一般的数据中心在发生停电事故时,服务器可以立即切换到附带的 UPS 上而继续工作;但散热系统则会停机几分钟,直到中心的备用发电机开始工作。这段散热系统掉电的时间是很危险的。在传统的散热模型下,部分服务器的温度可能 会在几十秒内达到危险值;而在新散热系统的模型下,整个中心在散热系统停机的情况下最多可以正常工作 6 分钟之多。
此外,研究组还在寻找排放的热能被有效利用的可能——尽管它们还没有热到可以用来发电的程度。“这些热能可以用来给附近的楼宇供暖或给用水进行预热”Joshi 教授说。
经过试验,新的散热系统可以为整个数据中心节约多大 15% 的耗电。研究组仍在考虑在一些细节上做进一步改进,例如机架的内部设计及液冷措施等。