标 题: industry对academic architecture research的看法
今天听了Wen-mei Hwu的一节课,他刚从HPCA回来,作为panel成员,他和
industry的几个代表交流了关于academic architecture research该往
何处走的看法。回来兴冲冲的给我们传达了一下。这里凭印象回忆一下。
Oracle
Oracle现在开始做data(storage) center,也就是说各大公司(fortune500级)
的都把database交给Oracle维护,而不再购买数据库了。有点像主机托管。Oracle
的concern是,architecture的fault tolerance和support for software debugging
对他们的应用非常重要,是很值得做,很有前途的research.
还提到一个有意思的topic,virtual hardware将是很重要的东西。比如一台机器上
可以同时跑多个操作系统,升级,重起一个操作系统不影响另一个操作系统。(有点
类似vmware,不过这个virtual machine完全是硬件实现的,各个操作系统相互独立
,而且地位平等)似乎intel已经有了类似的技术,正要产品化。
IBM (cell)
multi core是趋势。cell的performance已经远远的把intel的general purpose CPU和nvidia的gpu甩在后面。但是限于programming language 和开发工具的短缺,目前cell还无法撼动
两者在各自领域的位置。对于cell这样的cpu,最大的concern是power consumption。
工业界几乎所有的芯片设计公司现在都不约而同的达成共识,降低功耗的最好办法
就是提高cpu的peak performance,通过并行优化,使得软件可以较好的match硬件
所能提供的并行性,而使得硬件可以在较低的clock rate上运行。
比如cell,它的clock rate将是4GHz,但是如果程序能够很好并行话,它不需要运行
在4Ghz,也许运行在几百Mhz,就可以通过并行在multicore上面而达到竞争对手的同类产品无法达到的性能(原话是:beat the crap out of the competitors),而功耗却可以大大降低。
其中提到了sony的人近乎crazy地坚持要求IBM的cell以及后续产品要很好的支持
double floating point数据(注:目前所有的gpu,或者面向video game的处理器
都最多只支持32-bit floating point data)。IBM的人,很不情愿,但是sony得人
认为他们在不久的将来就可以开发出能够逼近人眼所能感知的物理世界的清晰度
的图像模型,而64-bit floating point data对此来说是必须的。
nvidia
GPU的性能还会继续提高。目前的gpu不支持并行的处理单元之间互相通信,未来GPU的发展方向会更朝着shared memory 的multi processor方向发展。另外,power consumption也是
nvidia的最大的concern。
intel
说了一些对academia近些年的research比较失望的话。大概是说,academic resarch要超前
不要跟风当前的技术热点。细节不记得了。