SAN自从80年代产生以来,推动着存储技术不断前进。SAN首先带来了大容量高性能的存储,能够适用于从小型服务器到大型主机的应用需求。SAN更重要的核心特点就是存储的大整合,SAN可以灵活的分配存储资源给用户,SAN的通讯协议FCP则提供了可靠和高速的连接技术。通过不断的完善,SAN能够提供全面的存储解决方案,能够适应从中小企业到大规模数据中心的发展需求,能够满足容量和性能的要求,从近二十年的使用来看,SAN是相当稳定和可靠的技术,大量的用户群可以有力的证明SAN技术。不仅如此,SAN仍然在不断的发展,从最初的1Gb带宽,到最近的8Gb,网络带宽也在不断地提高。
但是埋藏在SAN体内的先天隐忧,使得现行的SAN在面对人类史无前例的海量数据面前,日渐力不从心,根本的原因还在于它的基础框架的结构,我们都知道,主机就如同一个大大的框框,把存储资源限制在单机使用的范围,形成一个又一个的小孤岛,SAN的出现打破了存储固定于主机的限制,集中化的存储可以属于很多主机,看似孤岛消除了,但是实际上是形成了更大的孤岛,同时还要面对,随着数据量的增加,访问用户量的增长,构成SAN的每个存储的处理能力却没有随之增大,造成前端的带宽虽然增加了,但是由于处理器的瓶颈,IOPS(Input Output Per Second)并没有相应增加。由此导致一个可预见的问题产生了,购买的SAN的时候,要对未来的增长有一个很好的规划。
由于当前SAN是基于硬性框架的,所以对于容错,负载均衡等跨越框架的需求,就变得异端困难,需要借助复杂的软件系统和复杂的操作,如果说针对目前的数据量,我们对于SAN的复杂性还能够接受的话,那么对于即将到来的海量数据时代,SAN将变得极端复杂,以至于难以为继。
简单来说,问题的实质就是SAN仍然是以磁盘配置为中心,但是应用主控权却是落在主机上,一旦后端的存储控制器绑定硬盘,这种静态绑定将很难灵活更改,所以我们可以把现行的固态表现SAN称为SAN 1.0,它具备典型的是刚性系统的特点,即硬度有余,弹性不足。
从硬件到软件层的角度来看:现在的IO系统一般是划分为这样的层次,应用程序层,文件系统层,操作系统层,虚拟主机层和网络通信层,而这些软件层,都是建立在存储硬件层之上,而硬件层一般分为存储HBA(Host Bus Adapter)层,逻辑LUN,硬盘。在这些层中,每一层都有独立的其它层不可干预的管理机制,比如说缓冲,不同层的缓冲有不同的划分方式,缓存片,缓存块,缓存叶,数据要从应用程序最终写入到硬盘,要经过的每一层都要做很多的转换工作,这是的存储系统的优化工作非常难做,因为要同时考虑多层的不同机制,在应用中,我们不得不配置大量不同的LUN来适应不同的应用,这是的数据孤岛问题更加严重,使得SAN的存储整合的目的大打折扣。导致的另外一个问题就是,如果需要对存储资源进行调整,往往需要停机来实施。在当前的存储应用中需要面对的一个新问题就是如何应对前端的主机虚拟化要求。主机虚拟化之后,虚拟主机会根据用户需求和资源环境在资源池里处理在线的动态资源飘移,而在SAN 1.0技术中,后端的硬盘和IO路径配置却是静态绑定体系结构的,所以这种前柔后实的框架结构限制了虚拟化的动态特性,最后将导致IO失去平衡,延伸出性能瓶颈问题。
或许有人认为是光纤通道协议本身导致了这些问题,如果使用iSCSI协议是否就可以避免这些问题,答案显然是否定的,因为底层的固态结构决定了无论上层讲什么样的语言都会存在相同的困扰。因此,导致问题的根源不在于协议,而是由于SAN 1.0技术的先天不足。
SAN既给带来了巨大的技术优势,同时也带来了很大的困境,一方面它具备强大的数部保护能力,但如果实施这些数据保护技术将会导致性能的牺牲;一方面具备很快地恢复能力,但又不得不停下应用才能够实施;一方面提供了很多高级的应用技术,但又需要有高水平的管理员;一方面提供了高容量存储,但由于主机和硬盘邦定,所以为满足未来的需求,只能在规划阶段尽可能扩大需求,避免未来扩容的不便。一句话,用户要求无法得到平衡, 被迫二选一!伤害的总是企业的敏捷性和业务持续能力 。
难道通向信息化的道路上的这个堡垒会一直阻碍我们前进吗?在解决问题之前,让我们先了解其它领域发生的事情。
早在80年代,Token-Ring,FDDI,和Ethernet就进行了一场基础网络的战争,最终的胜利者是Ethernet。在网络协议领域,也同样进行着另一场战争,交战的几方是IPX/SPX,TCP/IP和OSI的舞台,结果是TCP/IP站在了最后。
戴尔" border="1" /差不多在同一时代,在基础网络之上,还进行着一场应用网络的战争,分别是存储方面的FC,基础网络的Ethernet和服务主机间的高速通讯InfiniBand。这场战争在2007年有了一个清晰的解决,FC推出FCoE (E=Ethernet) 作为下一代的FC技术标准,这也意味着下一代的FC光纤会采用以太网的技术。InfiniBand组织也推出了面向Ethernet的版本。这也就意味着在应用网络领域,大家都会走向统一的以太网,我们称为Unified Fabric。以太网技术再一次赢得每个人的最后掌声!
在IT系统之外,我们也可以从生活中的实际例子看到类似的趋势。
对于中国铁路系统的动车组这样一个概念已经不陌生了,您知道动车组是怎样达到这样高的速度吗?是不是开发了史无前例的强大动力的发动机,并向现在的火车那样,把它装在最前面,以此牵引后面的车箱快速前进呢?恰恰不是如此,动车组使用了更灵活,更智能化的方式,把动力装置分散安装在每节车厢上,使其既具有牵引力,又可以载客,这样的客车车辆便叫做动车。动车组就是几节自带动力的车辆加几节不带动力的车辆编成一组。这多么像我们计算机系统的并行运算的概念啊!
如果说使用并行工作的方式指示解决了性能问题,还有一座大山等待我们去征服,那就是如何自动化操作。像刚才的例子,我们也从生活中的真实案例去寻找灵感。在七八十年代时还没有程控交换机,所有的线路连接都需要人工完成,接线员要熟记一部无良号码本,才能胜任工作。就像SAN1.0中需要配置各种路径、存储单元、主机绑定那样,需要绝对依赖管理员的操作。自从程控交换技术发明以来,实现了彻底的自动化,既避免了人为错误,也大幅度的提高了速度。
戴尔" border="1" /让我们再回到IT,参考IDC发布的未来五年虚拟化技术发展趋势的四大阶层路线图。从最初的虚拟化1.0,以实现资源整合为目标,到虚拟化2.0以减少宕机时间为目标,现在进入到虚拟化2.5以提高动态负载均衡和减少意外宕机为目标,未来的虚拟化3.0则是以实现IT基础设施的彻底的自动化为目标。
根据上面的诸多领域的实际案例里,我们可以总结出什么样的技术才是SAN2.0。
首先,必须以Unified Fabric作为存储网络基础;基于对等技术的并行工作机制,采用对等存储结构,网络和存储具有相等的控制权,可相互动态调配多IO引擎;高灵活性,自我学习来提高适应性;导入虚拟化技术来达至自我优化效果。如果我们用一个实物比较SAN 1.0和SAN 2.0,SAN 1.0就像是早期的运载车,非常强调容量,而SAN 2.0相当于最新的跑车,采用了类似于四轮驱动--并行工作,ABS(车轮自动锁盘系统)的自动懂得自我保护数据措施,新车的自动巡航模式--性能懂得如何自我调优,兼顾了容量和自适应的性能,使得系统永远在线和绝对的灵活性。
我们说了这么多有关SAN 2.0的最新趋势,那么产品和方案在哪里呢?
时光进入到2008年,我们看到了这样的曙光,根据最新的Gartner市场调查数据,戴尔成为开放式外置存储的第一名,戴尔已经取得存储市场的领导地位。
在2008年,戴尔在存储市场保持了强大的投资,首先以存储市场的领导地位引领存储进入SAN2.0;以成熟开放的Ethernet技术推进Unified Fabric目标,把SAN2.0作为简化IT战略的重要一环;收购EqualLogic对等存储技术配合SAN2.0理念;除了产品以外,提供全面虚拟化技术为客户提供完整的解决方案。
现在,当我们面对这个海量数据的时代,我们会自信地说,我们准备好了。 (作者:戴尔存储方案部尹玉峰和许良谋)