数据管理的智能趋势:保护与成本的两面性绿色数据中心

2011-06-24    来源:网络世界    
数据保护是数据管理中不得不面对的一个问题,良好的保护让数据不存在丢失、损坏或是泄露,保证数据的完整的存在是数据管理的核心议题,同时,也是数据管理的管理行为中,最为

  数据保护是数据管理中不得不面对的一个问题,良好的保护——让数据不存在丢失、损坏或是泄露,保证数据的"完整的存在"——是数据管理的核心议题,同时,也是数据管理的管理行为中,最为基本的工作。没有数据,何谈管理?

  当今的公司、企业和组织,甚至是每个人,都意识到了数据丢失的威胁和后果,到目前为止,大部分公司都采取了某种形式的数据保护。但是,那些担心丢失重要信息资料转而涌入数据保护行列的公司可能太过急于求成地将将各种软件、系统或是解决方案东拼西凑起来,现在证明这样的举措付出的代价是高昂的。

  图释:作为数据保护的重要手段,备份恢复和灾备如今都是CIO们关心的话题,但是本地系统的数据保护如果还未理顺,何谈灾备?

 

  图释:从TheInfoPro存储研究的报告中我们能够了解到,大部分CIO都明白,好的数据保护是企业的数据存储关键点,但这个调查结果也显示出,用户对于数据保护的要求是复杂且多种多样的,传统的、线性的保护已经不能够满足用户的需求,用户需要智能数据管理。

  在急于获取数据保护的潮流中,很多企业疯狂地将来自不同厂商的技术拼凑在一起,然而却忽视了软件集成和政策等问题。由于担心无法应对数据丢失问题,数据保护工作被仓促上马,从而导致其缺乏规划和技术实施的处理过程。现在,他们不得不留下来收拾残局。

  更糟糕的是,那些尚未实施数据保护技术的公司看到了其它组织在数据保护难度和成本方面碰钉子,并打算开始评估这一风险等式。最终,常见的情况是,他们愿意承担缺乏数据保护的风险,并且也愿意面对潜在的数据反串所产生的后果和成本开销,而不愿意去执行那些他们觉得费用昂贵且复杂的数据保护解决方案。

  但事实上,数据保护工作所需要实现的效益和所需要付出的成本,是可控并可以接受的,同时,良好的软硬件结合的数据保护解决方案,能够很好的保护数据使之达到满足服务水平管理协议(SLA)的要求,为进行智能数据管理提供坚实的数据基础。

  同时,数据保护的需求正在多样化,除了保证数据不损坏、丢失和泄露之外,降低长期保护的成本、通过数据保护保证在线系统性能、为在线系统的运营数据提供有效保护、法规遵从都是"必须同时"而非"随时可选",企业用户需要更智能的数据保护。

  数据保护与成本的两面性:更好的保护是否意味着更贵的成本?

  大多数的企业、组织、公司认为,更好的数据保护意味着更贵的成本,只有花更多的钱,才能够获得更好的数据保护,事实却是,获得最高级别的数据保护并非一定需要不菲的花费。

  良好的数据保护来自于三个方面:一是高度的认知程度与警惕意识;二是针对重要程度不同的数据采用不同的数据保护方法;3、建立良好的数据保护策略与数据保护的管理方法。只要做到这三点的基本要求,获得高水准的数据保护同时兼顾较低的成本,并非不可能。

  时至今日,我们仍然遗憾的看到,许多企业表示对于哪些信息需要保护感到毫无头绪,而且据AIIM-The ECM Association的调查显示1,大部分企业都不知道如果不保护好自己的信息可能会带来什么样的潜在成本。

  AIIM公司市场信息副总裁Carl Frappaolo认为:"人们几乎都不愿意在内容保密上花太多的时间和金钱,因为人们总是天真地认为如果我们从来都不会遇到那种事情,我们就不必总是担心它会发生。"但事实是,这些被调查人群中的许多人随后都发现,企业中的信息丢失、损坏或是干脆被删除了。对数据保护的重视程度,是数据保护的基础之一。

  具有较高成本效益的数据保护的基础是考虑数据的重要程度和特性,以早期的系统保护方式:高可用性双机热备(高可用集群,HA)为例,HA需要两套完全相同的硬件设备并获得相同的软件授权,两套系统互为备份,同一个I/O发往两个设备但只返回一个结果——因为其中一台并非在线模式而是离线模式,准备在另外一台系统宕机的时候随时接管业务——但会有CIO在所有的业务中都采用HA吗?答案显然是否定的,道理很简单:HA让系统成本翻了一番,如果我们以同样的模式思考数据保护,这其中的问题就是,所有的数据都需要花费不菲获得最顶尖的保护么?

  数据的重要程度和特性的变化,表现在成本的投入上,越是重要的数据投入越大,一般的数据,尤其是长期不访问的数据,磁带等更低成本的解决方案会更加行之有效。最重要的是,节省了大量成本。

  之所以说智能数据管理是未来的趋势,正是因为其在保护数据时,首先考虑到了数据的重要程度。

  智能数据管理在保护数据时根据不同的应用级别保护数据,以不同的成本去保护数据,并根据其重要程度,在相对应的成本下,选择不同的数据保护策略和方式,这是一个避免"捡了芝麻丢了西瓜"的重要守则,让有限的成本投入到最需要高等级保护同时也是最重要的数据上去。这是智能数据管理对数据保护的首要要素:按照重要程度分类数据,并以重要程度为标准投入对应的数据保护成本。

  在智能数据管理的理念下,数据保护采用了根据业务系统所搭载的业务应用级别不同,如业务量、重要性、相应级别、恢复宕机等方面要求,投入不同成本进行保护的模式——不是所有的业务应用,都具有相同的RTO(恢复时间目标)和RPO(恢复时间点目标)指标,以电信行业为例,核心的计费BOSS系统和并不常用的通知下发平台的RTO和RPO就必然不同。

  此外,数据又拥有结构化/非结构化、长期保存/短期保留等不同的特性,数据保护也必须要考虑到这一个方面。

  在智能数据管理体系中,不同类型的数据、不同的保护周期都有适合的数据保护架构,如长期的、对象化的、需要具有法规遵从的一次写入不得更改功能的数据,就不适合常规的磁盘备份、虚拟磁带库或是磁带库,而更适合类似戴尔DX存储这样的对象存储系统。这样的数据保护机制,其根基是对数据特性、数据生命周期(除了法规监管的需求外,是否某些数据其实可以被删除?如临时文件)问题的深刻认识。这也是智能数据管理的数据保护机制更加优异的原因:数据依照其特性而被量身定做的保护。

  当然,建立良好的数据保护策略与数据保护的管理方法是最后的"上层建筑",一方面,在虚拟化时代来临的今天,虚拟化时代的数据保护和物理时代的数据保护有显著的不同;另一方面,不同的备份、恢复、归档等数据保护策略,如增量备份、全备份、差异备份、磁带归档、磁盘备份等不同的方式方法,将显著的影响成本和数据保护的能力。

  无缝扩展对数据保护的意义

  在之前的三篇文章中,我们多次谈到了戴尔Compellent和EqualLogic存储系统,并介绍了其无缝扩展技术,解释了这项技术在企业的数据管理、存储系统扩展及虚拟化环境变革方面所带来的受益,在数据保护的话题上,我们同样能够看到这项技术所焕发的光彩。

  无缝扩展技术的实现,在数据保护层面具有极大的意义,在过去,企业每次购进新的存储系统,都要做两件事情:1、进行数据及应用迁移;2、更换新的数据管理应用程序。

  这两项工作所蕴藏的风险非常之大,数据迁移能否成功,新存储系统能否无缝的、平滑的把应用从旧有的系统接管过去,存在着极大的不确定性;新的数据管理应用程序,能否很好的适应现有的应用系统及数据保护策略?

 

  图释:Compellent采用按需扩展的单一平台,保证数据不会因为系统扩展和升级,遇到保护方面的问题。

  无法支持无缝扩展的存储系统,将逼迫企业的应用人员重新进行培训所花费时间和金钱即便忽略不计,更换新的管理方式后所造成的人员生疏,从而导致人工错误大幅度上升,这几乎无法避免。

  无缝扩展在数据保护层面具有极大的意义,1、它解决了企业需要对存储系统、数据管理方式进行更迭、迁移的现状,不仅省却了大量的时间,并且杜绝了数据和管理策略在不同系统中不断变换的风险;2、无缝扩展保证了多代系统都能够良好的接管数据和信息管理,前代的数据格式、管理方式以及数据本身能够很好的被继承下来——就像是我们之前举过的例子,数据就像是货币一样,长久可用,"银行(数据系统)"所做的升级不对其造成任何影响。

 

  图释:分层技术不仅能减少数据存储的成本,将不同重要性的数据存放在不同的介质上,大幅度提升系统性能的同时,减少了在线存储系统(Tier0、Tier1层)的负担,减少系统中可能发生的热区(Hot Area)本身对系统也是一种保护。

  此外,我们在之前的文件中介绍的自动分层技术,同样在数据保护领域有所功效。其呼应了上面所提到的"针对重要程度不同的数据采用不同的数据保护方法",在SATA、SAS、FC、SSD等多种磁盘混合的存储系统,实现自动的分层存储,将生产数据放置在高速的SSD或15k rpm的SAS、FC磁盘上,而将较少访问需要I/O性能较低的数据放在更为低廉的大容量SATA或NL-SAS上,本身就是在生产系统上进行了更具成本效益的数据保护。

  此外,在磁盘阵列、磁盘备份系统、虚拟磁带库系统(VTL)、磁带存储系统及对象存储等多种架构的系统中实现分层存储,也是通过对数据的重要程度和需要的可访问性进行分层,实现的更具成本效益的数据保护。

  低成本的长期保护与创新的对象存储

  上面我们提到,需要通过对数据的重要程度和需要的可访问性进行分层,实现的更具成本效益的数据保护,这意味着我们不仅需要面对一些"即时可用"的数据进行保护,也需要对一些"长期需用"的数据进行保护——长期的数据保护必然需要更低的成本。

  首先,我们就需要了解如何以较低的成本,长期的进行数据保护。戴尔与赛门铁克、CommVault两家数据管理、备份恢复与归档平台供应商合作的PowerVault DL2200是一个可以参照的样本,我们可以看到,从PowerVault DL2200+赛门铁克、CommVault的方案上,

  我们看到了两个需要注意的词汇,一个是重复数据删除,一个是虚拟磁带技术,这两项技术对于长期的数据保护来说,具有极高的成本效益:重复数据删除将清除掉大量冗余、重复的数据,减少长期需要保护的数据量;虚拟磁带技术则以磁盘系统模拟磁带输入输出及磁带格式,能够减少对现有的、往往是五年、十年或更长期的基于磁带的数据保护架构的"破坏",形成平滑的数据保护接入。

  减少数据量、根据现有的架构调整数据保护模式,智能数据管理的理念贯穿始终,而对于更为长期的,并需要符合法规遵从——我们在之前的文章中提到过,智能数据管理的其中一个话题就是智能的符合法规遵从要求——的数据而言,新的对象存储模式则提供了极高的可用性,可以作为长期的、对法规遵从有需要的数据保护要求的参照产品。

  此外,对象存储也是一个长期保护的好办法,它是继块、文件访问之后新的存储底层访问架构模式,专为智能访问、存储、保护和分发固定数字内容而设计, 其具有以下特点:1、一般采用即插即用式架构,以及自我愈合和自我复制技术,能够有效地降低存储平台的管理成本和复杂度;2、能够打破传统文件系统之间的屏障,一个存储集群能够容纳无限数量、大小的文件或原始容量;3、对象存储平台能够让用户将固定的、非事务性的内容迁移到一个新的存储层,可使SAN或网络附加存储部署规模更小,占用资源更少,从而降低管理与支持成本。

  戴尔在去年推出了其自主设计研发的DX对象存储系统,在部署的过程中无需配置LUN,无需进行其它设置,能够真正做到即插即用。同时,戴尔DX对象存储平台无论是在容量上还是数据吞吐量上,都能实现轻松高效的扩展。

  重要的是,在扩展戴尔DX对象存储平台容量时,用户无需中断正常的系统服务,就能进行无缝的扩展,并且这种扩展对文件系统的类型,文件的数量和大小,都没有限制,而且随着存储节点的增加,整个系统的吞吐量也会同步提升——如果这称不上是智能数据管理?那么,我们还需要什么样的智能?

  虚拟化为数据保护带来全新挑战

  事实上,很多的企业也遇到了虚拟化时代数据保护的困难,据资料显示,Veeam调查了位于美国、英国、德国和法国的员工人数超过1000人的公司,访问了500位首席信息官2,发现44%的首席信息官表示在一些任务关键型工作负荷上会避免采用虚拟化,因为他们担心虚拟化会影响备份和恢复。许多公司只备份三分之二的(68%)的虚拟化数据。61%使用物理手段来进行备份和恢复的企业从现在开始会针对虚拟化改变他们的数据保护方式。

  此外,63%的回答者使用单一产品来同时备份他们的物理和虚拟服务器。在这种方式下,他们仍然视虚拟机为物理服务器,因而限制了虚拟化的使用程度。因此,这些企业在虚拟化的任务关键型工作负荷上没有得到应有的最佳的保护水平。

  传统的在物理时代保护数据的方式,在虚拟化时代也被认为是不可取的,在被问到关于在虚拟环境中使用传统基于物理的备份工具的缺点时,超过一半的回答者(51%)指出这种方式太昂贵。除了这个,40%的回答者指出恢复速度太慢,还有40%的回答者指出缺点是需要安装软件代理。

  随着大多数部署了虚拟化的企业的CIO明白,对于虚拟环境的数据保护,成功的关键决不是对传统备份手段加以调整就可以满足需求,企业的管理者们开始寻找新的方法,如利用VMware所提供的VAAI、VASA等API及微软Hyper-V的API进行数据的备份、恢复和归档,但最重要的是,"需要一颗虚拟化的'心'"——正如之前一篇文章所说,Compellent和EqualLogic及戴尔的存储系统,都已经是"Virtualization Ready"的。

  新观点:在线系统处于数据保护前沿

  是否只有备份恢复、归档、对象存储、虚拟磁带库这些名词与数据保护有关,对于处于生产系统前沿的主存储系统而言,数据保护是否与其形成了天然的隔绝呢?数据保护是否只是针对将"数据静态的保护起来",而处于流动状态的数据信息,是否就只能够依靠硬件系统的可靠性来得到最基本的保护?

  智能数据管理提出了一个新的观点,那就是"在线系统(Tier 0、Tier 1层的主存储系统)处于数据保护的前沿",在线存储系统如EqualLogic、Compellent在保护数据的可靠性、可用性和安全性上,同样应当做足功课。

  在这个观点看来,作为数据的发源地及数据生命周期最开始的地方,在线主存储系统应当具有更好的保护数据的能力,做到让数据合理、快速、完整的进入到数据保护中后期流程中。

 

  图释:EqualLogic的脱机主机备份(Server Free Backup)结合戴尔PowerVault DL2200和磁带库,构成了具有成本效益的能够快速实施的方案,保证数据自服务器系统一经出现,直到最后归档的全过程的保护。

  主存储系统首先应具备更好的支持备份恢复、灾难恢复的系统的能力,协助加快备份恢复和归档的速度,支持CDP(持续数据保护)技术的整合应用;其次,要能够通过Snapshot(快照)、Clone(克隆)、Replication(复制)等技术,提供对在线运营数据的良好保护。同时,这些操作应当是自动化、智能化的,减少人工干预的成分存在。

  这一观点的提出,不尽扩展了智能数据管理理论在数据保护范畴内的应用,同时也完善了数据生命周期的生产/在线周期内的数据保护工作的思路。

  总结:数据保护与成本能够兼得

  综上所述,满足需求的数据保护与合理的支出成本是可以兼得的,有轻松的方法巧妙地化解数据保护与支出成本之间不断增长的矛盾——多代数据保护、低成本的长期保护及创新的对象保护等兼具数据保护需求与成本效益的方法——实现了这一用户的夙愿,数据保护并非昂贵和复杂的,低成本、简单易用、长期有效,通过合理的方法都可以得到。

  下一篇文章《数据管理的智能趋势(5):面向未来的数据管理》将是本系列的最后一篇文章,在最后的一篇文章中,我们最后将为您介绍为什么智能的数据管理已经成为未来的数据管理发展方向之一,以及数据管理技术的演进;为未来准备就绪且满足革新的系统升级理念的存储系统到底是什么样子?未来的数据管理又需要哪些必须的保障?敬请期待。

1
3