目前许多机构都有着异常庞大的数据,更为准确的说是需要大量的空间存储和保护许多冗余的数据拷贝,而这些数据也一直在持续增长。
在当前降低成本和兼并成为主流的时代,我们必须要问一下自己,对于这些庞大的数据是否有更好的管理办法。不幸的是,众多公司与这一问题已经做了十多年之久的斗争。这一问题的核心是无法控制的数据增长、低下的资源利用和低率的规划。目前,这一问题仍然缺乏有效的解决方案。目前最新提出的解决方案是云存储,与其它解决方案相比,云存储是否会做的更好呢?
尽管SAN可以带来如可靠性增强、可复原性增加等其它方面的好处,但是在许多环境中,SAN的利用率仍然不是很理想。
另一个重大创新之处在于信息寿命周期管理。通过设计出存储分配和基于数据商业价值归类策略,我们能够减少昂贵的高端存储的数量,从而降低成本。结果是:大量的机构购买了额外的存储层,因此没有多少节约,至少是没以达到预期的数额。
最近的改良技术是自动精简配置,出于目前的应用程序和操作系统的局限,其许诺将在一定程度上保留小环境技术。另一种是重复数据删除技术。该技术被主要用来让磁盘备份获得优于磁带备份的成本。自动精简配置和重复数据删除技术在未来将帮助提供数据存储的效率。
策略上的失败
我们不能忘记这些机构正在努力应对存储效率问题这一事实。目前存储数据的设备成本正在持续下降,并且下降速度很快。那么我们为什么这么难以解决这一问题呢?
很大程度上说,答案是许多机构内部缺乏合理的存储管理策略和数据管理策略。缺乏测量和报告数据和存储的使用和走向机构导致这个问题被激化。比如说考虑清理数据等。如同钻时一样,一个数据一旦被创建,那么这个数据就被永远的保留下来了。这是典型的存储、备份、复制和获取。这种数据被清理的机会很低。
有趣的是,状态不佳的存储管理可能对于云存储来说是一个重大机遇。云可以作为第二级或第三级存储。通过手动或基于成熟访问策略的自动数据转移工具,数据能够被转移至云上。除了释放容量和降低设备添置速度外,这些数据不再需要被备份或被复制,因此乘数效应会就此消除。此外,如果云服务提供商真正定位于服务,那么他们将提供更为合理的服务级协议和数据测量报告。
可以明确的一点是,将数据转移到云上并不轻松。其中有许多的顾虑,如安全、可获得性、访问和控制等问题。尽管云对一些等级的数据具有价格吸引力,在成本方面可以促进更多的系统性变化,但是云存储必须与清楚阐述的存储和数据管理策略进行配合。(作者James Damoulakis是IT基础设施咨询服务公司GlassHouse Technologies公司的首席技术官)(范范编译)