/ 中存储网

谁是最对的重复数据删除方案(二)

2013-07-19 09:26:00 来源:中存储网

6. 支持分布式应用

重复数据删除技术,不只是能为单个数据中心带来利益,对于具有多个分支机构或多个站点的大型企业来说,它可以让整个企业的分布式应用受益无穷。一个包含复制和多级重复数据删除的解决方案可以将这一技术的优势发挥到极致。

举例来说,一个企业由1个总部和3个区域代表机构构成,可以在区域代表机构部署一台具备重复数据删除功能的容灾设备,使本地存储及向远程中央站点的复制更为高效。这种解决方案使数据复制到中央站点的带宽需求降到最低,它只不过是用来确定远程的数据是否已经包括在中央的存储库中。所有站点中,只有唯一的数据会被复制到中央站点或是容灾站点,否则所需的带宽就会增大。

7. 能够对存储库提供实时保护

保证对删除重复数据的存储库的访问是非常关键的,因此它不能允许有单点故障发生。一个优秀的重复数据删除解决方案应该包括可以在本地存储故障发生时提供保护的镜像功能,同时也应该具备复制功能以在灾难发生时从提供保护。这种解决方案还应该在出现节点故障时具备故障切换能力,即使是一个集群中的多个节点出现故障,企业也必须能够及时恢复数据同时还要保证业务持续运营。

8. 效率及有效性

与基于文件的重复数据删除方式相比,在SUBFILE或数据块级分析数据的方式删除的冗余数据会更多。比如,一个4MB大小的文件被修改了一行内容,如果是文件级解决方案,整个4MB的文件都必须再被保存,而存储上就需要保存两遍。如果这个文件被发送给多个人(这种情况非常普遍),这种负面的效应也会随之倍增。

大多数SUBFILE重复数据删除处理是通过将大量的数据分割成’块’,就像虚拟磁带匣一样,在相对小尺寸的数据块中搜索重复数据。分割成大块的数据处理速度更快,但发现的重复数据也比较少;而分割成小块的数据可以更轻松的发现更多重复数据,但它在扫描数据时所需的开销也会更高。

如果数据在磁带(或其它应用的数据流)的时候就被分割成’块’,重复数据删除处理在备份软件创建的元数据上就能进行。优秀的解决方案可以分离元数据,从而在分割成’块’的实际数据文件中发现重复数据,这种方式使找到重复数据的机率更高。有些重复数据删除解决方案甚至可以按照所掌握的数据格式来调节分割的’块’的大小。如果能将这些技术结合应用,将使发现的重复数据数量大幅增加。这在重复数据删除解决方案的经济效益标准方面影响重大。

找到最适合的整体解决方案

由于业务应用需要和法律法规的要求,存储的数据量还在不断的增加,重复数据删除也快速上升到至关重要的地位。在大幅消除数据量、削减存储需求、最小化数据保护成本和风险方面,重复数据删除可说是唯一的应对办法。

尽管重复数据删除技术所带来的利益多多,企业还是应该抵御住不时出现的针对这一技术的大肆抄作。无论是哪种方式,重复数据删除的删除比率都可以根据数据自身的格式和保护策略的不同而发生变化。

为了使重复数据删除技术的利益最大化,企业应该从上面提到的几个标准出发,充分考虑,仔细评估,找到真正适合自己的重复数据删除解决方案,而不应该简单的听信于宣传的重复数据删除比率的理论数值。