目前很多服务器虚拟化和软件定义数据中心的推广者在极力宣传,具有 failover 功能的高可用(HA)集群已经能够替代传统的数据保护和业务连续性(BC)技术,但实际上,复杂的业务场景不能一概而论。高可用技术一直作为构成数据保护策略和应用程序恢复策略等业务场景的一部分而存在,但并不是每个应用程序都需要做到“永远在线”,也并非每个应用程序都值得为了做到高可用而投入高额成本。
不同的数据类型需要不同的保护方案
如果要较好的实现数据保护的目的,需要将正确的数据保护服务应用到正确的数据上。“正确的服务”这个词根据上下文来看是指最合适的意思,需要根据被保护的应用程序或业务流程的关键程度和相关数据恢复时间的要求来考量。“正确的数据”是指需要被保护的特定类别数据。数据本身没有价值,但是其传达的业务流程信息(就像DNA那样)是有价值的,对于一个公司或组织来说,并不是所有的业务流程都是同样关键的。同理,并不是所有的数据都是同等重要的。所以,数据保护的规划者们可能不需要在非关键业务上花费金钱和精力去部署高可用服务,这些非关键业务并不必须在一次业务中断之后的几天内,甚至是几周内完成业务恢复。
需要认识的底线是,世界上不存在“大小通吃”的备份保护策略。对于大多数IT部门而言,一个数据保护策略应该结合不同的技术来实现各种不同业务负载类型所对应的合理恢复时间。多数情况下,一个数据保护策略会随着时间的推移,以及可以提供一层层数据保护的工具和软件的引入而发生调整,这些通常是为了应对能够感知到的不同程度的威胁。
超越数据复制
很多组织对于某些业务数据的保护十分头痛,这些数据需要在创建的时候就对其进行保护和校验,通常需要避免会造成数据损坏的接口和协议上的错误,同时要注意数据保存介质本身的问题。在物理介质层的 I/O 上,一些技术通过不同手段进行数据复制,可以实现不同的保护目标,如避免应用程序的逻辑错误(连续数据保护技术),避免物理设备的故障(数据镜像技术),避免数据中心设施故障(通过离线存储备份或者跨城市区域网络进行数据同步)。一些百年一遇的自然灾难(恶劣的天气事件,洪水等等),目前来看,似乎每年都会发生,所以通过远程异步数据复制技术将数据复制到一个至少80公里以外的备份场所中,这种做法被认为是预防严重的自然灾害事件的黄金标准。
事实上,在今天的许多业务场景中都已经使用了混合的备份保护进程。一些备份保护进程可以通过几种方式发起和控制,如通过应用程序自身、通过应用程序使用的数据库、通过操作系统或者服务器虚拟化管理程序等。一些第三方备份管理软件,如 ARCserve 公司(前CA 科技)的备份软件,IBM 公司的 Tivoli 软件,以及 Symantec 公司等等,用户通过这些第三方备份管理软件可以实现数据的备份、数据的快照、在数据管理层(如 CommVault 和 Tarmin)对数据进行保护、在存储虚拟层(如 DataCore)对数据进行保护,这些技术让如何管理一个多层结构的“深层防护”策略迅速变得复杂起来。
上述这些还不是问题的全部。如果你还需要使用基于硬件的数据保护服务,如采用存储设备中的专用控制器的增值软件功能,这些增值功能包括数据镜像、数据复制和数据快照等功能。不同的数据保护服务夹杂在一起使得对于数据保护的监控和管理变得像在家中养着一群猫一样。
灾难恢复的复杂性剖析
由于用户对于服务器虚拟化技术接受程度不断提高,业界有一种对于所谓的“万能的高可用策略”的需求。虽然这种做法可以在一定程度上通过集群故障迁移技术实现简化数据保护的步骤,但并不是所有的数据保护都支持这种做法。
首先,即使当前关于服务器虚拟化部署最乐观的预