在优化备份方面,有三种关键策略可以帮助您充分利用数据备份:
重复数据删除
数据压缩
存储分层
一、重复数据删除
重复数据删除的过程基于查找和消除重复数据块。它涉及检查文件中的数据并仅存储自上次备份操作以来已更改的块。使用索引,重复数据删除跟踪要删除重复数据的唯一块或文件。
当找到重复的块或文件时,它将替换为哈希(块)或文件存根(文件),以减小要存储的备份数据的总体大小。重复数据删除可以实现(取决于其实施方式)节省的空间,远远达到90%+ 的范围。
块级重复数据删除假定块大小一致(例如4K、8K、16K、32K)。请记住,要删除重复数据的备份数据类型可能更适合更大或更小的块大小,以便找到更多匹配项并最大程度地减少大小。还有可变块重复数据删除,它可以识别数据中的模式,调整使用的块大小,甚至可以对齐块起点和终点,以节省更多空间。
重复数据删除可能会占用大量处理器资源,因此在您的方法中需要考虑一些注意事项:
源与目标 –重复数据删除是在备份到云(源)之前还是在云(目标)中发生?
作业级别与全局级别 –重复数据删除是仅针对单个备份作业(例如,几个虚拟机)中的数据,还是针对所有备份作业(例如,整个企业)中的数据?
对SaaS数据进行重复数据删除- 假设您的备份策略包括Microsoft365和Salesforce实例(以及其他关键云应用程序),您也应该删除该数据。
软件定义与基于设备的–虽然大多数备份解决方案中确实存在重复数据删除,但许多组织希望有一个专用于重复数据删除的解决方案。有些使用物理设备,这意味着您需要担心硬件问题、刷新等。
二、数据压缩
数据压缩就是在将数据发送到云之前压缩要备份的数据。这减少了在工作负载和云备份之间移动的数据量。由于涉及处理器密集型性质,会产生延迟,因此必须平衡所需的压缩率与它在备份和还原过程中产生的延迟。良好的压缩比应低于1:10(压缩大小与原始数据大小)。虽然数据类型以不同的比率压缩,但1:12将被认为是出色的压缩率。
压缩的本质是处理器密集型的,这应该提出是否应该压缩的问题。简短的回答是肯定的,但需要注意的是,只要压缩不会减慢备份和恢复速度,您就可以获得压缩的好处。
三、存储分层
重复数据删除和数据压缩非常适合本地和云源和目标。但是,云存储还有另一种选择,您可以利用这些选项来降低成本:存储分层。云存储提供商提供多层存储,通常会牺牲性能和访问速度来降低成本,“较冷”层的每GB成本较低,但速度要慢得多。在存储分层方面,优化云中备份成本的最佳方法是采用基于策略的自动化方法。这将帮助您随着时间的推移将保留的备份移动到较冷的存储层,从而降低成本。
每个层还有其他因素(例如,可用性、最小存储持续时间、每个对象的最低存储费用)。在恢复过程中,您希望与性能相关的任何因素(以分钟为单位)。因此,例如,如果您在AWS上使用“最冷”的存储层,则第一个字节延迟(即,在恢复其中一个备份之前应预期多长时间)仅列为“小时”,这意味着您可能在这么长时间内看不到恢复开始!
-
存储
+关注
关注
13文章
4257浏览量
85646 -
数据备份
+关注
关注
0文章
57浏览量
11838 -
数据压缩
+关注
关注
0文章
31浏览量
10127
原文标题:Quest:3种数据优化策略,增强您的数据备份
文章出处:【微信号:哲想软件,微信公众号:哲想软件】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论