除了使用s3cmd之外,还有另一种自动同步两个Amazon S3存储桶的自动方式吗? 也许亚马逊有这个选项? 环境是linux,每天我都想将新的和删除的文件同步到另一个存储桶。 我讨厌把所有鸡蛋放在一个篮子里的想法。
您可以使用标准的Amazon CLI进行同步。 你只需要做一些事情:
aws s3 sync s3://bucket1/folder1 s3://bucket2/folder2
我正在寻找类似的东西,有几个选择:
我仍然在寻找已经建立的开源或免费的东西。 但#2真的不是一件非常困难的事情。
编辑 :我回到这个职位,并意识到如今Attunity CloudBeam也是一个商业解决方案的许多人。
现在可以通过AWS控制台在两个不同区域的桶之间复制对象。
AWS博客上的官方声明解释了此功能。
S3桶!=篮子
从他们的网站 :
数据耐久性和可靠性
Amazon S3提供了一个高度耐用的存储基础架构,专为关键任务和主数据存储而设计。 对象被冗余存储在Amazon S3地区的多个设施中的多个设备上。 为帮助确保持久性,Amazon S3 PUT和COPY操作在返回SUCCESS之前将数据同步存储在多个设施中。 存储之后,Amazon S3会通过快速检测和修复任何丢失的冗余来维护对象的持久性。 Amazon S3还定期验证使用校验和存储的数据的完整性。 如果检测到损坏,则使用冗余数据进行修复。 另外,Amazon S3会计算所有网络流量的校验和,以便在存储或检索数据时检测数据包的损坏情况。
Amazon S3的标准存储是:
- 支持Amazon S3服务水平协议。
- 旨在提供99.999999999%的耐用性和99.99%的可用性在一年内的对象。
- 旨在维持两个设施的并发数据丢失。
Amazon S3通过版本控制提供进一步的保护。 您可以使用版本管理来保存,检索和恢复Amazon S3存储桶中存储的每个对象的每个版本。 这使您可以轻松地从意外的用户操作和应用程序故障中恢复。 默认情况下,请求将检索最近写入的版本。 旧版本的对象可以通过在请求中指定版本来检索。 存储率适用于存储的每个版本。
这非常可靠。