我正在尝试创build一个很好的脚本来将我的文件备份到Amazon S3
存储服务中。 考虑到这一点,我使用s3cmd
工具,这似乎是非常有用的。 但有一件事是困扰我的艰难。 有时,当我上传一个文件,它给了我以下消息错误:
s3cmd sync --skip-existing -r --check-md5 -p -H --progress ./files/ s3://company-backup/files/ ./files/random-file.1 -> s3://company-backup//files/random-file.1 [1 of 11] 3358720 of 14552064 23% in 10s 299.86 kB/s failed WARNING: Upload failed: ./files/random-file.1 (timed out) WARNING: Retrying on lower speed (throttle=0.00) WARNING: Waiting 3 sec...
所以看在互联网上,我发现这个post ,基本上说增加在configuration文件中的socket_timeout
,但我怎么能找出许多不同大小的文件的最佳timeout
? 我的意思是,有时我需要发送100MB
和其他时间10GB
。 而最糟糕的是,当连接被timeout
closurestimeout
,它会尝试重新发送文件,但不会从停止它的位置开始,但重新开始,我真的需要避免这种情况。 所以这里有两个问题:
1-如何知道最好的socket_timeout
值
2-如何让我的上传从停止的地方? (在发生超时的情况下)
回答第二部分的问题。 --continue
的新版本支持gets和--continue
参数 。