S3CMD超时

我正在尝试创build一个很好的脚本来将我的文件备份到Amazon S3存储服务中。 考虑到这一点,我使用s3cmd工具,这似乎是非常有用的。 但有一件事是困扰我的艰难。 有时,当我上传一个文件,它给了我以下消息错误:

 s3cmd sync --skip-existing -r --check-md5 -p -H --progress ./files/ s3://company-backup/files/ ./files/random-file.1 -> s3://company-backup//files/random-file.1 [1 of 11] 3358720 of 14552064 23% in 10s 299.86 kB/s failed WARNING: Upload failed: ./files/random-file.1 (timed out) WARNING: Retrying on lower speed (throttle=0.00) WARNING: Waiting 3 sec... 

所以看在互联网上,我发现这个post ,基本上说增加在configuration文件中的socket_timeout ,但我怎么能找出许多不同大小的文件的最佳timeout ? 我的意思是,有时我需要发送100MB和其他时间10GB 。 而最糟糕的是,当连接被timeoutclosurestimeout ,它会尝试重新发送文件,但不会从停止它的位置开始,但重新开始,我真的需要避免这种情况。 所以这里有两个问题:

1-如何知道最好的socket_timeout

2-如何让我的上传从停止的地方? (在发生超时的情况下)

回答第二部分的问题。 --continue的新版本支持gets和--continue参数 。