Articles of wget

bash – wget -N如果其他值检查

我正在使用一个bash脚本,只有当远程时间戳与本地时间戳不同时,才从FTP站点获取文件。 放入文件后,通过samba(smbclient)将文件复制到另外3台计算机上。 一切正常,但即使wget -N ftp://insertsitehere.com返回一个值,远程文件不新的文件副本。 检查脚本输出的最佳方法是什么,以便只有从FTP中取出新版本才会发生复制? 理想情况下,我想复制到计算机来保存时间戳,就像wget -N命令一样。 这里是我所拥有的一个例子: #!/bin/bash OUTDIR=/cats/dogs cd $OUTDIR wget -N ftp://user:password@sitegoeshere.com/filename if [ $? -eq 0 ]; then HOSTS="server1 server2 server3" for i in $HOSTS; do echo "Uploading to $i…" smbclient -A /root/.smbclient.authfile //$i/path -c "lcd /cats/dogs; put fiilename.txt" if [ $? -eq 0 ]; then echo "Upload to $i […]

使用wget镜像具有相同名称的path和子文件夹的网站

我试图做一个网站的镜像,但URLs包括复制到磁盘上的文件以正常的wget方式重叠的几个path。 问题体现在http://example.com/news和http://example.com/news/article1等url中。 Wget将这些URL下载为/news和/news/article1 ,但这意味着/news文件被同名的文件夹覆盖。 一个适当的静态镜像会要求将这两个URL下载为/news/index.html和/news/article1 /news/index.html 。 我试着通过运行wget两次并相应地移动文件来解决这个问题,但是这对我来说并不合适。 /newspath有需要转换的/news/article1链接。 我使用-k选项来转换链接,但是如果我运行两次wget ,它不会转换这些无关的下载文件之间的链接。 这是我的命令: wget -p -r -l4 -k -d -nH http://example.com 以下是我尝试过的一些工作示例: # wget once at first level (gets /news path but not /news/*) wget -p -r -l1 -k -nH http://example.com # move /news file to temp path mv news /tmp/news.html # wget again to get […]

如何使用不同的IP与curl / wget / file_get_contents?

在DirectAdmin中,我可以将一个IP分配给一个域。 我有20个不同的IP地址。 我可以以某种方式将给定的IP绑定到curl / wget / file_get_contents? 我知道我有什么外部IP,但我不知道任何内部接口。

通过路由器学习wanIP(wget)

通过翻译者提出的问题: 在centos需要知道路由器上的Wan IP并通过CMD将其保存到文件中。 最重要的是: wget http://user:pass@192.168.1.1/RST_conn_status.htm | sed 's/\(.*\)\.\(.*\)\.\(.*\)\.\(.*\)' 有必要在文件前添加该行。 TEST.TXT? 页面看起来像这样: <TABLE border=1 cellpadding=2 cellspacing=0 width=100%> <script> var info_get_wanip="213.121.21.121"; var info_get_wanmask="255.255.255.255"; var info_get_gateway="0.0.0.0"; var info_get_dns1="83.111.121.10"; var info_get_dns2="83.111.121.14"; var ppp_uptime="338946"; var bpa_uptime="0"; var monthly_limit_reached="0"; 我需要从test.txt中的info_get_wanip写入数据

UNIX通过url列表循环并使用wget进行保存

我试图下载很多文件,并可以使用unix很长的一段时间,但我怎样才能使用循环function呢? 我有许多表像CA30和CA1-3下载。 我可以把表名称list("CA30", "CA1-3")并有循环通过列表? #!/bin/bash # get the CA30 files and put into folder for CA30 sudo wget -PO "https://www.bea.gov/regional/zip/CA30.zip" sudo mkdir -p in/CA30 sudo unzip O/CA30.zip -d in/CA30 # get the CA30 files and put into folder for CA1-3 sudo wget -PO "https://www.bea.gov/regional/zip/CA1-3.zip" sudo mkdir -p in/CA1-3 sudo unzip O/CA1-3.zip -d in/CA1-3

wget一起使用–timeout和–tries

在退出之前,您会期望这个命令需要多长时间? wget –timeout=1 –tries=2 "http://www.google.com:81/not-there" 我期望1秒的超时和2次尝试将意味着2秒,但它需要6.025秒 wget –timeout=1 –tries=2 "http://www.google.com:81/not-there" –2017-04-27 16:49:12–http://www.google.com:81/not-there Resolving www.google.com (www.google.com)… 209.85.203.105, 209.85.203.103, 209.85.203.99, … Connecting to www.google.com (www.google.com)|209.85.203.105|:81… failed: Connection timed out. Connecting to www.google.com (www.google.com)|209.85.203.103|:81… failed: Connection timed out. Connecting to www.google.com (www.google.com)|209.85.203.99|:81… failed: Connection timed out. Connecting to www.google.com (www.google.com)|209.85.203.104|:81… failed: Connection timed out. Connecting to www.google.com (www.google.com)|209.85.203.106|:81… […]

基本的HTTPvalidation – wget与cookies

我正在使用以下命令从网站检索数据: wget http://www.example.com –user=joe –password=schmoe –auth-no-challenge 我展开这是recursion,但是,我的理解是,这将重新发送每个请求上的HTTP身份validation凭据。 因此,是否可以运行一次Basic HTTP Auth,捕获cookie,然后用这些cookie触发recursion加载? 这似乎不工作: wget –save-cookies=cookies.txt –user=joe –password=schmoe –auth-no-challenge http://www.example.com 其次是: wget –load-cookies=cookies.txt -r -p http://www.example.com/pages.html

CURL:抓住liveleakvideo

我可以使用curl来抓取video吗? 我正在使用一个网站从liveleak下载video,但它停止工作。 我需要这个我的脚本之一。 基本上这是链接: http : //www.liveleak.com/e/955_1345380192 redirect到 http://edge.liveleak.com/80281E/u/u/ll2_player_files/mp55/player.swf?config=http://www.liveleak.com/player?a=config%26item_token=955_1345380192%26embed = 1%26extra_params = 并且该conf链接包含video链接 。 每次我尝试下载它,我得到—>确保file_url,file_token或playlist_token设置! http://www.liveleak.com/player?a=config%26item_token=955_1345380192%26embed=1%26extra_params= 我到目前为止所尝试的: curl http://edge.liveleak.com/80281E/u/u/ll2_player_files/mp55/player.swf?config=http://www.liveleak.com/player?a=config%26item_token=955_1345380192%26embed=1%26extra_params= -s -L -b LCOOKIE -c LCOOKIE -o LIVE curl http://edge.liveleak.com/80281E/u/u/ll2_player_files/mp55/player.swf?config=http://www.liveleak.com/player?a=config%26item_token=955_1345380192%26embed=1%26extra_params= -I curl http://edge.liveleak.com/80281E/u/u/ll2_player_files/mp55/player.swf?config=http://www.liveleak.com/player?a=config%26item_token=955_1345380192%26embed=1%26extra_params= -v curl http://www.liveleak.com/player?a=config&item_token=955_1345380192&embed=1&extra_params= wget http://www.liveleak.com/player?a=config&item_token=955_1345380192&embed=1&extra_params= curl -A "Mozilla/5.0 (X11; U; Linux x86_64; ru; rv:1.9.2.15) Gecko/20110303 Ubuntu/10.10 (maverick) Firefox/3.6.15" http://www.liveleak.com/player?a=config&item_token=955_1345380192&embed=1&extra_params=

使用wget下载html页面中的embedded式链接

我试图从https://github.com/justintime/nagios-plugins/downloads使用wget下载包,但是我得到的是我提到的链接的HTML文件,而不是包。 我试过这个命令: wget -r -l 1 https://github.com/justintime/nagios-plugins/downloads 有没有办法从上面的链接下载软件包?

Wget:如何绕过“盗链”受保护的图像

是否有可能绕过“热链接”图像保护? 我不是试图发布在其他网站上下载。 当我下载下面的图像时,使用wget: http://img.zgserver.com/linux/Комикс-Trollface-На-борту-70813.jpg 我正在redirect到: http://comicsbook.ru/trollface/70813?na-bortu 我不知道从哪里开始。 我到目前为止所尝试的是: curl "http://comicsbook.ru" -s -L -b cookie.c -c cookie.c -b "$COOKIEPAR" > index.$TEMP wget http://img.zgserver.com/linux/Комикс-Trollface-На-борту-70813.jpg