从网站的单个目录下载所有图像

我需要从一个网站的所有图像都包含在一个文件夹中。 比如,(site.com/images/.*)。 这可能吗? 如果是这样,最好的办法是什么?

Solutions Collecting From Web of "从网站的单个目录下载所有图像"

看看HTTrack软件。 它可以下载整个网站。 给网站地址site.com/images/ ,它会下载在这个目录中的一切。 (如果目录访问不受所有者限制)

你有FTP访问?

你有壳牌吗?

用Linux很容易。 不确定关于Windows。

 wget -H -r --level=1 -k -p http://example.com/path/to/images 

编辑:刚刚找到窗口的wget 。

编辑2:我刚刚看到PHP标签,为了创建一个下载所有图像的PHP脚本,您将不得不创建一个zip(或等效)存档,并发送正确的标题。 这里是如何压缩文件夹在PHP中 ,它不会很难提取只在该文件夹中的图像,只是编辑给出的代码说:

 foreach ($iterator as $key=>$value) { if (!is_dir($key)) { $file = basename($key); list($name, $ext) = explode('.', $key); switch ($ext) { case "png": case "gif": case "jpg": $zip->addFile(realpath($key), $key) or die ("ERROR: Could not add file: $key"); break; } } } 

如果网站允许建立索引,那么只需要wget -r --no-parent http://site.com/images/

取决于图像目录是否允许列出内容。 如果确实如此,太棒了,否则你需要蜘蛛网站才能找到该目录的所有图像引用。

无论哪种情况,请看看wget 。

如果你想看到一个网页正在使用的图像:如果你使用Chrome,你可以按F-12(或在菜单中找到开发工具),在资源选项卡上,左边有一棵树,然后在“框架”下,您将看到“图像”文件夹,然后您可以看到页面中使用的所有图像。