打开一个网页,显示源代码,然后全部保存了,怎么可以连里面的图片一起保持连接的有效啊?
发布网友
发布时间:2022-04-29 05:18
我来回答
共2个回答
热心网友
时间:2023-10-12 21:01
可以用wget试试,这个用dos命令可以提取网页的..包含源码+图片。
个人以前经常玩的。
量多的话,可以用批量采集工具。
如果觉得有必要,就自己写一个。
那个保持如果到本地的话,需要离线查看才能看到有图的。如果断网的话,你有缓冲,不离线查看也没用的吧。或者是,另存为的时候把图片也给保存下来的。
但是现在的服务器很多你另存为的时候,图片是不保存下来的。
因为图片跟网站地址不在同一个域名下的,或是图片在上一级的非域地址下的。
典型的例子就是:
看看新浪微博或博客,你能把新浪微博的模板都下载下来不?
如果你能分析出图片的过滤的话,样式css+背景图,是可以批量下载的。
至少我下载了大半。
热心网友
时间:2023-10-12 21:02
文件,保存网页,保存类型里选网页全部
热心网友
时间:2023-10-12 21:01
可以用wget试试,这个用dos命令可以提取网页的..包含源码+图片。
个人以前经常玩的。
量多的话,可以用批量采集工具。
如果觉得有必要,就自己写一个。
那个保持如果到本地的话,需要离线查看才能看到有图的。如果断网的话,你有缓冲,不离线查看也没用的吧。或者是,另存为的时候把图片也给保存下来的。
但是现在的服务器很多你另存为的时候,图片是不保存下来的。
因为图片跟网站地址不在同一个域名下的,或是图片在上一级的非域地址下的。
典型的例子就是:
看看新浪微博或博客,你能把新浪微博的模板都下载下来不?
如果你能分析出图片的过滤的话,样式css+背景图,是可以批量下载的。
至少我下载了大半。
热心网友
时间:2023-10-12 21:02
文件,保存网页,保存类型里选网页全部
热心网友
时间:2023-10-12 21:01
可以用wget试试,这个用dos命令可以提取网页的..包含源码+图片。
个人以前经常玩的。
量多的话,可以用批量采集工具。
如果觉得有必要,就自己写一个。
那个保持如果到本地的话,需要离线查看才能看到有图的。如果断网的话,你有缓冲,不离线查看也没用的吧。或者是,另存为的时候把图片也给保存下来的。
但是现在的服务器很多你另存为的时候,图片是不保存下来的。
因为图片跟网站地址不在同一个域名下的,或是图片在上一级的非域地址下的。
典型的例子就是:
看看新浪微博或博客,你能把新浪微博的模板都下载下来不?
如果你能分析出图片的过滤的话,样式css+背景图,是可以批量下载的。
至少我下载了大半。
热心网友
时间:2023-10-12 21:02
文件,保存网页,保存类型里选网页全部