如何保存的公共html网页与所有媒体,并保护结构
-
09-06-2019 - |
题
寻找一个Linux的应用程序(或Firefox扩展),这将允许我刮HTML模型,并保持该网页的完整性。Firefox并一个几乎完美的工作,但是,不抓住的图像所引用的CSS。
该Scrabbook Firefox扩展得到的一切,但铺平目录结构。
我不太介意,如果所有文件夹成为儿童的索引页面。
解决方案
看看 镜像网站与wget
wget --mirror –w 2 –p --HTML-extension –-convert-links http://www.yourdomain.com
其他提示
你有没有试过 wget?
wget -r
你想要做什么,如果不是,有大量的标志,以配置。看看 man wget
.
另一个选择是 curl
, ,这甚至更加强大。看看 http://curl.haxx.se/.
瞬间移动亲 是这类的事情。你可以指出它在完成网站,它将下载一个复制的本地维持目录的结构,并且替换的绝对联系,与相对的必要。你也可以指定是否你想要的内容从第三方网站的链接到从原来的网站。
不隶属于 StackOverflow