如何最好地保存服务器上的完整网页 linux?
我需要在我的服务器上归档完整页面,包括任何相关图像等 linux. 寻找最好的解决方案。 有没有办法拯救所有资产,然后重新将它们全部链接到一个目录中的工作?
我想过的是使用 curl, 但我不确定如何完成这一切。 另外,也许我需要 PHP-DOM?
有没有办法使用 firefox 在下载地址或类似的内容后复制临时文件?
所有数据欢迎。
编辑:
看起来 wget 'not' 它将工作,因为必须可视化文件。 我已经安装了 firefox 在服务器上,有没有办法下载 url 在 firefox, 然后在此之后捕获临时文件并清除临时文件?
我想过的是使用 curl, 但我不确定如何完成这一切。 另外,也许我需要 PHP-DOM?
有没有办法使用 firefox 在下载地址或类似的内容后复制临时文件?
所有数据欢迎。
编辑:
看起来 wget 'not' 它将工作,因为必须可视化文件。 我已经安装了 firefox 在服务器上,有没有办法下载 url 在 firefox, 然后在此之后捕获临时文件并清除临时文件?
没有找到相关结果
已邀请:
4 个回复
八刀丁二
赞同来自:
可以做到,例如:
它将是整个网站的镜面反射。 example.com.
以下是一些有趣的选择:
: 不要遵循其他域的链接
: 使用内容类型重命名页面 text/html 在 .html
指导:
http://www.gnu.org/software/wget/manual/
/
江南孤鹜
赞同来自:
采用
配置扩展名。 采用
要将链接转换为从存储库下载页面。 采用
下载页面中的所有对象。
请注意,此命令不会上传指定页面上具有超链接的其他页面。 这意味着此命令仅加载正确下载指定页面所需的对象。
喜特乐
赞同来自:
http://linux.die.net/man/1/wget
:
或某种类型。
由于您也有动态页面,因此无法使用此类网页归档
或任何简单的客户 HTTP. 正确的存档应包括服务器数据库和任何服务器脚本的内容。 这意味着它的唯一方法是正确的副本
服务器端的保留文件
. 这至少包括服务器文档的根 HTTP 和任何数据库文件。
EDIT:
作为解决方法,您可以更改网页,以便具有相应权限的用户可以下载服务器端上的所有文件,以及在文本模式下转储备份数据库 /例如,转储 SQL/. 你必须展示
突出
小心以避免通过此归档系统打开安全性的任何漏洞。
如果您使用虚拟主机提供程序,其中大多数提供了一些Web界面,允许您创建整个站点的备份副本。 如果使用真实服务器,则可以设置大量备份解决方案,包括若干Web解决方案。
小姐请别说爱
赞同来自:
必须足够并捕获 images/media. 有许多选项可以喂它。
注意:我相信
, 两者都不 - 另一个程序不支持加载通过的图像 CSS, 所以你可能必须手动这样做。
以下是一些有用的参数:
http://www.linuxjournal.com/co ... -wget