比较来自世界各地的卖家的域名和 IT 服务价格

如何最好地保存服务器上的完整网页 linux?

我需要在我的服务器上归档完整页面,包括任何相关图像等 linux. 寻找最好的解决方案。 有没有办法拯救所有资产,然后重新将它们全部链接到一个目录中的工作?

我想过的是使用 curl, 但我不确定如何完成这一切。 另外,也许我需要 PHP-DOM?

有没有办法使用 firefox 在下载地址或类似的内容后复制临时文件?

所有数据欢迎。

编辑:

看起来 wget 'not' 它将工作,因为必须可视化文件。 我已经安装了 firefox 在服务器上,有没有办法下载 url 在 firefox, 然后在此之后捕获临时文件并清除临时文件?
已邀请:

八刀丁二

赞同来自:

wget

可以做到,例如:


wget -r [url=http://example.com/]http://example.com/[/url]


它将是整个网站的镜面反射。 example.com.

以下是一些有趣的选择:


-Dexample.com

: 不要遵循其他域的链接

--html-extension

: 使用内容类型重命名页面 text/html 在 .html

指导:
http://www.gnu.org/software/wget/manual/
/

江南孤鹜

赞同来自:

使用以下命令:


wget -E -k -p [url=http://yoursite.com]http://yoursite.com[/url]


采用
-E

配置扩展名。 采用
-k

要将链接转换为从存储库下载页面。 采用
-p

下载页面中的所有对象。

请注意,此命令不会上传指定页面上具有超链接的其他页面。 这意味着此命令仅加载正确下载指定页面所需的对象。

喜特乐

赞同来自:

如果网页的所有内容都是静态的,你可以通过类似的东西来解决这个问题
http://linux.die.net/man/1/wget
:


$ wget -r -l 10 -p [url=http://my.web.page.com/]http://my.web.page.com/[/url]


或某种类型。

由于您也有动态页面,因此无法使用此类网页归档
wget

或任何简单的客户 HTTP. 正确的存档应包括服务器数据库和任何服务器脚本的内容。 这意味着它的唯一方法是正确的副本

服务器端的保留文件

. 这至少包括服务器文档的根 HTTP 和任何数据库文件。

EDIT:

作为解决方法,您可以更改网页,以便具有相应权限的用户可以下载服务器端上的所有文件,以及在文本模式下转储备份数据库 /例如,转储 SQL/. 你必须展示

突出

小心以避免通过此归档系统打开安全性的任何漏洞。

如果您使用虚拟主机提供程序,其中大多数提供了一些Web界面,允许您创建整个站点的备份副本。 如果使用真实服务器,则可以设置大量备份解决方案,包括若干Web解决方案。

小姐请别说爱

赞同来自:

wget -r [url=http://yoursite.com]http://yoursite.com[/url]


必须足够并捕获 images/media. 有许多选项可以喂它。

注意:我相信
wget

, 两者都不 - 另一个程序不支持加载通过的图像 CSS, 所以你可能必须手动这样做。

以下是一些有用的参数:
http://www.linuxjournal.com/co ... -wget

要回复问题请先登录注册