QQ登录

只需一步,快速开始

 找回密码
 注册

QQ登录

只需一步,快速开始

查看: 1903|回复: 5

请问如何下载整个网站

[复制链接]
发表于 2003-10-2 22:37:40 | 显示全部楼层 |阅读模式
我不想只下载一个网页。谢谢!
发表于 2003-10-3 15:13:51 | 显示全部楼层
http://www.google.com/linux?hl=en&lr=&ie=ISO-8859-1&q=offline+browser&btnG=Google+Search
回复

使用道具 举报

发表于 2003-10-4 14:33:23 | 显示全部楼层
d4x recurse
回复

使用道具 举报

发表于 2003-10-4 18:49:03 | 显示全部楼层
用wget

例如
wget -r -p -np -k http://learn.tsinghua.edu.cn/homepage/015450/index.html

  -r   
递归;对于HTTP主机,wget首先下载URL指定的文件,然后(如果该文件是
一个HTML文档的话)递归下载该文件所引用(超级连接)的所有文件(递归深度由参数
-l指定)。对FTP主机,该参数意味着要下载URL指定的目录中的所有文件,递归方法与
HTTP主机类似。

-p
下载所有文件。选上此选项将下载将HTML页面正常显示所须的所有文件,包括HTML源文
件,图片,样式表等等。

-np
只下载目标站点指定目录及其子目录的内容。这也是一个非常有用的选项,我们
假设某个人的个人主页里面有一个指向这个站点其他人个人主页的连接,而我们只想下载
这个人的个人主页,如果不设置这个选项,甚至--有可能把整个站点给抓下来,这显然是
我们通常不希望的。

-k   
转换连接:HTML文件存盘时,将其中的非相对连接转换成为相对连接,以便本地浏览。
回复

使用道具 举报

发表于 2003-10-4 19:34:14 | 显示全部楼层
高手!!
回复

使用道具 举报

 楼主| 发表于 2003-10-6 10:16:21 | 显示全部楼层
谢谢各位,我用了Getleft,感觉还不错!
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

GMT+8, 2024-11-26 04:39 , Processed in 0.056587 second(s), 15 queries .

© 2021 Powered by Discuz! X3.5.

快速回复 返回顶部 返回列表