请问如何下载整个网站
我不想只下载一个网页。谢谢! http://www.google.com/linux?hl=en&lr=&ie=ISO-8859-1&q=offline+browser&btnG=Google+Search d4x recurse 用wget例如
wget -r -p -np -k http://learn.tsinghua.edu.cn/homepage/015450/index.html
-r
递归;对于HTTP主机,wget首先下载URL指定的文件,然后(如果该文件是
一个HTML文档的话)递归下载该文件所引用(超级连接)的所有文件(递归深度由参数
-l指定)。对FTP主机,该参数意味着要下载URL指定的目录中的所有文件,递归方法与
HTTP主机类似。
-p
下载所有文件。选上此选项将下载将HTML页面正常显示所须的所有文件,包括HTML源文
件,图片,样式表等等。
-np
只下载目标站点指定目录及其子目录的内容。这也是一个非常有用的选项,我们
假设某个人的个人主页里面有一个指向这个站点其他人个人主页的连接,而我们只想下载
这个人的个人主页,如果不设置这个选项,甚至--有可能把整个站点给抓下来,这显然是
我们通常不希望的。
-k
转换连接:HTML文件存盘时,将其中的非相对连接转换成为相对连接,以便本地浏览。 高手!! 谢谢各位,我用了Getleft,感觉还不错!
页:
[1]