Kuye 发表于 2002-12-7 21:55:43

我想下载一个网站。。。

不是对一个网页简简单单另存为,是把整个网站全部下载及其相关链接全部下载下来。

wget 好像就可以,可我看了 manpage 老半天也没试出来 :P

哥儿几个可有好办法?! ;)

Kuye 发表于 2002-12-7 23:07:10

咳。。。用 wine 模拟了一下 SuperBot 然后才下下来的。。。

Linux 不会没有这类软件吧?!

llc 发表于 2002-12-7 23:48:39

我也找不到同类功能的软件

Kuye 发表于 2002-12-8 00:18:26

mmm.... :(

软件部 llc 部长都不知道了,估计是没有了。。。

llc 发表于 2002-12-8 00:29:31

在d4x里的关于http选项的设置里,有个叫递归的功能,我不清楚是不是转用来下载网站的,因为我没用过
大概是这样用(估计),设置好递归深度(可能是下载多少层吧),然后设置可以脱离当前服务器(也就是说连连到其他服务器上的网页也下载),然后设置过滤器,就是过滤你想下载那些文件,譬如只想下载html和zip,tar.gz这些文件,然后选中将远程链接转换成本地链接,应该就可以了,但我也不清楚是不是这样用
我没用过,我是按字面意思大概估计一下,你可以尝试尝试,如果真成功了还请跟跟贴

Kuye 发表于 2002-12-8 01:17:36

VIVA, 真的可以 :D
以前一直很少用 Download for X, 没想到居然还有这一手 :D

选择菜单 File -> New Download -> 在 Download URL 里添入需要下载的页面起始页 -> 打开 HTTP 页 -> 选中 Allow leave this server while recursing via HTTP -> 在 Depth of recursing 前的文本框添入下载的层树 -> OK -> 开始下载 :D

谢谢 llc 部长, 还是您 [ 眼尖 ]!!! :D

llc 发表于 2002-12-8 01:24:14

呵呵,还不错
越来越喜欢d4x了!

Kuye 发表于 2002-12-8 01:43:13

呵呵,还不错
越来越喜欢d4x了!
说实话,我有点怕 d4x, 每次用完它以后 / 分区剩余空间会暴跌。
最后一次用还是在上个月用 Mandrake 9 的时候,5G 给 /, 安装完是 3G 左右,用 d4x 下载了很多软件到别的分区下,可只过了一个礼拜,便突然报告说我 / 分区空间不够,我用 df -h 查,/ 居然只剩下 2M,可怎么也找不到到底是什么东西耗了那么大硬盘。。。。以后就再没用它了

llc 发表于 2002-12-8 12:42:57

可能不是d4x的问题,你最好查一下是那些文件占用了空间
留意一下/tmp和/var的空间有没有过大,还有自己目录下看有没有过大的文件
页: [1]
查看完整版本: 我想下载一个网站。。。