有谁知道在linux中使用的网页收集软件有哪些?
如题。 wget 不,不是下载,而是收集,就像“网文快捕”那样的程序。在浏览网页的时候,用“网页另存为”是在不方便,要是通过点击右键有一个快捷方式保存网页到一个文件里面,那才是我想要的。 i want to know too! 我都是 ctrl + s
:mrgreen: ~ 刚刚发现了一个项目叫web2ebook,好象刚开始的样子,没有下载。
把WEB页转变为EBOOK,不错的主意,正好符合本人的需求,关注哦!
http://www.web2ebook.org/ 发现一个firefox的插件--scrapbook,可以保存网页并且管理下载的网页,虽然没有CyberArticle那样强大,但只有200多k的插件,这样的功能还是蛮可以的。
页:
[1]