怎么把一个网站里所有页面下载到本地?


如题:我想问一下怎么一下子把一个网站所有网页都下载到本地呢?比如鸟哥的私房菜的网站: http://vbird.dic.ksu.edu.tw/ 。不知道为什么我访问这个网站时有点慢,所以就想有木有办法把这整个网站都下载下来,放到本地,想api文档一样方便查阅呢?

网站 前端开发

比那名居访课 9 years, 1 month ago

可以另存为pdf,ctrl+p

mkp0714 answered 9 years, 1 month ago

wget -r -k -l 3 三个参数分别是递归、替换本地资源路径和递归深度

约翰·帕海贝尔 answered 9 years, 1 month ago

可以使用Teleport,直接down下来一个网站所有内容,包括目录结构。我一般down下来修改css以更舒适的字体浏览

图片描述

弛哥Chico answered 9 years, 1 month ago

ctrl + s

春日野悠. answered 9 years, 1 month ago

wget有抓整站的功能,前提是不因为频率太快被屏蔽

lei123 answered 9 years, 1 month ago

试试 offline explorer 这款软件

SM01314 answered 9 years, 1 month ago

Your Answer