终极知乎内容备份指南:一键爬取想法、文章和回答的完整教程 🚀
2026-02-05 04:42:58作者:俞予舒Fleming
在信息爆炸的时代,知乎上的优质内容可能因平台政策调整或误删而永久消失。知乎内容爬取工具(zhihu_spider_selenium) 是一款专为知乎用户设计的开源备份神器,能够自动抓取个人主页的想法、文章和回答,并以PDF、Markdown等格式永久保存,让你的知识资产永不丢失!
📌 为什么选择这款知乎爬虫工具?
作为一款专注于内容备份的工具,它解决了三大核心痛点:
- 防止内容丢失:知乎文章、回答或想法一旦删除无法恢复,工具可提前备份所有创作
- 离线高效阅读:将内容保存为本地文件,无需联网即可随时查阅
- 结构化管理:自动分类存储不同类型内容,支持按时间、类型快速检索
✨ 三大核心功能亮点
1️⃣ 全类型内容备份
- 回答备份:保存提问与回答全文,支持PDF/Markdown双格式,自动下载图片、代码块和数学公式
- 文章备份:完整还原网页排版,数学公式可无损保存至Markdown(如LaTeX公式)
- 想法备份:抓取文字内容与配图,自动汇总成时间线档案

图:知乎回答保存为Markdown格式的效果,包含数学公式与代码块
2️⃣ 多格式输出与完美排版
- PDF格式:保留网页原始样式,标题下方自动添加原文链接
- Markdown格式:支持数学公式渲染(需配合Typora等编辑器),图片按相对路径保存
- 文本汇总:所有想法自动合并为单一文本文件,方便快速浏览
3️⃣ 智能化操作体验
- Cookie自动保存:一次登录即可长期使用,无需重复输入账号密码
- 增量爬取:自动跳过已备份内容,仅抓取新增或更新的创作
- 多平台支持:兼容Windows、macOS(Intel/M1芯片)系统
📥 超简单安装步骤(5分钟上手)
1️⃣ 环境准备
- Python环境:需安装Python 3.8+(推荐使用Miniconda管理环境)
- 依赖库安装:克隆仓库后执行以下命令安装依赖
git clone https://gitcode.com/gh_mirrors/zh/zhihu_spider_selenium
cd zhihu_spider_selenium
pip install -r requirement.txt
2️⃣ 首次登录配置
运行爬虫脚本后,工具会自动打开浏览器并跳转至知乎登录页,手动完成登录后Cookie将保存在本地:
python crawler.py
🚀 实战使用指南:3种爬取模式
模式1:全量备份(首次使用推荐)
一次性爬取所有想法、文章和回答:
python crawler.py --think --article --answer --MarkDown --links_scratch
模式2:单独类型爬取
- 仅爬取文章:
python crawler.py --article --MarkDown --links_scratch - 仅爬取回答:
python crawler.py --answer --MarkDown --links_scratch - 仅爬取想法:
python crawler.py --think --links_scratch
模式3:增量更新已备份内容
重命名历史记录文件后,仅抓取新内容:
# 重命名文章记录文件(示例)
mv article/article.txt article/article_20230620.txt
# 执行增量爬取
python crawler.py --article --MarkDown
📁 项目目录结构解析
zhihu_spider_selenium/
├── answer/ # 回答备份(按日期分类)
├── article/ # 文章备份(含PDF/Markdown)
├── think/ # 想法备份(按时间线存储)
├── showimg/ # 示例图片资源
├── crawler.py # 主程序入口
└── requirement.txt # 依赖库列表
⚠️ 注意事项与最佳实践
-
合规使用:
- 仅用于个人内容备份,请勿爬取他人隐私或大量数据
- 爬取间隔默认6秒/图片,避免给服务器造成压力
-
常见问题解决:
- 登录失败:删除
cookie_zhihu.pkl文件后重新登录 - 公式显示异常:使用Typora打开Markdown文件,开启「数学公式」渲染
- 登录失败:删除
-
性能优化:
- 夜间运行可减少网络拥堵
- 网速建议:下载≥10Mbps,上传≥5Mbps
🎯 适用人群与场景
- 内容创作者:备份知乎专栏文章与回答,防止意外删除
- 研究者/学生:批量保存专业领域问答,构建本地知识库
- 离线阅读爱好者:在通勤、旅行时无网络也能阅读优质内容
这款工具不仅是爬虫程序,更是你的个人知识管理助手。立即下载,让每一份创作都得到永久保存!
提示:项目开源地址可通过GitCode获取,定期更新以适配知乎页面结构变化。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
567
3.83 K
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
892
666
Ascend Extension for PyTorch
Python
376
445
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
349
200
昇腾LLM分布式训练框架
Python
116
145
暂无简介
Dart
796
197
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.37 K
777
openJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力
TSX
1.13 K
271
React Native鸿蒙化仓库
JavaScript
308
359



