有道云笔记数据解放终极指南:10分钟学会一键备份所有笔记
还在为有道云笔记无法导出数据而烦恼吗?📝 今天我要介绍一个强大的 Python 脚本——youdaonote-pull,它能帮你一键备份所有有道云笔记,彻底解决数据迁移难题!这个开源工具完全本地运行,确保你的数据安全无忧。
🚀 为什么要使用 youdaonote-pull?
数据安全第一:脚本完全在本地计算机上运行,无需担心隐私泄露。你的有道云笔记数据始终掌握在自己手中!
智能格式转换:默认将 XML 和 JSON 格式的笔记转换为易读的 Markdown 格式,让数据真正"活"起来。
图片本地化:自动下载有道云笔记图床图片到本地,或上传到 SM.MS 图床,彻底告别外链失效的困扰。
📋 准备工作:3步轻松搞定
1️⃣ 获取项目代码
首先需要克隆项目到本地:
git clone https://gitcode.com/gh_mirrors/yo/youdaonote-pull.git
cd youdaonote-pull
2️⃣ 配置运行环境
安装 Python 3 和必要的依赖包:
pip install -r requirements.txt
3️⃣ 设置登录凭证
由于有道云笔记升级了登录验证,目前需要使用 Cookies 登录。创建一个 cookies.json 文件:
{
"cookies": [
["YNOTE_CSTK", "你的CSTK值", ".note.youdao.com", "/"],
["YNOTE_LOGIN", "你的LOGIN值", ".note.youdao.com", "/"],
["YNOTE_SESS", "你的SESS值", ".note.youdao.com", "/"]
]
}
🔍 获取 Cookies 小技巧:
- 使用 Chrome 插件「Cookie-copy」快速复制
- 或在浏览器 DevTools 的 Network 标签中查找主请求的 Cookie 信息
⚙️ 核心配置文件详解
编辑 config.json 文件,个性化设置备份选项:
{
"local_dir": "/Users/你的用户名/Documents/youdaonote-backup",
"ydnote_dir": "指定文件夹名",
"smms_secret_token": "你的SM.MS密钥",
"is_relative_path": true
}
🎯 配置参数说明:
local_dir:本地备份目录(绝对路径)ydnote_dir:仅备份指定有道云笔记文件夹smms_secret_token:SM.MS 图床密钥(可选)is_relative_path:是否使用相对路径(推荐 true)
🎯 一键备份操作指南
执行备份命令
python3 pull.py # macOS/Linux
python pull.py # Windows
脚本会自动开始下载所有笔记,你会看到类似这样的输出:
正在 pull,请稍后 ...
新增「学习笔记.md」
更新「工作记录.md」,云笔记原格式为 XML
跳过「个人日记.md」
智能增量备份
最棒的功能:再次运行时,脚本只会下载新增或修改的笔记,不会重复下载已有内容!🔄
🔧 项目核心架构解析
youdaonote-pull 项目结构清晰,主要包含以下核心模块:
API 接口层:core/api.py - 封装有道云笔记的所有网络请求
格式转换引擎:core/covert.py - 智能将 XML/JSON 转换为 Markdown
图片处理模块:core/image.py - 自动下载或上传笔记中的图片
💡 高级使用技巧
选择性备份
只想备份特定文件夹?在 config.json 的 ydnote_dir 中指定文件夹名即可。
云端图片托管
注册 SM.MS 图床服务,获取 Secret Token 填入配置,即可自动上传图片到云端。
🛡️ 数据安全保障
本地运行:所有操作都在你的电脑上完成 无数据上传:不会将你的笔记内容发送到任何服务器 完全控制:备份文件保存在你指定的位置
📊 备份效果展示
使用 youdaonote-pull 后,你将获得:
- 完整的笔记目录结构
- 标准化的 Markdown 文件
- 本地化的图片资源
- 随时可迁移的数据格式
🎉 开始你的数据解放之旅
现在,你已经掌握了使用 youdaonote-pull 进行有道云笔记备份的所有技巧!告别数据锁定的烦恼,拥抱真正的数据自由。
💪 立即行动:按照上面的步骤操作,10分钟后你就能拥有完整的有道云笔记本地备份!
记住:数据是你创造的宝贵财富,理应完全由你掌控。youdaonote-pull 就是帮你实现这一目标的终极工具。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00