XHS-Downloader小白必看:3分钟上手小红书无水印作品下载工具
XHS-Downloader是一款免费开源的小红书作品采集工具,能帮你轻松下载无水印图文和视频,提取作品链接和信息。完全免费无广告,零基础也能快速上手!
超简单5步安装指南
1. 准备Python环境
首先要安装Python 3.12版本(低于这个版本可能会出错哦)。访问Python官网下载安装包,安装时记得勾选"Add Python to PATH"选项。
2. 获取工具源码
打开终端,输入以下命令下载项目源码:
git clone https://gitcode.com/gh_mirrors/xh/XHS-Downloader
3. 安装依赖
进入项目文件夹,运行下面的命令安装必要组件:
cd XHS-Downloader
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt
4. 启动程序
输入以下命令启动工具:
python main.py
5. 验证安装
看到类似下面的界面就说明安装成功啦!
✅ 验证方法:程序窗口正常打开,显示主菜单界面。
3分钟解决Cookie设置难题
自动获取Cookie(推荐)
在终端输入以下命令,工具会自动从浏览器读取Cookie:
python main.py --browser_cookie Chrome --update_settings true
这里的"Chrome"可以换成你常用的浏览器,比如Firefox、Edge等。
手动设置Cookie(备用方案)
如果自动获取失败,可以手动设置:
- 打开浏览器访问小红书网站
- 按F12打开开发者工具
- 在"网络"标签找到包含"web_session"的请求
- 复制Cookie值并粘贴到工具中
✅ 验证方法:在工具主界面输入任意小红书链接,能正常显示作品信息即为设置成功。
小试牛刀:现在尝试用自动获取Cookie的方法配置你的工具,遇到问题随时回来查看步骤哦!
一键下载无水印作品的秘密
基础下载步骤
- 在工具主界面选择"下载作品"选项
- 粘贴小红书作品链接(支持xhslink.com开头的分享链接)
- 按Enter键开始下载
命令行快速下载
高手进阶技巧:直接在终端输入命令下载,支持同时下载多个作品:
python main.py "https://xhslink.com/abc123 https://xhslink.com/def456"
✅ 验证方法:检查下载文件夹(默认在项目根目录>Volume>Download)是否出现下载好的文件。
找不到下载文件?3步定位解决
1. 默认下载路径
文件默认保存在以下位置: 「项目根目录>Volume>Download」
2. 自定义保存位置
- 打开「项目根目录>Volume>settings.json」文件
- 找到【download_path】配置项
- 修改为你想要的路径,比如"D:\小红书下载"
3. 常见路径问题排查
⚠️ 注意:如果提示"权限不足",请检查文件夹是否有写入权限,或者更换保存路径到桌面等个人目录。
✅ 验证方法:下载一个测试作品,在设置的路径中能找到对应的文件。
小试牛刀:试着修改下载路径到你的桌面文件夹,然后下载一个作品看看是否保存到了新位置?
高级技巧:批量下载与脚本使用
批量下载作品
- 创建一个文本文件,每行放一个小红书链接
- 使用以下命令批量下载:
python main.py --file links.txt
用户脚本辅助
安装浏览器脚本可以更方便地获取作品链接:
- 安装Tampermonkey浏览器插件
- 添加XHS-Downloader用户脚本
- 在小红书网页上会出现"复制链接"按钮
✅ 验证方法:使用脚本复制多个作品链接,批量下载成功。
小试牛刀:安装用户脚本后,试着从你的小红书收藏夹中批量提取链接并下载作品吧!
常见问题解答
Q: 下载的视频没有声音怎么办?
A: 这是因为小红书部分视频采用了特殊编码,尝试更新到最新版本的工具即可解决。
Q: 程序提示"链接无效"怎么办?
A: 检查链接是否正确,或者尝试刷新Cookie后再试。
Q: 可以下载自己收藏的作品吗?
A: 当然可以!使用用户脚本提取收藏夹链接,然后批量下载。
使用注意事项
⚠️ 下载的作品仅用于个人学习研究,请勿用于商业用途 ⚠️ 请勿频繁大量下载,以免给服务器造成负担 ⚠️ 定期更新工具获取最新功能和修复
希望这份指南能帮你轻松上手XHS-Downloader!如果有其他问题,可以查看项目README.md文件或加入用户交流群获取帮助。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00




