告别水印烦恼!XHS-Downloader无水印采集工具零基础入门指南
还在为小红书作品保存时的水印烦恼?尝试过各种采集工具却总遇到链接失效、格式错误?XHS-Downloader作为一款免费开源的小红书作品采集工具,基于AIOHTTP模块构建,支持图文/视频无水印下载,后台监听剪贴板自动下载,甚至提供API接口供二次开发。本文将从安装到高级功能,带你全面掌握这款工具的使用方法。
核心功能一览
XHS-Downloader提供三大核心能力,满足从普通用户到开发者的不同需求:
- 作品采集:支持提取小红书作品下载地址,下载无水印图片和视频,自动跳过已下载文件,支持断点续传
- 批量处理:支持单次输入多个作品链接,自动提取有效链接;可设置文件命名格式,按作者分类存储
- 多模式运行:提供图形界面(TUI)、命令行、API和MCP四种运行模式,适配不同使用场景
安装与运行
环境准备
使用XHS-Downloader前需确保系统已安装Python 3.12环境。项目源码托管于GitCode,可通过以下命令获取:
git clone https://gitcode.com/gh_mirrors/xh/XHS-Downloader
cd XHS-Downloader
快速启动
对于普通用户,推荐直接使用预编译程序:
- 访问项目Releases页面下载对应系统的压缩包
- 解压后双击运行
main文件(Windows)或通过终端启动(Mac/Linux) - 首次运行将自动创建配置文件和下载目录
源码运行
开发者或需要自定义功能的用户可通过源码运行:
# 安装依赖
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt
# 启动图形界面
python main.py
# 或启动命令行模式
python main.py --help
基础使用教程
单链接下载
- 打开小红书APP或网页版,找到目标作品
- 点击分享按钮,复制作品链接
- 在XHS-Downloader中粘贴链接,按提示操作
程序支持多种链接格式,包括:
- 标准链接:
https://www.xiaohongshu.com/explore/作品ID?xsec_token=XXX - 短链接:
https://xhslink.com/分享码 - 用户主页链接:
https://www.xiaohongshu.com/user/profile/作者ID/作品ID
批量下载
对于需要下载多个作品的场景,有两种高效方式:
- 多链接输入:在输入框中用空格分隔多个链接,程序将依次处理
- 剪贴板监听:启用后台监听功能,复制链接后自动开始下载
# 命令行模式批量下载
python main.py "链接1 链接2 链接3"
高级功能配置
文件命名与存储
通过修改配置文件settings.json,可自定义文件存储规则:
{
"work_path": "D:\\Downloads", // 根目录
"folder_name": "小红书素材", // 文件夹名称
"name_format": "发布时间 作者昵称 作品标题", // 文件命名格式
"author_archive": true // 按作者分类存储
}
支持的命名字段包括:作品标题、作者昵称、发布时间、作品ID等14种元数据。
API接口调用
开发者可通过API模式将XHS-Downloader集成到自有系统:
# 启动API服务
python main.py api
# Python调用示例
import httpx
data = {
"url": "小红书作品链接",
"download": True,
"index": [1, 3, 5] # 仅下载图文作品中的第1、3、5张图片
}
response = httpx.post("http://127.0.0.1:5556/xhs/detail", json=data)
print(response.json())
常见问题解决
Cookie相关问题
2.2版本后通常无需手动配置Cookie,如遇访问受限可按以下步骤获取:
- 浏览器访问小红书网页版,按F12打开开发者工具
- 切换到"网络"选项卡,勾选"保留日志"
- 筛选包含"cookie-name:web_session"的请求
- 复制完整Cookie值到程序设置中
下载格式设置
程序支持多种图片格式转换,可在配置文件中设置:
{
"image_format": "PNG" // 可选:AUTO/PNG/WEBP/JPEG/HEIC
}
注意:部分格式转换可能导致文件体积增大,建议根据实际需求选择
扩展应用场景
内容管理系统集成
通过MCP模式,可将XHS-Downloader与内容管理系统对接,实现素材自动入库:
# 启动MCP服务
python main.py mcp
在MCP客户端中配置服务地址http://127.0.0.1:5556/mcp/,即可实现远程调用。
二次开发示例
项目提供完整的API接口和示例代码,可快速实现定制功能:
from source import XHS
import asyncio
async def custom_download():
async with XHS(
work_path="/data/xhs",
image_format="WEBP",
author_archive=True
) as xhs:
result = await xhs.extract(
"https://xhslink.com/abc123",
download=True,
index=[1,3] # 仅下载第1和第3张图片
)
print(result)
asyncio.run(custom_download())
完整示例代码可参考example.py文件。
注意事项
- 合规使用:本工具仅用于个人学习研究,请勿用于商业用途或侵犯他人权益
- 速率限制:程序内置请求延时机制,请勿修改相关参数,避免给服务器造成负担
- Cookie有效期:小红书Cookie存在有效期,如遇请求失败请尝试更新Cookie
- 系统兼容性:Windows推荐使用系统自带终端,Mac/Linux用户需确保已安装xclip或xsel工具
通过本文介绍,你已掌握XHS-Downloader的核心功能和使用方法。更多高级技巧和更新动态,请关注项目README.md文档。合理使用这款工具,让小红书内容采集变得高效而简单。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00





