终极夸克网盘自动管理指南:告别手动转存,轻松实现资源自动化! 🚀
quark-auto-save 是一款开源的夸克网盘自动化工具,专为解决用户手动转存资源的痛点而生。它能帮你实现自动签到领空间、分享链接自动转存、文件智能命名整理、多渠道推送提醒以及媒体库自动刷新等一站式功能,让资源管理从此高效又轻松!
📌 为什么选择 quark-auto-save?
对于经常需要从夸克网盘分享链接转存资源的用户来说,重复手动操作不仅耗时,还容易遗漏更新。quark-auto-save 正是为解决这些问题而来,尤其适合追剧党、资源收藏家等需要定期同步内容的人群。
✨ 核心功能亮点
-
全自动签到领空间
无需每天手动点击,工具将定期执行签到任务,帮你轻松积累网盘存储空间!🔄 -
智能链接转存
支持带提取码的分享链接、子目录识别,还能自动跳过已转存文件,避免重复操作。更有「智能搜索资源」功能,自动填充匹配内容(配置方式见 CloudSaver搜索源)。 -
文件名正则整理
通过灵活的正则表达式,自动过滤、重命名文件。例如:- 将
【电影TT】花好月圆01.mp4简化为01.mp4 - 将
01.mp4批量重命名为S02E01.mp4(剧集标准化命名)
更多示例可参考工具内置的 正则处理教程。
- 将
-
多渠道推送通知
任务完成后,通过企业微信、邮件等方式实时推送结果(配置指南见 通知推送服务)。 -
媒体库无缝整合
与 Emby 等媒体库联动,转存完成后自动刷新内容,配合 SmartStrm 工具还能生成 strm 文件,实现「免下载直接播放」!媒体库插件开发可参考 plugins/ 目录。
🖥️ 直观的 WebUI 管理界面
最新版本已支持 Docker 一键部署 WebUI,图形化配置覆盖 90% 以上的使用场景,新手也能轻松上手!
🚀 超简单部署步骤(推荐 Docker 方式)
1️⃣ 一键启动容器
docker run -d \
--name quark-auto-save \
-p 5005:5005 \
-e WEBUI_USERNAME=admin \
-e WEBUI_PASSWORD=admin123 \
-v ./quark-auto-save/config:/app/config \ # 配置文件持久化
--restart unless-stopped \
cp0204/quark-auto-save:latest
2️⃣ 访问 WebUI
部署完成后,在浏览器打开 http://你的服务器IP:5005,使用默认账号密码(admin/admin123)登录,即可开始配置任务!
3️⃣ 一键更新工具
docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower -cR quark-auto-save
💡 实用技巧与注意事项
- 多账号支持:可配置多个夸克账号自动签到,主账号负责转存任务。
- 任务精细化管理:设置任务结束期限、指定每周执行时间,避免无效运行。
- 风险提示:请勿设置过高的任务频率(如每分钟执行),以免触发网盘风控!
📚 更多资源
🛠️ 快速开始使用
-
克隆项目
git clone https://gitcode.com/gh_mirrors/qu/quark_auto_save.git cd quark_auto_save -
按文档部署
推荐使用 Docker 部署(含 WebUI),具体命令见项目 README.md 中的「Docker 部署」章节。 -
配置任务
登录 WebUI 后,按照指引添加分享链接、设置转存目录和正则规则,即可开启自动化之旅!
quark-auto-save 让夸克网盘管理从繁琐走向智能,无论是个人资源整理还是媒体库维护,都能大幅提升效率。现在就试试,让工具为你节省更多时间吧! ⏰
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00


