青龙面板自动化签到工具终极指南:轻松管理多平台每日任务
青龙面板自动化签到工具是一个运行在青龙面板上的Python签到函数项目,旨在为用户提供全自动的多平台签到解决方案。通过简单的配置,您就能让系统自动完成各种平台的日常签到任务,释放双手,享受智能生活。
项目亮点速览
- 多平台覆盖:支持AcFun、百度搜索资源平台、Bilibili、天翼云盘、CSDN等30多个热门平台的签到
- 双格式配置:同时支持JSON和TOML两种配置文件格式,TOML格式优先使用
- 多账号管理:可为同一平台配置多个账号,实现批量签到
- 消息推送:集成消息推送功能,及时了解签到结果
- 灵活定时:支持随机定时功能,避免固定时间签到被识别为机器人
上手体验指南
环境准备与安装
首先确保您已经部署了青龙面板环境,然后按照以下步骤进行安装:
-
拉取仓库到青龙面板:
ql repo https://gitcode.com/gh_mirrors/check5/check.git "ck_|oc_" "" "checksend|utils" -
执行初始化命令:
- 青龙v2.12+版本:
cd /ql/data/repo/yuxian158_check && python3 utils.py
- 青龙v2.12-版本:cd /ql/repo/yuxian158_check && python3 utils.py
- 青龙v2.12+版本:
执行完成后,系统会自动在配置文件目录下生成check.toml或check.json文件。
配置方法详解
打开生成的配置文件,您会看到详细的配置示例。以AcFun平台为例,多账号配置如下:
[[ACFUN]]
password = "您的密码"
phone = "您的手机号"
[[ACFUN]]
password = "另一个账号密码"
phone = "另一个手机号"
功能深度解析
核心签到机制
该项目采用模块化设计,每个平台都有独立的签到脚本。在dailycheckin_scripts文件夹下,您可以看到以"ck_"开头的各个平台签到文件,如ck_AcFun.py、ck_bilibili.py等。
配置文件智能识别
系统会自动检测配置文件格式,优先使用TOML格式。如果同时存在TOML和JSON配置文件,系统会优先选择TOML文件。
多账号支持特性
项目最新更新中加入了多账号支持功能,您可以为同一个平台配置多个账号信息。系统会按顺序依次执行每个账号的签到任务,并在日志中清晰标注"账号【1】"、"账号【2】"等标识。
使用场景举例
个人用户场景
如果您是多个平台的活跃用户,比如同时使用Bilibili、AcFun、微博等,可以使用该项目统一管理所有签到任务。
家庭共享场景
家庭成员可以共享同一个青龙面板实例,各自配置自己的账号信息,实现全家人的签到任务集中管理。
进阶玩法探索
自定义签到时间
项目支持随机定时功能,您可以通过设置QL_RANDOM_TIME = true来启用此功能。
消息推送配置
在青龙面板的config.sh文件中添加以下环境变量,即可启用消息推送:
export MI_PUSH_ALIAS="您的推送标识"
特殊功能配置
项目还支持多种实用功能:
- 天气预报:设置
CITY = ["上海", "朝阳区"] - 每日一句:设置
MOTTO = true - 每日新闻:设置
NEWS = true
常见问题解答
配置文件找不到怎么办?
如果在执行过程中提示"未找到配置文件",系统会自动尝试将示例配置文件移动到正确位置。您也可以手动复制check.sample.toml文件到配置目录。
签到失败如何排查?
- 检查配置文件中的账号信息是否正确
- 确认网络连接正常
- 查看日志输出中的具体错误信息
如何更新脚本?
当平台更新导致签到失败时,建议删除原配置文件后重新配置,因为某些脚本的键名可能在更新中发生变化。
多账号配置注意事项
在配置多账号时,确保每个账号的信息都完整且正确。系统会依次执行所有配置的账号,任何一个账号配置错误都可能影响后续账号的执行。
通过这个青龙面板自动化签到工具,您可以将繁琐的日常签到任务完全交给系统处理,享受科技带来的便利生活。无论是个人使用还是家庭共享,都能找到最适合您的使用方式。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00