3步实现B站关注列表自动化批量管理:从臃肿到清爽的蜕变
BiliBiliToolPro是一款功能强大的B站自动任务工具,支持多种部署方式,其中批量管理关注列表功能可帮助用户快速清理不再需要的关注,让你的关注列表重获清爽。本文将详细介绍如何利用该工具实现关注列表的自动化批量管理,让你告别手动操作的繁琐。
一、为何需要关注列表自动化批量管理
关注列表臃肿的常见原因
在B站使用过程中,关注列表容易变得臃肿,主要原因包括参与活动时临时关注的up主、早期关注但已停止更新的创作者、重复关注的同领域主播以及各类活动中批量关注的账号等。
手动管理的弊端
手动管理关注列表存在诸多问题:操作效率低下,处理100个关注可能需要30分钟以上;容易遗漏重复关注的账号;且B站官方未提供批量管理功能,难以系统性地进行筛选和清理。
二、BiliBiliToolPro批量管理功能解析
核心配置参数说明
批量管理功能的核心配置参数在src/Ray.BiliBiliTool.Config/Options/UnfollowBatchedTaskOptions.cs中定义,具体如下:
| 配置项 | 说明 | 默认值 |
|---|---|---|
| GroupName | 要操作的关注分组名称 | "天选时刻" |
| Count | 每次操作的数量 | 可配置 |
| RetainUids | 保留用户ID列表 | 空 |
安全防护机制
该功能内置多重安全保护,包括白名单机制(通过RetainUids配置重要up主)、数量限制(可设置每次操作的具体数量)以及分组隔离(仅对指定分组进行操作),确保操作安全可靠。
三、快速上手:3步完成自动化批量管理配置
步骤一:项目部署与环境准备
首先克隆项目到本地:
git clone https://gitcode.com/GitHub_Trending/bi/BiliBiliToolPro
步骤二:任务配置文件设置
在青龙面板中,批量取关任务的默认配置位于qinglong/DefaultTasks/bili_task_unfollowBatched.sh,内容如下:
#!/usr/bin/env bash
# cron:0 12 1 * *
# new Env("bili批量取关主播")
. bili_task_base.sh
target_task_code="UnfollowBatched"
run_task "${target_task_code}"
步骤三:自定义参数调整与任务执行
根据个人需求修改配置参数:调整GroupName为目标分组,设置Count参数控制每次操作人数,在RetainUids中添加需要保留的up主ID。启动任务后,系统将自动获取指定分组下的关注列表,按配置数量进行批量操作,并生成详细执行日志。
四、使用建议与效果对比
实用建议
- 首次使用时建议设置较小的Count值进行测试,确保功能正常运行。
- 推荐每月执行一次批量管理任务,每次操作20-50人,保持关注列表的持续清爽。
- 执行任务时确保网络稳定,避免任务中断影响效果。
效果对比
通过BiliBiliToolPro的批量管理功能,操作时间从手动的30分钟以上缩短至1分钟,准确率达到100%,避免手动操作失误,且支持定期自动执行,实现关注列表的持续高效管理。
借助BiliBiliToolPro,你可以轻松实现B站关注列表的自动化批量管理,让关注列表始终保持清爽有序,提升你的B站使用体验。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust098- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00

