如何用BiliBili-Lucky-Draw自动参与B站抽奖活动?解放双手的终极薅羊毛神器!
BiliBili-Lucky-Draw是一款专为B站用户设计的自动抽奖工具,能够帮助你自动扫描并参与Up主的抽奖活动,实现关注、转发动态等操作,让你轻松薅羊毛,提高中奖几率。
一、BiliBili-Lucky-Draw是什么?
常刷B站的伙伴们,是不是每次看到Up主的抽奖活动都心动不已?毕竟“抽奖总得试试,万一中奖了呢”!但一波关注+转发之后,往往是“从不缺席,从不中奖”的无奈。
BiliBili-Lucky-Draw自动抽奖工具就是来解决这个问题的!它能自动扫描有抽奖活动的Up主动态,帮你完成关注和转发操作,解放双手,让你有更多时间看二次元动漫,轻松参与B站抽奖活动,提高中奖率。
1.1 工具工作原理
本程序内置扫描脚本,会挖掘那些经常转发抽奖动态的用户,每天定时扫描他们的动态信息,再通过抽奖动态识别与转发脚本来自动参与活动。转发后的效果如下:
图:BiliBili-Lucky-Draw自动转发抽奖动态效果展示
二、BiliBili-Lucky-Draw安装教程
2.1 环境准备
确保你的系统中安装了Python 3.6或更高版本,并且已经配置好了Git。
2.2 克隆项目代码
打开终端或命令提示符,运行以下命令来克隆项目到本地:
git clone https://gitcode.com/gh_mirrors/bi/BiliBili-Lucky-Draw
2.3 Docker一键部署(推荐)
2.3.1 获取B站Cookie
在浏览器进入B站,登录后按照下图获取cookie值:
图:BiliBili-Lucky-Draw获取B站Cookie步骤截图
2.3.2 设置Cookie和本机IP
在项目的.env文件中,将获取的cookie值和本机实际IP填入相应位置:
图:BiliBili-Lucky-Draw配置文件参数设置界面
2.3.3 执行Docker命令
编译命令:
docker-compose build
运行容器:
docker-compose up -d
Tip:如果要停止容器,可以使用命令:
docker-compose down
2.4 确认部署成功
等待Docker运行成功后,访问your_ip:5555/ui/sessions,点击正在执行的项目,查看是否正常运行。
三、BiliBili-Lucky-Draw功能特点
- 自动扫描抽奖活动:定时扫描指定用户的动态,发现抽奖活动
- 自动参与抽奖:自动完成关注Up主、转发动态等抽奖要求
- Docker一键部署:简化部署流程,新手也能轻松上手
- Cookie自动管理:支持二维码登录,自动生成和续期Cookie
- 动态管理:自动删除过期动态,保持账号整洁
四、注意事项
声明: 此脚本仅用于学习和测试,请于运行测试完成后自行删除,请勿滥用!
五、更新日志
- [x] 项目采用Docker部署
- [x] 扫描B站二维码登录,自动生成Cookie
- [x] 登录过期自动续期Cookie
- [x] 每日任务执行情况推送
- [x] Docker服务编排,一键部署
- [x] 过期动态自动删除
- [x] 自动转发UP主抽奖动态列表
六、总结
BiliBili-Lucky-Draw作为一款实用的B站自动抽奖工具,能够帮助用户轻松参与各类抽奖活动,解放双手,提高中奖几率。通过简单的配置和部署,即可让工具自动完成关注、转发等操作,让你在享受B站内容的同时,不错过任何中奖机会!
如果觉得这个项目有用,欢迎给项目点赞支持,有问题也可以提出Issue交流。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00