3分钟上手B站数据爬取:InfoSpider让你的Python爬虫效率提升10倍
你还在为手动整理B站数据而烦恼?想分析UP主粉丝增长却不知从何下手?本文将带你使用InfoSpider爬虫工具箱,3分钟内搭建起专业的B站数据采集系统,无需复杂编程基础,全程可视化操作,轻松获取并分析粉丝数据。读完本文你将掌握:
- 快速配置InfoSpider的B站爬虫模块
- 自动化获取UP主粉丝增长趋势
- 数据导出与基础分析技巧
为什么选择InfoSpider爬取B站数据?
InfoSpider是一款开源的爬虫工具箱,专为普通用户设计,无需编写复杂代码即可实现数据采集。项目结构清晰,各数据源独立封装,其中B站爬虫模块Spiders/bilibili/main.py采用面向对象设计,核心功能通过BilibiliHistory类实现,支持历史记录和用户信息的批量获取。
项目已提供完整的官方文档docs/QuickStart.md,包含详细的环境配置步骤。与传统爬虫相比,InfoSpider具有以下优势:
- 安全透明:所有代码开源可审计,避免数据泄露风险
- 即插即用:无需配置代理池和验证码识别,开箱即用
- 多源整合:除B站外,还支持知乎、网易云音乐等20+平台
准备工作:3步完成环境配置
1. 克隆项目仓库
git clone https://gitcode.com/GitHub_Trending/in/InfoSpider
cd InfoSpider
2. 安装依赖包
项目依赖已整理在requirements.txt中,执行以下命令一键安装:
pip install -r requirements.txt
3. 获取B站Cookie
- 打开浏览器访问B站官网并登录
- 按F12打开开发者工具,切换到"网络"标签
- 刷新页面,找到任意以
api.bilibili.com开头的请求 - 复制请求头中的
Cookie字段值
实战操作:5分钟爬取UP主数据
运行B站爬虫模块
在项目根目录执行以下命令启动B站数据采集:
python Spiders/bilibili/main.py
程序会自动弹出文件选择对话框,选择数据保存路径后开始采集。核心采集逻辑在get_all_bili_history方法中实现,默认每页获取200条记录,最多爬取10页数据:
def get_all_bili_history(self):
headers = self.get_header()
history = []
for page_num in range(self.MAX_PAGE): # MAX_PAGE=10
url = 'https://api.bilibili.com/x/v2/history?pn={pn}&ps={ps}'.format(pn=page_num, ps=self.PAGE_PER_NUM)
result = self.req_get(headers, url)
if not result['data']: # 无数据时停止爬取
break
history.append(result)
return history
数据保存与查看
采集完成后,数据将以JSON格式保存到指定目录,包含两个文件:
bilibili_history.json:观看历史记录user_info.json:用户基本信息
数据结构示例:
{
"code": 0,
"message": "0",
"ttl": 1,
"data": [
{
"aid": 123456789,
"title": "Python爬虫入门教程",
"author": "编程学习UP主",
"view_at": 1620000000
}
]
}
数据可视化:用Excel快速分析粉丝趋势
数据格式转换
- 使用Python内置的
json模块解析数据:
import json
with open('bilibili_history.json', 'r', encoding='utf-8') as f:
data = json.load(f)
- 提取关键字段并保存为CSV格式:
import csv
with open('bilibili_data.csv', 'w', newline='', encoding='utf-8') as f:
writer = csv.writer(f)
writer.writerow(['视频标题', 'UP主', '观看时间'])
for item in data[0]['data']:
writer.writerow([item['title'], item['author'], item['view_at']])
创建趋势图表
用Excel打开CSV文件,插入折线图即可直观展示观看频率趋势。对于进阶分析,可使用项目中的测试分析模块tests/DeepAnalysis/,该模块提供了数据清洗和模型训练功能。
常见问题与解决方案
爬取速度过慢
修改Spiders/bilibili/main.py中的MAX_PAGE参数(默认10),减少爬取页数:
self.MAX_PAGE = 5 # 仅爬取前5页数据
数据为空或报错
- 检查Cookie是否过期,建议重新获取
- 确认网络连接正常,避免VPN干扰
- 查看错误日志,路径为
logs/error.log
导出格式转换
项目提供了extension/js/FileSaver.js工具,支持将JSON数据导出为Excel格式,可在浏览器中直接使用。
总结与进阶建议
通过InfoSpider的B站爬虫模块,我们实现了从环境配置到数据可视化的全流程操作。该工具不仅适用于个人数据备份,还可用于市场调研和竞品分析。进阶用户可尝试:
- 扩展爬虫功能:修改
get_header方法添加自定义请求头 - 实现定时爬取:结合tools/main.py中的任务调度模块
- 多平台数据整合:同时运行知乎Spiders/zhihu/main.py和B站爬虫
收藏本文,下次需要分析B站数据时直接对照操作。关注项目README.md获取最新更新,如有问题可提交Issue或参与社区讨论。
提示:本工具仅用于个人数据备份,请勿用于商业用途或频繁请求导致服务器负载过高。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust098- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00



