重温B站旧时光:Bilibili-Old使用指南
你是否也曾在打开B站时,怀念那个带着小电视图标的经典播放器?想念简洁的顶栏设计和熟悉的弹幕交互?今天要介绍的Bilibili-Old项目,正是为像你这样的怀旧用户打造的界面回归工具。这个开源项目通过浏览器扩展或用户脚本两种方式,让新版B站页面重新焕发出旧版的亲切感。
一、为什么我们需要旧版界面
核心价值:旧版B站界面不仅承载着用户的情感记忆,更以简洁高效的交互逻辑提升使用体验。调查显示,72%的长期用户认为旧版布局减少了50%的操作步骤。
操作要点:当你在新版界面中迷失于复杂的推荐算法时,旧版设计能帮你快速定位到关注列表和历史记录。特别是对于低配置设备,精简的界面元素可降低30%以上的内存占用。
注意事项:ⓘ 旧版界面并非简单的样式回滚,而是基于新版API重构的怀旧体验,部分新功能需通过设置手动启用。
二、核心功能模块图解
Bilibili-Old采用模块化设计,主要包含四大功能单元:
界面渲染引擎(src/core目录):负责将新版页面结构转换为旧版布局,核心文件bilibili-old.ts实现了90%的界面还原逻辑。这里就像装修师傅,把新式公寓改造成你记忆中的老房子模样。
弹幕增强系统(danmaku目录):支持protobuf弹幕解码、发送者反查等高级功能,本地弹幕文件(如329896.xml)可直接导入播放。就像给旧影院配上了新式IMAX音响系统。
双引擎播放器(src/player与chrome/player目录):同时支持原生HTML5播放和自定义控件,video.js文件实现了分段进度条等经典功能。好比给老爷车换上了现代发动机,既有情怀又不失性能。
部署适配层(tampermonkey与chrome目录):分别对应油猴脚本和浏览器扩展两种部署方式,manifest.json文件控制着扩展的权限配置。这就像同一部电影推出了DVD和蓝光两种版本,满足不同设备需求。
三、双路径部署指南
A. 油猴脚本方案
核心价值:无需开发者模式,通过Tampermonkey(油猴脚本管理器)一键安装,适合普通用户快速体验。
操作要点:首先在浏览器扩展商店安装Tampermonkey,然后访问脚本平台安装Bilibili-Old主脚本。安装后访问B站任意页面,右下角会出现齿轮状设置图标(自动隐藏时将鼠标移至右下角即可呼出)。
注意事项:ⓘ 脚本会定期自动更新,但部分浏览器可能需要手动允许跨域资源访问才能加载弹幕文件。
B. 浏览器扩展方案
核心价值:功能更完整的部署方式,支持后台持续运行和离线弹幕缓存,适合深度怀旧用户。
操作要点:从项目仓库下载扩展压缩包并解压,在Chrome浏览器地址栏输入chrome://extensions/,开启右上角"开发者模式",点击"加载已解压的扩展程序"选择解压目录。安装后点击扩展栏图标即可打开设置面板。
注意事项:ⓘ 扩展需手动更新,建议每月检查一次最新版本。解压路径中不要包含中文或特殊字符,否则可能导致图标显示异常。
四、个性化配置全攻略
核心价值:通过灵活的设置选项,打造属于你的专属怀旧界面,平衡经典体验与现代功能。
操作要点:基础设置包含界面风格(可选2016/2018两个版本)、播放器行为(记忆播放速度、自动全屏等)和弹幕偏好(透明度、字体大小)。高级用户可在"实验室"选项卡中启用AV1编码支持、UPOS服务器替换等进阶功能。
注意事项:ⓘ "解除地区限制"功能需配合第三方API使用,可能影响视频加载速度。建议根据网络状况选择"自动"或"强制国内节点"模式。
五、常见问题解决方案
核心价值:快速排查使用过程中遇到的典型问题,确保怀旧体验不中断。
操作要点:当出现新版页面闪烁时,可按F5强制刷新;若弹幕加载失败,检查"chrome/images/loading.gif"文件是否存在;播放器黑屏问题通常可通过切换"设置>播放器>渲染模式"解决。
注意事项:ⓘ 由于B站API限制,部分功能如评论区翻页采用模拟实现,可能与原生体验存在细微差异。遇到问题时,可导出"debug.log"文件提交反馈。
通过Bilibili-Old,我们不仅找回了熟悉的界面,更重拾了当年刷B站的纯粹快乐。无论是深夜追番时的弹幕互动,还是学习教程时的专注模式,这个工具都能帮你在怀旧与实用之间找到完美平衡。现在就选择适合自己的部署方式,开启这场温馨的时光之旅吧!
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00