超全uBlock Origin发布周期指南:从开发到稳定版的完整时间线
你是否曾困惑于uBlock Origin(uBO)的更新频率?为何有时功能会突然变化?本文将彻底解析uBO的开发、测试与发布全流程,让你掌握版本迭代规律,提前了解新功能上线时间。
版本号背后的秘密:uBO版本命名规则
uBO采用主版本.次版本.修订号三段式版本命名,每个数字都有特定含义:
- 主版本(X.0.0):重大架构变更,如Manifest V3支持
- 次版本(0.X.0):功能性更新,如新增过滤规则语法
- 修订号(0.0.X):问题修复,如Fix regex-matching in
JSONPath
查看完整历史版本变更可访问CHANGELOG.md,最近的1.67.0版本就包含了Improve href-sanitizer scriptlet等重要更新。
开发周期全景:从代码提交到用户手中
uBO的开发遵循严格的周期管理,确保每个版本既稳定又包含实用功能:
1. 日常开发阶段(持续进行)
开发者通过GitHub提交代码,所有变更会实时反映在源码中。关键开发文件包括:
- 过滤规则解析:src/js/static-filtering-parser.js
- 差量更新系统:src/js/diff-updater.js
- 任务调度系统:src/js/tasks.js
2. 测试版本发布(每2-4周)
当积累一定功能后,会发布测试版本供高级用户测试。测试版本通过以下渠道发布:
- GitHub Actions自动构建
- 开发者直接分享测试链接
3. 稳定版推送(每4-8周)
经过充分测试后,稳定版会同步推送到各浏览器应用商店:
- Chrome Web Store:通过tools/make-chromium.sh构建
- Firefox Add-ons:使用tools/make-firefox.sh打包
- Edge Add-ons:通过Makefile中的
publish-edge任务发布
时间线可视化:典型版本的生命周期
timeline
title uBO 1.65.0-1.67.0版本周期
section 开发阶段
功能开发 : 2023-10-01, 45d
内部测试 : 2023-11-15, 14d
section 发布阶段
测试版发布 : 2023-11-29, 7d
稳定版审核 : 2023-12-06, 5d
全量推送 : 2023-12-11, 3d
注:实际周期会因功能复杂度和发现问题数量有所调整
不同渠道的发布时间差
uBO在各平台的发布时间存在细微差异,主要受应用商店审核速度影响:
| 平台 | 审核时间 | 发布延迟 |
|---|---|---|
| Chrome | 1-3天 | 最快 |
| Firefox | 3-5天 | 中等 |
| Edge | 5-7天 | 较慢 |
| Safari | 7-14天 | 最慢 |
开发者通过Makefile中的publish-chromium、publish-firefox等任务自动化发布流程,确保各平台版本同步。
如何参与开发与测试
普通用户也能参与uBO的开发过程:
提交问题报告
发现bug可通过CONTRIBUTING.md指引,在专用issue tracker提交详细报告。
参与翻译
通过Crowdin平台为uBO添加新语言或改进现有翻译,翻译文件位于src/_locales/目录。
测试预览功能
高级用户可直接从源码构建扩展:
# 构建Chromium版本
make chromium
# 构建Firefox版本
make firefox
版本规划揭秘:未来功能早知道
uBO的开发计划透明公开,可通过以下方式了解未来方向:
- GitHub Projects:查看开发者的任务看板
- Issues标签:带有
future标签的议题 - Manifest文件:platform/mv3/manifest.json暗示对Manifest V3的持续优化
即将到来的功能可能包括更智能的广告检测算法和性能优化,这些都需要经过完整的开发周期才能发布。
实用技巧:掌控你的uBO更新
如何切换更新渠道
- 稳定版:浏览器应用商店默认版本
- 测试版:访问uBO官网获取测试链接
- 开发版:从源码构建,具体步骤见Makefile
版本回退方法
若新版本出现兼容性问题,可通过以下方式回退:
- Chrome:在扩展管理页面启用"开发者模式"后安装历史版本
- Firefox:使用Extension Downgrader扩展
总结与展望
uBO的发布周期平衡了创新与稳定,通过严格的开发流程和测试机制,确保用户始终能获得高效、可靠的广告过滤体验。随着Web技术的发展,uBO团队会持续优化发布流程,如platform/mv3/make-rulesets.js所示,正在加强对Manifest V3的支持。
关注README.md获取最新项目动态,订阅项目通知,第一时间了解新版本发布信息。
点赞收藏本文,下次uBO更新时你就是最懂版本变化的高级用户!
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00