Focus for YouTube:专注模式过滤规则深度解析
项目概述
Focus for YouTube 是一组精心设计的过滤规则,旨在帮助用户消除YouTube平台上的各种干扰元素,打造一个更加纯净的视频观看体验。该规则基于Adblock Plus语法实现,通过屏蔽非必要界面组件,让用户能够专注于当前观看的视频内容。
核心功能解析
1. 主页内容净化
项目通过以下规则彻底清除了YouTube主页的推荐内容流:
youtube.com##ytd-browse[page-subtype*='home']
m.youtube.com##ytm-browse > ytm-single-column-browse-results-renderer > div > div[tab-identifier*="FEwhat_to_watch"]
这种设计特别适合那些希望避免被算法推荐内容分散注意力的用户,让使用YouTube时不再被无穷无尽的推荐视频所困扰。
2. 侧边栏精简
项目移除了左侧导航栏中的多个非必要入口,包括:
- 首页按钮
- 探索按钮
- 订阅内容
- 媒体库
- 历史记录
这些修改通过精确的CSS选择器实现,保留了用户可能需要的核心功能,同时去掉了容易导致分心的元素。
3. 视频相关干扰消除
3.1 视频结束时的推荐
##.ytp-endscreen-content
这条规则移除了视频播放结束后自动显示的推荐内容,防止用户陷入"再看一个"的无限循环。
3.2 相关视频推荐
youtube.com,youtubekids.com###related
m.youtube.com##ytm-watch ytm-compact-video-renderer
这些规则有效屏蔽了视频播放页面右侧的相关推荐列表,帮助用户专注于当前观看的内容。
3.3 暂停时的推荐覆盖层
##.ytp-pause-overlay
youtube.com##.ytp-pause-overlay
当视频暂停时,YouTube默认会显示推荐内容覆盖层,这些规则确保了暂停时界面保持干净。
4. 其他干扰元素处理
4.1 YouTube Premium推广
youtube.com###masthead-ad
移除了顶部常驻的Premium会员推广横幅。
4.2 自动生成的播放列表
www.youtube.com#?#ytd-compact-radio-renderer:-abp-has(ytd-thumbnail-overlay-bottom-panel-renderer)
屏蔽了"My mix"等算法自动生成的播放列表推荐。
4.3 视频悬停覆盖层
www.youtube.com###hover-overlays
移除了鼠标悬停在视频缩略图上时显示的"稍后观看"等操作按钮。
技术实现原理
Focus for YouTube主要采用以下技术手段实现内容过滤:
-
CSS选择器定位:通过精确的DOM元素定位,针对性地隐藏特定界面组件。
-
请求拦截:阻止某些推荐内容相关的AJAX请求,从源头切断干扰内容的加载。
-
元素属性匹配:利用元素属性特征进行更精确的定位,确保规则稳定性。
使用场景建议
这套过滤规则特别适合以下用户群体:
- 需要专注学习的研究人员
- 避免分心的远程工作者
- 希望控制观看时间的自律人士
- 仅关注特定内容创作者的专业用户
进阶配置说明
文件中包含了一些被注释掉的规则(以"!"开头),用户可以根据需要取消注释来启用额外功能,例如:
- 移除点赞/点踩计数器
- 完全屏蔽评论区
- 清除直播聊天窗口
这些规则提供了更极致的净化体验,但可能会影响部分社交互动功能。
维护与更新
由于YouTube界面会定期更新,建议用户:
- 保持过滤规则定期更新
- 关注可能的界面变化导致的规则失效
- 根据个人需求调整规则细节
Focus for YouTube通过系统性的界面净化,为用户创造了一个更加专注的视频观看环境,是提升数字健康和工作效率的有效工具。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00