如何使用Page Assist:免费本地AI助手提升网页浏览效率的完整指南
Page Assist是一款开源的Chrome扩展程序,它为本地AI模型提供侧边栏和Web UI界面,让你在任何网页都能轻松与AI模型交互。支持Chrome、Brave、Edge和Firefox等主流浏览器,无需依赖云端服务,保护隐私的同时提升浏览体验。
🚀 为什么选择Page Assist?本地AI助手的3大核心优势
1️⃣ 跨浏览器无缝体验
无论你使用Chrome、Firefox、Edge还是Brave浏览器,Page Assist都能完美适配,确保在不同平台上获得一致的AI交互体验。无需重复配置,一次安装,全浏览器可用。
2️⃣ 本地运行,隐私无忧
所有数据处理均在本地完成,无需上传至云端。通过集成Ollama等本地AI提供商,实现快速响应的同时,有效保护你的个人信息和浏览数据。
![]()
图:Page Assist侧边栏展示,可直接在网页中与本地AI模型对话
3️⃣ 开源免费,社区驱动
作为开源项目,Page Assist代码完全透明,接受全球开发者的贡献和改进。你可以自由定制功能,或参与项目开发,共同打造更强大的浏览器AI助手。
🔧 快速开始:3步安装Page Assist
第一步:获取项目代码
打开终端,执行以下命令克隆仓库:
git clone https://gitcode.com/GitHub_Trending/pa/page-assist
第二步:安装依赖
进入项目目录,使用npm安装所需依赖:
cd page-assist && npm install
第三步:浏览器加载扩展
- Chrome/Edge:打开
chrome://extensions/,开启"开发者模式",点击"加载已解压的扩展程序",选择项目中的dist目录。 - Firefox:打开
about:debugging#/runtime/this-firefox,点击"临时载入附加组件",选择项目中的manifest.json文件。
💡 5大实用场景,解锁AI浏览新方式
网页内容智能分析
遇到长篇文章或技术文档?只需在侧边栏输入问题,Page Assist会基于当前页面内容快速生成摘要、解释复杂概念或提取关键信息,让阅读效率提升50%。
编程学习好帮手
在浏览代码教程或GitHub仓库时,Page Assist可实时解答语法问题、提供代码示例,甚至帮助调试简单错误,成为你的随身编程导师。
多语言即时翻译
支持20+种语言的即时翻译,无论是外文网页还是评论区内容,选中文字即可一键翻译,无需切换翻译工具。
本地知识库构建
通过src/assets/locale/目录下的多语言配置文件,你可以自定义AI回复的语言风格和专业术语,打造个性化的本地知识库。
隐私安全的页面分享
需要与他人分享网页见解?使用内置的页面分享功能,生成带AI分析的静态页面链接,避免敏感信息泄露。
⚙️ 个性化配置:打造你的专属AI助手
调整语言偏好
Page Assist提供多语言支持,你可以在设置中切换界面语言。项目内置ar、de、en、ja-JP等15种语言包,位于src/assets/locale/目录,满足全球用户需求。
管理AI模型
通过设置面板选择默认AI模型,支持Ollama、LM Studio等本地模型,根据你的硬件配置调整参数,平衡性能与响应速度。
快捷键操作
自定义常用功能的快捷键,如Alt+Q快速唤醒侧边栏、Ctrl+Shift+A激活AI分析,让操作更高效。详细快捷键列表可查看docs/shortcuts.md文档。
❓ 常见问题解答
Page Assist支持哪些AI模型?
目前支持Ollama、LlamaCpp、LM Studio等主流本地模型,未来将扩展更多提供商支持。具体配置方法可参考docs/providers/目录下的说明文档。
如何更新扩展?
通过git pull命令拉取最新代码,重新构建并加载扩展即可。项目会定期发布更新,修复bug并添加新功能。
遇到浏览器兼容性问题怎么办?
可查阅docs/browser-support.md文档,了解各浏览器的支持情况及解决方案。若问题仍未解决,欢迎在项目Issues中反馈。
🎯 总结:让AI成为你的网页浏览伙伴
Page Assist以"本地优先、隐私保护"为核心,将强大的AI能力无缝融入你的日常浏览。无论是学习、工作还是娱乐,它都能成为你的得力助手,让每一次网页访问都更高效、更智能。
立即开始使用Page Assist,体验本地AI驱动的网页浏览新方式吧!✨
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00