告别复杂配置!Page Assist让本地AI工具像浏览器插件一样简单
你是否曾因这些问题头疼:本地部署Ollama后不知如何与浏览器集成?切换OpenAI和本地模型时要反复修改配置?面对满屏代码教程望而却步?Page Assist(GitHub推荐项目精选)彻底解决了这些痛点,让普通用户也能一键玩转本地AI。
为什么选择Page Assist?
作为一款浏览器扩展(支持Chrome和Firefox),Page Assist实现了三大突破:
- 零代码集成:无需终端命令,鼠标点击即可完成Ollama/OpenAI模型配置
- 多模型无缝切换:本地Ollama与云端API在同一界面自由切换,模型管理可视化
- 浏览器级交互体验:侧边栏聊天界面与网页内容深度融合,支持截图分析、文档解析等特色功能
核心技术实现位于src/models/ChatOllama.ts和src/services/ollama.ts,通过模块化设计确保普通用户无需接触底层代码。
3分钟极速上手流程
1. 基础环境准备
| 环境要求 | 推荐配置 | 检查方法 |
|---|---|---|
| Ollama版本 | ≥0.1.26 | ollama --version |
| 浏览器 | Chrome 120+ / Firefox 115+ | 官方兼容性文档 |
| 最低内存 | 8GB(运行7B模型) | 任务管理器查看可用内存 |
提示:若未安装Ollama,可通过官方文档获取安装包,Windows用户建议使用WSL2后端获得最佳性能。
2. 三步骤完成初始配置
graph TD
A[安装扩展] --> B[检测Ollama服务]
B -->|自动发现| C[选择模型]
B -->|未检测到| D[手动输入Ollama地址]
C --> E[开始聊天]
D --> E
- 扩展安装:从浏览器应用商店搜索"Page Assist"或手动加载发布包
- 自动配置:首次启动时扩展会自动检测本地Ollama服务(默认地址
http://127.0.0.1:11434) - 模型选择:在侧边栏点击"模型"图标,从下拉列表选择已下载的Ollama模型(如llama2、mistral)
高级配置:如需添加远程Ollama实例,可在设置界面中添加多个服务端点
3. 多模型管理技巧
Page Assist创新的模型管理系统让多实例协作变得简单:
pie
title 模型使用场景分布
"本地Ollama(7B模型)" : 60
"OpenAI API" : 25
"LM Studio" : 10
"其他兼容服务" : 5
五大杀手级功能详解
1. 网页内容智能交互
选中任意网页文本,右键菜单会出现"Ask Page Assist"选项,支持:
- 复杂概念一键解释(如选中技术文档中的"向量数据库")
- 多语言即时翻译(内置18种语言支持,本地化文件)
- 表格数据快速分析(自动识别HTML表格,生成统计摘要)
核心实现位于src/parser/目录,通过DOM解析和内容提取算法实现网页智能理解。
2. 创新的模型拉取方式
Page Assist颠覆了传统模型下载流程,提供三种零命令方法:
- Ollama官网直拉:访问ollama.com模型页面时,右上角会出现"Pull"按钮,点击即可后台下载
- HuggingFace集成:在GGUF格式模型页面,通过"Use this model"→"Ollama"→"Pull from Page Assist"完成下载
- 内置模型市场:在扩展设置的模型标签页浏览热门模型,一键获取
下载进度会在浏览器工具栏图标动态显示,支持后台继续下载
3. 文档深度解析引擎
支持拖拽上传多种格式文档(PDF/CSV/TXT/DOCX),通过加载器模块实现:
4. 多模态交互体验
通过视觉模块实现:
- 截图分析:快捷键
Ctrl+Shift+U截取网页区域,模型自动生成描述 - 公式识别:支持LaTeX公式渲染和解释(基于katex)
- 图表理解:自动识别网页中的柱状图/折线图,生成数据解读
5. 隐私保护设计
作为本地优先的AI工具,隐私保护刻在基因里:
进阶技巧与常见问题
性能优化配置
| 参数 | 默认值 | 优化建议 | 调整位置 |
|---|---|---|---|
| 上下文窗口 | 2048 | 7B模型建议设为4096 | 模型设置 |
| 温度值 | 0.7 | 事实性问答设为0.3 | 聊天界面滑块 |
| 批处理大小 | 512 | GPU用户可增至1024 | 高级选项 |
疑难问题解决
Q: Ollama已启动但扩展显示未连接?
A: 检查连接故障排除指南,常见原因包括:Ollama服务未启动、端口被占用(默认11434)、防火墙阻止访问。
Q: 如何导入/导出聊天记录?
A: 使用导出工具生成JSON文件,路径在设置→数据管理→导出对话。
Q: 支持哪些模型的视觉能力?
A: 当前仅支持Llama 3 Vision、GPT-4V等模型,需在模型配置中启用"视觉模式"。
未来展望与社区贡献
Page Assist作为开源项目(MIT许可证),欢迎通过以下方式参与:
下期预告:Page Assist 2.0将支持本地函数调用和知识库持久化,敬请关注项目Release页面
现在就访问项目仓库获取安装包,开启你的本地AI之旅。如果觉得有用,请给项目点赞收藏,让更多人告别AI配置的烦恼!
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
GLM-4.7-FlashGLM-4.7-Flash 是一款 30B-A3B MoE 模型。作为 30B 级别中的佼佼者,GLM-4.7-Flash 为追求性能与效率平衡的轻量化部署提供了全新选择。Jinja00
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin07
compass-metrics-modelMetrics model project for the OSS CompassPython00