ChatHub开源项目:多AI工具集成浏览器扩展开发指南
2026-04-30 11:33:19作者:卓炯娓
ChatHub是一款强大的开源浏览器扩展,让你能够在一个界面中同时使用多个AI聊天机器人(如ChatGPT、Claude、Gemini等),轻松实现多模型对话对比与协作。本指南将帮助开发者快速掌握这个多AI工具集成的浏览器扩展项目,从功能解析到实际开发上手,全方位了解项目架构与扩展方法。
功能解析:ChatHub能做什么?
多AI并行对话
ChatHub的核心功能是允许用户在同一界面同时与多个AI模型进行对话。无论是比较不同AI对同一问题的回答,还是让它们协同完成复杂任务,都能轻松实现。
个性化界面定制
提供明亮与暗黑两种主题模式,满足不同场景下的使用需求,减轻长时间使用的视觉疲劳。
丰富的AI模型支持
支持ChatGPT、Claude、Bard、Bing、Perplexity等多种主流AI模型,并且可以根据需要扩展更多模型。
快速上手:三步掌握ChatHub开发环境
第一步:获取项目代码
git clone https://gitcode.com/gh_mirrors/ch/chathub
cd chathub
第二步:安装依赖
yarn install
第三步:启动开发环境
yarn dev
[!TIP] 如果出现依赖安装问题,可以尝试使用
yarn install --force强制安装,或者检查Node.js版本是否符合要求(建议使用Node.js 16+)。
核心模块:ChatHub的内部构造
如何组织项目代码结构?
ChatHub采用模块化的项目结构,主要包含以下核心目录:
chathub/
├── src/ # 源代码目录
│ ├── app/ # 应用核心代码
│ │ ├── bots/ # AI机器人集成代码
│ │ ├── components/ # UI组件
│ │ └── pages/ # 页面组件
│ ├── background/ # 扩展后台脚本
│ ├── content-script/ # 内容脚本
│ └── assets/ # 静态资源
├── package.json # 项目配置文件
└── vite.config.ts # 构建配置
核心文件导航图
- 应用入口:
src/app/main.tsx- 应用程序的主入口点,负责初始化和启动应用 - 机器人集成:
src/app/bots/- 包含各种AI机器人的实现代码 - UI组件:
src/app/components/- 构建用户界面的各种组件 - 状态管理:
src/app/state/- 应用状态管理 - API服务:
src/services/- 处理各种API调用和服务
配置系统实现原理
ChatHub的配置系统就像应用的控制面板,集中管理各种设置和参数。配置加载优先级从高到低依次为:
- 用户自定义配置(通过UI设置)
- 环境变量配置
- 默认配置
这种多层级的配置系统确保了应用的灵活性和可定制性,同时提供了合理的默认行为。
扩展指南:如何扩展ChatHub功能
如何添加新的AI机器人?
- 在
src/app/bots/目录下创建新的机器人目录,例如newbot/ - 实现机器人API调用逻辑,创建
api.ts文件 - 注册机器人,在
src/app/bots/index.ts中添加新机器人的配置
主题定制方法
ChatHub的主题系统基于CSS变量实现,你可以通过修改src/app/theme.ts文件来自定义主题:
// 示例:自定义主题
export const customTheme = {
primaryColor: '#4a6cf7',
secondaryColor: '#6e56cf',
// 其他主题变量...
};
高级功能开发建议
- 添加新功能前:先查看
src/app/consts.ts中的常量定义,了解系统限制和可配置项 - UI组件开发:参考
src/app/components/目录下的现有组件,保持风格一致 - API调用:使用
src/services/proxy-fetch.ts提供的请求工具,确保兼容性和安全性
通过本指南,你已经了解了ChatHub的核心功能、开发环境搭建、代码结构和扩展方法。现在,你可以开始探索这个强大的多AI集成工具,甚至为其贡献自己的功能和改进了!
登录后查看全文
热门项目推荐
相关项目推荐
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust099- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
项目优选
收起
暂无描述
Dockerfile
710
4.51 K
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed.
Get Started
Rust
578
99
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
958
955
deepin linux kernel
C
28
16
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.61 K
942
Ascend Extension for PyTorch
Python
573
694
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
1.43 K
116
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
414
339
暂无简介
Dart
952
235
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
2

