ChatGPT.js v3.7.0 版本发布:功能增强与代码优化
ChatGPT.js 是一个强大的 JavaScript 库,专门为与 ChatGPT 网页界面交互而设计。它为开发者提供了丰富的 API 接口,可以轻松实现各种自动化操作和功能扩展。最新发布的 v3.7.0 版本带来了一系列新功能和改进,进一步提升了开发体验和性能。
新增功能亮点
1. 登录相关功能增强
本次更新新增了 chatgpt.getLoginButton() 方法,开发者可以更方便地获取登录按钮元素。同时新增的 chatgpt.login() 方法简化了登录流程的实现,为自动化脚本提供了更便捷的接口。
2. 语音功能支持
新增的 chatgpt.getVoiceButton() 方法及其别名让开发者能够轻松获取语音输入按钮,为语音交互功能的开发提供了基础支持。
3. 临时聊天状态检测
chatgpt.isTempChat() 方法及其别名/同义词的加入,使得开发者能够检测当前是否为临时聊天会话,这对于需要区分会话类型的应用场景非常有用。
4. 错误处理增强
新增的 chatgpt.selectors.errors.txt 和 chatgpt.getErrorMsg() 方法完善了错误处理机制,开发者可以更轻松地获取和识别系统错误信息。
代码优化与改进
1. 选择器抽象化
将选择器抽象到 chatgpt.selectors 中,提高了代码的组织性和可维护性,同时也为未来的扩展预留了空间。
2. 警告框功能增强
chatgpt.alert() 方法现在支持在点击拖动时禁用子指针事件,避免了意外触发悬停样式的问题。同时改进了复选框功能,现在可以通过点击标签来选中复选框。
3. 性能优化
- 缩短了
chatgpt.openAIaccessToken为accessToken,简化了初始化过程 - 使用
before()替代Element.insertBefore()缩短代码 - 在
chatgpt.renderHTML()中恢复使用insertBefore()以避免异常 - 删除了不再需要的 CJS 函数别名
4. 代码精简
- 简化了
chatgpt.activate<Scheme>Mode()方法 - 精简了
chatgpt.alert()方法 - 缩短了函数和变量名称
- 删除了不必要的属性、符号和空白
- 改进或删除了注释
- 使用模板字面量替代字符串连接
依赖项更新
项目更新了多个开发依赖项,包括:
- @adamlui/scss-to-css 从 1.10.25 升级到 1.10.26
- @eslint/css 从 0.2.0 升级到 0.3.0
- @html-eslint/eslint-plugin 从 0.34.0 升级到 0.35.0
- @html-eslint/parser 从 0.34.0 升级到 0.35.0
- @stylistic/eslint-plugin-js 从 3.1.0 升级到 4.0.1
- eslint-plugin-yml 从 1.16.0 升级到 1.17.0
这些更新确保了开发工具链的现代化和安全性。
总结
ChatGPT.js v3.7.0 版本在功能增强和代码优化方面都取得了显著进步。新增的登录、语音和错误处理功能扩展了库的应用场景,而全面的代码优化则提升了性能和可维护性。这些改进使得开发者能够更高效地构建基于 ChatGPT 的应用,同时保持代码的简洁和优雅。
对于正在使用或考虑使用 ChatGPT.js 的开发者来说,v3.7.0 版本无疑是一个值得升级的选择,它为用户提供了更强大、更稳定的开发体验。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00