gptel项目v0.9.8版本发布:全面支持LLM工具调用与多模型集成
gptel是一个Emacs生态下的LLM(大语言模型)交互框架,它为用户提供了在Emacs编辑器中直接与各类大语言模型进行交互的能力。该项目通过简洁的API和灵活的配置选项,让开发者能够在Emacs环境中无缝集成ChatGPT、Gemini、Claude等主流大语言模型服务。
核心功能升级
本次发布的v0.9.8版本带来了多项重要改进,其中最引人注目的是对LLM工具调用(Tool Use/Function Calling)的全面支持。这一功能允许开发者将自定义的Elisp函数作为"工具"注册到gptel中,LLM可以根据上下文自动调用这些工具完成特定任务。例如,开发者可以注册文件系统访问、网络搜索或Emacs状态查询等工具,LLM在对话过程中会根据需要调用这些工具获取信息或执行操作。
工具调用功能的实现基于描述性元数据机制。每个工具需要提供清晰的文本描述,说明其参数和返回值,这使得LLM能够理解工具的用途并正确调用。虽然当前版本尚未内置任何工具,但通过gptel-get-tool和setf的组合,开发者可以灵活地注册和管理自定义工具。
多模型支持扩展
v0.9.8版本显著扩展了对各类大语言模型的支持:
-
Gemini模型:新增了对
gemini-2.0-flash、gemini-2.0-pro-exp等多个新模型的支持,同时移除了不再受API支持的gemini-pro模型。 -
Anthropic Claude:新增对
claude-3-7-sonnet-20250219模型的支持,包括其特有的"推理"输出内容处理。 -
OpenAI:新增对
o1、o3-mini和gpt-4.5-preview等新模型的支持。 -
其他模型:从原先基于OpenAI兼容模式的支持升级为原生API支持,包括支持引用功能和"推理"输出处理。
用户体验优化
-
重写的gptel-menu界面:新版界面提供了更清晰的请求预览功能,直观展示将要发送的内容和输出位置,帮助用户更好地理解gptel的默认提示行为和各种重定向效果。
-
请求模拟(dry-run)功能:用户现在可以预览即将发送的完整请求内容,并直接在预览界面进行编辑后继续发送,这一功能对于调试复杂提示特别有用。
-
上下文管理增强:支持将整个目录递归添加到全局上下文中,
gptel-context-remove-all命令变为交互式,便于管理。 -
响应分隔符自定义:通过
gptel-response-separator选项,用户可以自定义提示和响应之间的分隔符样式。 -
推理内容处理:新增
gptel-include-reasoning选项,用于控制是否显示LLM生成的"思考"或"推理"内容。
技术架构改进
-
缓存机制:通过
gptel-cache选项(目前仅Anthropic API支持),可以缓存已发送内容,显著降低后续请求的成本和处理时间。 -
新的钩子系统:
gptel-prompt-filter-hook:在发送前对文本进行任意转换gptel-post-request-hook:请求发送后执行预备/重置代码gptel-post-rewrite-hook:重写请求完成后执行
-
Org模式增强:
- 属性抽屉等Org元素现在会被自动从提示文本中剥离
- 改进了对混合Org/Markdown标记响应的处理
- 新增
gptel-org-convert-response控制自动转换行为
-
API抽象层:新增
gptel-get-backend函数(支持setf),简化了后端管理和配置。
开发者工具链
-
重写功能迭代:
gptel-rewrite现在支持对响应进行多次迭代改进。 -
一次性设置:通过Transient菜单,可以为单次请求临时覆盖全局或缓冲区本地设置。
-
错误修复:解决了Org模式下并发请求可能导致的响应混淆问题,修复了流式响应时源代码块可能无法正确高亮的问题。
兼容性说明
-
移除了几个已废弃的变量和函数,开发者应使用其替代方案:
gptel-send-menu→gptel-menugptel-host→gptel-make-openaigptel-playback→gptel-streamgptel--debug→gptel-log-level
-
Org模式下发送活动区域时,现在会自动应用Org模式特定规则(如分支上下文)。
gptel v0.9.8通过上述改进,进一步巩固了其作为Emacs生态下最强大的LLM交互框架的地位。特别是工具调用功能的引入,为开发者提供了将LLM能力深度集成到工作流中的新途径,预示着Emacs作为"可编程编辑器"的无限可能性。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00- QQwen3-Coder-Next2026年2月4日,正式发布的Qwen3-Coder-Next,一款专为编码智能体和本地开发场景设计的开源语言模型。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin08
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00