gptel项目v0.9.8版本发布:全面支持LLM工具调用与多模型集成
gptel是一个Emacs生态下的LLM(大语言模型)交互框架,它为用户提供了在Emacs编辑器中直接与各类大语言模型进行交互的能力。该项目通过简洁的API和灵活的配置选项,让开发者能够在Emacs环境中无缝集成ChatGPT、Gemini、Claude等主流大语言模型服务。
核心功能升级
本次发布的v0.9.8版本带来了多项重要改进,其中最引人注目的是对LLM工具调用(Tool Use/Function Calling)的全面支持。这一功能允许开发者将自定义的Elisp函数作为"工具"注册到gptel中,LLM可以根据上下文自动调用这些工具完成特定任务。例如,开发者可以注册文件系统访问、网络搜索或Emacs状态查询等工具,LLM在对话过程中会根据需要调用这些工具获取信息或执行操作。
工具调用功能的实现基于描述性元数据机制。每个工具需要提供清晰的文本描述,说明其参数和返回值,这使得LLM能够理解工具的用途并正确调用。虽然当前版本尚未内置任何工具,但通过gptel-get-tool和setf的组合,开发者可以灵活地注册和管理自定义工具。
多模型支持扩展
v0.9.8版本显著扩展了对各类大语言模型的支持:
-
Gemini模型:新增了对
gemini-2.0-flash、gemini-2.0-pro-exp等多个新模型的支持,同时移除了不再受API支持的gemini-pro模型。 -
Anthropic Claude:新增对
claude-3-7-sonnet-20250219模型的支持,包括其特有的"推理"输出内容处理。 -
OpenAI:新增对
o1、o3-mini和gpt-4.5-preview等新模型的支持。 -
其他模型:从原先基于OpenAI兼容模式的支持升级为原生API支持,包括支持引用功能和"推理"输出处理。
用户体验优化
-
重写的gptel-menu界面:新版界面提供了更清晰的请求预览功能,直观展示将要发送的内容和输出位置,帮助用户更好地理解gptel的默认提示行为和各种重定向效果。
-
请求模拟(dry-run)功能:用户现在可以预览即将发送的完整请求内容,并直接在预览界面进行编辑后继续发送,这一功能对于调试复杂提示特别有用。
-
上下文管理增强:支持将整个目录递归添加到全局上下文中,
gptel-context-remove-all命令变为交互式,便于管理。 -
响应分隔符自定义:通过
gptel-response-separator选项,用户可以自定义提示和响应之间的分隔符样式。 -
推理内容处理:新增
gptel-include-reasoning选项,用于控制是否显示LLM生成的"思考"或"推理"内容。
技术架构改进
-
缓存机制:通过
gptel-cache选项(目前仅Anthropic API支持),可以缓存已发送内容,显著降低后续请求的成本和处理时间。 -
新的钩子系统:
gptel-prompt-filter-hook:在发送前对文本进行任意转换gptel-post-request-hook:请求发送后执行预备/重置代码gptel-post-rewrite-hook:重写请求完成后执行
-
Org模式增强:
- 属性抽屉等Org元素现在会被自动从提示文本中剥离
- 改进了对混合Org/Markdown标记响应的处理
- 新增
gptel-org-convert-response控制自动转换行为
-
API抽象层:新增
gptel-get-backend函数(支持setf),简化了后端管理和配置。
开发者工具链
-
重写功能迭代:
gptel-rewrite现在支持对响应进行多次迭代改进。 -
一次性设置:通过Transient菜单,可以为单次请求临时覆盖全局或缓冲区本地设置。
-
错误修复:解决了Org模式下并发请求可能导致的响应混淆问题,修复了流式响应时源代码块可能无法正确高亮的问题。
兼容性说明
-
移除了几个已废弃的变量和函数,开发者应使用其替代方案:
gptel-send-menu→gptel-menugptel-host→gptel-make-openaigptel-playback→gptel-streamgptel--debug→gptel-log-level
-
Org模式下发送活动区域时,现在会自动应用Org模式特定规则(如分支上下文)。
gptel v0.9.8通过上述改进,进一步巩固了其作为Emacs生态下最强大的LLM交互框架的地位。特别是工具调用功能的引入,为开发者提供了将LLM能力深度集成到工作流中的新途径,预示着Emacs作为"可编程编辑器"的无限可能性。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00