BoundaryML项目中如何获取LLM原始输出内容的技术解析
在BoundaryML项目中,开发者经常需要处理大语言模型(LLM)的输出结果。标准情况下,当调用baml函数如b.FooBar()时,我们会得到一个结构化对象,但有时我们还需要获取原始的完整输出内容,特别是当输出中包含中间推理过程或其他非结构化信息时。
原始输出获取的需求场景
在实际应用中,LLM的输出通常包含两个部分:
- 结构化数据部分(如JSON格式的指令)
- 非结构化的中间推理过程(如"Let's think step by step"这样的思考链)
虽然BoundaryML默认会解析结构化部分并返回对象,但在以下场景中开发者可能需要原始输出:
- 调试和观察模型的完整推理过程
- 在用户界面中展示模型的思考过程
- 记录完整的交互历史用于分析
- 自定义输出格式和展示方式
技术实现方案
BoundaryML提供了Collector机制来捕获原始输出。具体实现方式如下:
from baml_client import b
from baml_py import Collector
# 创建Collector实例
collector = Collector()
# 调用baml函数并传入collector选项
result = b.FooBar(
baml_options={
"collector": collector,
},
)
# 获取最后一次调用的原始输出
if collector.last:
print(collector.last.raw_llm_response)
技术细节解析
-
Collector类:这是BoundaryML提供的一个专门用于收集LLM调用信息的工具类,可以捕获包括原始响应在内的各种调用数据。
-
baml_options参数:这是BoundaryML函数调用的一个特殊参数,用于传递各种调用选项,其中collector选项允许我们指定一个收集器实例。
-
last属性:Collector实例的last属性保存了最后一次调用的详细信息,包括原始响应(raw_llm_response)、处理后的结果等。
-
原始响应内容:raw_llm_response属性包含了LLM返回的完整、未经处理的原始文本内容,包括任何中间推理过程和结构化数据部分。
最佳实践建议
-
错误处理:在使用collector.last前应检查其是否存在,避免空引用异常。
-
性能考虑:虽然收集原始响应很有用,但在高频率调用场景下,应注意这可能带来的内存开销。
-
敏感信息:如果响应中包含敏感信息,在记录或展示原始输出时应注意进行适当处理。
-
日志整合:可以将Collector机制与现有日志系统整合,实现更全面的调用追踪。
总结
BoundaryML通过Collector机制为开发者提供了灵活获取LLM原始输出的能力,这对于调试、展示和记录完整交互过程非常有价值。开发者可以根据实际需求选择性地使用这一功能,在保持主要业务逻辑简洁的同时,也能获取所需的详细输出信息。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
HY-Embodied-0.5这是一套专为现实世界具身智能打造的基础模型。该系列模型采用创新的混合Transformer(Mixture-of-Transformers, MoT) 架构,通过潜在令牌实现模态特异性计算,显著提升了细粒度感知能力。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00