首页
/ Burr项目中的流式输出功能设计与实现

Burr项目中的流式输出功能设计与实现

2025-07-10 15:30:15作者:宣利权Counsellor

概述

在现代LLM应用开发中,流式输出是一个关键需求。Burr项目通过创新的设计,为开发者提供了优雅的流式输出解决方案。本文将深入解析Burr框架中流式输出功能的设计思路、API演进和实现细节。

核心设计理念

Burr团队在设计流式输出功能时,主要考虑了以下几个关键点:

  1. 即时性与完整性:既要支持实时流式输出,又要保证最终结果的完整性
  2. 状态管理:流式输出过程中如何与Burr的状态管理机制协同工作
  3. API简洁性:提供直观易用的API接口,降低开发者学习成本

API演进历程

初始方案:Stream容器

最初设计考虑引入专门的Stream容器来包装生成器:

@action(writes=["response", "chat_history"])
def streaming_text_response(state: State, prompt: str) -> tuple[dict, State]:
    generator = query_streaming(...).stream
    stream = Stream.string(generator)
    result = {"response": generator}
    return result, state.update(response=generator).append(chat_history=result)

这种方案虽然可行,但引入了额外的概念和复杂度,不够Pythonic。

优化方案:直接使用生成器

经过深入讨论,团队决定利用Python生成器的原生特性:

@action(reads=["query"], writes=["response"])
def streaming_output_action(state: State) -> Generator[dict, None, Tuple[dict, State]]:
    buffer = []
    for word in ["hello", "world", "this", "is", "a", "test"]:
        buffer.append(word)
        yield {"response": word}
    response = " ".join(buffer)
    return {"response": response}, state.update(response=response)

这种设计更加简洁,充分利用了Python语言特性,特别是生成器的yieldreturn结合使用的特性。

最终API设计

Burr最终确定的流式输出API包含同步和异步两种形式:

同步API

result_generator = app.stream_result(halt_after=...)
for result in result_generator:  # 获取中间结果
    yield result['...']
action, state, result = result_generator.get()  # 阻塞直到完成

异步API

result_generator = app.astream_result(halt_after=...)
async for result in result_generator:  # 获取中间结果
    yield result['...']
action, state, result = result_generator.get()  # 阻塞直到完成

关键技术实现

  1. 生成器返回值处理:利用生成器可以同时yieldreturn的特性,yield用于流式输出中间结果,return用于返回最终结果和状态

  2. 状态管理:流式处理过程中,状态更新会被延迟到生成器完全执行完毕

  3. 生命周期控制

    • halt_beforehalt_after参数控制执行流程
    • 创建StreamingResultContainer来管理流式结果
  4. 异常处理:确保在流式输出中断时,系统状态能够保持一致

最佳实践

  1. 流式LLM响应
@action(reads=["prompt"], writes=["response"])
def streaming_llm_response(state: State) -> Generator[dict, None, Tuple[dict, State]]:
    buffer = ""
    for token in query_llm(state["prompt"]):
        buffer += token
        yield {"response": token}
    return {"response": buffer}, state.update(response=buffer)
  1. 进度指示器
@action(writes=["progress"])
def long_running_task(state: State) -> Generator[dict, None, Tuple[dict, State]]:
    for i in range(100):
        # 执行任务的一部分
        yield {"progress": i}
    return {"progress": 100}, state.update(progress=100)

设计考量

  1. 同步优先:当前版本优先实现了同步生成器支持,异步支持将在后续版本中完善

  2. 中间结果处理:对于中间步骤的流式输出,框架会自动执行完生成器

  3. 钩子执行时机:确保步骤完成钩子只在生成器完全执行后触发

总结

Burr的流式输出功能通过巧妙利用Python生成器特性,为开发者提供了强大而简洁的API。这种设计既满足了实时流式输出的需求,又与Burr的状态管理机制完美融合,为构建复杂的流式应用提供了坚实基础。随着异步支持的完善,这一功能将更加强大和灵活。

登录后查看全文
热门项目推荐

项目优选

收起
RuoYi-Vue3RuoYi-Vue3
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
674
449
openGauss-serveropenGauss-server
openGauss kernel ~ openGauss is an open source relational database management system
C++
97
156
ohos_react_nativeohos_react_native
React Native鸿蒙化仓库
C++
139
223
leetcodeleetcode
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
52
15
openHiTLSopenHiTLS
旨在打造算法先进、性能卓越、高效敏捷、安全可靠的密码套件,通过轻量级、可剪裁的软件技术架构满足各行业不同场景的多样化要求,让密码技术应用更简单,同时探索后量子等先进算法创新实践,构建密码前沿技术底座!
C
113
254
Python-100-DaysPython-100-Days
Python - 100天从新手到大师
Python
817
149
cherry-studiocherry-studio
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
524
43
continew-admincontinew-admin
🔥Almost最佳后端规范🔥页面现代美观,且专注设计与代码细节的高质量多租户中后台管理系统框架。开箱即用,持续迭代优化,持续提供舒适的开发体验。当前采用技术栈:Spring Boot3(Java17)、Vue3 & Arco Design、TS、Vite5 、Sa-Token、MyBatis Plus、Redisson、FastExcel、CosId、JetCache、JustAuth、Crane4j、Spring Doc、Hutool 等。 AI 编程纪元,从 ContiNew & AI 开始优雅编码,让 AI 也“吃点好的”。
Java
121
29
CangjieMagicCangjieMagic
基于仓颉编程语言构建的 LLM Agent 开发框架,其主要特点包括:Agent DSL、支持 MCP 协议,支持模块化调用,支持任务智能规划。
Cangjie
589
44
MateChatMateChat
前端智能化场景解决方案UI库,轻松构建你的AI应用,我们将持续完善更新,欢迎你的使用与建议。 官网地址:https://matechat.gitcode.com
705
97