Bento v1.7.0 版本发布:增强 XML 处理与 Protobuf 支持
Bento 是一个高性能的数据流处理框架,专注于简化复杂数据管道的构建和管理。它提供了丰富的输入输出连接器、处理器和转换工具,使开发者能够轻松地构建、部署和监控数据流应用程序。Bento 的设计理念强调灵活性和可扩展性,支持多种数据格式和协议,适用于从简单的日志处理到复杂的实时分析等各种场景。
近日,Bento 发布了 v1.7.0 版本,带来了多项重要功能增强和问题修复。这个版本特别关注于 XML 数据处理能力的提升和 Protobuf 支持的扩展,同时也改进了 HTTP 服务器输出功能并修复了一些关键问题。
XML 处理能力显著增强
v1.7.0 版本在 XML 数据处理方面进行了重大改进。新增的 xml_documents_to_json 和 xml_documents_to_json:cast 选项为 unarchive 处理器的 format 字段提供了更灵活的 XML 转换能力。这些选项允许开发者将 XML 文档转换为 JSON 格式,其中 cast 选项还能智能地将 XML 中的数据类型转换为对应的 JSON 数据类型,大大简化了异构系统间的数据交换。
更值得一提的是,这个版本引入了全新的 xml_documents 扫描器。这个扫描器能够消费一个或多个 XML 文档流,并将其分解为离散的消息。这一功能特别适合处理包含多个 XML 文档的连续数据流,如从消息队列或文件系统中读取的 XML 数据。xml_documents 扫描器会自动识别 XML 文档边界,确保每个文档都能被正确处理,而不会因为文档边界问题导致数据损坏或解析失败。
Protobuf 支持扩展:远程 Schema 注册表集成
对于使用 Protocol Buffers 的开发团队,v1.7.0 带来了一个令人兴奋的新功能。protobuf 处理器现在支持 bsr 字段,这意味着可以直接从远程的 Buf Schema Registry (BSR) 加载和使用 schema。这一改进显著简化了 Protobuf schema 的管理和分发流程,特别是在微服务架构中,不同服务可以轻松共享和同步 Protobuf 定义。
通过集成 BSR,开发者不再需要手动分发 .proto 文件或担心版本不一致的问题。Bento 现在可以直接从中央注册表获取最新的 schema 定义,确保数据序列化和反序列化的一致性。这一功能特别适合大规模分布式系统,其中多个服务需要交换 Protobuf 编码的消息。
HTTP 服务器输出支持 Server-Sent Events
在输出功能方面,v1.7.0 为 http_server 输出添加了 stream_format 和 heartbeat 字段,使其能够发射 Server-Sent Events (SSE)。SSE 是一种轻量级的服务器推送技术,允许服务器通过 HTTP 连接向客户端持续发送更新。
这一改进使得 Bento 能够更高效地处理实时数据推送场景,如实时监控、即时通知等。heartbeat 字段特别有用,它可以配置定期发送的心跳消息,保持连接活跃并检测客户端是否仍然在线。对于构建实时 Web 应用程序的开发人员来说,这一功能提供了简单而强大的工具来实现服务器到客户端的实时数据流。
关键问题修复与稳定性提升
除了新功能外,v1.7.0 还包含了一些重要的修复和改进:
-
改进了在优雅关闭期间对上下文取消/超时的处理,确保在关闭流时能正确记录错误日志。这一改进使得系统在关闭时的行为更加可预测,便于诊断问题。
-
修复了
MessageAwareRateLimit公共实现的注册问题,确保速率限制功能在各种场景下都能正常工作。这对于需要精确控制消息处理速率的应用程序尤为重要。
总结
Bento v1.7.0 版本通过增强 XML 处理能力、扩展 Protobuf 支持和改进 HTTP 服务器输出,为开发者提供了更强大、更灵活的数据流处理工具。特别是对 XML 和 Protobuf 的改进,使得 Bento 在处理现代数据格式方面更加全面。这些新功能和改进进一步巩固了 Bento 作为构建复杂数据管道的首选框架的地位,无论是处理传统数据格式还是实现实时数据流,都能提供出色的性能和灵活性。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00