Spring AI项目中SimpleLoggerAdvisor重复订阅导致聊天中断问题分析
问题现象
在Spring AI项目中,开发者使用SimpleLoggerAdvisor进行日志记录时发现了一个异常现象:每次聊天会话中,向模型发送的请求消息数量会随着聊天次数的增加而递增。具体表现为第一次聊天发送1条消息,第二次发送2条,第三次发送3条,最终导致模型因超出限制而中断。
问题根源分析
通过对代码的审查,我们发现问题的核心在于SimpleLoggerAdvisor的实现方式。该advisor同时实现了StreamAroundAdvisor和CallAroundAdvisor两个接口,但在处理流式响应时存在订阅管理不当的问题。
关键问题点在于aroundStream方法中的响应处理逻辑。当使用MessageAggregator聚合响应时,如果没有正确处理订阅关系,可能会导致多次订阅同一个响应流,从而产生消息重复处理的现象。
技术细节
-
Advisor链机制:Spring AI中的advisor链允许在请求处理前后插入自定义逻辑。SimpleLoggerAdvisor同时实现了流式和非流式两种处理接口。
-
响应订阅问题:在流式处理中,每次订阅Flux都会触发新的请求处理流程。如果聚合器或日志记录逻辑没有妥善管理订阅,就会导致重复处理。
-
资源消耗:随着聊天次数的增加,重复订阅会导致请求消息数量呈线性增长,最终超出模型的处理能力限制。
解决方案
要解决这个问题,我们需要重构SimpleLoggerAdvisor的实现,确保:
-
单一订阅原则:确保每个响应流只被订阅一次,避免重复处理。
-
响应共享:对于需要多次使用的响应流,使用
share()或cache()操作符来共享订阅。 -
清晰的日志记录边界:明确区分请求日志和响应日志的记录时机,避免交叉影响。
优化后的实现建议
@Override
public Flux<AdvisedResponse> aroundStream(AdvisedRequest advisedRequest, StreamAroundAdvisorChain chain) {
// 记录请求日志
advisedRequest.messages().forEach(message -> {
logger.info("request: {}", message);
});
// 获取响应流并共享订阅
Flux<AdvisedResponse> sharedResponses = chain.nextAroundStream(advisedRequest).share();
// 附加响应处理逻辑
return sharedResponses
.doOnNext(response -> {
if (response.isLast()) {
logger.info("token使用量,response: {}",
response.response().getMetadata().getUsage());
}
});
}
最佳实践
-
避免多重继承:除非必要,advisor最好只实现一种处理接口(流式或非流式)。
-
谨慎使用聚合器:MessageAggregator等工具需要特别注意订阅管理。
-
性能监控:实现日志记录功能时,应同时监控其对系统性能的影响。
-
资源清理:确保所有响应流都有适当的终止处理,避免资源泄漏。
总结
Spring AI项目中的advisor机制提供了强大的扩展能力,但也需要开发者理解响应式编程的基本原则。通过正确处理流式响应的订阅关系,可以避免类似SimpleLoggerAdvisor导致的重复消息问题。在实现自定义advisor时,应当特别注意响应式流的生命周期管理,确保系统的稳定性和可靠性。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C051
MiniMax-M2.1从多语言软件开发自动化到复杂多步骤办公流程执行,MiniMax-M2.1 助力开发者构建下一代自主应用——全程保持完全透明、可控且易于获取。Python00
kylin-wayland-compositorkylin-wayland-compositor或kylin-wlcom(以下简称kywc)是一个基于wlroots编写的wayland合成器。 目前积极开发中,并作为默认显示服务器随openKylin系统发布。 该项目使用开源协议GPL-1.0-or-later,项目中来源于其他开源项目的文件或代码片段遵守原开源协议要求。C01
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
agent-studioopenJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力TSX0126
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00