Kotlin-AI-Examples项目:深入理解Spring AI中的Advisor机制
什么是Advisor?
在Spring AI框架中,Advisor是一种强大的拦截机制,它允许开发者在AI交互过程中灵活地介入和修改请求与响应。这种设计模式类似于Spring框架中的AOP(面向切面编程)概念,但专门为AI交互场景进行了优化。
Advisor的核心价值在于它提供了一种非侵入式的方式来增强AI功能,而不需要修改核心业务逻辑。通过Advisor,我们可以实现多种增强功能:
- 上下文增强:自动为请求添加必要的上下文信息
- 内容过滤:拦截并过滤敏感或不适当的内容
- 性能监控:记录请求响应时间和资源消耗
- 格式标准化:确保AI输出的数据结构一致性
- 对话记忆:维护对话历史上下文
基础环境搭建
在开始使用Advisor之前,我们需要配置基本的AI聊天环境。这里以OpenAI的GPT模型为例:
%useLatestDescriptors
%use spring-ai-openai
val apiKey = System.getenv("OPENAI_API_KEY") ?: "YOUR_OPENAI_API_KEY"
val openAiApi = OpenAiApi.builder().apiKey(apiKey).build()
val openAiOptions = OpenAiChatOptions.builder()
.model(OpenAiApi.ChatModel.GPT_4_O_MINI)
.temperature(0.7)
.build()
val chatModel = OpenAiChatModel.builder()
.openAiApi(openAiApi)
.defaultOptions(openAiOptions)
.build()
这段代码配置了一个基本的OpenAI聊天模型客户端,设置了模型版本为GPT-4-O-MINI,温度为0.7(控制输出的创造性程度)。
内置Advisor实战
Spring AI提供了一系列开箱即用的Advisor实现,让我们先看看最常用的MessageChatMemoryAdvisor。
MessageChatMemoryAdvisor
这个Advisor负责维护对话历史,使得AI能够记住上下文。实现方式如下:
val chatMemory = MessageWindowChatMemory.builder().build()
val chatClient = ChatClient
.builder(chatModel)
.defaultAdvisors(MessageChatMemoryAdvisor(chatMemory))
.build()
测试对话效果:
chatClient.prompt("Hi, tell me a joke").call().content()
// 输出:Sure! Why did the scarecrow win an award? Because he was outstanding in his field!
chatClient.prompt("What is previous message in our chat history?").call().content()
// 输出:The previous message in our chat history was a joke: "Why did the scarecrow win an award? Because he was outstanding in his field!"
可以看到,AI现在能够记住之前的对话内容,这对于构建连贯的对话体验至关重要。
其他内置Advisor
Spring AI还提供了多种实用的内置Advisor:
- PromptChatMemoryAdvisor:基于提示的对话记忆
- QuestionAnswerAdvisor:专门优化问答场景
- RetrievalAugmentationAdvisor:增强检索能力
- SafeGuardAdvisor:安全防护
- SimpleLoggerAdvisor:简单日志记录
- VectorStoreChatMemoryAdvisor:基于向量存储的记忆
自定义Advisor开发
虽然内置Advisor功能强大,但实际项目中我们经常需要定制自己的Advisor。让我们创建一个简单的日志记录Advisor。
自定义Logger Advisor
import org.springframework.ai.chat.client.advisor.api.AdvisedRequest
import org.springframework.ai.chat.client.advisor.api.AdvisedResponse
import org.springframework.ai.chat.client.advisor.api.CallAroundAdvisor
import org.springframework.ai.chat.client.advisor.api.CallAroundAdvisorChain
class CustomLogger: CallAroundAdvisor {
override fun getName(): String {
return "CustomLogger"
}
override fun getOrder(): Int = 0
override fun aroundCall(advisedRequest: AdvisedRequest, chain: CallAroundAdvisorChain): AdvisedResponse {
println("CustomLogger.Before: ${advisedRequest}")
val advisedResponse = chain.nextAroundCall(advisedRequest)
println("CustomLogger.After: ${advisedResponse}")
return advisedResponse
}
}
这个CustomLogger会在每次AI交互前后打印请求和响应信息,非常适合调试和监控。
使用自定义Advisor
chatClient
.prompt("Generate HelloWorld in Kotlin")
.advisors(CustomLogger())
.call()
.content()
执行后会输出详细的请求和响应日志,同时返回Kotlin的HelloWorld代码示例。
Advisor的高级应用
在实际项目中,Advisor可以组合使用,形成处理链。例如:
- 安全过滤链:先经过SafeGuardAdvisor过滤敏感词,再经过内容审核Advisor
- 上下文增强链:先添加用户画像信息,再补充业务上下文
- 监控链:日志记录Advisor + 性能监控Advisor
Advisor的执行顺序由getOrder()方法决定,数值越小优先级越高。合理设置顺序可以确保处理流程符合预期。
最佳实践建议
- 职责单一:每个Advisor应该只关注一个特定功能
- 性能考量:复杂处理应考虑异步或缓存机制
- 错误处理:妥善处理异常,避免中断整个处理链
- 配置灵活:通过外部配置控制Advisor的启用和参数
- 测试覆盖:为每个Advisor编写单元测试和集成测试
总结
Spring AI的Advisor机制为AI应用开发提供了极大的灵活性和扩展性。通过内置Advisor可以快速实现常见功能,而自定义Advisor则能满足特定业务需求。合理使用Advisor可以显著提升AI应用的稳定性、安全性和用户体验。
在Kotlin-AI-Examples项目中,这些技术已经过实践验证,开发者可以直接参考或基于此进行二次开发,快速构建自己的AI增强功能。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00