在Deep-Chat项目中实现消息推荐按钮的技术方案
背景介绍
Deep-Chat是一个功能强大的聊天组件库,开发者可以通过配置实现各种定制化的聊天界面效果。本文将详细介绍如何在Deep-Chat中实现位于输入框上方的推荐按钮功能,这种设计常见于智能客服系统或AI助手应用中,用于引导用户快速发起常见问题咨询。
核心实现原理
实现这一功能的关键在于巧妙利用Deep-Chat的消息样式配置和角色定义系统。通过为特定类型的消息定义自定义样式,我们可以控制其显示位置和外观,使其固定在输入框上方而非传统的消息流中。
具体实现步骤
1. 定义消息样式
首先需要配置messageStyles属性,为推荐消息创建特殊的样式规则:
chatElementRef.messageStyles = {
html: {
recommendation: { // 自定义角色名称
outerContainer: {
position: 'absolute', // 绝对定位
bottom: '60px', // 距离底部60px
},
bubble: {
backgroundColor: 'unset', // 透明背景
padding: '0px', // 无内边距
},
},
},
};
这段代码定义了一个名为"recommendation"的自定义消息角色,将其定位方式设为绝对定位,并放置在距离底部60px的位置,同时移除了默认的消息气泡样式。
2. 创建推荐按钮消息
接下来,通过initialMessages属性初始化包含推荐按钮的HTML内容:
chatElementRef.initialMessages = [
{
html: `
<div class="deep-chat-temporary-message">
<button class="deep-chat-button deep-chat-suggestion-button" style="margin-top: 5px">虾吃什么?</button>
<button class="deep-chat-button deep-chat-suggestion-button" style="margin-top: 6px">虾会炒饭吗?</button>
<button class="deep-chat-button deep-chat-suggestion-button" style="margin-top: 6px">什么是特殊虾种?</button>
</div>`,
role: 'recommendation', // 使用自定义角色
},
];
这里使用了Deep-Chat内置的按钮样式类(deep-chat-button和deep-chat-suggestion-button)来保持界面风格一致,同时为每个按钮添加了上边距以形成垂直排列。
技术要点解析
-
自定义消息角色:通过定义非标准角色(如这里的"recommendation"),我们可以为特定类型的消息创建独特的显示规则。
-
绝对定位技巧:将消息容器设为绝对定位是关键,这使得消息可以脱离常规的消息流,固定在指定位置。
-
样式覆盖:通过设置backgroundColor为unset和padding为0px,我们移除了默认的消息气泡样式,使推荐按钮能够以更自然的方式呈现。
-
HTML内容注入:使用html属性可以直接注入自定义HTML结构,提供了极大的灵活性。
进阶应用建议
-
动态更新推荐:可以通过API动态获取推荐问题列表,然后更新initialMessages实现内容动态变化。
-
交互响应:为按钮添加点击事件处理,当用户点击推荐问题时自动填充到输入框或直接发送。
-
条件显示:可以结合业务逻辑,只在特定场景(如用户长时间未输入)显示推荐按钮。
-
样式定制:进一步自定义按钮样式以匹配应用主题,如修改颜色、圆角、悬停效果等。
兼容性说明
需要注意的是,此功能需要较新版本的Deep-Chat组件(9.0.155或更高),开发者可能需要使用开发版包(deep-chat-dev或deep-chat-dev-react)来获取完整的样式配置支持。
总结
通过Deep-Chat强大的样式配置和消息系统,开发者可以灵活实现各种定制化的聊天界面效果。本文介绍的推荐按钮实现方案不仅适用于问题推荐场景,其原理也可应用于其他需要固定位置显示辅助内容的场景,如快捷操作栏、上下文提示等。这种实现方式既保持了Deep-Chat的核心功能,又扩展了其应用可能性。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00