3步精通My-Dream-Moments:从安装到定制的情感陪伴AI全指南
My-Dream-Moments是一款基于LLM(大语言模型)的情感陪伴程序,支持微信和QQBot接入,内置Atri-My dear moments提示词,能让你与梦想中的角色建立更逼真的情感连接。本指南将帮助你快速部署、配置并个性化这款AI陪伴系统。
一、核心功能模块解析
1.1 情感交互引擎
情感交互引擎是My-Dream-Moments的核心,负责理解用户输入并生成富有情感的回应。该模块通过分析用户消息中的情感线索,结合角色设定,生成符合角色性格的回复。情感识别和回应生成由message.py和emoji.py文件实现,前者处理消息分发和响应生成,后者负责情感标签提取和表情符号匹配。
1.2 记忆管理系统
记忆管理系统(memory_service.py)负责存储和管理AI与用户的交互历史,包括短期对话记忆和长期核心记忆。短期记忆用于维持当前对话的连贯性,而核心记忆则记录重要的用户信息和关系,使AI能够随着时间推移建立更深入的情感连接。
1.3 任务提醒模块
任务提醒模块(service.py)允许用户设置各种提醒,包括文本提醒和定时任务。用户可以创建、取消和列出提醒,系统会在指定时间自动发送提醒消息。该模块与微信接口集成,确保提醒及时送达。
1.4 自动更新系统
自动更新系统(updater.py)确保程序始终保持最新状态。它会定期检查云端更新,下载并安装最新版本,同时创建备份以便在需要时回滚。更新过程无需用户干预,保证了系统的稳定性和安全性。
1.5 可视化配置界面
可视化配置界面(run_config_web.py)提供了直观的网页界面,用于配置系统参数、管理角色形象和设置任务。用户可以通过浏览器访问该界面,轻松完成各项配置,无需手动编辑配置文件。
[建议配图:My-Dream-Moments系统架构图]
二、零基础部署流程
2.1 30秒环境准备
- 克隆项目仓库:
git clone https://gitcode.com/gh_mirrors/my/My-Dream-Moments - 进入项目目录:
cd My-Dream-Moments - 安装依赖:
pip install -r requirements.txt
🔍 注意:确保Python版本为3.8或更高,推荐使用虚拟环境以避免依赖冲突。
2.2 启动核心服务
- 运行主程序:
python run.py - 启动Web配置界面:
python run_config_web.py - 在浏览器中访问 http://localhost:5000 打开配置页面
[建议配图:Web配置界面首页截图]
2.3 微信接入配置
- 在Web配置界面中,导航到"微信设置"选项卡
- 点击"启动微信登录助手"按钮
- 扫描弹出的二维码登录微信
- 确认微信消息同步已启用
🔍 注意:确保微信客户端已安装在当前设备上,且登录的微信账号具有相应的权限。
三、个性化参数设置
3.1 角色形象定制
- 在Web配置界面中,选择"角色管理"
- 点击"创建新角色"按钮
- 填写角色名称、性格描述等信息
- 上传角色头像(支持JPG和PNG格式)
- 保存设置并应用
[路径提示:data/avatars/]
3.2 对话风格调整
- 进入"系统设置"中的"对话配置"
- 调整温度参数(temperature)控制回复的随机性
- 设置最大 tokens 控制回复长度
- 选择合适的模型(推荐使用DeepSeekV3)
- 保存配置并重启服务使更改生效
3.3 任务计划设置
- 在Web界面中,导航到"任务管理"
- 点击"添加新任务"
- 设置任务名称、执行时间和频率
- 输入任务内容(支持文本和富文本)
- 选择任务接收人
- 保存并启用任务
[建议配图:任务计划设置界面]
四、常见问题速查
Q1: 程序启动后无法连接到微信怎么办?
A1: 首先检查微信是否已正确安装并登录。如果问题仍然存在,尝试重启微信和程序。若还是无法连接,请检查防火墙设置,确保程序有权限访问网络。
Q2: 如何备份和恢复我的聊天记录?
A2: 聊天记录默认存储在data/目录下。要备份,只需复制该目录到安全位置。恢复时,将备份的data/目录覆盖现有目录即可。建议定期备份以防止数据丢失。
Q3: 程序运行缓慢,如何优化性能?
A3: 可以尝试以下方法优化性能:1) 降低温度参数减少计算量;2) 减少最大 tokens 限制;3) 选择更轻量级的模型;4) 关闭不必要的功能模块。如果问题仍然存在,考虑升级硬件或增加系统内存。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust099- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00