NoneBot 入门指南:从零开始搭建你的第一个QQ机器人
2026-02-04 05:08:50作者:秋泉律Samson
nonebot
基于 OneBot 标准的 Python 异步 QQ 机器人框架 / Asynchronous QQ robot framework based on OneBot for Python
前言
NoneBot 是一个基于 Python 的异步 QQ 机器人框架,它提供了丰富的功能和灵活的扩展性。本文将带你从零开始,一步步搭建一个最简单的 NoneBot 实例,并实现基础的机器人功能。
环境准备
在开始之前,请确保你已经完成以下准备工作:
- 安装 Python 3.7 或更高版本
- 安装 NoneBot 框架
- 配置好 go-cqhttp(或其他兼容的 CQHTTP 实现)
创建最小实例
让我们从一个最简单的 NoneBot 实例开始。创建一个名为 bot.py 的文件,内容如下:
import nonebot
if __name__ == '__main__':
nonebot.init()
nonebot.load_builtin_plugins()
nonebot.run(host='127.0.0.1', port=8080)
这段代码做了三件事:
nonebot.init()- 使用默认配置初始化 NoneBotnonebot.load_builtin_plugins()- 加载 NoneBot 内置插件nonebot.run()- 启动 NoneBot 服务
关于监听地址
host 参数指定了 NoneBot 监听的网络地址:
127.0.0.1:仅监听本地回环地址,适合 go-cqhttp 和 NoneBot 在同一台机器上运行的情况0.0.0.0:监听所有可用网络接口,适合 go-cqhttp 运行在其他机器或容器中的情况
运行 NoneBot
在命令行中执行以下命令启动你的机器人:
python bot.py
成功启动后,你将看到类似以下的日志输出:
[2021-08-12 19:33:09,378 nonebot] INFO: Succeeded to import "nonebot.plugins.base"
[2021-08-12 19:33:09,378 nonebot] INFO: Running on 127.0.0.1:8080
* Serving Quart app ''
* Environment: production
* Please use an ASGI server (e.g. Hypercorn) directly in production
* Debug mode: True
* Running on http://127.0.0.1:8080 (CTRL + C to quit)
配置 go-cqhttp
为了让 go-cqhttp 能够与 NoneBot 通信,我们需要修改 go-cqhttp 的配置文件 config.yml:
servers:
- ws-reverse:
universal: ws://127.0.0.1:8080/ws/
配置注意事项
- 确保
ws://协议前缀正确 - IP 地址和端口必须与
nonebot.run()中的参数一致 - 如果 NoneBot 和 go-cqhttp 不在同一台机器上,需要使用正确的网络可达地址
验证连接
配置完成后,重启 go-cqhttp。如果一切正常,你将在 NoneBot 的控制台看到类似以下的连接日志:
[2021-08-12 19:51:28,017] 127.0.0.1:54125 GET /ws/ 1.1 101 - 9254
这表示 go-cqhttp 已成功连接到 NoneBot。
常见问题排查
如果连接失败,请检查以下方面:
- 网络连通性:确保 NoneBot 和 go-cqhttp 之间网络可达
- 端口冲突:确认端口未被其他程序占用
- 防火墙设置:检查防火墙是否阻止了相关端口的通信
- 配置一致性:确保两端的 IP 和端口配置匹配
第一次对话
现在,向你的机器人发送以下消息:
/echo 你好,世界
如果一切正常,机器人会回复相同的消息:"你好,世界"。这个简单的 echo 功能是由 NoneBot 内置的基础插件提供的。
下一步
恭喜你成功搭建了第一个 NoneBot 实例!接下来你可以:
- 探索更多内置插件的功能
- 学习如何开发自定义插件
- 了解 NoneBot 的配置系统和中间件机制
- 研究如何部署到生产环境
NoneBot 提供了丰富的功能和灵活的扩展方式,让你能够构建功能强大的 QQ 机器人。
nonebot
基于 OneBot 标准的 Python 异步 QQ 机器人框架 / Asynchronous QQ robot framework based on OneBot for Python
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
567
3.83 K
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
892
667
Ascend Extension for PyTorch
Python
376
446
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
349
200
昇腾LLM分布式训练框架
Python
116
145
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.37 K
778
暂无简介
Dart
798
197
React Native鸿蒙化仓库
JavaScript
308
359
openJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力
TSX
1.13 K
271