【亲测免费】 Node-RED Dashboard 安装与使用教程
1. 项目目录结构及介绍
在克隆或下载 https://github.com/FlowFuse/node-red-dashboard.git 仓库之后,你将得到以下基本目录结构:
node-red-dashboard/
│
├── package.json # 项目依赖和元数据文件
├── README.md # 项目说明文档
├── node_modules/ # 第三方依赖库
├── lib/ # 自定义节点代码存放目录
└── .gitignore # Git 忽略文件列表
package.json: 该文件包含了项目的依赖信息以及项目的基本描述,用于安装和管理依赖。README.md: 提供项目简介、安装指南和使用方法等信息。node_modules/: 存放所有项目依赖的npm包。lib/: Node-RED自定义节点源码通常存放于此,但此项目可能没有提供自定义节点。.gitignore: 规定哪些文件或目录不需要被Git版本控制。
2. 项目的启动文件介绍
node-red-dashboard 是一个Node-RED的插件,它不是一个独立可执行的应用。通常,你需要将其安装到你的Node-RED环境中。启动Node-RED应用(假设已全局安装Node.js)的步骤如下:
- 首先,在终端中导航到Node-RED的工作目录,例如
~/.node-red。 - 运行以下命令来启动Node-RED服务器:
npm start
当你启动Node-RED后,node-red-dashboard 插件会自动加载并可供使用。你可以通过浏览器访问 http://localhost:1880/ui 来查看和编辑Node-RED仪表板。
3. 项目的配置文件介绍
node-red-dashboard 并无特定的配置文件,其配置主要是通过Node-RED的设置和流文件完成。以下是两种主要配置方式:
设置文件 (settings.js)
在Node-RED主目录中的 settings.js 文件可以设置一些全局参数,例如端口号、数据库路径等。但node-red-dashboard 特定的配置通常不需要在此处进行。
流文件 (flows.json)
真正的配置工作在Node-RED的 flows.json 文件中进行。node-red-dashboard 的UI是通过一系列节点构建的,这些节点包括按钮、图表、文本框等。在编辑器中创建和连接这些节点,然后保存流配置,就可以定义你的仪表板布局和逻辑。
例如,添加一个新的图表节点,你可以在 flows.json 中看到类似这样的JSON表示:
{
"id": "chart-node-id",
"type": "ui_chart",
"z": "workspace-name",
"group": "group-id",
"order": 0,
"width": 6,
"height": 4,
"label": "Chart Label",
"topic": "",
"x": 240,
"y": 50,
...
}
记住,对 flows.json 的修改需要重新启动Node-RED服务才能生效。
总结,虽然node-red-dashboard 没有特定的配置文件,但所有的设置都可以通过Node-RED的图形化界面和流文件进行管理。为了充分利用这个工具,推荐熟悉Node-RED的节点编辑器和JSON配置格式。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00