ThingsBoard中实现跨Widget共享认证令牌的最佳实践
2025-05-12 00:10:32作者:廉皓灿Ida
在ThingsBoard平台开发自定义仪表板时,我们经常需要创建多个自定义Widget来展示不同的数据视图。当这些Widget都需要访问后端API获取数据时,如何高效地管理认证令牌(token)就成为一个值得关注的问题。
认证令牌的基本原理
ThingsBoard采用基于JWT(JSON Web Token)的认证机制。当用户成功登录后,系统会生成一个加密的访问令牌,这个令牌会被存储在浏览器的localStorage中,键名为"jwt_token"。默认情况下,这个令牌有一定的有效期(通常为24小时),过期后需要重新获取。
常见问题分析
许多开发者会遇到这样的场景:在多个自定义Widget中都需要调用后端API获取数据,于是每个Widget都独立实现了一套获取令牌的逻辑。这种做法会导致:
- 重复的令牌获取请求
- 不必要的性能开销
- 潜在的令牌不一致风险
- 代码冗余和维护困难
最佳实践解决方案
方案一:直接使用ThingsBoard内置服务
ThingsBoard已经为Widget提供了完善的数据访问服务,开发者无需手动处理令牌问题。例如:
// 获取设备的时间序列数据
self.ctx.attributeService.getEntityTimeseries(
entityType,
entityId,
keys,
startTs,
endTs,
limit,
agg,
orderBy,
useStrictDataTypes
);
这些内置服务会自动处理认证问题,包括令牌的获取、刷新等全部流程。
方案二:使用HTTP服务代理
如果需要调用自定义API端点,可以使用ThingsBoard提供的HTTP服务代理:
// GET请求示例
self.ctx.http.get('/api/custom/endpoint');
// POST请求示例
self.ctx.http.post('/api/custom/endpoint', payload);
// DELETE请求示例
self.ctx.http.delete('/api/custom/endpoint');
注意API路径必须以"/api"开头,这样HTTP服务会自动附加当前用户的认证令牌。
方案三:直接访问localStorage(不推荐)
虽然技术上可行,但不建议直接操作localStorage:
const token = localStorage.getItem('jwt_token');
这种方法绕过了ThingsBoard的安全机制,可能导致令牌管理不一致,且无法享受自动刷新的便利。
性能优化建议
- 减少API调用:合理设计Widget,合并数据请求
- 使用缓存:对不常变化的数据实施本地缓存
- 批量查询:尽可能使用批量查询接口减少请求次数
- 合理设置轮询间隔:避免过于频繁的数据刷新
总结
在ThingsBoard开发中,最佳实践是充分利用平台提供的内置服务,而不是自行处理认证令牌。这不仅能保证安全性,还能简化代码、提高性能。对于特殊需求,可以使用HTTP服务代理,它同样会自动处理认证问题。直接操作令牌应该是最后的选择,且需要谨慎处理。
通过遵循这些实践,开发者可以创建出高效、安全且易于维护的ThingsBoard仪表板应用。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
569
3.84 K
Ascend Extension for PyTorch
Python
379
453
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
893
676
暂无简介
Dart
802
199
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
350
203
昇腾LLM分布式训练框架
Python
118
147
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
1
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
68
20
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.37 K
781