Bermuda蓝牙定位系统v0.8.0-rc1版本发布:区域稳定性与系统性能优化
Bermuda是一个基于蓝牙技术的智能家居定位系统,它通过分析蓝牙设备的信号强度(RSSI)来实现室内定位功能。该系统能够识别家庭成员或设备在房屋内的具体位置,为智能家居自动化提供位置感知能力。最新发布的v0.8.0-rc1版本带来了多项重要改进,特别是在区域稳定性和系统性能方面。
区域匹配算法重大升级
新版本对区域匹配逻辑进行了彻底重构,显著提升了系统在边界区域的稳定性表现。传统的蓝牙定位系统往往会在两个区域交界处出现频繁切换的问题,Bermuda v0.8.0-rc1通过引入多项智能判断机制解决了这一痛点。
系统现在采用了一种基于百分比差异的评估方法,不再单纯依赖绝对距离值。这意味着在较远距离上允许更大的信号波动,而不会触发区域变更。同时引入了"滞后效应"(hysteresis)机制,当区域刚发生变化时,系统会在短时间内抵制再次切换,即使信号强度接近临界值。
更智能的是,Bermuda现在会分析历史数据模式。如果当前信号强度与近期典型值存在显著差异,系统会将其视为异常值而忽略,避免因偶发的信号波动导致误判。这些改进使得系统在区域边界处的表现更加稳定可靠,减少了不必要的区域切换。
设备识别可靠性提升
针对Android 15及以上版本设备频繁显示"Unknown"状态的问题,新版本进行了专门优化。根本原因在于这些设备会为不同服务使用多个IRK(Identity Resolving Key)地址,而旧版系统只跟踪最近使用的地址。
v0.8.0-rc1现在会持续监测所有已知IRK地址的广播包,有效解决了Android设备的识别问题。这一改进也可能有助于解决iOS设备类似的问题,虽然开发者表示还需要更多实际验证。作为额外收获,这项改进还为使用多UUID的iBeacon设备(如静止和移动状态使用不同UUID的设备)提供了初步支持。
系统资源优化
针对用户反馈的内存占用和CPU使用率问题,v0.8.0-rc1进行了多项底层优化:
-
计算效率提升:现在仅对用户配置跟踪的设备进行区域计算,减少了不必要的处理开销,特别适用于蓝牙环境复杂的场景。
-
事件监听管理:修复了重载后事件监听器未正确清理的问题,避免了内存泄漏和异常行为。
-
数据清理机制:优化了设备地址列表的定期清理逻辑,解决了旧版本中数据无限累积的问题。
-
处理流程优化:系统会检测并跳过旧广告包的处理,同时避免重复处理正在进行的任务。
这些改进显著降低了系统资源消耗,特别是在蓝牙设备密集的环境(如高层公寓)中,系统稳定性和响应速度都得到了提升。
设备命名与管理改进
新版本对设备命名和实体管理进行了多项优化:
-
命名优先级:现在更可靠地遵循用户设置的自定义名称,优先采用蓝牙集成中的命名,其次才是ESPHome/Shelly集成中的名称。
-
MAC地址处理:针对ESPHome 2025.3+版本中蓝牙代理使用BLE MAC地址的变化,系统现在能正确处理WiFi(基础MAC)和BLE MAC地址的关系。
-
显示优化:代理名称不再显示完整的MAC地址后缀,使界面更加简洁。
-
内部结构:设备内部表示现在使用(设备MAC,扫描器MAC)元组作为键,以支持单设备多MAC地址的情况。
这些变化可能会影响部分自动化脚本和实体ID,但为未来的稳定性奠定了基础。开发者表示这将是命名相关变化的最后一个主要版本,后续更新将保持兼容性。
其他重要修复
- 修复了iBeacon数据包解析异常导致的崩溃问题
- 解决了诊断数据中二进制广告数据导致的崩溃
- 改进了MAC地址格式的处理和诊断数据脱敏
- 修复了极端校准偏移值导致的系统崩溃
- 更新了蓝牙后端API使用方式,消除弃用警告
系统要求
需要注意的是,从v0.8.0-rc1开始,Bermuda要求Home Assistant最低版本为2025.3,以使用必要的API功能。用户升级前需确保系统版本符合要求。
总体而言,Bermuda v0.8.0-rc1版本在稳定性、可靠性和性能方面都有显著提升,为蓝牙定位在智能家居中的应用提供了更加坚实的基础。开发者鼓励用户提供反馈,以便进一步优化各项参数和功能。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00