TeslaMate v2.0.0 版本发布:PostgreSQL 升级与功能增强
TeslaMate 是一款开源的 Tesla 车辆数据记录和可视化工具,它能够持续记录 Tesla 车辆的各种数据指标,并通过 Grafana 提供丰富的可视化仪表盘。该项目采用 Elixir 语言开发,使用 PostgreSQL 作为主要数据库存储车辆数据。
重大变更:PostgreSQL 版本升级要求
本次 v2.0.0 版本最重要的变化是对 PostgreSQL 数据库的版本要求进行了升级。TeslaMate 现在要求使用 PostgreSQL 16.7 或 17.3 及以上版本,这是因为项目升级了内置的 earthdistance 扩展至 v1.2 版本。如果用户尝试使用旧版 PostgreSQL 启动 TeslaMate,系统将会启动失败。
对于已经部署 TeslaMate 的用户,升级过程需要特别注意以下几点:
- 数据备份:在升级前必须完整备份现有数据库数据
- PostgreSQL 升级:需要将 PostgreSQL 升级至 postgres:17 版本
- TeslaMate 升级:完成数据库升级后再升级 TeslaMate 至 v2.0.0
- 升级后备份:建议在升级完成后再次备份数据
特别提醒手动安装的用户:如果在初始安装后撤销了 SUPERUSER 权限,在进行 earthdistance 扩展迁移时需要临时重新授予该权限,迁移完成后再撤销。
新功能与改进
TPMS 轮胎压力监测显示增强
在 Web 界面中,现在当轮胎压力过低时,工具提示会显示具体的 TPMS 数值,让用户能够更直观地了解轮胎压力状况。
Grafana 升级至 11.6.1
本次更新包含了 Grafana 的最新版本 11.6.1,带来了性能改进和新功能支持。同时针对电池健康仪表盘进行了优化,统一了各仪表盘中的续航里程计算方式。
时区与日期格式处理改进
新版本改进了时区处理机制,确保数据展示与用户所在时区一致。日期格式现在会根据浏览器语言环境自动适配,提升了国际化支持。针对美国地区用户,日期列的宽度也进行了调整,确保完整显示日期字符串。
技术架构与构建改进
在技术架构方面,v2.0.0 版本包含了多项底层改进:
- 项目默认分支已从 master 更名为 main,开发者需要注意更新本地仓库配置
- 构建系统升级了多个依赖项,包括 Phoenix 框架相关组件
- 安全方面升级了 esbuild 和 esbuild-sass-plugin 以修复潜在问题
- CI/CD 流程优化,提高了构建安全性和可靠性
仪表盘功能增强
针对数据可视化部分,新版本对多个仪表盘进行了功能增强:
- 电池健康仪表盘中改进了"当前可用容量"的计算方式
- 位置仪表盘新增了车辆筛选器和时间过滤器
- 更新仪表盘中的额定续航计算方式与电池健康仪表盘保持一致
- 主页仪表盘的背景图片高度现在会根据布局和 Grafana CSS 自动调整
- 所有仪表盘显式设置时区参数,确保时间截断操作与 Grafana 时区一致
升级建议
对于生产环境用户,建议按照以下步骤进行升级:
- 仔细阅读升级说明文档
- 在测试环境先行验证升级流程
- 确保有完整的数据备份方案
- 规划适当的维护窗口期
- 升级后验证各项功能是否正常
TeslaMate v2.0.0 通过数据库升级和多项功能改进,为 Tesla 车主提供了更稳定、更强大的车辆数据监控体验。特别是对国际用户而言,改进的时区和日期处理大大提升了使用便利性。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00