probe-rs 0.28.0版本发布:嵌入式调试工具的全面升级
probe-rs是一个功能强大的嵌入式系统调试工具链,为开发者提供了从芯片编程到实时调试的全套解决方案。最新发布的0.28.0版本带来了多项重要改进和新特性,显著提升了调试体验和功能覆盖范围。
核心功能增强
本次更新在远程调试能力方面取得了重大突破,新增了远程服务器/客户端实现,使得开发者可以通过网络连接进行远程调试操作。调试器功能也得到大幅扩展,新增了info break、info reg、clear等常用调试命令,并优化了backtrace命令(现简写为bt),使其输出更加简洁高效。
在芯片支持方面,0.28.0版本新增了对Texas Instruments MSPM0系列、NXP MCXA系列、Microchip MEC172x系列以及Infineon PSOC 62家族等众多新型MCU的支持。特别是对RISC-V和Xtensa架构的扩展支持,使得CMSIS-DAP探头现在可以用于这些架构的调试。
调试体验优化
新版本引入了配置预设功能,开发者可以在配置文件中定义多组参数值,并通过--preset选项快速切换不同配置场景。调试过程中的异常处理也更加完善,新增了catch-hardfault和catch-reset选项,默认会捕获复位和硬件错误,大幅简化了故障调试流程。
针对嵌入式开发中常见的RTT(实时传输)功能,本次更新解决了通道名称显示问题,并优化了大消息处理能力,使得defmt日志输出更加稳定可靠。新增的--target-output-file选项允许将目标输出直接保存到文件或命名管道,方便日志收集和分析。
性能与稳定性提升
ESP32系列芯片的闪存算法现在会使用最高CPU时钟频率,显著提高了编程速度。针对STM32系列,修复了默认闪存算法冲突问题,并新增了OTP内存支持。在底层协议层面,优化了SWD接口实现,采用更高效的枚举流传输方式。
新引入的Probe::profile功能利用ARM DWT程序计数器采样寄存器(PCSR)实现了精确的性能分析能力,帮助开发者优化关键代码路径。针对批量擦除的EFM32xG2设备,实现了定制复位序列,解决了编程失败的问题。
开发者工具链完善
probe-rs工具链现在提供了更灵活的芯片选择机制,支持通过设备选择器过滤探头列表。目标生成工具(target-gen)新增了速度协议设置选项,方便自动化测试场景。调试器配置中新增了verifyBeforeFlashing和verifyAfterFlashing选项,提供了更严格的编程验证流程。
对于使用Homebrew的macOS开发者,现在可以通过brew直接安装probe-rs、rtthost和target-gen等工具,大大简化了环境配置过程。跨平台支持方面,提供了从Apple Silicon到x64 Windows的完整预编译二进制包。
probe-rs 0.28.0版本的这些改进,使得嵌入式开发者在面对复杂调试场景时拥有更强大的工具支持,从底层芯片操作到高层调试功能都得到了全面提升,进一步巩固了其作为现代嵌入式开发首选工具链的地位。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C094
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00