LittleFS v2.11.0 版本发布:支持有限文件系统收缩与跨平台改进
LittleFS 是一个专为嵌入式系统设计的轻量级文件系统,以其低内存占用、断电安全性和磨损均衡等特性广受欢迎。最新发布的 v2.11.0 版本虽然是一个小版本更新,但包含了多项实用改进和错误修复,特别值得嵌入式开发者关注。
文件系统收缩功能
本次更新最引人注目的新特性是由贡献者 sosthene-nitrokey 实现的有限文件系统收缩功能。通过新增的 LFS_SHRINKNONRELOCATING 编译选项,开发者现在可以使用 lfs_fs_grow 函数减少 block_count 参数值。
需要注意的是,这一功能有明确限制条件:只有当收缩操作不需要块重定位时才能成功执行。由于 LittleFS 采用伪随机块分配策略作为磨损均衡的一部分,即使在小文件系统中,这个功能也可能无法正常工作。该特性主要目的是为那些早期版本创建的、忽略磁盘 block_count 值的文件系统镜像提供迁移路径。
跨平台编译改进
yamt 贡献了一系列针对 macOS 平台的改进,使得 make test 命令现在可以在 Mac 上开箱即用。这些改动包括:
- 适配 Mach-O 链接器段使用方式
- 移除了 Clang 不支持的特定 CFLAGS
- 对 Makefile 进行了调整以支持 Clang 编译
值得注意的是,现在 LittleFS 的 Makefile 已经能够支持 Clang 编译(尽管栈测量功能暂时无法使用)。对于使用非 Clang 非 GCC 编译器的开发者,只需设置 NO_GCC 环境变量即可进行编译。
重要错误修复
本次更新包含了多个关键错误修复:
-
DvdGiessen 修复了 LFS_CRC 相关的多个问题:
- 解决了当 lfs_util.h 被多次包含时用户提供的 LFS_CRC 会产生多重定义的问题
- 移除了 LFS_CRC 需要尾部分号的限制
-
selimkeles 修复了在 16 位设备上 lfs_fromle32/lfs_frombe32 可能出现的溢出问题
-
Hugh-Baoa 发现并修复了在删除操作期间如果 mdir 发生重定位可能导致的双重孤儿问题
-
DvdGiessen 还修复了 changeprefix.py 脚本在 /tmp 位于不同文件系统时会中断的问题
性能与资源占用
从代码大小来看,各配置版本的变动都在 0.1% 以内,保持了 LittleFS 一贯的轻量级特性:
- 默认配置:代码 17104B,栈 1448B,结构体 812B
- 只读配置:代码 6230B,栈 448B
- 线程安全配置:代码 17956B,栈 1448B,结构体 820B
测试覆盖率保持稳定,行覆盖率达到 2434/2595,分支覆盖率为 1283/1616。
总结
LittleFS v2.11.0 虽然是一个小版本更新,但为开发者提供了更多灵活性和更好的跨平台支持。特别是有限的文件系统收缩功能,为特定场景下的系统维护提供了新选择。同时,多项错误修复进一步提升了系统的稳定性和可靠性,使得这个本就成熟的嵌入式文件系统更加完善。
对于嵌入式开发者而言,如果项目中有使用 LittleFS 的需求,现在正是评估升级到 v2.11.0 版本的好时机,特别是那些需要在 macOS 环境下开发或需要处理旧版文件系统镜像的项目。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C097
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00