使用Ubuntu实时内核的Docker实时指南
作者:Tobit Flatscher(2021年8月 - 2023年2月)
概览
这个开源项目旨在帮助开发者在Linux操作系统上,尤其是使用Docker容器,开发和部署实时性要求高的代码。它向您详细介绍了:
- 实时系统基础知识与各种实时Linux方法概述
- 如何设置Ubuntu实时内核或安装PREEMPT_RT,包括自动重新编译内核的脚本
- 实时系统优化和性能基准测试工具cyclictest
- 在PREEMPT_RT修补过的主机系统上的实时兼容容器配置
- 针对PREEMPT_RT的Nvidia驱动程序支持
请注意,由于依赖PREEMPT_RT修补过的主机系统,该指南不适用于Windows和MacOS。
此外,如果您想要了解如何使用Docker和Docker Compose进行开发,以及如何在Visual Studio Code中设置并配合图形用户界面和ROS工作区使用,可以查看作者的另一个仓库docker-for-robotics。
应用场景
这个项目适合多种实时应用,例如:
- 控制Linux系统的实时机器人硬件,如通过EtherCAT接口的SOEM或IgH主站
- 利用SoftPLC实现数字控制,例如使用CodeSYS Control或LinuxCNC
- 音频开发中的实时编程,例如利用Juce进行实时处理
Docker与实时应用
Docker容器能够共享主机内核,因此只要主机内核具备实时能力,容器内的应用程序也可以运行实时代码。关键在于正确设置权限以及减少网络延迟选项。
安装实时内核
Ubuntu 22.04及以上版本提供了通过Ubuntu Pro订阅的实时内核,只需简单几步命令即可安装。个人用户最多可以免费注册五台机器,商业用户则需购买订阅。通过这种方式安装是最方便可靠的。doc/PreemptRt.md文档中有详细的注册和安装说明。
另外,也可以使用源码编译或现有的Debian包来安装,相关步骤同样在doc/PreemptRt.md中详细描述,并提供了自动化脚本辅助。
设置实时权限
成功安装实时内核后,只需使用特定选项启动Docker容器,即使非root用户也能设定实时优先级。详情参见doc/PreemptRt.md。
启动Docker
在安装了PREEMPT_RT之后,运行以下Docker配置,容器内的任何进程都能设置实时优先级:
cap_add:
- SYS_NICE
ulimits:
rtprio: 99
rttime: -1 # 对应'无限'
memlock: 8428281856
network_mode: host
使用这些选项启动的Docker容器将具备与主机相同的实时性能。
示例
该项目附带了一个简单的示例,供您体验。在Docker容器内部执行cyclictest,以评估系统的实时性能。比较在主机和容器中的结果差异,可以看到几乎无差别。
要启动示例,请运行:
$ docker-compose -f docker/docker-compose.yml up
然后进入benchmark/目录并运行:
$ ./mklatencyplot.bash
这会创建一个延迟直方图,测量线程实际唤醒时间与其预定唤醒时间的差值,从而显示系统潜在的延迟来源。
项目特点
- 提供详尽的实时系统设置和优化指南。
- 支持PREEMPT_RT内核的自动安装和Docker容器配置。
- 可用于多种实时应用领域,如机器人控制、数字控制和音频开发。
- 兼容性好,能确保容器内的实时性能与主机一致。
通过这个开源项目,您可以轻松地搭建实时Linux环境,并在Docker容器内安全高效地运行实时应用。无论是开发还是部署,都是一个值得尝试的优秀解决方案。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C0111
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python059
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00