在Conan中打包和复用CMake函数模块的最佳实践
2025-05-26 12:05:13作者:龚格成
背景介绍
在现代C++项目中,我们经常需要编写一些通用的CMake函数来简化构建过程。这些函数可能包括设置编译器标志、添加测试目标、配置代码生成等实用功能。传统做法是将这些函数直接放在项目代码库中,但随着项目规模扩大和多项目共享需求增加,更好的做法是将这些CMake函数模块化并打包分发。
项目结构示例
假设我们有一个典型项目结构如下:
my-app/
├─ cmake (submodule)/
│ ├─ usefulFunctions.cmake
├─ src/
│ ├─ main.cpp
├─ CMakeLists.txt
其中usefulFunctions.cmake包含了我们想要共享的CMake函数。
传统CMake安装方式
在纯CMake环境中,我们可以使用install命令来安装这些CMake函数文件:
include(GNUInstallDirs)
install(
FILES ${CMAKE_CURRENT_LIST_DIR}/usefulFunctions.cmake
DESTINATION ${CMAKE_INSTALL_LIBDIR}/cmake/
)
这种方式虽然可行,但缺乏版本管理和依赖解析能力,这正是Conan可以解决的问题。
使用Conan打包CMake函数模块
Conan提供了两种主要方式来共享CMake代码:
1. 作为工具依赖(tool_requires)
当你的CMake模块不包含任何特定于平台的代码,纯粹是构建辅助功能时,可以将其打包为工具依赖。
创建conanfile.py时需要注意:
from conan import ConanFile
class CMakeFunctionsConan(ConanFile):
name = "cmake_functions"
version = "1.0"
exports_sources = "usefulFunctions.cmake"
def package(self):
self.copy("usefulFunctions.cmake", dst="lib/cmake")
def package_info(self):
# 让使用者知道在哪里可以找到这个cmake模块
self.cpp_info.builddirs = ["lib/cmake"]
2. 作为常规依赖(requires)
如果你的CMake模块与特定库相关,可以作为常规依赖打包:
from conan import ConanFile
class MyLibraryConan(ConanFile):
name = "mylibrary"
version = "1.0"
exports_sources = "*.cmake", "src/*"
def package(self):
self.copy("*.cmake", dst="lib/cmake")
self.copy("*.h", dst="include")
self.copy("*.lib", dst="lib")
def package_info(self):
self.cpp_info.libs = ["mylibrary"]
self.cpp_info.builddirs = ["lib/cmake"]
在消费者项目中使用
在消费者项目的conanfile.py中:
# 对于工具依赖
tool_requires("cmake_functions/1.0")
# 对于常规依赖
requires("mylibrary/1.0")
然后在CMake中可以直接包含这些模块:
# 查找并包含我们的实用函数
include(usefulFunctions)
# 使用其中定义的函数
my_custom_function()
最佳实践建议
- 命名规范:为CMake模块使用独特的命名前缀,避免与其他包冲突
- 版本控制:每次修改CMake函数都应该升级版本号
- 文档说明:在包描述中清晰说明提供的CMake函数及其用法
- 测试验证:为CMake函数编写测试用例,确保它们在不同环境下正常工作
- 依赖管理:如果CMake函数依赖其他Conan包,确保正确声明这些依赖
常见问题解决
- 路径问题:确保在
package_info()中正确设置builddirs,这样CMake才能找到你的模块 - 作用域问题:注意CMake函数中使用的变量作用域,避免污染调用者的命名空间
- 兼容性问题:考虑不同CMake版本间的兼容性,使用适当的
cmake_minimum_required
通过将CMake函数模块打包为Conan包,我们可以实现跨项目的代码复用,同时享受Conan提供的版本管理和依赖解析功能,大大提高了C++项目的可维护性和协作效率。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
569
3.84 K
Ascend Extension for PyTorch
Python
379
453
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
893
676
暂无简介
Dart
802
199
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
350
203
昇腾LLM分布式训练框架
Python
118
147
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
1
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
68
20
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.37 K
781