ProxSuite 开源项目教程
1. 项目介绍
ProxSuite 是一个开源的数值优化工具箱,专注于提供高效、精确和稳健的数值求解器(如线性规划、二次规划等)。ProxSuite 基于重新审视的原始-对偶近端算法,旨在为社区提供可扩展的优化器,能够处理密集、稀疏或无矩阵的问题。尽管最初的应用领域是机器人学,但 ProxSuite 可以在其他领域中无限制地使用。
ProxSuite 由 Willow 和 Sierra 研究小组联合开发,这两个研究小组是 Inria、École Normale Supérieure de Paris 和 Centre National de la Recherche Scientifique 的联合研究团队,位于法国。ProxSuite 已经集成到多个优化生态系统中,如 CVXPY 建模语言、CasADi 符号框架和 TSID 机器人软件。
2. 项目快速启动
快速安装
ProxSuite 可以通过多种包管理器快速安装:
-
使用 pip 安装:
pip install proxsuite该方法适用于 Linux、Windows 和 Mac OS X。
-
使用 conda 安装:
conda install proxsuite -c conda-forge该方法适用于 Linux、Windows 和 Mac OS X。
-
使用 brew 安装:
brew install proxsuite该方法适用于 Linux 和 Mac OS X。
编译第一个示例程序
为了获得最佳性能,可以使用以下命令启用向量化编译简单的示例程序:
g++ -O3 -march=native -DNDEBUG -std=gnu++17 -DPROXSUITE_VECTORIZE examples/first_example_dense.cpp -o first_example_dense $(pkg-config --cflags proxsuite)
使用 CMake 集成 ProxSuite
如果你想使用 CMake 集成 ProxSuite,以下是一个简单的示例:
cmake_minimum_required(VERSION 3.10)
project(Example CXX)
find_package(proxsuite REQUIRED)
set(CMAKE_CXX_STANDARD 17) # 也可以使用 set(CMAKE_CXX_STANDARD 14)
add_executable(example example.cpp)
target_link_libraries(example PUBLIC proxsuite::proxsuite)
# 通过 SIMDE 启用向量化支持,并使用编译选项 '-march=native' 或 `-mavx2 -mavx512f`
add_executable(example_with_full_vectorization_support example.cpp)
target_link_libraries(example_with_full_vectorization_support PUBLIC proxsuite::proxsuite-vectorized)
target_compile_options(example_with_full_vectorization_support PUBLIC "-march=native")
3. 应用案例和最佳实践
应用案例
ProxSuite 在机器人学中有广泛的应用,特别是在逆动力学和接触力优化方面。例如,TSID(Task Space Inverse Dynamics)是一个基于 Pinocchio 的机器人软件,用于高效处理机器人逆动力学问题,ProxSuite 被集成到 TSID 中以解决相关的优化问题。
最佳实践
- 优化器选择:根据问题的结构选择合适的优化器,如密集、稀疏或无矩阵的优化器。
- 向量化:在编译时启用向量化以提高性能。
- 调试与测试:使用 ProxSuite 提供的测试工具进行调试和性能测试,确保优化器的可靠性和效率。
4. 典型生态项目
ProxSuite 已经集成到多个优化生态系统中,以下是一些典型的生态项目:
- CVXPY:一个用于凸优化问题的建模语言。
- CasADi:一个符号框架,用于一般数值优化和最优控制。
- TSID:一个基于 Pinocchio 的机器人软件,用于高效处理机器人逆动力学问题。
这些生态项目的集成使得 ProxSuite 能够在更广泛的优化问题中发挥作用,并提供高效的解决方案。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00