CMSSW_15_0_0_pre2版本发布:CMS软件框架的重要更新
CMS(紧凑型μ子螺线管)实验是大型强子对撞机(LHC)上的主要实验之一,其软件框架CMSSW(CMS软件)是处理和分析实验数据的核心工具。最新发布的CMSSW_15_0_0_pre2版本带来了多项重要改进和功能增强,涵盖了从数据采集到重建、模拟等多个关键环节。
核心框架优化
本次更新在CMSSW核心框架方面进行了多项改进。内存管理得到了显著优化,包括减少了事件间内存占用、改进了内存分配监控机制,并引入了jemalloc和smaps信息报告功能。这些改进对于处理高亮度LHC运行期间产生的大量数据尤为重要。
框架还增强了异步处理能力,特别是针对Alpaka模块(用于异构计算的抽象层)的改进,包括添加了中央同步配置参数,使Alpaka ESProducers能够更好地支持非主机后端。这些改动为未来在GPU等计算设备上运行CMS数据处理工作流奠定了基础。
重建算法改进
在粒子重建方面,本次更新包含多项重要改进:
-
跟踪系统优化:mkFit算法(一种快速跟踪重建方法)的命中转换器性能得到提升,并针对2025年HLT(高电平触发器)场景进行了定制化改进。SiStripClusterizer(硅条探测器簇重建器)通过使用ThreeThresholdAlgorithm实现了显著的速度提升。
-
μ子重建:重新组织了L3TrackFinder模块的结构,将所有插件移至plugins文件夹,提高了代码的可维护性。同时改进了TrackerSeedCleaner中的共享命中清理算法,提升了处理速度。
-
喷注重建:PuppiProducer(用于粒子流喷注重建)减少了临时内存使用,DeepFlavourONNXJetTagsProducer(基于ONNX的喷注标记算法)在事件结束时清除了内存,防止内存泄漏。
探测器模拟与几何描述
在探测器模拟和几何描述方面,MTD(μ子定时探测器)和HGCal(高粒度量热计)等升级探测器得到了特别关注:
-
MTD探测器:更新了BTL(桶层定时层)编号方案,并暂时回滚了部分改动以确保稳定性。同时改进了模拟中的命中分类,扩展到了ETL(端盖定时层),并增加了最后存储的祖先信息到TrackInformation中。
-
HGCal几何:更新了v18/v19版本的单元面积和有效单元定义,改进了原始数据处理能力,包括解包器、几何描述和局部重建等方面。
-
GE21探测器:根据最新变更调整了GE21设置,在2025年场景中修改了GE21几何,将添加的腔室数量从5个减少到4个。
触发系统升级
HLT(高电平触发器)系统是本轮更新的重点之一:
-
菜单开发:为14_2_X系列菜单开发奠定了基础,新增了电子-τ交叉触发器到HLT Phase-2菜单中。
-
L1触发模拟:改进了L1-uGT(全局触发)模拟器,将每运行周期的变化移至beginRun阶段,包括加载AXOL1TL模型。同时增加了BX信息到GlobalObjectMap中。
-
μ子触发:实现了新的种子模块用于HLT独立μ子种子生成,并简化了HLT L3跟踪μ子重建流程。
数据质量监控与分析工具
在数据质量监控和分析工具方面也有多项改进:
-
MTD验证:更新了MtdTracksValidation,增加了正确重建匹配的效率图。
-
ECAL监控:在ECAL DQM图中为BC(桶状量热计)和SC(超级簇)能量添加了Et分布。
-
对齐工具:在对齐全合一工具中引入了通用验证工具用于数据集验证,并在所有对齐离线验证配置文件中添加了BeamSpotCompatibilityChecker。
其他重要改进
-
生成器更新:在SimTrack中添加了额外信息,修复了Hydjet2生成器中的bug(mc代码10333),更新了EvtGen接口到V02-10-00版本。
-
NanoAOD改进:增加了对对象内可变大小属性(std::vector)的支持,实现了对尺度变化权重数量的检查。
-
异构计算支持:移除了已弃用的cudaLimitDevRuntimeSyncDepth功能,替换了ALPAKA_STATIC_ACC_MEM_GLOBAL为HOST_DEVICE_CONSTANT宏。
-
Python配置清理:修复了多个Python配置文件,移除了RecoMuon包中的所有SealModules,清理了Phase2 HLT菜单中未使用的包含项。
这次CMSSW_15_0_0_pre2版本的发布为即将到来的高亮度LHC运行期做好了准备,特别是在性能优化、异构计算支持和升级探测器模拟方面取得了显著进展。这些改进将帮助CMS实验更高效地处理未来更高强度的对撞数据。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C030
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00