CMSSW_15_0_0_pre2版本发布:CMS软件框架的重要更新
CMS(紧凑型μ子螺线管)实验是大型强子对撞机(LHC)上的主要实验之一,其软件框架CMSSW(CMS软件)是处理和分析实验数据的核心工具。最新发布的CMSSW_15_0_0_pre2版本带来了多项重要改进和功能增强,涵盖了从数据采集到重建、模拟等多个关键环节。
核心框架优化
本次更新在CMSSW核心框架方面进行了多项改进。内存管理得到了显著优化,包括减少了事件间内存占用、改进了内存分配监控机制,并引入了jemalloc和smaps信息报告功能。这些改进对于处理高亮度LHC运行期间产生的大量数据尤为重要。
框架还增强了异步处理能力,特别是针对Alpaka模块(用于异构计算的抽象层)的改进,包括添加了中央同步配置参数,使Alpaka ESProducers能够更好地支持非主机后端。这些改动为未来在GPU等计算设备上运行CMS数据处理工作流奠定了基础。
重建算法改进
在粒子重建方面,本次更新包含多项重要改进:
-
跟踪系统优化:mkFit算法(一种快速跟踪重建方法)的命中转换器性能得到提升,并针对2025年HLT(高电平触发器)场景进行了定制化改进。SiStripClusterizer(硅条探测器簇重建器)通过使用ThreeThresholdAlgorithm实现了显著的速度提升。
-
μ子重建:重新组织了L3TrackFinder模块的结构,将所有插件移至plugins文件夹,提高了代码的可维护性。同时改进了TrackerSeedCleaner中的共享命中清理算法,提升了处理速度。
-
喷注重建:PuppiProducer(用于粒子流喷注重建)减少了临时内存使用,DeepFlavourONNXJetTagsProducer(基于ONNX的喷注标记算法)在事件结束时清除了内存,防止内存泄漏。
探测器模拟与几何描述
在探测器模拟和几何描述方面,MTD(μ子定时探测器)和HGCal(高粒度量热计)等升级探测器得到了特别关注:
-
MTD探测器:更新了BTL(桶层定时层)编号方案,并暂时回滚了部分改动以确保稳定性。同时改进了模拟中的命中分类,扩展到了ETL(端盖定时层),并增加了最后存储的祖先信息到TrackInformation中。
-
HGCal几何:更新了v18/v19版本的单元面积和有效单元定义,改进了原始数据处理能力,包括解包器、几何描述和局部重建等方面。
-
GE21探测器:根据最新变更调整了GE21设置,在2025年场景中修改了GE21几何,将添加的腔室数量从5个减少到4个。
触发系统升级
HLT(高电平触发器)系统是本轮更新的重点之一:
-
菜单开发:为14_2_X系列菜单开发奠定了基础,新增了电子-τ交叉触发器到HLT Phase-2菜单中。
-
L1触发模拟:改进了L1-uGT(全局触发)模拟器,将每运行周期的变化移至beginRun阶段,包括加载AXOL1TL模型。同时增加了BX信息到GlobalObjectMap中。
-
μ子触发:实现了新的种子模块用于HLT独立μ子种子生成,并简化了HLT L3跟踪μ子重建流程。
数据质量监控与分析工具
在数据质量监控和分析工具方面也有多项改进:
-
MTD验证:更新了MtdTracksValidation,增加了正确重建匹配的效率图。
-
ECAL监控:在ECAL DQM图中为BC(桶状量热计)和SC(超级簇)能量添加了Et分布。
-
对齐工具:在对齐全合一工具中引入了通用验证工具用于数据集验证,并在所有对齐离线验证配置文件中添加了BeamSpotCompatibilityChecker。
其他重要改进
-
生成器更新:在SimTrack中添加了额外信息,修复了Hydjet2生成器中的bug(mc代码10333),更新了EvtGen接口到V02-10-00版本。
-
NanoAOD改进:增加了对对象内可变大小属性(std::vector)的支持,实现了对尺度变化权重数量的检查。
-
异构计算支持:移除了已弃用的cudaLimitDevRuntimeSyncDepth功能,替换了ALPAKA_STATIC_ACC_MEM_GLOBAL为HOST_DEVICE_CONSTANT宏。
-
Python配置清理:修复了多个Python配置文件,移除了RecoMuon包中的所有SealModules,清理了Phase2 HLT菜单中未使用的包含项。
这次CMSSW_15_0_0_pre2版本的发布为即将到来的高亮度LHC运行期做好了准备,特别是在性能优化、异构计算支持和升级探测器模拟方面取得了显著进展。这些改进将帮助CMS实验更高效地处理未来更高强度的对撞数据。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
yuanrongopenYuanrong runtime:openYuanrong 多语言运行时提供函数分布式编程,支持 Python、Java、C++ 语言,实现类单机编程高性能分布式运行。Go051
MiniCPM-SALAMiniCPM-SALA 正式发布!这是首个有效融合稀疏注意力与线性注意力的大规模混合模型,专为百万级token上下文建模设计。00
ebook-to-mindmapepub、pdf 拆书 AI 总结TSX01