CMSSW_15_0_0_pre2版本发布:CMS软件框架的重要更新
CMS(紧凑型μ子螺线管)实验是大型强子对撞机(LHC)上的主要实验之一,其软件框架CMSSW(CMS软件)是处理和分析实验数据的核心工具。最新发布的CMSSW_15_0_0_pre2版本带来了多项重要改进和功能增强,涵盖了从数据采集到重建、模拟等多个关键环节。
核心框架优化
本次更新在CMSSW核心框架方面进行了多项改进。内存管理得到了显著优化,包括减少了事件间内存占用、改进了内存分配监控机制,并引入了jemalloc和smaps信息报告功能。这些改进对于处理高亮度LHC运行期间产生的大量数据尤为重要。
框架还增强了异步处理能力,特别是针对Alpaka模块(用于异构计算的抽象层)的改进,包括添加了中央同步配置参数,使Alpaka ESProducers能够更好地支持非主机后端。这些改动为未来在GPU等计算设备上运行CMS数据处理工作流奠定了基础。
重建算法改进
在粒子重建方面,本次更新包含多项重要改进:
-
跟踪系统优化:mkFit算法(一种快速跟踪重建方法)的命中转换器性能得到提升,并针对2025年HLT(高电平触发器)场景进行了定制化改进。SiStripClusterizer(硅条探测器簇重建器)通过使用ThreeThresholdAlgorithm实现了显著的速度提升。
-
μ子重建:重新组织了L3TrackFinder模块的结构,将所有插件移至plugins文件夹,提高了代码的可维护性。同时改进了TrackerSeedCleaner中的共享命中清理算法,提升了处理速度。
-
喷注重建:PuppiProducer(用于粒子流喷注重建)减少了临时内存使用,DeepFlavourONNXJetTagsProducer(基于ONNX的喷注标记算法)在事件结束时清除了内存,防止内存泄漏。
探测器模拟与几何描述
在探测器模拟和几何描述方面,MTD(μ子定时探测器)和HGCal(高粒度量热计)等升级探测器得到了特别关注:
-
MTD探测器:更新了BTL(桶层定时层)编号方案,并暂时回滚了部分改动以确保稳定性。同时改进了模拟中的命中分类,扩展到了ETL(端盖定时层),并增加了最后存储的祖先信息到TrackInformation中。
-
HGCal几何:更新了v18/v19版本的单元面积和有效单元定义,改进了原始数据处理能力,包括解包器、几何描述和局部重建等方面。
-
GE21探测器:根据最新变更调整了GE21设置,在2025年场景中修改了GE21几何,将添加的腔室数量从5个减少到4个。
触发系统升级
HLT(高电平触发器)系统是本轮更新的重点之一:
-
菜单开发:为14_2_X系列菜单开发奠定了基础,新增了电子-τ交叉触发器到HLT Phase-2菜单中。
-
L1触发模拟:改进了L1-uGT(全局触发)模拟器,将每运行周期的变化移至beginRun阶段,包括加载AXOL1TL模型。同时增加了BX信息到GlobalObjectMap中。
-
μ子触发:实现了新的种子模块用于HLT独立μ子种子生成,并简化了HLT L3跟踪μ子重建流程。
数据质量监控与分析工具
在数据质量监控和分析工具方面也有多项改进:
-
MTD验证:更新了MtdTracksValidation,增加了正确重建匹配的效率图。
-
ECAL监控:在ECAL DQM图中为BC(桶状量热计)和SC(超级簇)能量添加了Et分布。
-
对齐工具:在对齐全合一工具中引入了通用验证工具用于数据集验证,并在所有对齐离线验证配置文件中添加了BeamSpotCompatibilityChecker。
其他重要改进
-
生成器更新:在SimTrack中添加了额外信息,修复了Hydjet2生成器中的bug(mc代码10333),更新了EvtGen接口到V02-10-00版本。
-
NanoAOD改进:增加了对对象内可变大小属性(std::vector)的支持,实现了对尺度变化权重数量的检查。
-
异构计算支持:移除了已弃用的cudaLimitDevRuntimeSyncDepth功能,替换了ALPAKA_STATIC_ACC_MEM_GLOBAL为HOST_DEVICE_CONSTANT宏。
-
Python配置清理:修复了多个Python配置文件,移除了RecoMuon包中的所有SealModules,清理了Phase2 HLT菜单中未使用的包含项。
这次CMSSW_15_0_0_pre2版本的发布为即将到来的高亮度LHC运行期做好了准备,特别是在性能优化、异构计算支持和升级探测器模拟方面取得了显著进展。这些改进将帮助CMS实验更高效地处理未来更高强度的对撞数据。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
ruoyi-plus-soybeanRuoYi-Plus-Soybean 是一个现代化的企业级多租户管理系统,它结合了 RuoYi-Vue-Plus 的强大后端功能和 Soybean Admin 的现代化前端特性,为开发者提供了完整的企业管理解决方案。Vue06- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00