Sigma项目r2025-05-21版本更新深度解析:安全检测规则全面升级
Sigma项目简介
Sigma是一个开源的、通用的威胁检测规则格式,它允许安全分析师以标准化的方式描述日志事件中的威胁检测逻辑。Sigma规则可以被转换为各种SIEM、日志管理平台和EDR系统的查询语法,极大地提高了威胁检测的效率和可移植性。本次发布的r2025-05-21版本带来了多项重要更新,增强了检测能力并优化了现有规则。
新增检测规则分析
系统安全增强检测
本次更新引入了多个针对系统安全威胁的新检测规则:
-
Clfs.SYS加载检测:新增规则可识别从可疑位置加载Clfs.SYS驱动程序的进程,这是攻击者常用的内核级攻击手段之一。
-
系统崩溃转储监控:新增对操作系统创建的崩溃转储文件的检测能力,有助于发现潜在的非正常内存操作行为。
-
WDAC策略文件监控:新增对可疑Windows Defender应用程序控制(WDAC)策略文件创建的检测,防止通过修改安全策略绕过防护。
-
Autorun注册表修改检测:新增通过WMI修改Autorun注册表项的检测规则,覆盖了常见的持久化技术。
网络威胁检测增强
在网络威胁检测方面,本次更新增加了:
-
低信誉TLD检测:新增对HTTP请求中低信誉顶级域名(TLD)或可疑文件扩展名的检测能力,有助于发现异常通信行为。
-
特定后门检测:新增针对某后门使用curl通过TOR SOCKS代理执行的特定检测规则。
-
CrushFTP异常子进程检测:新增对CrushFTP服务产生的可疑子进程的监控,防止利用该服务进行横向移动。
凭证与数据窃取检测
针对凭证和数据窃取行为,本次更新引入了:
-
记事本密码文件发现:新增检测使用记事本创建或存储敏感文件的行为。
-
AD查询工具检测:新增对AD查询工具执行的检测,该工具常被用于环境侦察。
-
网络扫描工具检测:新增对某扫描工具执行的监控,这是一款常用于网络侦察的工具。
安全风险检测
在安全风险检测方面,本次更新增加了:
-
特定风险检测:新增针对某风险潜在活动的检测规则。
-
EPMM风险检测:新增对某预认证RCE活动的检测能力。
现有规则优化
检测逻辑增强
-
AAD检测扩展:更新了AAD相关PowerShell cmdlet的检测规则,增加了更多框架字符串的识别。
-
内存操作检测优化:重新设计了内存操作尝试的检测逻辑,增加了新的关键词,提高了检测准确性。
-
对象劫持检测扩展:增加了更多CLSID的检测,覆盖了更多可能的劫持场景。
-
日志操作检测增强:增加了对使用特定类操作日志行为的检测能力。
误报减少优化
-
系统进程检测优化:增加了对合法Windows更新服务的过滤,减少了误报。
-
Python连接检测优化:增加了对pip安装和whl包安装等合法行为的过滤条件。
-
计划任务检测优化:增加了对Office合法计划任务的过滤,提高了检测准确性。
技术价值与应用建议
本次Sigma规则更新体现了以下几个重要技术趋势:
-
云安全增强:云服务层附加检测规则的优化反映了对云环境安全监控的重视。
-
横向移动检测:AD查询和网络扫描等工具的检测规则更新加强了对内网横向移动的监控能力。
-
持久化技术覆盖:新增的Autorun注册表修改和WDAC策略文件检测规则扩展了对持久化技术的覆盖范围。
对于安全运营团队,建议:
-
优先部署核心检测规则(sigma_core.zip),这些规则经过严格测试,误报率低。
-
根据自身环境特点,选择性部署emerging_threats_addon中的规则,这些规则可能产生较多告警但能发现新型威胁。
-
特别注意新增的风险检测规则,及时修补相关问题。
-
对于Python和PowerShell相关的规则更新,建议在测试环境中验证后再部署到生产环境,确保不影响正常业务操作。
本次更新展现了Sigma社区对当前安全态势的快速响应能力,通过持续优化检测规则,帮助安全团队更有效地发现和应对各类安全风险。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00