Core Rule Set 4.15.0 版本发布:安全防护再升级
Core Rule Set(CRS)是一个开源的Web应用防火墙规则集,主要用于保护Web应用程序免受各种攻击。作为ModSecurity等WAF引擎的核心规则集,CRS通过一系列精心设计的规则来检测和阻止SQL注入、跨站脚本(XSS)、远程文件包含等常见Web攻击。最新发布的4.15.0版本带来了一系列功能增强和优化改进,进一步提升了安全防护能力。
新特性与检测能力增强
本次更新最值得关注的是新增了对User-Agent和Referer头的检测能力。在942280规则(PL1级别)中,这两个HTTP头部字段现在也被纳入检测目标。这一改进使得CRS能够更全面地检测潜在的恶意请求,因为攻击者经常通过伪造User-Agent或Referer头来绕过安全检测。
另一个重要更新是对Java类名的检测规则进行了更新。java-classes.data文件得到了维护和扩展,这有助于更准确地识别潜在的Java反序列化攻击尝试。Java反序列化漏洞一直是Web安全领域的重要威胁,这一更新使CRS在防护此类攻击时更加精准。
此外,新版本还增加了对数据库YAML文件的防护规则。YAML文件因其易读性常被用于存储数据库配置信息,但这也使其成为攻击者的目标。新规则能够有效阻止对这些敏感配置文件的未授权访问。
规则优化与误报减少
4.15.0版本在减少误报方面做了大量工作。例如,移除了title_strip_tags相关的误报问题,通过将strip_tags功能移至933160规则中实现。这一调整使得HTML标签剥离的处理更加精准,避免了不必要的拦截。
针对Unix命令检测规则,新版本对sendmail命令的检测模式进行了优化,增加了单词边界匹配,减少了误报情况。同时,移除了rc shell命令的检测,这也是基于实际使用场景中误报率较高的考虑。
在会话管理方面,933150规则针对会话令牌和cookie的检测进行了调整,有效减少了合法会话被误判为攻击的情况。此外,还移除了对已弃用的__utm cookies的排除规则,使安全策略更加严格。
性能优化与规则改进
本次更新还包括多项规则性能优化。933151和933120规则从原来的捕获和双重pmf模式改为纯正则表达式匹配,这不仅提高了规则执行效率,也使规则更加简洁易懂。
另一个值得注意的改进是移除了self命令的检测。这一命令在实际攻击中很少使用,却可能导致误报,移除后既保持了安全防护能力,又提升了用户体验。
总结
Core Rule Set 4.15.0版本在保持强大安全防护能力的同时,通过新增检测目标、优化现有规则、减少误报等多方面改进,进一步提升了产品的实用性和可靠性。对于使用WAF保护Web应用的安全管理员来说,升级到这一版本将获得更全面、更精准的安全防护能力,同时减少对正常业务的影响。这些改进体现了CRS项目团队对Web安全威胁的持续关注和对产品质量的不懈追求。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00