ZAP扩展项目ascanrules-v70版本发布:增强主动扫描能力与安全性
项目简介
ZAP(Zed Attack Proxy)是一款广受欢迎的开源Web应用安全测试工具,而ascanrules是其核心扩展组件之一,专注于提供各种主动扫描规则。这些规则能够模拟测试者对Web应用进行深度检测,发现潜在的安全问题。最新发布的v70版本在多个方面进行了优化和改进,进一步提升了扫描的准确性和覆盖范围。
主要更新内容
核心框架升级
v70版本将最低支持的ZAP版本提升至2.16.0,这意味着用户需要确保他们的ZAP环境已经更新到这个版本或更高。同时,该版本还要求Common Library的最低版本为1.29.0,这些升级为扫描规则提供了更稳定和强大的基础支持。
扫描规则改进
在扫描规则方面,v70版本有几个值得关注的改进:
-
云元数据检测增强:现在支持对Google Cloud Platform(GCP)、Microsoft Azure和Oracle Cloud Infrastructure(OCI)的元数据服务进行检测,能够发现更多云环境下的配置安全问题。
-
服务器端模板注入(SSTI)规则优化:修复了与Go语言模板相关的误报问题,提高了检测的准确性。特别是针对Go模板引擎的特定测试向量进行了调整,减少了误报情况。
-
带外(OOB)检测标记:为"服务器端模板注入(盲注)"和"XML外部实体检测"规则添加了OUT_OF_BAND标记,帮助安全人员更清晰地识别这类需要带外通信验证的问题。
用户体验优化
-
扫描策略标准化:新增了标准化的扫描策略相关警报标签,使得规则管理更加规范统一。
-
帮助文档完善:更新了"隐藏文件查找器"和"用户代理模糊测试"规则的帮助文档,明确指出了与Custom Payloads插件配合使用的特定分类标识符。
-
日志信息修正:修复了使用主动扫描OAST服务的规则中可能出现的双点号问题,使日志输出更加规范。
技术细节解析
云元数据检测的演进
云元数据服务是云平台提供的重要功能,但不当的配置可能导致安全问题。v70版本的改进不仅增加了对主流云平台的支持,还优化了检测逻辑,减少了误报。这种检测对于发现云环境中可能存在的敏感信息泄露风险至关重要。
SSTI检测的精准度提升
服务器端模板注入是一种严重安全问题,但不同模板引擎的语法差异导致检测难度较大。v70版本特别针对Go语言的模板引擎进行了优化,通过调整测试向量和检测逻辑,显著降低了误报率,同时保持了较高的检出率。
带外检测的强化
带外检测是现代应用安全测试中的重要组成部分。通过为相关规则添加OUT_OF_BAND标记,安全团队可以更有效地识别和验证那些需要外部交互才能确认的问题,如盲注型的服务器端模板注入和XXE检测。
实际应用建议
对于安全测试人员,升级到v70版本后可以:
-
在云环境测试中,充分利用增强的云元数据检测能力,全面评估云服务的配置安全性。
-
针对使用Go语言开发的应用,可以更自信地依赖SSTI检测结果,减少人工验证的工作量。
-
通过标准化的警报标签,更高效地组织和分析扫描结果,特别是对于复杂的带外检测场景。
总结
ascanrules-v70版本的发布标志着ZAP在主动扫描能力上的又一次进步。通过支持更多云平台、优化检测算法和提升用户体验,这个版本为Web应用安全测试提供了更强大、更精准的工具。安全团队应当及时升级,以充分利用这些改进带来的优势,提升安全测试的效率和效果。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00