lsassy 项目使用教程
1. 项目介绍
lsassy 是一个用于远程提取 Windows 系统中 LSASS (Local Security Authority Subsystem Service) 进程凭据的 Python 工具。LSASS 进程存储了操作系统中的安全信息,包括用户登录凭据。通过远程提取 LSASS 进程的凭据,攻击者可以获取目标系统的用户密码哈希,进而进行进一步的攻击。
lsassy 项目的主要特点包括:
- 支持多种远程 LSASS 转储方法。
- 使用 Impacket 项目进行远程读取。
- 使用 pypykatz 解析 LSASS 转储文件。
- 支持多种认证方式,包括明文凭据、Pass-the-Hash 和 Kerberos。
2. 项目快速启动
安装
推荐使用 pip 进行安装:
python3 -m pip install lsassy
或者从源码安装:
git clone https://github.com/Hackndo/lsassy.git
cd lsassy
python3 setup.py install
基本使用
以下是一个基本的使用示例,使用明文凭据远程提取 LSASS 凭据:
lsassy -d domain -u username -p password targets
其中:
-d domain:指定域名。-u username:指定用户名。-p password:指定密码。targets:指定目标主机或主机列表。
高级使用
lsassy 支持多种 LSASS 转储方法,可以通过 -m 或 --method 参数指定。例如,使用 procdump 方法:
lsassy -d domain -u username -p password targets -m procdump -O procdump_path=/opt/Sysinternals/procdump.exe
3. 应用案例和最佳实践
案例1:企业内网渗透测试
在企业内网渗透测试中,攻击者通常需要获取域内用户的凭据。使用 lsassy 可以远程提取目标主机的 LSASS 凭据,进而获取用户的密码哈希,进行 Pass-the-Hash 攻击或其他进一步的攻击。
案例2:红队演练
在红队演练中,红队成员需要模拟真实的攻击行为。使用 lsassy 可以模拟攻击者远程提取 LSASS 凭据的行为,帮助企业发现和修复安全漏洞。
最佳实践
- 权限控制:确保只有授权用户才能使用 lsassy 工具。
- 日志监控:监控系统日志,及时发现和响应异常的 LSASS 转储行为。
- 安全配置:配置系统以减少 LSASS 转储的风险,例如启用 PPL (Protected Process Light)。
4. 典型生态项目
Impacket
Impacket 是一个用于网络协议操作的 Python 库,广泛用于渗透测试和安全研究。lsassy 使用 Impacket 进行远程读取和操作。
pypykatz
pypykatz 是一个用于解析 Windows 凭据的 Python 工具,支持解析 LSASS 转储文件。lsassy 使用 pypykatz 解析远程提取的 LSASS 转储文件。
CrackMapExec
CrackMapExec 是一个用于渗透测试的工具,支持多种攻击方法。lsassy 可以作为 CrackMapExec 的一个模块,集成到 CrackMapExec 中使用。
通过这些生态项目的配合,lsassy 可以更加灵活和强大地应用于各种渗透测试和安全研究场景。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00