探索网络漏洞的利器:Inception
Inception 是一款高度可配置的工具,用于对任意数量的主机进行自定义检查。它的使用简单,但功能强大,只需几分钟,通过providerCreate.html,您就可以创建所需的漏洞或服务指纹。
这款工具对于从事Bug bounty活动的猎手来说非常实用,他们可以快速扫描大量主机上的特定端点,并报告如果该端点返回指定字符串、状态码或Content-Length时的情况。
Inception是Go语言版本的Snallygaster,内置了来自Snallygaster的大量测试案例,以及由我添加的更多案例。默认测试包括公共访问git配置文件、.env文件、Magento配置文件、PHP信息文件、服务器状态页面、Rails和Symfony数据库配置文件、CORS配置错误检测以及根目录的基本XSS检查等。
与其他工具不同的是,Inception允许用户在不编写一行代码的情况下创建并提供自己的测试案例。
利用goroutine,Inception运行速度极快,但它不会对单个域并发发送大量请求,以防止WAF阻塞,并确保每个测试案例在移动到下一个测试之前针对所有指定域执行一次。
关键特性
- 使用providerCreate.html创建签名非常简单。
- 利用Go语言的goroutine实现高速扫描。
- 避免过度冲击单个服务器,减少被WAF阻止的风险。
- 可高度配置,支持GET/POST/HEAD/PUT/DELETE请求,并自定义头部和正文。
- 最小化误报率,可根据具体字符串、状态码、Content-Length过滤响应。
安装与更新
确保已安装Go,然后运行以下命令进行安装:
go get github.com/proabiral/inception
要更新Inception,请运行:
go get -u github.com/proabiral/inception
使用方法
查看命令行选项以了解详细用法:
▶️ inception -h
基本用法示例:
▶️ inception -d /path/to/domainlist.txt
所有检测到的问题将在屏幕上显示。如果没有发现问题,将显示“已完成”消息。如果出现类似provider.json: no such file or directory的错误,可以通过-provider选项提供provider.json文件的路径。
输出保存
▶️ inception -d /path/to/domainlist.txt -o /tmp/output
结果将以JSON格式保存,可以使用如jq和gron这样的工具后期处理。
常见问题解答
-
如何设置域名列表? 提供一个每行包含一个域名的文本文件,无需协议前缀,例如:
facebook.com twitter.com gmail.com hackerone.com bugcrowd.com -
如何添加自定义测试案例? 使用providerCreate.html生成JSON,填写详细信息,然后生成的JSON如下所示:
[ ... ]将生成的JSON保存到文件中,并在运行工具时通过
-provider选项提供其路径。
指令占位符
在provider.json中,您可以使用预定义的指令占位符,它们会根据工具运行的目标URL自动替换:
$hostname:主域名$domain:域名(不带www)$fqdn:完全限定域名(包含www)
例如,如果目标是https://end8ej99anfko.x.pipedream.net,则:
$hostname变为 end8ej99anfko$domain变为 x.pipedream.net$fqdn变为 end8ej99anfko.x.pipedream.net
这在处理CORS或查找以域名开头的文件等情况时非常有用。
名字背后的意义
Inception这个名字灵感来源于电影《盗梦空间》,在这部电影中,主角迪卡普里奥从人的潜意识中窃取秘密。如同电影,这款工具也从Web服务器中挖掘出隐藏的信息。
最后,感谢Iceman为本项目命名,并且它借鉴了他Subover项目中的并发模块。
立即尝试Inception,让它成为您的网络安全侦探,发掘那些潜藏在网络深处的秘密吧!
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00