Hyperfox 技术文档
Hyperfox 是一款安全审计工具,用于代理并记录两个点之间的 HTTP 和 HTTPS 流量。以下为详细的安装指南、使用说明以及项目 API 使用文档。
安装指南
自动安装
你可以通过以下命令将 Hyperfox 的最新版本安装到 /usr/local/bin(需要管理员权限):
curl -sL 'https://raw.githubusercontent.com/malfunkt/hyperfox/master/install.sh' | sh
如果你不希望通过这种方式安装,你也可以从我们的 发布页面 下载一个发布版本并手动安装。
从源代码构建
要从源代码构建 hyperfox,你需要安装 Go 语言和 C 编译器:
使用 go install 命令来构建和安装 hyperfox:
go install github.com/malfunkt/hyperfox
使用说明
Hyperfox 创建一个透明的 HTTP 代理服务器并绑定到本地的 1080/TCP 端口(-addr 127.0.0.1 -http 1080)。代理服务器读取明文 HTTP 请求并将其重定向到目标目的地(使用 Host 头部来确定目标),当目标目的地响应时,Hyperfox 截获响应并将其转发给原始客户端。
所有在源和目的地之间的 HTTP 通信都会被 Hyperfox 截获并记录到一个自动创建的 SQLite 数据库中。每次 Hyperfox 启动时,都会创建一个新的数据库(例如:hyperfox-00123.db)。你可以通过显式提供数据库名称来改变这个行为(例如:-db traffic-log.db)。
基本使用
启动 Hyperfox 并使用默认配置:
hyperfox
使用 cURL 请求任何 HTTP 页面,-x 参数告诉 cURL 使用 Hyperfox 作为代理:
curl -x http://127.0.0.1:1080 example.com
你应该能在 Hyperfox 的输出中看到请求页面的日志:
...
127.0.0.1:44254 - - [11/Apr/2020:19:19:48 -0500] "GET http://example.com/ HTTP/1.1" 200 -1
用户界面 (-ui)
Hyperfox 提供了一个用户界面,可以通过 -ui 参数启用。这将在新的浏览器窗口中打开 UI:
hyperfox -db records.db -ui
上述命令创建了一个绑定到 127.0.0.1:1984 的 Web 服务器。如果你想更改绑定地址或端口,可以使用 -ui-addr 选项:
hyperfox -db records.db -ui -ui-addr 127.0.0.1:3000
更改 UI 服务器地址在 Hyperfox 运行在远程或无头主机时特别有用,这样可以从另一个主机访问 UI。
启用 UI 同时也启用了最小 REST API(位于 127.0.0.1:4891),供前端应用程序使用。
请注意,Hyperfox 的 REST API 仅通过一个每次 Hyperfox 启动时都会更改的随机密钥进行保护,根据你的使用场景,这可能不够安全。
在移动设备上运行 Hyperfox UI
当 -ui-addr 参数不同于 127.0.0.1 时,Hyperfox 会输出一个 QR 码,以便更容易地从移动设备连接:
hyperfox -db records.db -ui -ui-addr 192.168.1.23:1984
项目 API 使用文档
Hyperfox 启动 UI 之后,会提供一个基本的 REST API 供前端应用程序使用。API 的具体路径和功能如下:
/api/records:获取当前会话的所有记录。/api/record/:id:获取指定记录的详细信息。
这些 API 仅在启用 UI 时可用,并且默认情况下不开放给外部访问。
项目安装方式
Hyperfox 提供了多种安装方式:
- 自动安装脚本。
- 手动下载发布版本。
- 从源代码构建。
请根据你的需求和环境选择合适的安装方式。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00