wsbench 使用与技术文档
1. 安装指南
wsbench 是一款用于测试 WebSocket 服务器性能的脚本工具。在使用前,您需要安装 NodeJS。安装完成后,您可以开始使用 wsbench。请注意,该工具没有其他外部依赖。
2. 项目使用说明
wsbench 可以通过指定 WebSocket URL 来启动对服务器的基准测试。
基本用法
最简单的用法是直接调用 wsbench 并传入指向服务器的 WebSocket URL。例如,以下命令将顺序地向运行在本地主机的 8080 端口的 WebSocket 服务器打开并关闭 100 个连接。在此过程中不会发送任何消息。
wsbench ws://localhost:8080
您还可以使用 -r 选项以并行、速率驱动的方式进行测试。例如,以下命令将每秒打开并关闭 10 个连接,并且无限运行。使用 -c NNN 选项可以指定在打开 NNN 个连接后终止,其中 0 表示无限制。
wsbench -r 10 ws://localhost:8080
使用 -m NNN 选项可以指定每个连接发送的消息数。使用 -s NNN 选项可以设置每条消息的字节数。在这种模式下,WebSocket 连接将保持打开状态,直到所有消息发送完毕。
会话脚本
wsbench 工具支持使用 -S FILE 选项执行任意的 JavaScript 代码来控制打开连接的交互(例如发送和接收消息)。这允许测试丰富的、特定于应用程序的行为。以下是一个简单的示例,该文件将为前 10 个连接发送 Hello 消息,为后续每个连接发送 world! 消息,然后关闭连接。请注意,会话函数对每个打开的 WebSocket 调用一次,因此我们将计数器保持在模块作用域内。
var cnt = 0;
module.exports = function(ws) {
ws.onopen = function() {
ws.send((++cnt <= 10) ? 'Hello' : 'world!');
ws.close();
};
};
在 examples/echo/ 目录中可以找到更复杂的示例。
会话逻辑可以使用系统中安装的任何 NodeJS 模块。特别是,这提供了对内置 HTTP 堆栈的访问;构建包含 WebSocket 和 HTTP 请求的异构工作负载变得非常简单。
3. 项目API使用文档
wsbench 的完整用法如下:
wsbench [options] <url>
在给定 ws:// URL 上启动基准测试。
我们可以以两种方式执行工作负载:顺序执行,每次打开一个连接并在下一个连接开始之前关闭它;并行执行,指定一个速率并独立于其他连接的状态打开连接以满足该速率。默认为顺序执行,并行执行可以通过 -r <rate> 选项指定。并行执行受要建立的连接总数的限制,通过 -c 选项指定。
可用选项:
-c, --num-conns NUMBER:要打开的连接数(默认:100)-h, --help:显示帮助信息-m, --num-msgs NUMBER:每个连接的消息数(默认:0)-p, --protocol PROTO:设置要使用的 WebSocket 协议(默认:空)-r, --rate NUMBER:每秒连接数(默认:0)-s, --msg-size NUMBER:发送的消息大小,以字节为单位(默认:32)-S, --session FILE:用于会话逻辑的文件(默认:无)
4. 项目安装方式
请遵循以下步骤安装 wsbench:
-
确保您的系统中已安装 NodeJS。
-
使用
git克隆仓库:git clone https://github.com/pgriess/wsbench.git -
切换到仓库目录并运行
npm install:cd wsbench npm install -
运行
wsbench并按照上述使用说明进行测试。
以上是 wsbench 的安装和使用说明。希望这篇文档能帮助您更好地了解和使用该工具。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C088
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python056
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
agent-studioopenJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力TSX0137
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00