Roadroller:压缩你的JavaScript演示的强大工具
Roadroller 是一个专为大型demo设计的JavaScript打包器,即使在4KB的小型项目中也能发挥出色的作用。相比最佳的ZIP/gzip重压缩器,它能提供高达15%的额外压缩率。在线尝试一下!
与典型的如JSCrush或RegPack等轻量级打包器不同,Roadroller被称为“重型”工具,因为它的资源需求较高,需要相当的内存和运行时间。默认配置对大多数设备来说是可行的,但你可以根据需要进行自定义配置。
快速上手
除了在线示例,Roadroller也可作为一个NPM包使用:
$ npx roadroller input.js -o output.js
你还可以将Roadroller作为库集成到构建流程中:
import { Packer } from 'roadroller';
const inputs = [
{
data: 'console.log("Hello, world!");',
type: 'js',
action: 'eval',
},
];
const options = {
// 可在此处查看可用选项。
};
const packer = new Packer(inputs, options);
await packer.optimize(); // 默认情况下优化时间不到10秒
const { firstLine, secondLine } = packer.makeDecoder();
console.log(firstLine + secondLine);
Roadroller作为库或命令行工具要求Node.js版本至少为14,建议使用16,因为它在16中的运行速度显著快于14。
使用方法
默认情况下,Roadroller接收你的JS代码,并返回压缩后的JS代码,应进一步使用ZIP、gzip或PNG引导(实际上是[DEFLATE])进行压缩。理想情况下,你的JS代码应在使用[Terser](https://github.com/terser terser)或Closure Compiler等工具进行最小化处理后再输入Roadroller,因为Roadroller仅做最小程度的空白和注释消除。
产生的代码看起来像这样(换行符主要用于解释,可删除):
eval(Function("[M='Zos~ZyF_sTdvfgJ^bIq_wJWLGSIz}Chb?rMch}...'"
,...']charCodeAtUinyxp',"for(;e<12345;c[e++]=p-128)/* omitted */;return o")([],[],12345678,/* omitted */))
第一行是压缩的数据,可能包含如(U+001C)这样的控制字符,这些字符在某些环境中可能无法正确显示。不过,你应该确保它们被完整地复制。
第二行是一个针对特定输入调整过的压缩器。默认情况下,解压后数据会立即通过eval执行,但你可以配置要如何处理该数据。
第一行非常不易压缩,而第二行则相反,所以理想情况下,你应该分别压缩这两行。这可以通过AdvanceCOMP或ECT等工具的ADVZIP功能来实现。第一行和第二行可以构成单一语句,因此之间只能有空格分隔,不能分开。
输入配置
每个输入都可以通过输入类型和操作进一步配置。在CLI中,相应选项要在文件路径之前设置。
输入类型(CLI -t|--type TYPE,API 输入对象中的type属性)决定了预处理步骤以提高压缩效果。
-
JavaScript(
js)假设是有效的JS代码。自动移除所有冗余空白和评论,并为嵌入的字符串启用单独建模。这也适用于JSON。 -
文本(
text)假设是可读的Unicode文本,可以用UTF-8编码。这也可以用于不需预处理的JavaScript代码。
输出配置
上下文数量(CLI -S|--selectors xCOUNT)与建模复杂性有关。更多的上下文将获得更好的压缩效果,但也会线性增加时间和内存消耗。默认值为12,目标是在允许的最大1秒延迟下处理典型的30 KB输入。
最大内存使用量(CLI -M|--max-memory MEGABYTES,API 配置对象中的maxMemoryMB属性)设置了解压缩过程中使用的最大内存量。增加或减少内存使用主要影响压缩比,而不是运行时间。默认值为150 MB,对于各种原因,更大的值并不推荐:
-
对于典型小于100 KB的输入,进一步增加内存使用带来的收益微乎其微。
-
压缩可能会使用比解压缩多50%的内存,而优化器会在上面再增加50%。
-
分配和初始化较大内存大约需要500毫秒(对于1GB),因此不适合小输入。
实际内存使用量可能是指定的一半,由于内部架构,使用-v将在stderr中打印实际内存使用情况。
应用场景
Roadroller 在以下场景中尤其有用:
- 当你需要创建一个小型的JavaScript演示,且希望最大限度地减小文件大小时。
- 如果你的应用需要在有限的存储空间下运行,例如在移动设备或者低性能硬件上。
- 当你在限制严格的Web环境中工作,如游戏开发或在线编程挑战,需要尽可能小的加载文件。
项目特点
- 高效压缩:最高可提供比ZIP/gzip更优的15%压缩率。
- 灵活配置:支持多种输入类型和操作,可定制输入和输出配置,包括内存和运行时间的优化。
- 易于集成:可以用作独立工具,也可通过NPM库集成到现有构建流程。
- 安全可控:可以选择是否允许解码器污染全局作用域,适应不同环境。
现在,是时候让Roadroller助力你的项目,释放JavaScript的极致压缩潜力了!开始体验吧!
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00