使用WebAssembly的高效音频解码器:WASM Audio Decoders
WASM Audio Decoders 是一个精心打造的集合,包含了一系列用于浏览器的WebAssembly音频解码库,经过高度优化以提供接近原生执行速度的音频解码体验。这个库支持在主线程上的同步解码,同时也提供了内置的Web Worker实现来实现异步(线程化)解码,确保高性能的同时不影响页面的响应性。
Web Assembly是一种基于栈的虚拟机的二进制指令格式,它允许我们在Web浏览器中运行近乎原生速度的代码。实际上,这些解码器与浏览器自带的解码器相比,在某些情况下甚至更快。
立即查看演示
解码器
每个解码器都使用内联WASM构建,减少了与Webpack等转译器配合时的复杂性。内联WASM是用yEnc编码的,有效实现了二进制数据的高效编码,并且通过gzip压缩减小了文件大小。
预构建的最小化JS文件可通过NPM和每个解码器的dist目录获取。
-
mpg123-decoder: 解码MPEG Layer I/II/III到PCM,仅74.5 KiB的压缩包大小,支持浏览器和Node.js,内置Web Worker支持,基于mpg123,可从NPM安装。 -
@wasm-audio-decoders/flac: 解码FLAC和Ogg FLAC数据到PCM,仅65.2 KiB的压缩包大小,支持多通道解码(最多8个通道),全位深和采样率支持,基于
libFLAC和codec-parser,通过NPM安装。 -
ogg-opus-decoder: 解码Ogg Opus数据到PCM,108.0 KiB的压缩包大小,支持多通道解码(最多255个通道),基于libopus和codec-parser,通过NPM安装。 -
opus-decoder: 解码裸Opus音频帧到PCM,仅84.6 KiB的压缩包大小,同样支持多通道解码(最多255个通道),专为已从容器中提取Opus帧的用户设计,如Ogg、Matroska(WEBM)或ISOBMFF(mp4),基于libopus,可从NPM安装。 -
@wasm-audio-decoders/ogg-vorbis: 解码Ogg Vorbis数据到PCM,仅97.6 KiB的压缩包大小,支持多通道解码(最多255个通道),全Vorbis采样率支持,基于
libvorbis和codec-parser,通过NPM安装。
开发
预备条件
- 根据指示安装Emscripten,本项目已在Emscripten 3.1.46下测试过。
构建
- 在您想要构建的终端中执行
source命令导入Emscripten路径。 - 运行
git submodule update --init克隆子模块。 - 运行
make configure配置库。 - 运行
npm i安装构建工具依赖项。 - 运行
make clean和make进行构建,可以用make -j8加速构建,其中8是你的系统CPU核心数。
测试
- 运行
npm i安装构建和测试依赖项。 - 运行
npm run test运行测试套件。
致谢
-
OggOpusDecoder最初基于AnthumChris/opus-stream-decoder,针对大小和简单的Web应用程序集成进行了优化:- 所有内容都被打包到一个minified的JavaScript文件中,便于使用。
- 支持所有255个Opus声道的多通道解码。
- 使用yEnc编码的内联WASM,以及DEFLATE压缩以显著减少捆绑包大小。
- WASM编译器、压缩器和捆绑选项都进行了调整以获得最佳的大小和性能。
-
包含了madler/zlib的
puff作为WASM构建,用于解压WASM二进制数据。
许可证
源自本项目的源代码按照MIT许可证许可。请注意,任何被仓库包含的外部源代码,比如作为git子模块并编译进dist文件的解码库,可能有不同的许可条款。
WASM Audio Decoders是一个强大的工具,适用于需要高效、跨平台音频解码的Web开发项目。无论你是游戏开发者希望实时播放高质量音频,还是音乐流媒体应用的创作者寻求快速加载和流畅播放,或者是在构建复杂的多媒体平台,这个项目都能成为你不可或缺的一部分。现在就加入,利用WebAssembly的力量提升你的音频处理能力!
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00