15亿参数实现实时语音交互!LFM2-Audio模型发布
2026-02-08 04:14:41作者:滑思眉Philip
LFM2-Audio-1.5B
Liquid AI首款端到端音频基础模型,15亿参数实现低延迟实时语音对话,无需独立ASR/TTS组件。支持语音转语音、ASR、TTS等任务,中英双语,性能媲美更大模型。
导语:Liquid AI推出15亿参数的LFM2-Audio-1.5B模型,以轻量化架构实现端到端实时语音交互,重新定义语音AI的效率与实用性边界。
行业现状:当前语音交互技术正面临"参数膨胀"与"实时性需求"的双重挑战。一方面,主流语音大模型参数规模已突破百亿,导致部署成本高昂;另一方面,智能音箱、车载系统等场景对亚秒级响应的需求日益迫切。据Gartner预测,到2025年70%的智能设备交互将依赖语音,但现有技术普遍存在"识别-理解-合成"三阶段处理的 latency 瓶颈,平均响应延迟超过800ms。
模型亮点: LFM2-Audio-1.5B通过三大创新实现突破:
- 端到端架构革新:摒弃传统ASR+NLP+TTS的串联模式,采用FastConformer音频编码器+LFM2 multimodal backbone+RQ-transformer生成器的一体化设计,将语音交互链路压缩60%。
- 轻量化高能效比:仅15亿总参数(含12亿语言模型+1.15亿音频编码器),在VoiceBench基准测试中,整体性能达到56.78分,超越70亿参数的Moshi模型92.4%,尤其在WildVoice真实场景测试中获得3.17分,接近50亿参数的Qwen2.5-Omni-3B水平。
- 双模式生成系统:支持"交错生成"与"顺序生成"两种模式。前者专为实时对话优化,通过Mimi音频令牌器(8个码本)实现音频流的实时输出,实测 latency 控制在300ms以内;后者适用于ASR/TTS等单任务,字错误率(WER)在LibriSpeech-clean数据集达到2.01%,与Whisper-large-V3相当但速度提升3倍。
行业影响:该模型的推出将加速语音AI的普惠化进程。在消费电子领域,15亿参数规模可实现边缘设备部署,使千元级智能音箱具备类ChatGPT的语音交互能力;在企业服务场景,其ASR平均7.24%的WER指标,已满足客服质检、会议记录等专业需求。尤为值得注意的是,模型采用的LFM Open License v1.0允许商业使用,这将降低中小开发者的技术门槛。
结论/前瞻:LFM2-Audio-1.5B证明了"小而美"的模型路线在语音交互领域的可行性。随着Liquid AI开放Gradio demo(通过liquid-audio-demo命令即可启动)和Python SDK,我们有理由期待,2024年将出现更多基于轻量化语音模型的创新应用。未来,随着多语言支持(当前仅支持英语)和情感识别能力的完善,这类模型可能重塑人机交互的范式。
LFM2-Audio-1.5B
Liquid AI首款端到端音频基础模型,15亿参数实现低延迟实时语音对话,无需独立ASR/TTS组件。支持语音转语音、ASR、TTS等任务,中英双语,性能媲美更大模型。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
jiuwenclawJiuwenClaw 是一款基于openJiuwen开发的智能AI Agent,它能够将大语言模型的强大能力,通过你日常使用的各类通讯应用,直接延伸至你的指尖。Python0208- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
AtomGit城市坐标计划AtomGit 城市坐标计划开启!让开源有坐标,让城市有星火。致力于与城市合伙人共同构建并长期运营一个健康、活跃的本地开发者生态。01
MarkFlowy一款 AI Markdown 编辑器TSX01
热门内容推荐
最新内容推荐
项目优选
收起
deepin linux kernel
C
27
12
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
612
4.07 K
Ascend Extension for PyTorch
Python
453
538
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
924
778
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
374
254
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
69
21
暂无简介
Dart
857
205
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.47 K
834
React Native鸿蒙化仓库
JavaScript
322
377
AscendNPU-IR是基于MLIR(Multi-Level Intermediate Representation)构建的,面向昇腾亲和算子编译时使用的中间表示,提供昇腾完备表达能力,通过编译优化提升昇腾AI处理器计算效率,支持通过生态框架使能昇腾AI处理器与深度调优
C++
114
177