STUNner v1.1.0发布:Kubernetes WebRTC网关的运营商级升级
STUNner是一个开源的Kubernetes原生WebRTC媒体网关项目,它使得WebRTC应用能够像其他Kubernetes服务一样在云原生环境中运行。STUNner通过实现标准的TURN协议,为WebRTC流量提供了可靠的NAT穿透解决方案,同时保持了Kubernetes环境特有的弹性、可观测性和安全性优势。
运营商级性能升级
STUNner v1.1.0版本标志着项目迈向运营商级性能的重要里程碑。经过半年的开发和稳定性改进,这个版本带来了多项关键增强:
-
TURN加速框架:通过Linux/eBPF技术实现的TURN流量卸载功能,将CPU占用降低了100倍以上,单台Linux服务器现在可以处理超过100Gbps的TURN/UDP流量。
-
用户配额支持:新增的用户配额功能可有效缓解恶意流量攻击,为大规模部署提供更好的保护。
-
STUN服务器模式:除了传统的TURN服务外,现在还可以将STUNner配置为纯STUN服务器,满足不同场景的需求。
-
DaemonSet数据平面:支持以DaemonSet方式部署数据平面,简化了在节点级别管理TURN服务的复杂度。
-
中继地址发现:自动发现和配置中继地址的功能,使得部署公共STUN/TURN服务更加简单。
全新ICE测试工具
针对Kubernetes环境中WebRTC部署的复杂性,v1.1.0引入了一个实验性的ICE测试工具。这个工具可以:
- 自动部署一个完整的WHIP服务器到Kubernetes集群
- 配置STUNner网关暴露服务
- 启动WHIP客户端进行连接测试
- 提供详细的诊断信息帮助排查问题
- 报告性能指标(包速率、丢包率、RTT等)
该工具支持对称和非对称ICE模型,覆盖UDP和TCP传输协议,是验证STUNner安装和配置的理想选择。
架构改进与优化
-
集中部署模式:移除了传统的"legacy"数据平面模式,现在所有部署都使用更先进的"managed"模式。
-
指标导出重构:将监控指标系统迁移到OpenTelemetry标准,提供更好的可观测性。
-
认证服务增强:支持自定义公共地址配置,改进了与最新CDS API的兼容性。
-
命令行工具改进:stunnerctl增加了混合JSON查询和字符串输出的能力,提升了用户体验。
-
资源清理优化:确保在删除数据平面资源时彻底清理相关的Deployment和DaemonSet。
开发者体验提升
-
新的示例应用:新增了基于Elixir语言的WebRTC示例,展示了如何与不同技术栈集成。
-
文档完善:更新了完整公共TURN服务器配置指南,移除了过时的legacy模式文档。
-
测试增强:通过CDS服务器端口随机化等技术,提高了测试的健壮性。
-
错误处理改进:统一了错误消息格式,使问题诊断更加直观。
STUNner v1.1.0不仅为即将发布的商业版本奠定了基础,也为开源用户带来了诸多实用改进。无论是小规模试验还是大规模生产部署,这个版本都提供了更稳定、更高效的WebRTC网关解决方案。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C091
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00