ossia score 3.5.0版本发布:全面升级的多媒体创作平台
ossia score是一款开源的交互式多媒体创作软件,专注于时间轴编排和实时控制。它结合了可视化编程和传统音序器的特点,广泛应用于新媒体艺术、音乐创作、现场表演等领域。最新发布的3.5.0版本带来了多项重要改进,为未来的功能发展奠定了基础。
平台架构升级
3.5.0版本在底层架构上进行了重大调整。官方发布的二进制版本现在要求CPU支持AVX2指令集,并且仅提供64位版本。这一变化显著提升了处理性能,特别是在音频和图形处理方面。同时,项目更新了多个核心依赖库,包括Qt升级到6.9版本,FFMPEG升级到7.1.1版本。
在跨平台支持方面,macOS的最低系统要求提升至12.0版本,这是为了兼容新版Qt框架的必要调整。特别值得注意的是,项目现在对AArch64架构(如树莓派、Asahi Linux等设备)提供了更完善的支持,采用与x86_64架构相同的AppImage打包方式。
音频与MIDI处理增强
音频子系统在本版本中获得了多项改进。新增了ALSA支持,通过Miniaudio库为某些特殊场景(如使用Pulse ALSA插件时)提供了更稳定的音频处理方案。同时,修复了在Mac设备上处理超过128通道音频时的问题。
MIDI处理方面,整个系统现已基于MIDI 2 UMP协议重构,取代了传统的MIDI 1消息处理。虽然目前这一变化对用户界面影响不大,但在处理大量MIDI对象时能显著提升性能。新增的MIDI转数组插件为用户提供了更灵活的数据转换选项。
图形与渲染系统优化
图形子系统是本版本的重点改进领域之一。新增了对Qt RHI D3D12后端的支持,并优化了Vulkan 1.1+的兼容性。用户现在可以在设置中选择单缓冲、双缓冲或三缓冲模式,以适应不同的性能需求。
特别值得注意的是纹理输入口的改进,现在允许用户自定义渲染分辨率和过滤模式(如最近邻或线性插值)。这些改进使得视觉效果的呈现更加精细和可控。
设备控制与交互增强
在设备控制方面,DMX子系统获得了显著改进。移除了对libartnet的依赖,解决了之前ArtNet协议中的许多错误。新增了对特殊DMX设备的支持,如每宇宙510通道的DMX LED设备,并改进了地址编辑界面。
HTTP设备新增了POST请求支持和流式输入处理能力,使得网络交互更加灵活。同时,修复了OSC串口设备的小部件显示问题。
空间音频与特效处理
3.5.0版本在空间音频处理方面引入了重要新功能。新增的GBAP插件能够生成基于网格的空间化系数,为多声道音频处理提供了强大工具。同时新增的Matrix音频对象可以根据系数列表将音源空间化到多个声道。
在视觉效果方面,实现了基本的全穹顶投影模式,特别适合点云和复杂几何体的展示。这一功能为沉浸式体验创作开辟了新可能。
开发者工具与脚本增强
JavaScript引擎获得了多项改进,新增了UI模式,允许通过命令行参数运行带有自定义Qt Quick界面的项目。同时,纹理输入口现在能够接收鼠标、触摸和键盘事件,大大增强了交互可能性。
对于开发者而言,新增了在外部编辑器中打开代码的功能,并优化了地址搜索功能,使其支持递归查找,提高了开发效率。
性能优化与错误修复
整个系统在性能方面进行了多项优化。图形渲染管道减少了在滚动ISF预设时创建的表面数量,使交互更加流畅。音频处理方面改进了对非正规数的处理,并允许节点声明是否需要保留非正规数。
修复了包括LV2插件查找路径、VST插件在UI缩放时的显示问题、RMS计算在立体声模式下的错误等多个问题。特别值得一提的是,修复了无GUI模式下的播放/暂停远程控制功能。
总结
ossia score 3.5.0是一个功能丰富、改进全面的版本,在音频处理、图形渲染、设备控制和交互设计等方面都有显著提升。这些改进不仅增强了当前版本的功能性和稳定性,也为未来的发展奠定了坚实基础。无论是新媒体艺术家、音乐创作者还是交互设计师,都能从这个版本中获得更强大、更稳定的创作工具。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00