PrusaSlicer 2.9.2-rc1版本发布:STEP文件导入优化与多项修复
PrusaSlicer是一款广受欢迎的开源3D打印切片软件,由Prusa Research公司开发维护。作为3D打印工作流程中的关键环节,PrusaSlicer负责将3D模型转换为打印机可执行的G-code指令。最新发布的2.9.2-rc1版本作为2.9.2的第一个候选版本,主要针对2.9.1版本中发现的问题进行了修复,并引入了一些功能改进。
STEP文件导入功能增强
在3D打印领域,STEP文件是一种常见的CAD模型交换格式。PrusaSlicer需要将这些精确的几何描述转换为三角网格才能进行后续处理。2.9.2-rc1版本对此进行了重要改进:
-
新增导入对话框:现在导入STEP文件时会显示一个配置对话框,允许用户选择三角化的精度级别。这个功能解决了之前版本中使用固定默认值的问题。
-
记忆用户选择:通过"记住我的选择"复选框,软件可以保存用户最后一次的选择设置,避免重复配置。
-
灵活配置:即使在选择了记忆选项后,用户仍可通过"偏好设置->其他"重新启用这个对话框,提供了充分的灵活性。
这项改进让用户能够在处理精度和性能之间找到最佳平衡点,特别是对于复杂CAD模型的处理尤为有用。
关键问题修复
2.9.2-rc1版本修复了多个影响用户体验和打印质量的问题:
SLA支撑生成相关
- 修复了新SLA支撑点生成器中的崩溃问题
- 解决了新SLA支撑点生成器可能导致的软件冻结问题
接缝处理
- 修复了在某些情况下完全不生成Scarf接缝的问题。Scarf接缝是一种特殊的接缝处理技术,能够使接缝处更加平滑,这个修复确保了接缝生成的可靠性。
顺序排列功能
顺序排列是PrusaSlicer中一项重要功能,它确保打印头不会碰撞已打印的物体。本次修复了多个相关问题:
- 修复了两类导致打印头可能碰撞已打印物体的情况
- 修复了顺序排列算法在存在多个模型实例时的崩溃问题
- 针对XL和CORE ONE打印机优化了输入数据
- 提高了MK4S的顺序排列精度,避免过于保守的排列
- 解决了顺序排列测试中的容差问题,减少了对有效位置的不必要拒绝
其他重要修复
- 修复了加载无效STL文件时的崩溃问题(一个存在已久的问题)
- 修正了平行对齐圆之间距离的测量问题
- 解决了仅包含配置不含几何体的3MF文件被错误拒绝的问题
国际化支持
PrusaSlicer一直重视多语言支持,本次更新:
- 更新了翻译模板文件(POT)
- 更新了捷克语(CS)、波兰语(PL)、德语(DE)、意大利语(IT)、西班牙语(ES)、法语(FR)和日语(JA)的词典
技术意义与用户影响
从技术角度看,2.9.2-rc1版本的改进主要集中在三个方面:CAD文件处理能力的提升、核心算法稳定性的增强以及用户体验的优化。STEP文件导入的改进特别值得关注,因为它直接影响到工程级3D打印的质量和效率。
对于普通用户而言,这些修复意味着更稳定的打印体验和更少的中途失败。特别是顺序排列功能的完善,将有效降低打印过程中发生碰撞的风险,这对于长时间的多对象打印尤为重要。
PrusaSlicer团队通过这种持续迭代的方式,不断优化软件性能,体现了开源项目响应社区反馈的敏捷性。候选版本的发布也遵循了稳健的软件开发流程,确保最终稳定版的质量。
对于3D打印爱好者来说,及时了解这些更新内容有助于充分利用软件功能,获得更好的打印效果。建议用户在测试环境中验证这个候选版本,特别是那些依赖STEP文件导入或顺序打印功能的用户。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00