SuperSlicer 2.7.61.1版本更新解析:3D打印软件的重要优化与修复
SuperSlicer是一款基于PrusaSlicer二次开发的开源3D打印切片软件,它在原版基础上增加了许多高级功能和优化选项,为专业用户提供了更强大的打印控制能力。本次2.7.61.1版本作为2.7.61的bug修复版本,主要针对悬垂处理、打印质量优化和构建系统等方面进行了多项改进。
悬垂处理优化
悬垂处理是3D打印中的关键技术难点,新版本对此进行了多项改进:
-
悬垂可视化分级:现在软件将悬垂区域分为三个级别进行可视化区分。0到overhangs_width_speed阈值之间的区域不再显示为悬垂;介于overhangs_width_speed和overhangs_width阈值之间的区域仍显示为悬垂但保持原有流量;超过overhangs_width阈值的区域则显示为悬垂并应用桥接流量。
-
风扇控制修复:修正了禁用悬垂风扇速度时的错误行为,确保风扇控制逻辑更加精确。
-
Arachne算法优化:修复了Arachne算法生成的悬垂与普通薄壁出现在同一位置的问题,提高了模型精度。
-
额外轮廓逻辑改进:现在额外轮廓(extra_perimeters_on_overhangs)功能会根据是否使用Arachne算法和是否设置了overhangs_width_speed阈值来智能激活或禁用。
打印质量提升
-
压力提前校准:重新设计了缩放函数,使压力提前校准更加准确。
-
接缝凹槽改进:对接缝凹槽(seam_notch)的形状和流量进行了重新设计,使接缝处更加平整。
-
回缩校准检查:在校准对话框中增加了对固件回缩的检查,避免配置冲突。
-
填充合并优化:修复了填充区域合并的问题,即使存在微小偏移也能正确合并。
-
熨平修复:解决了多岛屿模型缺失熨平(ironing)的问题。
系统与构建改进
-
构建系统增强:
- 修复了macOS Intel平台上的libzstd问题
- 更新了CMake最低版本要求
- 改进了调试模式下的nlopt使用
- 增加了对Arch Linux等更多Linux发行版的支持
-
兼容性提升:
- 修复了与新版glibc-2.40的兼容问题
- 支持Linux Mint系统
- 放宽了OpenCascade的版本要求
- 修复了VS2022 17.13的构建问题
-
代码质量改进:
- 大量替换了C风格头文件为C++标准头文件
- 修复了许多缺少头文件包含的情况
- 优化了构建依赖关系
已知问题说明
尽管本次更新带来了许多改进,但仍存在一些已知问题需要用户注意:
- 支撑阻挡器/增强器在某些情况下可能会偏移,导致支撑生成位置不正确
- "在悬垂区域添加额外轮廓"功能可能会在桥接区域错误添加轮廓
- 树状支撑区域可能会因尖端直径增长而延伸到孔洞中的墙壁上
使用建议
对于不同平台的用户:
- macOS用户:Intel版本需要授予权限,ARM版本首次运行需执行xattr命令清除扩展属性
- Windows用户:可通过Chocolatey包管理器获取自动安装/更新
- Linux用户:提供了AppImage和压缩包两种格式,支持GTK2和GTK3环境
建议专业用户关注悬垂处理的新分级系统,合理设置overhangs_width_speed和overhangs_width阈值以获得最佳打印效果。对于打印质量要求高的项目,可以尝试新版改进的接缝凹槽和熨平功能。
本次更新体现了SuperSlicer团队对打印质量和用户体验的持续追求,特别是悬垂处理的精细化控制将为复杂模型的打印提供更多可能性。建议用户及时更新以获取这些改进,同时注意已知问题的规避方案。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C091
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00