Pillow 11.1.0 版本发布:图像处理库的重要更新
Pillow 是 Python 生态中最受欢迎的图像处理库之一,它是 PIL (Python Imaging Library) 的一个友好分支。作为 Python 开发者处理图像任务的首选工具,Pillow 提供了丰富的图像格式支持、强大的图像处理功能以及简洁易用的 API 接口。
核心功能改进
图像格式支持增强
本次 11.1.0 版本在图像格式支持方面有多项重要改进:
-
BLP1 格式的 Alpha 通道处理:修复了 BLP1 格式图像 alpha 通道深度处理的问题,确保这类游戏纹理图像能够正确显示透明效果。
-
BigTIFF 支持:现在可以保存超过 4GB 的大型 TIFF 文件,这对处理医学影像、卫星图像等大数据量场景尤为重要。
-
CMYK JP2 图像保存:新增了对 CMYK 色彩模式的 JPEG 2000 图像保存支持,扩展了专业印刷工作流的兼容性。
-
J2K 注释读取:现在能够读取 JPEG 2000 (J2K) 格式文件中的注释信息,为图像元数据处理提供了更多可能性。
性能优化
-
zlib-ng 替换:用性能更高的 zlib-ng 替代了传统的 zlib 库,显著提升了 PNG 等压缩格式的处理速度。
-
内存管理优化:在 macOS 平台上改进了 ImageGrab.grabclipboard() 方法,不再使用临时文件,直接处理剪贴板数据,提高了效率。
-
多线程安全:修复了 FreeType 字体引擎在多线程环境下可能导致的段错误问题,增强了库的稳定性。
重要修复与改进
EXIF 和元数据处理
-
EXIF 转换保留新 IFD:在将 EXIF 数据转换为字节时,现在会保留所有新的图像文件目录(IFD),确保元数据完整性。
-
XMP 数据处理:修正了 JPEG 和 MPO 格式中 XMP 元数据的写入问题,并确保不会从 JPEG 信息中错误保存 XMP 数据。
-
JPEG DPI 读取:现在会从 JFIF 标记中正确读取厘米密度信息并转换为 DPI 值,保证打印尺寸的准确性。
图像处理算法
-
RGBA 调色板处理:改进了保存 GIF 图像时对 RGBA 调色板的处理逻辑,确保透明度信息能够正确保留。
-
不连续角点连接:修复了在绘制多边形时连接不连续角点可能出现的问题,提高了绘图准确性。
-
EMF DPI 校正:修正了增强型图元文件(EMF)的 DPI 处理,确保矢量图形的缩放比例正确。
开发体验提升
类型提示完善
- 移除了 Python 3.8 兼容所需的引号注解,简化了类型提示语法。
- 修正了 loadImageSeries 等方法的类型提示,提供了更准确的开发提示。
- 为 RGBX;16N 格式添加了 unpacker 支持,完善了高色深图像处理。
构建系统改进
- 跨平台一致性:统一了 Windows 构建中使用 .tar.gz 压缩格式,与 macOS 和 Linux 保持一致。
- 依赖管理:更新了多个核心依赖库版本,包括 libwebp 1.5.0、libjpeg-turbo 3.1.0 等。
- 构建错误处理:改进了构建选项的错误提示信息,帮助开发者更快定位问题。
测试与质量保证
- 测试覆盖率提升:新增了多种测试场景,包括 CentOS Stream 10 和 Fedora 41 等平台验证。
- Python 3.13 支持:提前为即将发布的 Python 3.13 版本做好准备,包括 free-threaded 模式的测试。
- 资源管理优化:改进了测试用例中的文件处理方式,避免重复保存到同一路径可能引发的问题。
总结
Pillow 11.1.0 版本在图像处理能力、性能表现和开发者体验等方面都有显著提升。从专业印刷工作流的 CMYK JP2 支持,到大数据量处理的 BigTIFF 能力,再到日常开发中的类型提示完善,这个版本全面增强了库的功能性和可靠性。对于需要处理图像任务的 Python 开发者来说,升级到 11.1.0 版本将获得更好的性能和更丰富的功能支持。
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
HY-Embodied-0.5这是一套专为现实世界具身智能打造的基础模型。该系列模型采用创新的混合Transformer(Mixture-of-Transformers, MoT) 架构,通过潜在令牌实现模态特异性计算,显著提升了细粒度感知能力。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00
ERNIE-ImageERNIE-Image 是由百度 ERNIE-Image 团队开发的开源文本到图像生成模型。它基于单流扩散 Transformer(DiT)构建,并配备了轻量级的提示增强器,可将用户的简短输入扩展为更丰富的结构化描述。凭借仅 80 亿的 DiT 参数,它在开源文本到图像模型中达到了最先进的性能。该模型的设计不仅追求强大的视觉质量,还注重实际生成场景中的可控性,在这些场景中,准确的内容呈现与美观同等重要。特别是,ERNIE-Image 在复杂指令遵循、文本渲染和结构化图像生成方面表现出色,使其非常适合商业海报、漫画、多格布局以及其他需要兼具视觉质量和精确控制的内容创作任务。它还支持广泛的视觉风格,包括写实摄影、设计导向图像以及更多风格化的美学输出。Jinja00