pysam 0.23.1版本发布:基因组数据分析工具的重要更新
项目简介
pysam是Python中处理基因组数据的核心工具库,它提供了对SAM/BAM/CRAM/VCF/BCF等生物信息学标准格式的高效访问接口。作为htslib/samtools/bcftools的Python绑定,pysam在基因组比对、变异检测等生物信息学分析流程中扮演着关键角色。
版本亮点
pysam 0.23.1是一个重要的bug修复版本,基于htslib/samtools/bcftools 1.21构建。该版本针对多个关键问题进行了修复,并引入了一些实用的新功能。
主要改进内容
兼容性修复
-
Cython兼容性调整:解决了Cython 3.1.0行为变更导致的兼容性问题,暂时保留了
pysam.CMATCH等作为pysam.CIGAR_OPS.CMATCH的别名。值得注意的是,未来版本将移除这些别名以符合Cython的新规范。 -
平台兼容性增强:修复了在CentOS 7等旧系统上的构建问题,通过规避GCC 4.8.x系统编译器的限制,确保了在这些环境下的可用性。
功能优化
-
质量值处理改进:
- 新增
AlignedSegment.query_qualities_str属性,支持以ASCII编码的碱基质量字符串形式访问QUAL字段 - 扩展了
AlignedSegment.query_qualities属性,现在支持通过数组或字符串设置质量值
- 新增
-
性能提升:优化了
AlignedSegment.cigarstring的性能表现,提高了处理效率。 -
错误处理完善:
- 修复了x86-64 Linux平台上
pysam.bcftools.*()命令出错时Python解释器异常退出的问题 - 改进了
TabixIterator的错误处理机制 - 修正了"invalid type for record"异常消息的准确性
- 修复了x86-64 Linux平台上
类型提示完善
修正了AlignedSegment.get_aligned_pairs()的类型提示,现在提供了反映不同返回元组的重载提示,增强了代码的静态检查能力。
部署支持
pysam 0.23.1提供了全面的部署支持:
- Python版本:支持Python 3.8至3.13
- 平台支持:
- macOS和Linux(manylinux_2_28和musllinux_1_2)
- ARM和x86-64架构
- 打包格式:提供wheel包简化安装过程
技术影响
这个版本特别值得关注的是对质量值处理能力的增强。新增的query_qualities_str属性为处理碱基质量数据提供了更灵活的方式,而性能优化则提升了大规模基因组数据分析的效率。错误处理的改进也使得工具在复杂分析流程中更加稳定可靠。
升级建议
对于现有用户,特别是那些遇到Cython兼容性问题或在旧系统上构建困难的用户,建议尽快升级到此版本。需要注意的是,虽然当前版本暂时保留了Cython别名,但开发者应开始准备迁移到新的命名规范,以应对未来版本的变更。
对于新用户,这个版本提供了更稳定、功能更丰富的基因组数据处理工具,是开始使用pysam的良好起点。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C093
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00