vg团队发布vg 1.66.0版本:基因组变异图工具的重要更新
vg(Variation Graph)是一个用于构建、操作和分析基因组变异图的强大工具集。它能够将多个基因组序列整合到一个图中结构,从而更全面地表示群体中的遗传变异。这种方法特别适用于复杂基因组的分析,能够避免传统线性参考基因组的局限性。
vg 1.66.0版本(代号"Navetta")带来了一系列功能增强和错误修复,进一步提升了工具的实用性和稳定性。以下是本次更新的主要技术亮点:
核心功能改进
在vg giraffe模块中,本次更新改进了长读长支持。现在工具明确表明支持长读长和短读长两种数据类型,并且在处理配对读长时,会为未映射的读长统一分配MAPQ 0值。此外,当救援读长未找到显著比对时,工具不再取消原读长的映射状态。
vg surject模块新增了对CRAM格式输出的支持,这是基因组分析中常用的压缩格式。需要注意的是,使用外部参考序列时,用户需要预先填充参考缓存。该模块还改进了锚点检测机制,现在会检查两倍锚点长度范围内的可疑锚点,并提供了额外的间隙开放代价参数(-E/--extra-gap-cost)供用户调整。
数据处理优化
vg chunk工具新增了-cut-alignment/-u选项,可以将长比对截断为实际包含在块中的部分。同时,该工具中对GAM相关选项的命名进行了标准化,改为更通用的比对相关术语(保留了旧名称作为兼容选项)。
在vg clip工具中,对snarl剪切选项进行了扩展和精细化。现在可以同时使用-d和-D选项,将深度阈值应用于边缘剪切操作。vg filter工具增加了进度显示功能,让用户能够直观了解输入文件的处理进度。
脚本与辅助工具增强
giraffe-facts.py脚本经过修复和功能增强,现在可以追踪最后正确比对或现有比对(通过--track-last选项)。vg convert工具新增了将通用路径提升为单倍型路径的选项。vg gamsort工具现在支持在排序GAF时输出路径的GBWT。
底层优化与错误修复
项目现在支持在CMake 4环境下构建,提高了构建系统的兼容性。修复了vg paths -n中的断言错误,并优化了zip代码树迭代器的处理逻辑,不再尝试处理S_SKIP_CHAIN中不可能出现的堆栈深度。
在性能方面,vg construct的进度条现在能够更好地适应较长的PanSN contig名称。从索引GAF文件获取的读长现在会进行去重处理,并且会检查读长是否实际与查询范围相交。
文档与用户体验改进
帮助文本中增加了关于--tsv-out选项的说明,并标准化了大小写格式。README文件中的链接错误得到了修正。自动索引功能现在会在保存剪接转录组图之前添加转录本路径。
这些更新使得vg工具集在基因组变异图分析领域更加完善和易用,为研究人员提供了更强大的分析能力和更流畅的使用体验。无论是处理短读长还是长读长数据,新版本都能提供更准确和高效的分析结果。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00