gtsummary 2.1.0版本发布:统计表格生成工具的重大更新
gtsummary是一个用于创建精美统计表格的R语言扩展包,它能够帮助研究人员和数据分析师快速生成符合出版要求的描述性统计表格、回归模型结果表格等。该包特别适合医学研究、社会科学等领域的数据报告需求,能够与R生态中的tidyverse系列包无缝协作。
表格嵌套与分层展示功能增强
本次2.1.0版本新增了tbl_strata_nested_stack()函数,它是对现有tbl_strata()功能的扩展。新函数能够创建嵌套表格结构,将结果表格缩进显示在每个分层标题下方,使得分层结果的组织更加清晰直观。这种展示方式特别适合呈现多层次的分组分析结果。
置信区间计算功能改进
add_ci.tbl_summary()函数现在支持对使用tbl_summary(percent = c('row', 'cell'))汇总的分类变量计算置信区间。这一改进扩展了置信区间计算的应用范围,使得研究人员能够更全面地评估分类变量比例估计的精确度。
表格合并功能升级
tbl_merge()函数新增了merge_vars参数,为用户提供了更大的灵活性来指定合并列。此外,默认合并列现在包含了cards::all_ard_groups()选择的列,这使得合并tbl_hierarchical()和tbl_hierarchical_count()的结果成为可能。
值得注意的是,这一改进也带来了一些行为变化。在之前的版本中,合并具有相同变量但不同标签的表格时,系统会静默地使用第一个标签。虽然这在某些边缘情况下可能有用,但结果往往不符合用户预期。新版本采用了更直观的合并方式,结果更符合用户期望。
表格修饰函数家族全面升级
本次更新对表格修饰函数进行了全面增强,新增和改进了多个函数:
-
样式修饰:新增
modify_bold()、modify_italic()、remove_bold()和remove_italic()函数,用于方便地添加或移除单元格的粗体和斜体样式。 -
脚注系统重构:重新设计了脚注处理机制,将原先混杂的功能拆分为三个清晰的函数:
modify_footnote_header():专门处理表头脚注modify_footnote_body():处理表格主体中的脚注modify_abbreviation():处理缩写说明
同时新增了对应的移除函数
remove_footnote_header()、remove_footnote_body()和remove_abbreviation()。新系统还支持通过replace=FALSE参数让多个脚注引用同一个单元格。 -
来源说明增强:正式推出了
modify_source_note()和remove_source_note()函数,支持添加多个来源说明。在表格合并和堆叠时,现在会保留所有来源说明,而不仅仅是第一个。 -
跨列标题改进:新增
level参数支持多级跨列标题,并提供了remove_spanning_header()函数便于移除跨列标题。 -
其他实用功能:新增
modify_missing_symbol()用于自定义缺失值显示方式,remove_column_merge()用于撤销列合并操作,以及modify_caption()现在支持多个标题。
国际化与错误修复
本次更新完善了多语言支持,补充了之前缺失的部分翻译内容。在错误修复方面,解决了表格合并时混合类型列的处理问题,修正了全NA变量置信区间计算时的错误,并更新了测试相关的文档说明。
gtsummary 2.1.0版本的这些改进显著提升了表格生成的灵活性和表现力,使得研究人员能够创建更加专业、信息量更丰富的统计报表。无论是基础的数据描述还是复杂的多模型比较,新版本都提供了更加强大和易用的工具集。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00