dplyr中使用group_by与rle实现分组连续值统计
问题背景
在使用R语言进行数据分析时,我们经常需要对数据进行分组统计。dplyr包中的group_by函数是进行分组操作的强大工具。然而,当我们需要统计分组内连续出现的相同值时,情况会变得稍微复杂一些。
原始问题分析
用户davidss101遇到了一个具体问题:他有一个包含两列的数据框,第一列(column1)是分组变量,第二列(column2)是包含0和1的二进制值。他想要对数据进行分组后,统计每个组内连续出现1或0的次数。
用户最初尝试的代码是:
df2 <- df1 %>% group_by(column1) %>% reframe(data.frame(unclass(rle(df1$column2))))
这段代码的问题在于rle函数没有正确识别分组结构,而是对整个column2列进行了游程编码,忽略了group_by的分组效果。
解决方案探索
方法一:使用rleid函数
用户最终找到了一个有效的解决方案,使用了data.table包中的rleid函数:
df2 <- df1 %>%
group_by(column1) %>%
mutate(sequence = data.table::rleid(column2 == 1)) %>%
filter(column2 == 1) %>%
group_by(column1, sequence) %>%
summarise(length = n())
这个解决方案的工作原理是:
- 首先按column1分组
- 使用rleid为连续的1创建序列号
- 过滤出所有值为1的行
- 再次按column1和序列号分组
- 统计每组中的行数,即连续1的长度
方法二:纯dplyr解决方案
如果不希望引入data.table依赖,也可以使用纯dplyr的方法:
df2 <- df1 %>%
group_by(column1) %>%
mutate(change = column2 != lag(column2, default = first(column2))) %>%
mutate(sequence = cumsum(change)) %>%
group_by(column1, sequence) %>%
summarise(
value = first(column2),
length = n(),
.groups = "drop"
) %>%
select(-sequence)
这种方法通过检测值变化来创建分组序列,然后统计每个序列的长度。
技术要点
-
游程编码(RLE):一种简单的数据压缩形式,将连续重复的值存储为单个值和计数。
-
分组操作:dplyr的group_by函数创建分组上下文,后续操作会在每个组内独立执行。
-
值变化检测:通过比较当前行与前一行来识别值的变化点。
-
序列生成:使用cumsum在检测到变化点时递增序列号。
实际应用建议
-
对于大数据集,data.table的rleid函数通常性能更好。
-
如果只需要统计特定值(如1)的连续出现情况,可以先过滤再统计,可以提高效率。
-
考虑使用tidyr的complete函数确保结果包含所有可能的分组组合,即使某些组没有连续值。
-
对于更复杂的连续模式识别,可以考虑使用stringr包将列转换为字符串后使用正则表达式处理。
总结
在dplyr中实现分组内的游程编码需要特别注意分组上下文的有效传递。通过结合group_by和适当的序列生成方法,我们可以有效地统计分组内连续值的出现情况。根据具体需求和性能考虑,可以选择使用data.table的rleid函数或纯dplyr的实现方式。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00