MIMIC-III数据库中患者吸烟状态信息的提取方法
背景介绍
MIMIC-III(Massachusetts Institute of Technology Critical Care Database)是一个大型的、公开的重症监护数据库,包含了超过4万名患者的临床数据。在临床研究中,患者的吸烟状态是一个重要的基线特征,与多种疾病的发展和预后密切相关。然而,在MIMIC-III数据库中,吸烟状态信息并非以结构化数据形式存储,而是隐藏在临床文本记录中。
数据来源分析
在MIMIC-III数据库中,患者的吸烟状态信息主要存在于出院小结(discharge summaries)的"社会史"(social history)部分。这些文本记录存储在mimiciii_notes.noteevents表中,而不是结构化的临床数据表中。因此,我们需要通过文本挖掘技术从非结构化文本中提取相关信息。
文本提取技术方案
正则表达式匹配方法
从临床文本中提取吸烟状态信息,最有效的方法是使用正则表达式匹配。根据临床文档的书写习惯,我们可以设计匹配模式来识别以下几种吸烟状态描述:
- 从不吸烟:匹配"never"、"not"、"no"、"denies"等否定词与"smoke"、"tobacco"等关键词的组合
- 既往吸烟:匹配"former"、"previous"、"past"等表示过去时间的词与吸烟相关词的组合
- 当前吸烟:匹配"current"、"active"、"smokes"等表示当前状态的词
BigQuery实现示例
在Google BigQuery平台上,可以使用REGEXP_CONTAINS函数实现上述匹配逻辑。例如,识别"从不吸烟"患者的查询可以这样编写:
SELECT
subject_id,
hadm_id,
CASE
WHEN REGEXP_CONTAINS(text, r'(never|not|no|denies)[\s-]?(smoke|smoking|tobacco)')
THEN 'never'
WHEN REGEXP_CONTAINS(text, r'(former|previous|past)[\s-]?(smoke|smoking|tobacco)')
THEN 'former'
WHEN REGEXP_CONTAINS(text, r'(current|active|smokes)[\s-]?(smoke|smoking|tobacco)')
THEN 'current'
ELSE 'unknown'
END AS smoking_status
FROM
`physionet-data.mimiciii_notes.noteevents`
WHERE
category = 'Discharge summary'
技术要点与注意事项
-
文本预处理:临床文本中可能存在拼写错误(如"smoking"拼写为"smoking"),正则表达式应考虑这些变体。
-
否定词处理:需要全面考虑各种否定表达方式,包括"no history of"、"denies any"等临床常用短语。
-
性能优化:在大规模数据集上执行文本匹配可能较耗时,建议先筛选出出院小结(category = 'Discharge summary')再进行匹配。
-
结果验证:自动提取的结果应进行人工抽样验证,评估准确率和召回率。
应用价值
通过这种方法提取的吸烟状态信息可以用于:
- 临床研究中的混杂因素控制
- 疾病风险分层
- 预后分析
- 流行病学研究
这种方法不仅适用于吸烟状态提取,也可推广到其他类似的临床文本信息提取任务中,如饮酒史、药物过敏史等。
总结
在MIMIC-III这类临床数据库中,许多重要信息以非结构化文本形式存在。通过合理的文本挖掘技术,我们可以将这些信息转化为结构化数据,极大拓展数据库的研究价值。本文介绍的正则表达式匹配方法是一种简单有效的手段,特别适合处理临床文档中规律性较强的信息提取任务。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00