Turing.jl中基于SIR模型的贝叶斯参数估计实践
2025-07-04 19:13:50作者:段琳惟
背景介绍
在流行病学建模中,SIR(易感-感染-恢复)模型是最基础的数学模型之一。本文将展示如何使用Turing.jl这一强大的概率编程语言,结合微分方程求解器,对SIR模型进行贝叶斯参数估计。
SIR模型定义
我们首先定义标准的SIR模型微分方程:
function sir(du, u, p, t)
S, I, R = u
γ, ν = p
infection = γ * S * I
recovery = ν * I
du[1] = -infection
du[2] = infection - recovery
du[3] = recovery
return nothing
end
其中γ表示感染率,ν表示恢复率。模型描述了人群中易感者(S)、感染者(I)和恢复者(R)的数量随时间的变化。
数据生成
为了验证参数估计的效果,我们首先生成合成数据:
u0_known = [999, 1, 0] # 初始条件
tend_known = 100.0
γ_true = 0.0003; ν_true = 0.1; σ_true = 20.0
p_true = [γ_true, ν_true]
oprob_true = ODEProblem(sir, u0_known, tend_known, p_true)
measured_t = 1:1:100
sol_true = solve(oprob_true; saveat = measured_t)
measured_S = [rand(Normal(S, σ_true)) for S in sol_true(measured_t, idxs = 1).u]
这里我们添加了高斯噪声来模拟实际观测数据。
贝叶斯模型构建
使用Turing.jl构建贝叶斯模型:
@model function fit_sir(data, prob)
# 先验分布
γ ~ LogUniform(0.00001, 0.001)
ν ~ LogUniform(0.01, 1.0)
σ ~ LogUniform(10.0, 30.0)
# 模型模拟
prob = remake(prob; p = [γ, ν])
predicted = solve(prob; saveat = measured_t, verbose = false, maxiters = 10000)
# 检查求解是否成功
if !SciMLBase.successful_retcode(predicted)
Turing.@addlogprob! -Inf
return nothing
end
# 似然计算
for i in eachindex(predicted)
data[i] ~ Normal(predicted[i][1], σ)
end
end
关键点说明:
- 对γ和ν使用对数均匀先验,符合它们的物理意义
- 使用ODE求解器获取模型预测值
- 采用正态分布作为观测模型
参数估计与结果分析
运行MCMC采样:
model = fit_sir(measured_S, oprob_true)
chain = sample(model, NUTS(), MCMCSerial(), 1000, 4)
后验分布显示参数估计效果良好,能够较好地恢复真实参数值。特别值得注意的是:
- 感染率γ的估计集中在真实值0.0003附近
- 恢复率ν的估计也接近真实值0.1
- 噪声参数σ的估计反映了数据生成过程中使用的噪声水平
实践建议
在实际应用中,需要注意以下几点:
- 对于人口动力学模型,考虑使用离散分布(如泊松分布)可能更合适
- 当ODE解出现负值时,需要谨慎处理,避免产生无效的概率计算
- 先验分布的选择对结果有重要影响,应根据领域知识合理设置
- 对于复杂的ODE模型,可能需要调整求解器参数以确保数值稳定性
通过这个案例,我们展示了Turing.jl在结合微分方程模型进行贝叶斯参数估计方面的强大能力。这种方法可以扩展到更复杂的流行病学模型和其他领域的动态系统建模中。
登录后查看全文
热门项目推荐
相关项目推荐
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00
项目优选
收起
deepin linux kernel
C
24
9
Ascend Extension for PyTorch
Python
222
245
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
9
1
暂无简介
Dart
672
157
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
661
312
React Native鸿蒙化仓库
JavaScript
262
322
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
64
19
仓颉编译器源码及 cjdb 调试工具。
C++
134
867
仓颉编程语言测试用例。
Cangjie
37
860
openGauss kernel ~ openGauss is an open source relational database management system
C++
160
217