使用NEMOS进行钙成像数据分析教程
2025-06-18 05:26:02作者:虞亚竹Luna
前言
本教程将介绍如何使用NEMOS工具包对钙成像数据进行建模分析。钙成像技术是现代神经科学研究中的重要手段,能够记录大量神经元的活动情况。我们将通过一个实际案例,展示如何建立Gamma-GLM模型来分析小鼠后下托(head-direction)神经元的钙信号。
数据准备
数据来源
我们使用的数据集来自自由活动小鼠的1光子钙成像记录,采样频率为30Hz,使用GCaMP6f钙指示剂。记录区域为后下托(postsubiculum),该区域包含头部方向细胞(head-direction cells)。
数据加载与初步处理
首先,我们需要加载NWB格式的数据文件:
import nemos as nmo
import pynapple as nap
# 加载数据文件
path = nmo.fetch.fetch_data("A0670-221213.nwb")
data = nap.load_file(path)
数据探索
数据中包含多个字段,我们主要关注RoiResponseSeries字段,它包含了钙信号时间序列:
transients = data['RoiResponseSeries']
print(transients.time_support) # 显示记录时长
我们可以可视化部分神经元的原始钙信号:
import matplotlib.pyplot as plt
fig, ax = plt.subplots(1, 2, figsize=(12, 4))
ax[0].plot(transients[:, 4].get(0,250))
ax[0].set_title("神经元4")
ax[1].plot(transients[:, 35].get(0,250))
ax[1].set_title("神经元35")
plt.tight_layout()
数据预处理
时间降采样
为了减少计算复杂度,我们将数据从30Hz降采样到10Hz:
Y = transients.bin_average(0.1, ep) # 100ms时间窗平均
头部方向调谐曲线
我们可以计算神经元的头部方向调谐曲线:
tcurves = nap.compute_1d_tuning_curves_continuous(transients, data['ry'], 120)
模型构建
基函数选择
我们使用两种基函数的组合:
- 循环B样条基(Cyclic BSpline)用于编码头部方向
- 对数间隔的升余弦基(Raised Cosine)用于神经元间的耦合关系
heading_basis = nmo.basis.CyclicBSplineEval(n_basis_funcs=12, label="heading")
coupling_basis = nmo.basis.RaisedCosineLogConv(3, window_size=10, label="coupling")
basis = heading_basis + coupling_basis
Gamma-GLM模型
由于钙信号是非负连续值,我们选择Gamma分布作为观测模型,并使用softplus作为链接函数:
model = nmo.glm.GLM(
regularizer="Ridge",
regularizer_strength=0.02,
observation_model=nmo.observation_models.GammaObservations(
inverse_link_function=jax.nn.softplus
)
)
模型训练与评估
数据划分
我们将数据分为训练集和测试集:
train_ep = nap.IntervalSet(start=X.time_support.start, end=X.time_support.get_intervals_center().t)
test_ep = X.time_support.set_diff(train_ep)
Xtrain = X.restrict(train_ep)
Ytrain = Y.restrict(train_ep)
Xtest = X.restrict(test_ep)
Ytest = Y.restrict(test_ep)
模型训练
选择目标神经元进行训练:
neu = 4
selected_neurons = jnp.hstack((jnp.arange(0, neu), jnp.arange(neu+1, Y.shape[1])))
model.fit(Xtrain, Ytrain[:, neu])
与传统线性回归比较
我们与scikit-learn的线性回归模型进行对比:
from sklearn.linear_model import LinearRegression
mdl = LinearRegression()
valid = ~jnp.isnan(Xtrain.d.sum(axis=1))
mdl.fit(Xtrain[valid], Ytrain[valid, neu])
结果分析
预测效果可视化
比较三种预测结果:
yp = model.predict(Xtest)
ylreg = nap.Tsd(t=yp.t, d=mdl.predict(Xtest), time_support=yp.time_support)
plt.figure()
plt.plot(Ytest[:,neu].restrict(ep_to_plot), "r", label="真实值")
plt.plot(yp.restrict(ep_to_plot), "k", label="Gamma-GLM")
plt.plot(ylreg.restrict(ep_to_plot), "g", label="线性回归")
plt.legend()
plt.show()
调谐曲线比较
计算并比较不同模型的调谐曲线:
real_tcurves = nap.compute_1d_tuning_curves_continuous(transients, data['ry'], 120, ep=test_ep)
gamma_tcurves = nap.compute_1d_tuning_curves_continuous(yp, data['ry'], 120, ep=test_ep)
linreg_tcurves = nap.compute_1d_tuning_curves_continuous(ylreg, data['ry'], 120, ep=test_ep)
plt.figure()
plt.plot(real_tcurves[neu], "r", label="真实值")
plt.plot(gamma_tcurves, "k", label="Gamma-GLM")
plt.plot(linreg_tcurves, "g", label="线性回归")
plt.legend()
plt.show()
技术要点总结
- 数据特性处理:钙信号是非负连续值,Gamma分布比高斯分布更合适
- 基函数选择:循环基函数适合周期性变量(如头部方向),升余弦基适合描述神经元间耦合
- 模型比较:Gamma-GLM能保证预测值非负,更符合生理实际
- 正则化:使用Ridge正则化防止过拟合
应用前景与局限
虽然Gamma-GLM在钙成像数据分析中显示出潜力,但这一方法仍处于探索阶段。未来研究可以关注:
- 不同链接函数的比较
- 更复杂的耦合关系建模
- 与其他去卷积方法的结合
本教程展示了NEMOS在钙成像数据分析中的应用,为神经科学研究提供了新的建模思路。
登录后查看全文
热门项目推荐
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00
最新内容推荐
海能达HP680CPS-V2.0.01.004chs写频软件:专业对讲机配置管理利器 TextAnimator for Unity:打造专业级文字动画效果的终极解决方案 VSdebugChkMatch.exe:专业PDB签名匹配工具全面解析与使用指南 ZLIB 1.3 静态库 Windows x64 版本:高效数据压缩解决方案完全指南 Adobe Acrobat XI Pro PDF拼版插件:提升排版效率的专业利器 32位ECC纠错Verilog代码:提升FPGA系统可靠性的关键技术方案 谷歌浏览器跨域插件Allow-Control-Allow-Origin:前端开发调试必备神器 Python案例资源下载 - 从入门到精通的完整项目代码合集 Windows Server 2016 .NET Framework 3.5 SXS文件下载与安装完整指南 深入解析Windows内核模式驱动管理器:系统驱动管理的终极利器
项目优选
收起
deepin linux kernel
C
24
9
暂无简介
Dart
667
153
Ascend Extension for PyTorch
Python
216
235
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
660
303
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
9
1
React Native鸿蒙化仓库
JavaScript
255
321
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
63
19
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.19 K
651
仓颉编程语言运行时与标准库。
Cangjie
141
876
仓颉编译器源码及 cjdb 调试工具。
C++
133
866