使用NeMoS进行电流注入实验的神经元放电率建模分析
2025-06-18 03:31:49作者:劳婵绚Shirley
引言
本文将通过一个实际案例,展示如何使用NeMoS工具包对神经元在电流注入实验中的响应进行建模。我们将分析来自小鼠初级视觉皮层第4层单个神经元的膜片钳记录数据,这些数据来自著名的Allen Brain Atlas数据库。
实验数据概述
实验采用"噪声1"刺激模式,向神经元注入三个电流脉冲。每个脉冲是一个带有固定频率正弦波和随机噪声的方波电流。我们主要关注以下两个数据维度:
- 输入电流:实验者注入的电流信号
- 神经元放电:记录到的动作电位时间点
数据预处理
数据加载与初步处理
我们使用Pynapple工具包加载NWB格式的实验数据:
import pynapple as nap
import numpy as np
# 加载数据文件
data = nap.load_file("allen_478498617.nwb")
# 提取关键数据
trial_interval_set = data["epochs"] # 实验时间区间
current = data["stimulus"] # 输入电流
spikes = data["units"] # 神经元放电时间
数据筛选与转换
我们专注于"噪声1"刺激的第一个脉冲:
# 筛选特定刺激区间
noise_interval = trial_interval_set[trial_interval_set.tags == "Noise 1"][0]
# 限制数据范围并转换单位
current = current.restrict(noise_interval) * 1e12 # 转换为pA
spikes = spikes.restrict(noise_interval) # 限制放电时间范围
数据分析
放电率估计
通过高斯平滑处理获得近似放电率:
bin_size = 0.001 # 1ms的bin大小
count = spikes[0].count(bin_size) # 分bin计数
firing_rate = count.smooth(std=0.05, size_factor=20) / bin_size # 平滑并转换为Hz
电流-放电率关系分析
计算神经元的调谐曲线:
tuning_curve = nap.compute_1d_tuning_curves(spikes, current, nb_bins=15)
分析结果显示放电率与注入电流呈非线性关系,随着电流增大,放电率并非线性增加,而是在高电流时可能出现下降趋势。
使用NeMoS构建GLM模型
数据准备
将数据转换为适合GLM建模的格式:
import jax.numpy as jnp
import nemos as nmo
# 电流信号降采样
binned_current = current.bin_average(bin_size)
# 准备模型输入
predictor = np.expand_dims(binned_current, 1) # 转换为(n_time_bins, 1)
count = spikes[0].count(bin_size) # 放电计数
模型构建与拟合
建立并训练广义线性模型:
# 初始化GLM模型
model = nmo.glm.GLM(regularizer=nmo.regularizer.UnRegularized())
# 模型拟合
model.fit(predictor, count)
模型评估
提取模型参数并分析:
# 获取模型权重
weights = model.coef_
# 生成预测放电率
predicted_rate = model.predict(predictor)
关键发现与讨论
-
非线性输入-输出关系:模型成功捕捉到神经元放电率与注入电流之间的非线性关系,这与调谐曲线分析结果一致。
-
适应性现象:模型能够反映神经元在持续刺激下放电率逐渐降低的现象,表明神经元存在适应性机制。
-
周期性响应:模型预测的放电模式显示出与输入电流相似的周期性,说明神经元对输入信号的时序特征具有选择性响应。
结论
通过NeMoS构建的GLM模型能够有效描述神经元在电流注入实验中的响应特性。该方法不仅适用于此类控制实验,也可扩展应用于更复杂的神经编码研究。模型揭示了神经元输入-输出转换的非线性特性,为理解神经信息处理机制提供了量化工具。
进一步研究方向
- 考虑更复杂的刺激模式下的神经元响应建模
- 引入突触后电位等生物物理机制扩展模型
- 探索群体神经元活动的耦合效应
- 将模型应用于在体记录数据分析
本教程展示了NeMoS在计算神经科学研究中的实用价值,为神经编码与解码问题提供了有力的分析工具。
登录后查看全文
热门项目推荐
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00
项目优选
收起
deepin linux kernel
C
24
9
暂无简介
Dart
669
155
Ascend Extension for PyTorch
Python
219
236
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
9
1
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
660
308
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
64
19
本仓将收集和展示高质量的仓颉示例代码,欢迎大家投稿,让全世界看到您的妙趣设计,也让更多人通过您的编码理解和喜爱仓颉语言。
Cangjie
392
3.82 K
React Native鸿蒙化仓库
JavaScript
259
322
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.19 K
653
仓颉编程语言运行时与标准库。
Cangjie
141
879