使用NEMoS项目分析海马位置细胞的神经编码特性
2025-06-18 17:07:37作者:昌雅子Ethen
前言
本文将介绍如何使用NEMoS项目中的工具来分析海马位置细胞的神经编码特性。海马位置细胞是空间导航研究中的重要神经元类型,它们会在动物处于特定空间位置时表现出较高的放电频率。我们将通过实际数据分析,展示如何建立位置细胞的编码模型。
数据准备
数据来源
我们使用的数据来自Grosmark和Buzsáki在2016年发表的Science论文,记录了小鼠在直线轨道上运动时的神经活动、位置信息和theta节律相位。
数据加载与预处理
首先,我们使用pynapple库加载NWB格式的神经数据文件:
import nemos as nmo
import pynapple as nap
# 加载数据
path = nmo.fetch.fetch_data("Achilles_10252013.nwb")
data = nap.load_file(path)
数据提取
从加载的数据中提取关键信息:
# 提取尖峰时间、位置信息和theta相位
spikes = data["units"]
position = data["position"]
theta = data["theta_phase"]
# 限制分析范围到直线轨道运动期间
position = position.restrict(data["runs"])
# 筛选兴奋性神经元
spikes = spikes.getby_category("cell_type")["pE"]
spikes = spikes.getby_threshold("rate", 0.3) # 去除低放电率神经元
基础分析
位置场计算
位置场(position field)是位置细胞最显著的特征,表示神经元在不同位置的放电率分布:
# 计算位置场
pf = nap.compute_1d_tuning_curves(spikes, position, 50, position.time_support)
# 按峰值位置排序
order = pf.idxmax().sort_values().index.values
相位进动分析
位置细胞还表现出theta相位进动现象,即放电相位会随位置变化:
# 调整数据采样率
bin_size = 0.005
theta = theta.bin_average(bin_size, position.time_support)
theta = (theta + 2 * np.pi) % (2 * np.pi)
# 创建包含位置和相位的数据结构
data = nap.TsdFrame(
t=theta.t,
d=np.vstack((position.interpolate(theta).values, theta.values)).T,
time_support=position.time_support,
columns=["position", "theta"],
)
速度调制分析
我们还分析了运动速度对神经元放电的影响:
# 计算运动速度
speed = []
for s, e in data.time_support.values:
pos_ep = data["position"].get(s, e)
speed_ep = np.abs(np.diff(pos_ep))
speed_ep = np.pad(speed_ep, [0, 1], mode="edge") * data.rate
speed.append(speed_ep)
speed = nap.Tsd(t=data.t, d=np.hstack(speed), time_support=data.time_support)
# 计算速度调谐曲线
tc_speed = nap.compute_1d_tuning_curves(spikes, speed, 20)
建模分析
基函数选择
我们使用不同的基函数组合来建模神经活动:
# 定义各种基函数
position_basis = nmo.basis.MSplineEval(n_basis_funcs=10, label="position")
phase_basis = nmo.basis.CyclicBSplineEval(n_basis_funcs=12, label="theta_phase")
speed_basis = nmo.basis.MSplineEval(n_basis_funcs=15, label="speed")
# 组合基函数
basis = position_basis * phase_basis + speed_basis
basis.label = "full_design"
模型训练
使用Poisson GLM模型进行训练:
# 准备设计矩阵
X = basis.compute_features(position, theta, speed)
count = spikes[neuron].count(bin_size, data.time_support)
# 训练模型
glm = nmo.glm.GLM(solver_kwargs=dict(tol=10**-12), solver_name="LBFGS")
glm.fit(X, count)
模型预测与验证
评估模型预测效果:
# 预测放电率
predicted_rate = glm.predict(X) / bin_size
# 计算预测的调谐曲线
glm_pf = nap.compute_1d_tuning_curves_continuous(predicted_rate[:, np.newaxis], position, 50)
glm_pos_theta = nap.compute_2d_tuning_curves_continuous(predicted_rate[:, np.newaxis], data, 30)
glm_speed = nap.compute_1d_tuning_curves_continuous(predicted_rate[:, np.newaxis], speed, 30)
模型比较
我们比较了不同特征组合的模型表现:
models = {
"position": position_basis,
"position + speed": position_basis + speed_basis,
"position * phase": position_basis * phase_basis,
"position * phase + speed": position_basis * phase_basis + speed_basis,
}
# 训练和评估各模型
scores = {}
for m in models:
X = models[m].compute_features(*features[m])
glm.fit(X.restrict(train_iset), count.restrict(train_iset))
scores[m] = glm.score(X.restrict(test_iset), count.restrict(test_iset))
结论
通过NEMoS项目提供的工具,我们能够系统地分析位置细胞的编码特性。实验结果表明:
- 位置信息是位置细胞放电的最主要决定因素
- theta相位调制提供了额外的编码维度
- 运动速度对放电率也有显著影响
- 综合考虑位置、相位和速度的模型表现最佳
这种分析方法可以扩展到研究其他类型的神经元编码特性,为理解神经信息处理机制提供了有力工具。
登录后查看全文
热门项目推荐
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00
最新内容推荐
STM32到GD32项目移植完全指南:从兼容性到实战技巧 JDK 8u381 Windows x64 安装包:企业级Java开发环境的完美选择 开源电子设计自动化利器:KiCad EDA全方位使用指南 网页设计期末大作业资源包 - 一站式解决方案助力高效完成项目 STDF-View解析查看软件:半导体测试数据分析的终极工具指南 Adobe Acrobat XI Pro PDF拼版插件:提升排版效率的专业利器 MQTT 3.1.1协议中文版文档:物联网开发者的必备技术指南 Jetson TX2开发板官方资源完全指南:从入门到精通 昆仑通态MCGS与台达VFD-M变频器通讯程序详解:工业自动化控制完美解决方案 ONVIF设备模拟器:开发测试必备的智能安防仿真工具
项目优选
收起
deepin linux kernel
C
24
9
暂无简介
Dart
669
155
Ascend Extension for PyTorch
Python
219
236
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
9
1
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
660
308
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
64
19
本仓将收集和展示高质量的仓颉示例代码,欢迎大家投稿,让全世界看到您的妙趣设计,也让更多人通过您的编码理解和喜爱仓颉语言。
Cangjie
392
3.82 K
React Native鸿蒙化仓库
JavaScript
259
322
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.19 K
653
仓颉编程语言运行时与标准库。
Cangjie
141
879