Muse LSL 项目使用教程
1. 项目介绍
Muse LSL 是一个用于从 InteraXon 开发的 Muse 设备(如 Muse 2、Muse S 和 Muse 2016)流式传输、可视化和记录 EEG 数据的 Python 包。该项目支持 Python 2.7 和 Python 3.x,并且可以通过多种蓝牙后端(如 bleak、BlueMuse 和 bgapi)连接到 Muse 设备。Muse LSL 不仅支持 EEG 数据,还支持从 Muse 2 设备获取的加速度计、陀螺仪和光电容积描记(PPG)数据。
2. 项目快速启动
安装
首先,使用 pip 安装 Muse LSL:
pip install muselsl
设置流式传输
在 Windows 10 上,推荐使用 BlueMuse GUI 来设置 LSL 流。在 Mac 和 Linux 上,可以直接从命令行使用 Muse LSL。
列出可用 Muse 设备
muselsl list
开始 LSL 流
从第一个可用的 Muse 设备开始流式传输:
muselsl stream
如果要连接到特定的 Muse 设备,可以通过设备名称或 MAC 地址进行连接:
muselsl stream --name YOUR_DEVICE_NAME
muselsl stream --address YOUR_DEVICE_ADDRESS
查看流式数据
在另一个终端或进程中,使用以下命令查看数据:
muselsl view
如果可视化冻结或延迟,可以尝试使用版本 2 的查看器:
muselsl view --version 2
记录 EEG 数据
将 EEG 数据记录到 CSV 文件中:
muselsl record --duration 60
3. 应用案例和最佳实践
实验运行
Muse LSL 设计用于运行多种经典的 EEG 实验,如 P300 事件相关电位、SSVEP 和 SSAEP 诱发电位。这些实验的代码可以在 EEG Notebooks 仓库中找到,由 NeuroTechX 社区维护。
作为库使用
如果你想将 Muse LSL 集成到自己的 Python 项目中,可以将其作为库导入并使用其功能。例如:
from muselsl import stream, list_muses
muses = list_muses()
stream(muses[0]['address'])
print('Stream has ended')
4. 典型生态项目
EEG Notebooks
EEG Notebooks 是一个由 NeuroTechX 社区维护的项目,提供了多种 EEG 实验的代码,包括 P300、SSVEP 和 SSAEP 等。这些实验可以与 Muse LSL 结合使用,以进行更复杂的 EEG 研究。
BlueMuse
BlueMuse 是一个用于在 Windows 上发现和连接 Muse 设备的 GUI 工具。它可以帮助用户更方便地设置和管理 Muse 设备的连接。
LSL (Lab Streaming Layer)
LSL 是一个用于统一收集时间序列数据的系统,广泛用于 EEG 和脑机接口研究。Muse LSL 使用 LSL 来流式传输和同步数据,使其成为 EEG 研究中的标准工具。
通过这些生态项目,Muse LSL 可以与其他工具和平台无缝集成,提供更强大的功能和更广泛的应用场景。
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
atomcodeAn open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust019
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
HY-Embodied-0.5这是一套专为现实世界具身智能打造的基础模型。该系列模型采用创新的混合Transformer(Mixture-of-Transformers, MoT) 架构,通过潜在令牌实现模态特异性计算,显著提升了细粒度感知能力。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00
ERNIE-ImageERNIE-Image 是由百度 ERNIE-Image 团队开发的开源文本到图像生成模型。它基于单流扩散 Transformer(DiT)构建,并配备了轻量级的提示增强器,可将用户的简短输入扩展为更丰富的结构化描述。凭借仅 80 亿的 DiT 参数,它在开源文本到图像模型中达到了最先进的性能。该模型的设计不仅追求强大的视觉质量,还注重实际生成场景中的可控性,在这些场景中,准确的内容呈现与美观同等重要。特别是,ERNIE-Image 在复杂指令遵循、文本渲染和结构化图像生成方面表现出色,使其非常适合商业海报、漫画、多格布局以及其他需要兼具视觉质量和精确控制的内容创作任务。它还支持广泛的视觉风格,包括写实摄影、设计导向图像以及更多风格化的美学输出。Jinja00