InceptionTime:寻找时间序列分类中的AlexNet
本指南旨在帮助您了解并应用在《InceptionTime: Finding AlexNet for Time Series Classification》这篇论文中提出的方法。该研究工作发布于《数据挖掘与知识发现》期刊,并在ArXiv上可获取。本文档将涵盖安装指南、使用方法、API简介以及部署步骤。
安装指南
首先,确保您的环境中已安装Python。推荐使用Python 3.7或更高版本。接着,通过pip安装必要的依赖包。在项目根目录下找到requirements.txt文件,执行以下命令来安装所有必需的库:
pip install -r requirements.txt
这将自动处理如TensorFlow、PyTorch(取决于所选配置)、NumPy等库的安装。
项目使用说明
环境准备
-
数据集下载:访问UCR/UEA时间序列分类档案,下载数据并解压至适当位置。
-
配置根目录:编辑
main.py中的root_dir变量,将其设置为包含解压缩后数据集的路径。并在root_dir内创建一个名为archives的子目录,存放时间序列数据。
运行实验
-
基本运行:若要基于单个数据集运行InceptionTime模型,打开终端或命令提示符,执行:
python3 main.py InceptionTime -
超参数搜索:进行超参数调整时使用:
python3 main.py InceptionTime_xp -
长度实验:针对特定数据集(例如InlineSkate)进行长度敏感实验,先生成重采样数据,然后指定实验:
python3 main.py run_length_xps python3 main.py InceptionTime # 确保设置正确的数据集
结果保存
实验结果将被保存到以root_dir/results/nne/inception-.../UCR_TS_Archive_2015/具体数据集名/df_metrics.csv格式的路径下。
API使用文档
本项目没有传统意义上的API接口,但模块化的结构使得关键功能易于调用。主要入口点是main.py,而实际模型实现位于classifiers目录下的inception.py。函数调用和配置修改通常在这些脚本内部完成。
项目结构简述
- main.py:启动实验的主要脚本。
- classifiers:包含模型定义,特别是
inception.py包含Inception网络模型。 - utils:辅助函数,用于数据读取、预处理和结果可视化。
- results-*.csv:存储实验结果的CSV文件。
训练与结果显示
训练过程中生成的时间对比图利用了matplotlib库。例如,训练时间与数据集大小和系列长度的关系图表,可在运行相应的脚本后查看。
引用
如果您使用本项目作为参考或在其基础上开发,务必正确引用原论文信息。
通过遵循上述步骤,您可以有效地探索和利用InceptionTime框架进行时间序列数据的分类任务。记得调整配置以适应您的硬件环境,并且享受深入学习时间序列的乐趣。
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
HY-Embodied-0.5这是一套专为现实世界具身智能打造的基础模型。该系列模型采用创新的混合Transformer(Mixture-of-Transformers, MoT) 架构,通过潜在令牌实现模态特异性计算,显著提升了细粒度感知能力。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00
LazyLLMLazyLLM是一款低代码构建多Agent大模型应用的开发工具,协助开发者用极低的成本构建复杂的AI应用,并可以持续的迭代优化效果。Python01