Teachable Machine完整指南:如何用摄像头训练你的第一个AI模型
Teachable Machine是一款无需编程即可在浏览器中探索机器学习工作原理的强大工具。通过它,即使是AI新手也能轻松使用摄像头训练自己的第一个模型,开启机器学习之旅。
🤖 什么是Teachable Machine?
Teachable Machine是一个基于浏览器的AI训练平台,它允许用户通过简单的交互方式,使用摄像头、麦克风等设备收集数据,快速训练自定义机器学习模型。该项目的核心功能集中在src/ai/WebcamClassifier.js文件中,实现了网页端的摄像头图像分类功能。
图:用户正在使用Teachable Machine通过摄像头训练AI模型
🚀 快速开始:3步搭建你的AI训练环境
1. 获取项目代码
首先需要将项目代码克隆到本地:
git clone https://gitcode.com/gh_mirrors/te/teachable-machine-v1
2. 安装依赖
进入项目目录并安装所需依赖:
cd teachable-machine-v1
yarn install
3. 启动应用
运行以下命令启动本地开发服务器:
yarn start
启动后,在浏览器中访问http://localhost:3000即可打开Teachable Machine应用。
📷 使用摄像头训练模型的完整步骤
准备工作:授予摄像头权限
首次打开应用时,系统会请求摄像头访问权限,点击"允许"即可。这一步是必要的,因为我们需要通过摄像头收集训练数据。相关权限处理逻辑可以在src/ui/components/CamInput.js中找到。
步骤1:创建类别
在应用界面中,你会看到默认的几个类别(如"Class 1"、"Class 2"等)。你可以点击类别名称进行重命名,例如将它们改为"石头"、"剪刀"、"布",为后续的手势识别做准备。
步骤2:收集训练样本
对于每个类别,点击"Record"按钮开始录制样本。建议每个类别收集至少20-30个不同角度、不同光照条件下的样本,以提高模型的准确性。你可以在src/ui/modules/Recording.js中查看录制功能的实现细节。
步骤3:训练模型
收集完所有类别的样本后,点击"Train Model"按钮开始训练。训练过程在本地浏览器中进行,无需上传数据到云端,保护你的隐私。训练逻辑主要在src/ai/squeezenet.js中实现,使用了轻量级的SqueezeNet模型架构。
步骤4:测试模型
训练完成后,你可以实时测试模型的识别效果。应用会通过摄像头实时捕捉图像并进行分类,显示每个类别的置信度。你可以在src/ui/modules/LearningSection.js中找到相关的UI实现。
💡 提升模型准确性的5个实用技巧
- 收集多样化样本:确保在不同光线、不同角度下收集样本
- 增加样本数量:每个类别至少收集50个样本
- 保持背景简单:避免复杂背景干扰模型识别
- 均匀分布样本:每个类别的样本数量尽量均衡
- 定期重新训练:随着使用场景变化,及时更新训练样本
🎯 常见应用场景
- 手势控制:训练模型识别不同手势,用于控制电脑或游戏
- 表情识别:识别微笑、惊讶等表情,用于互动应用
- 物体分类:教AI识别不同的日常物品
- 姿势检测:用于健身指导或动作纠正
🛠️ 自定义与扩展
如果你有一定的编程基础,可以通过修改src/config.js文件来自定义应用行为。例如,你可以调整模型训练参数、更改UI主题或添加新的输出类型。项目还提供了声音和文本输出功能,相关代码分别在src/outputs/SoundOutput.js和src/outputs/SpeechOutput.js中。
📚 学习资源
- 项目文档:README.md
- 贡献指南:CONTRIBUTING.md
- AI核心代码:src/ai/
通过Teachable Machine,每个人都能体验机器学习的乐趣和魔力。无论你是学生、教育工作者还是AI爱好者,这款工具都能帮助你以最简单的方式进入人工智能的世界。现在就动手尝试,用你的摄像头创建第一个AI模型吧!
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00