使用ObjAX框架实现MNIST手写数字识别教程
2025-06-19 17:38:42作者:伍希望
引言
ObjAX是一个基于JAX的深度学习框架,提供了类似于PyTorch的API设计风格。本教程将带领读者使用ObjAX框架构建和训练一个卷积神经网络(CNN)模型,用于MNIST手写数字识别任务。
环境准备与数据加载
首先需要导入必要的Python库:
import numpy as np
import jax
import jax.numpy as jn
import objax
import matplotlib.pyplot as plt
MNIST数据集可以通过Keras直接加载:
import tensorflow.keras as keras
(x_train, y_train), (x_test, y_test) = keras.datasets.mnist.load_data()
ObjAX与PyTorch类似,采用通道优先的数据格式(CHW),因此我们需要调整数据维度并将像素值归一化到[0,1]范围:
x_train = x_train[:,None,:,:]/255.0
x_test = x_test[:,None,:,:]/255.0
模型构建
我们首先构建一个简单的CNN模型,包含三个卷积层和ReLU激活函数:
def conv_relu_pool(in_layers, out_layers, pool=True):
ops = [objax.nn.Conv2D(in_layers, out_layers, 5),
objax.functional.relu]
if pool:
ops.append(lambda x: objax.functional.average_pool_2d(x, size=2, strides=1))
return ops
model = objax.nn.Sequential(conv_relu_pool(1, 32) +
conv_relu_pool(32, 32) +
conv_relu_pool(32, 64) +
[objax.nn.Conv2D(64, 10, 1),
lambda x: x.mean((2,3))])
这个模型结构的特点是:
- 使用5x5的卷积核
- 每层后接ReLU激活
- 使用平均池化降采样
- 最后使用1x1卷积将特征图转换为10类输出
训练流程
优化器设置
使用Adam优化器:
opt = objax.optimizer.Adam(model.vars())
预测函数
使用JIT编译加速预测过程:
predict = objax.Jit(lambda x: objax.functional.softmax(model(x)), model.vars())
损失函数
定义交叉熵损失函数:
def loss(x, label):
logit = model(x)
return objax.functional.loss.cross_entropy_logits_sparse(logit, label).mean()
梯度计算与训练操作
gv = objax.GradValues(loss, model.vars())
def train_op_nojit(x, y):
g, v = gv(x, y)
opt(lr=0.002, grads=g)
return v
train_op = objax.Jit(train_op_nojit, model.vars() + opt.vars())
模型训练
训练10个epoch:
def train_epoch(batch_size=50):
losses = []
for x_batch, y_batch in zip(x_train.reshape((-1, batch_size, 1, 28, 28)),
y_train.reshape((-1, batch_size))):
losses.append(train_op(x_batch, y_batch))
return np.mean(losses)
for i in range(10):
print('loss', train_epoch())
模型评估
定义准确率计算函数:
def compute_accuracy():
test_predictions = [predict(test_batch).argmax(1)
for test_batch in x_test.reshape((-1, 50, 1, 28, 28))]
return np.mean(y_test == np.array(test_predictions).flatten())
print('model accuracy', compute_accuracy())
更大模型的构建与训练
为了获得更好的性能,我们可以构建一个更大的模型:
model = objax.nn.Sequential(conv_relu_pool(1, 32, pool=False) +
conv_relu_pool(32, 64) +
conv_relu_pool(64, 64, pool=False) +
conv_relu_pool(64, 128) +
[objax.nn.Conv2D(128, 10, 1),
lambda x: x.mean((2,3))])
加入L1正则化防止过拟合:
def loss_with_wd(x, label):
logit = model(x)
xe_loss = objax.functional.loss.cross_entropy_logits_sparse(logit, label).mean()
wd_loss = sum(jn.abs(v).sum() for k,v in model.vars().items() if k.endswith('.w'))
return xe_loss + wd_loss * 1e-5
训练更大的模型:
for i in range(10):
random_shuffle = np.arange(x_train.shape[0])
np.random.shuffle(random_shuffle)
x_train = x_train[random_shuffle]
y_train = y_train[random_shuffle]
print('loss', train_epoch(batch_size=200))
模型权重分析
可以分析模型权重的稀疏性:
for k,v in model.vars().items():
if k.endswith('.w'):
print("Small weight ratio on layer", k, (jn.abs(v) < 1e-2).mean())
总结
本教程展示了如何使用ObjAX框架:
- 加载和预处理MNIST数据集
- 构建CNN模型
- 设置优化器和损失函数
- 训练和评估模型
- 构建更大模型并分析权重
ObjAX结合了JAX的高性能自动微分和PyTorch风格的API设计,使得深度学习模型的开发和训练更加高效。通过本教程,读者可以掌握ObjAX的基本使用方法,并应用于自己的深度学习项目中。
登录后查看全文
热门项目推荐
- DDeepSeek-V3.1-BaseDeepSeek-V3.1 是一款支持思考模式与非思考模式的混合模型Python00
- QQwen-Image-Edit基于200亿参数Qwen-Image构建,Qwen-Image-Edit实现精准文本渲染与图像编辑,融合语义与外观控制能力Jinja00
GitCode-文心大模型-智源研究院AI应用开发大赛
GitCode&文心大模型&智源研究院强强联合,发起的AI应用开发大赛;总奖池8W,单人最高可得价值3W奖励。快来参加吧~056CommonUtilLibrary
快速开发工具类收集,史上最全的开发工具类,欢迎Follow、Fork、StarJava04GitCode百大开源项目
GitCode百大计划旨在表彰GitCode平台上积极推动项目社区化,拥有广泛影响力的G-Star项目,入选项目不仅代表了GitCode开源生态的蓬勃发展,也反映了当下开源行业的发展趋势。07GOT-OCR-2.0-hf
阶跃星辰StepFun推出的GOT-OCR-2.0-hf是一款强大的多语言OCR开源模型,支持从普通文档到复杂场景的文字识别。它能精准处理表格、图表、数学公式、几何图形甚至乐谱等特殊内容,输出结果可通过第三方工具渲染成多种格式。模型支持1024×1024高分辨率输入,具备多页批量处理、动态分块识别和交互式区域选择等创新功能,用户可通过坐标或颜色指定识别区域。基于Apache 2.0协议开源,提供Hugging Face演示和完整代码,适用于学术研究到工业应用的广泛场景,为OCR领域带来突破性解决方案。00openHiTLS
旨在打造算法先进、性能卓越、高效敏捷、安全可靠的密码套件,通过轻量级、可剪裁的软件技术架构满足各行业不同场景的多样化要求,让密码技术应用更简单,同时探索后量子等先进算法创新实践,构建密码前沿技术底座!C0381- WWan2.2-S2V-14B【Wan2.2 全新发布|更强画质,更快生成】新一代视频生成模型 Wan2.2,创新采用MoE架构,实现电影级美学与复杂运动控制,支持720P高清文本/图像生成视频,消费级显卡即可流畅运行,性能达业界领先水平Python00
- GGLM-4.5-AirGLM-4.5 系列模型是专为智能体设计的基础模型。GLM-4.5拥有 3550 亿总参数量,其中 320 亿活跃参数;GLM-4.5-Air采用更紧凑的设计,拥有 1060 亿总参数量,其中 120 亿活跃参数。GLM-4.5模型统一了推理、编码和智能体能力,以满足智能体应用的复杂需求Jinja00
Yi-Coder
Yi Coder 编程模型,小而强大的编程助手HTML013
热门内容推荐
最新内容推荐
项目优选
收起

React Native鸿蒙化仓库
C++
179
263

🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
871
515

openGauss kernel ~ openGauss is an open source relational database management system
C++
131
184

旨在打造算法先进、性能卓越、高效敏捷、安全可靠的密码套件,通过轻量级、可剪裁的软件技术架构满足各行业不同场景的多样化要求,让密码技术应用更简单,同时探索后量子等先进算法创新实践,构建密码前沿技术底座!
C
346
380

本仓将收集和展示高质量的仓颉示例代码,欢迎大家投稿,让全世界看到您的妙趣设计,也让更多人通过您的编码理解和喜爱仓颉语言。
Cangjie
334
1.09 K

harmony-utils 一款功能丰富且极易上手的HarmonyOS工具库,借助众多实用工具类,致力于助力开发者迅速构建鸿蒙应用。其封装的工具涵盖了APP、设备、屏幕、授权、通知、线程间通信、弹框、吐司、生物认证、用户首选项、拍照、相册、扫码、文件、日志,异常捕获、字符、字符串、数字、集合、日期、随机、base64、加密、解密、JSON等一系列的功能和操作,能够满足各种不同的开发需求。
ArkTS
31
0

为仓颉编程语言开发者打造活跃、开放、高质量的社区环境
Markdown
1.08 K
0

deepin linux kernel
C
22
5

微信开发 Java SDK,支持微信支付、开放平台、公众号、视频号、企业微信、小程序等的后端开发,记得关注公众号及时接受版本更新信息,以及加入微信群进行深入讨论
Java
829
22

🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
603
58