首页
/ CS231n 神经网络案例研究:从线性分类器到2层神经网络

CS231n 神经网络案例研究:从线性分类器到2层神经网络

2025-06-24 22:41:06作者:盛欣凯Ernestine

引言

在深度学习中,理解神经网络如何从简单的线性分类器演变为复杂的非线性模型至关重要。本文将通过一个二维螺旋数据集的案例,详细讲解如何实现从Softmax线性分类器到2层神经网络的完整过程。这个案例来自CS231n课程,是理解神经网络基础原理的绝佳示例。

数据准备

螺旋数据集生成

我们首先生成一个非线性可分的螺旋数据集,这个数据集由三个类别组成,每个类别有100个样本点:

N = 100  # 每类样本数
D = 2    # 数据维度
K = 3    # 类别数
X = np.zeros((N*K,D))  # 数据矩阵
y = np.zeros(N*K, dtype='uint8')  # 类别标签

for j in range(K):
    ix = range(N*j, N*(j+1))
    r = np.linspace(0.0, 1, N)  # 半径
    t = np.linspace(j*4, (j+1)*4, N) + np.random.randn(N)*0.2  # 角度
    X[ix] = np.c_[r*np.sin(t), r*np.cos(t)]
    y[ix] = j

这个数据集的特点是三个类别的点呈螺旋状分布,无法用一条直线完美分隔,这正是我们需要的非线性可分数据集。

Softmax线性分类器

参数初始化

线性分类器的参数包括权重矩阵W和偏置向量b:

W = 0.01 * np.random.randn(D,K)  # 权重矩阵
b = np.zeros((1,K))  # 偏置向量

这里我们使用小随机数初始化权重,偏置初始化为零。

计算类别得分

线性分类器的得分计算非常简单:

scores = np.dot(X, W) + b

得到的scores矩阵大小为[300×3],每行包含三个类别的得分。

计算损失函数

我们使用交叉熵损失函数,它由两部分组成:

  1. 数据损失:所有样本的平均交叉熵损失
  2. 正则化损失:L2正则化项
exp_scores = np.exp(scores)
probs = exp_scores / np.sum(exp_scores, axis=1, keepdims=True)

corect_logprobs = -np.log(probs[range(num_examples),y])
data_loss = np.sum(corect_logprobs)/num_examples
reg_loss = 0.5*reg*np.sum(W*W)
loss = data_loss + reg_loss

反向传播计算梯度

交叉熵损失关于得分的梯度计算非常优雅:

dscores = probs
dscores[range(num_examples),y] -= 1
dscores /= num_examples

然后我们可以计算权重和偏置的梯度:

dW = np.dot(X.T, dscores)
db = np.sum(dscores, axis=0, keepdims=True)
dW += reg*W  # 正则化项梯度

参数更新

使用梯度下降法更新参数:

W += -step_size * dW
b += -step_size * db

训练结果

经过200次迭代后,训练准确率仅为49%,这验证了线性分类器无法处理非线性可分数据:

scores = np.dot(X, W) + b
predicted_class = np.argmax(scores, axis=1)
print('training accuracy: %.2f' % (np.mean(predicted_class == y)))

2层神经网络

网络结构

我们在线性分类器的基础上增加一个隐藏层,形成2层神经网络:

  • 输入层:2个神经元(对应2D输入)
  • 隐藏层:100个神经元(使用ReLU激活函数)
  • 输出层:3个神经元(对应3个类别)

参数初始化

h = 100  # 隐藏层大小
W = 0.01 * np.random.randn(D,h)
b = np.zeros((1,h))
W2 = 0.01 * np.random.randn(h,K)
b2 = np.zeros((1,K))

前向传播

hidden_layer = np.maximum(0, np.dot(X, W) + b)  # ReLU激活
scores = np.dot(hidden_layer, W2) + b2

关键变化是增加了ReLU非线性激活函数:max(0, x)

反向传播

反向传播现在需要多计算一步:

  1. 首先计算输出层的梯度(与之前相同)
  2. 然后传播到隐藏层
  3. 处理ReLU非线性
  4. 最后传播到第一层参数
# 输出层梯度
dW2 = np.dot(hidden_layer.T, dscores)
db2 = np.sum(dscores, axis=0, keepdims=True)

# 隐藏层梯度
dhidden = np.dot(dscores, W2.T)

# ReLU梯度
dhidden[hidden_layer <= 0] = 0

# 第一层梯度
dW = np.dot(X.T, dhidden)
db = np.sum(dhidden, axis=0, keepdims=True)

训练结果

经过10000次迭代后,训练准确率达到98%,显著优于线性分类器:

hidden_layer = np.maximum(0, np.dot(X, W) + b)
scores = np.dot(hidden_layer, W2) + b2
predicted_class = np.argmax(scores, axis=1)
print('training accuracy: %.2f' % (np.mean(predicted_class == y)))

关键点总结

  1. 非线性可分数据:螺旋数据集展示了线性分类器的局限性
  2. Softmax分类器:简单但功能强大,适合线性可分问题
  3. 神经网络扩展:只需增加一个隐藏层和ReLU激活,就能显著提升性能
  4. 反向传播:通过链式法则高效计算梯度
  5. ReLU激活:在前向传播中引入非线性,在反向传播中作为开关

这个案例清晰地展示了从线性模型到神经网络的关键转变,以及神经网络如何通过引入非线性来解决更复杂的问题。理解这个简单案例是掌握更复杂神经网络架构的重要基础。

登录后查看全文
热门项目推荐

项目优选

收起
kernelkernel
deepin linux kernel
C
27
11
docsdocs
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
470
3.48 K
nop-entropynop-entropy
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
10
1
leetcodeleetcode
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
65
19
flutter_flutterflutter_flutter
暂无简介
Dart
718
172
giteagitea
喝着茶写代码!最易用的自托管一站式代码托管平台,包含Git托管,代码审查,团队协作,软件包和CI/CD。
Go
23
0
kernelkernel
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
209
84
RuoYi-Vue3RuoYi-Vue3
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.27 K
695
rainbondrainbond
无需学习 Kubernetes 的容器平台,在 Kubernetes 上构建、部署、组装和管理应用,无需 K8s 专业知识,全流程图形化管理
Go
15
1
apintoapinto
基于golang开发的网关。具有各种插件,可以自行扩展,即插即用。此外,它可以快速帮助企业管理API服务,提高API服务的稳定性和安全性。
Go
22
1