理解卷积神经网络中的平移等变性:以udlbook项目为例
卷积神经网络(CNN)作为深度学习领域的重要模型,其核心特性之一就是平移等变性(translation equivariance)。本文将深入探讨这一概念,并通过数学推导帮助读者理解其本质。
卷积运算与平移等变性
平移等变性是指当输入信号发生平移时,经过卷积运算后的输出也会发生相应的平移。用数学表达式可以表示为:
f(t(x)) = t(f(x))
其中f代表卷积运算,t代表平移操作。这意味着对输入进行平移后再卷积,与先卷积再平移得到的结果是相同的。
数学证明
考虑一维信号x[n]和卷积核h[n],卷积运算定义为:
(x∗h)[n] = ∑x[k]h[n−k]
定义平移算子S_c(x[n]) = x[n - c]。我们可以证明:
S_c((x∗h)[n]) = S_c(∑x[k]h[n - k]) = ∑x[k]h[n - c - k]
通过变量替换k = k' - c,上式变为:
∑x[k' - c]h[n - k'] = ∑S_c(x[k'])h[n - k'] = (S_c(x)∗h)[n]
这证明了f(S_c(x)) = S_c(f(x)),即卷积运算确实具有平移等变性。
实际应用中的考虑
在实际应用中,我们需要注意几个关键点:
-
有限边界问题:理论上卷积是在无限信号上定义的,但实际图像和滤波器都有有限尺寸。在边界处,等变性可能不完全成立,因此可以说CNN在图像内部是"近似"等变的。
-
卷积与互相关的区别:严格来说,CNN中常用的是互相关(cross-correlation)运算,但习惯上仍称为卷积。两者在等变性上的表现是相似的。
-
维度扩展:上述证明针对一维信号,但可以自然地扩展到二维图像情况。
常见误解澄清
初学者常犯的一个错误是将卷积运算与简单的点积混淆。点积运算确实不具备平移等变性,因为:
f(x) = w·x f(t(x)) = w·(x + c) = w·x + w·c t(f(x)) = w·x + c
显然w·x + c ≠ w·x + w·c(除非w=1),这说明点积不是等变运算。这强调了理解卷积运算特殊性的重要性。
结论
平移等变性是CNN能够有效处理图像数据的关键特性之一。通过数学推导,我们清晰地看到卷积运算如何保持这种等变关系。理解这一特性有助于我们更好地设计和使用卷积神经网络,特别是在需要考虑空间不变性的计算机视觉任务中。在实际应用中,虽然有限边界会带来一些限制,但CNN仍然表现出良好的平移等变特性。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00- QQwen3-Coder-Next2026年2月4日,正式发布的Qwen3-Coder-Next,一款专为编码智能体和本地开发场景设计的开源语言模型。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
Baichuan-M3-235BBaichuan-M3 是百川智能推出的新一代医疗增强型大型语言模型,是继 Baichuan-M2 之后的又一重要里程碑。Python00
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00