首页
/ UVADLC Notebooks项目中的变分去量化与对数雅可比行列式计算解析

UVADLC Notebooks项目中的变分去量化与对数雅可比行列式计算解析

2025-06-28 15:00:15作者:毕习沙Eudora

在UVADLC Notebooks项目的第11个教程中,涉及了变分去量化(Variational Dequantization)和对数雅可比行列式(log Jacobian determinant)的计算方法。本文将深入解析这些关键技术的数学原理和实现细节。

去量化与变分去量化的基本原理

去量化是将离散的像素值转换为连续分布的过程。在8位图像处理中,像素值通常是0-255的整数。去量化通过添加均匀噪声并缩放,将这些离散值转换为连续空间中的均匀分布。

变分去量化则更进一步,它通过学习一个条件分布来建模去量化过程,而不是简单地使用均匀分布。这使得模型能够更好地适应数据的真实分布。

对数雅可比行列式的计算

在归一化流模型中,保持变换的可逆性至关重要。对数雅可比行列式记录了变量变换过程中概率密度的变化,是模型训练中的关键组成部分。

Sigmoid变换的雅可比行列式

sigmoid函数的导数为: σ'(z) = σ(z)(1-σ(z))

其对数形式为: log σ'(z) = log σ(z) + log (1-σ(z))

通过展开可以得到: log σ(z) = -log(1+exp(-z)) log (1-σ(z)) = -z - log(1+exp(-z))

合并后得到: log σ'(z) = -z - 2·log(1+exp(-z)) = -z - 2·softplus(-z)

这正是代码中实现的形式,其中softplus函数由PyTorch的F.softplus提供数值稳定的计算。

缩放操作的雅可比行列式

在去量化过程中,图像数据会进行缩放操作: z = z / quants

这是一个线性变换,其雅可比行列式为: log |J| = -log(quants)

由于这个变换应用于图像的所有像素点(不包括batch维度),需要对所有空间位置求和,等价于乘以像素总数np.prod(z.shape[1:])。

数值稳定性的处理

为了避免在sigmoid变换时遇到边界值问题,代码实现了以下处理: z = z * (1 - alpha) + 0.5 * alpha

这是一个仿射变换,其雅可比行列式仅由缩放因子决定: log |J| = log(1 - alpha)

加性常数0.5 * alpha不影响导数计算,因此不出现在雅可比行列式中。

实现细节与注意事项

  1. 在反向变换时,需要将连续值重新量化为离散值,同时保持概率密度的正确转换。

  2. 所有变换都需要保持可逆性,并且要准确计算每一步的对数雅可比行列式。

  3. 数值稳定性处理是实际实现中的关键,特别是在处理接近0和1的边界值时。

  4. 对于图像数据,需要考虑空间维度的影响,正确计算所有像素点的累积变化。

理解这些数学原理对于实现和调试归一化流模型至关重要,特别是在处理图像数据时。通过精确计算每一步的变换和对数雅可比行列式,模型能够学习到数据空间的复杂分布,同时保持概率密度的正确转换。

登录后查看全文
热门项目推荐
相关项目推荐