首页
/ 深入理解Dirichlet过程:高斯聚类项目中的非参数贝叶斯方法

深入理解Dirichlet过程:高斯聚类项目中的非参数贝叶斯方法

2025-07-04 15:27:31作者:乔或婵

引言

在机器学习领域,聚类分析是一个基础而重要的问题。传统的高斯混合模型(GMM)需要预先指定聚类数量,这在实际应用中往往是个难题。本项目探讨了一种更灵活的解决方案——Dirichlet过程(DP),它允许模型自动确定合适的聚类数量。

Dirichlet过程基础

Dirichlet过程是一种非参数贝叶斯方法,可以生成无限维的概率分布。通俗地说,它就像一个"无限餐厅":

  1. 顾客(数据点)可以坐在任何现有的桌子(聚类)上
  2. 也可以选择坐在新桌子上
  3. 新桌子被选择的概率与当前顾客数量有关

这种特性使得DP特别适合聚类数量未知的场景。

棒棒糖分解过程(Stick-breaking Process)

DP的实现通常采用棒棒糖分解这一直观方法:

  1. 想象一根长度为1的棒棒糖
  2. 每次从Beta分布中采样一个比例,折断棒棒糖
  3. 保留左边部分作为权重,右边继续分解
  4. 重复这个过程直到获得足够多的权重

数学表达式为: πₖ = βₖ ∏(1-βⱼ) (j=1 to k-1) 其中βₖ ~ Beta(1, α)

def stick_breaking_weights(beta_draws):
    def weighting(carry, beta_i):
        occupied_probability, history = carry
        weight = beta_i * (1 - occupied_probability)
        new_history = history + [weight]
        new_occupied = occupied_probability + weight
        return (new_occupied, new_history), None
    final, _ = lax.scan(weighting, (0.0, []), beta_draws)
    return final

浓度参数的影响

Dirichlet过程有一个关键参数α(浓度参数),它控制着:

  • α越小:权重集中在少数几个分量上
  • α越大:权重分布更均匀,使用更多分量

我们通过实验可视化这一现象:

concentrations = [0.5, 1, 3, 5, 10, 20]
fig, axes = plt.subplots(2, 3, figsize=(12, 8))
for ax, conc in zip(axes.flatten(), concentrations):
    _, weights = dp_draw(key, conc, 50)
    ax.plot(weights)
    ax.set_title(f"α={conc}")
plt.tight_layout()

逆向过程与参数估计

在实际应用中,我们需要从观测数据中推断浓度参数。这需要:

  1. 从权重向量逆向计算Beta分布采样
  2. 评估这些采样在给定α下的似然
  3. 优化α使得似然最大
def component_probs_loglike(log_component_probs, log_concentration, num_components):
    # 逆向计算Beta采样
    beta_hat = beta_draw_from_weights(np.exp(log_component_probs))
    # 计算对数似然
    log_like = beta_logpdf(beta_hat, 1, np.exp(log_concentration))
    return np.sum(log_like[:num_components])

实际应用建议

  1. 初始化选择:从α=1开始,观察权重分布
  2. 收敛判断:监控对数似然变化,通常20-30次迭代足够
  3. 数值稳定性:使用对数空间计算避免下溢
  4. 分量数量:实践中20-50个分量通常足够近似"无限"

结语

Dirichlet过程为高斯混合模型提供了强大的非参数扩展,解决了聚类数量不确定的难题。通过棒棒糖分解和逆向优化,我们能够灵活地建模复杂数据分布。这种方法在主题建模、图像分割等领域都有广泛应用。

理解DP的核心在于把握其"无限但稀疏"的特性——理论上可以有无穷多个分量,但实际上只有少数几个会被显著使用。这种优雅的平衡使其成为贝叶斯非参数统计中的瑰宝。

登录后查看全文
热门项目推荐