计算机视觉中的概率图模型:层次化深度模型与混合层次模型
立即解锁
发布时间: 2025-09-01 01:09:15 阅读量: 12 订阅数: 14 AIGC 

# 计算机视觉中的概率图模型:层次化深度模型与混合层次模型
## 1. 层次化深度模型(HDMs)
层次化深度模型(HDMs)是一种多层图形模型,底层为输入层,顶层为输出层,中间包含多个隐藏节点层。每个隐藏层代表输入数据在一定抽象层次上的表示。
### 1.1 HDMs的优势
与无潜在变量的模型相比,具有潜在层或变量的模型(如HMM、MoG和潜在狄利克雷分配LDA)表现更优。此外,具有多层潜在节点的深度模型明显优于传统的“浅层”模型。
### 1.2 模型结构与构建
HDMs通过多个隐藏层能够在多个抽象层次上表示数据,可更好地捕捉输入和输出之间的关系。以使用深度模型通过不同层次的几何实体(边缘、部分和对象)表示输入图像为例,具体构建时,可构建深度回归贝叶斯网络(DRBN)。其构建步骤如下:
1. 确定构建块,即回归贝叶斯网络(RBN)。
2. 将RBN逐层堆叠,形成DRBN。
### 1.3 深度有向模型的分类
根据变量类型,深度有向模型可分为以下几类:
| 模型类型 | 潜在变量 | 可见变量 |
| ---- | ---- | ---- |
| sigmoid信念网络(SBNs) | 二进制 | 二进制 |
| 深度因子分析器(DFAs) | 连续 | 连续 |
| 深度高斯混合模型(DGMMs) | 离散 | 连续 |
### 1.4 有向与无向HDMs
除了有向HDMs,还可构建无向HDMs,如深度玻尔兹曼机(DBM),它由受限玻尔兹曼机(RBM)层堆叠而成。与无向HDMs相比,有向HDMs具有以下优势:
- 可通过直接的祖先采样轻松获取样本。
- 由于联合分布通过所有局部条件概率相乘得到,不存在分区函数问题,无需进一步归一化。
- 能通过“解释消除”原则自然捕捉给定观测下潜在变量之间的依赖关系,使潜在变量相互协调,更好地解释数据模式。
### 1.5 混合HDMs
还有混合HDMs,如深度信念网络,除顶层为无向外,其余为有向层。引入无向顶层是为了通过设计特殊先验(如互补先验)使潜在变量条件独立,从而缓解有向深度模型中难以处理的后验推断问题。
### 1.6 HDMs的学习与推断
HDMs的结构通常是固定的,学习过程包括预训练和精调两个阶段:
- 预训练阶段:分别学习每层的参数。
- 精调阶段:联合学习所有参数,可采用无监督或有监督方式,有监督学习又可分为生成式或判别式。由于存在潜在节点,预训练和精调都可使用梯度上升法(直接最大化边缘似然)或EM方法(最大化期望边缘似然)。但由于每层隐藏节点数量众多,精确计算梯度或期望变得难以处理。
给定学习好的深度模型,推断通常涉及为给定输入观测估计顶层隐藏节点的值,可通过MAP推断实现。但由于潜在节点之间的依赖关系,有向深度模型的精确MAP推断不可行,可使用近似推断方法,如坐标上升或变分推断。
总体而言,与相应的确定性深度模型(如深度神经网络)相比,HDMs的学习和推断更具挑战性,扩展性不佳,这也解释了为何尽管HDMs具有强大的概率表示能力,但在深度学习中未得到广泛应用。
## 2. 混合层次模型(HHMs)
混合层次模型(HHMs)结合了层次贝叶斯网络(HBN)和HDM的优势。
### 2.1 HHMs的结构
HHMs通常由观测层、一个或多个隐藏层、参数层和一个超参数层组成。隐藏层可在不同抽象层次上表示输入数据,参数层允许每个隐藏层的参数变化以捕捉该层的变化,超参数则捕捉隐藏层参数的分布。
### 2.2 HHMs的优势
与HDMs相比,HHMs具有以下优势:
- 可使用更少的隐藏节点表示输入数据的变化。
- 不是假设每个节点的参数独立,而是通过超参数捕捉隐藏节点参数之间的依赖关系。
- 需要学习的参数数量少得多,因为只需学习超参数,而超参数数量通常远少于参数数量。
### 2.3 潜在狄利克雷分配(LDA)
LDA是HHMs的一个典型例子,它由观测层、一个潜在变量层、参数层和超参数层组成。潜在变量捕捉数据中的潜在主题,超参数适应潜在变量参数的可变性。具体来说,LDA模型由观测变量w、潜在变量z、潜在变量的参数θ以及超参数α和β组成。潜在变量z是离散的,通常表示数据中的聚类(或主题),其基数通常通过交叉验证经验确定。超参数α和β分别用于θ的狄利克雷先验和每个主题的单词。LDA假设文档(数据)由潜在主题(聚类)z的混合组成,每个主题又由单词(特征)w的混合组成,因此可视为层次混合模型。
给定训练数据,可使用相关方法学习超参数。使用学习到的超参数α和β,LDA推断计算z,即z* = argmaxz p(z|w,α,β),这是观测单词w最可能的主题。
### 2.4 LDA与pLSA的比较
LDA是概率潜在语义分析(pLSA)的推广。pLSA是一种潜在主题模型,广泛应用于计算机视觉和自然语言处理。与LDA类似,它假设文档由潜在主题的混合组成,每个主题又由特征(单词)的混合组成。但与LDA不同的是,pLSA不将其参数视为随机变量,因此不是严格的层次贝叶斯模型。此外,pLSA需要为每个文档学习混合权重,参数数量随训练样本数量线性增加,且无法自然地为新的测试观测分配概率。
## 3. 附录
### 3.1 公式(3.63)的证明
证明过程如下:
\[
\begin{align*}
\frac{\partial LL(\theta_{nj} : D)}{\partial \theta_{njk}}&=\frac{\partial \sum_{k = 1}^{K} M_{njk} \log \theta_{njk}}{\partial \theta_{njk}}\\
&=\frac{\partial [\sum_{k = 1}^{K - 1} M_
0
0
复制全文
相关推荐










