基于稀疏/协作表示的信息融合
立即解锁
发布时间: 2025-09-01 00:12:51 阅读量: 4 订阅数: 11 AIGC 

### 基于稀疏/协作表示的信息融合
在数据处理和模式识别领域,有效的信息融合方法至关重要。稀疏表示和协作表示是两种重要的技术,它们在图像分类、检索和恢复等方面展现出了显著的效果。下面我们将深入探讨这些技术,并介绍基于它们的信息融合方法。
#### 1. 动机与预备知识
##### 1.1 动机
近年来,l1 - 范数最小化技术发展迅速,启发了研究者将稀疏表示机制应用于图像恢复和模式识别任务。例如在模式识别的分类任务中,利用稀疏表示的算法相比支持向量机(SVM)和最近子空间等传统分类方法,在抗光照变化、噪声和异常值方面有显著改进。
稀疏表示分类(SRC)通过最小化 l1 - 范数,将测试输入编码为训练实例的稀疏线性组合,还可引入单位矩阵处理异常像素,增强了算法的鲁棒性。SRC 的成功推动了相关研究的发展,如 l1 - 图用于子空间学习和聚类、鲁棒稀疏编码用于人脸识别等。
然而,将 SRC 应用于信息融合时,仅假设不同视图的训练数据能共享表示系数存在局限性。因此,提出了联合相似和特定学习(JSSL)方法,它能从不同视图中提取相似性和独特性,更合理地表示多视图数据进行融合。
同时,研究者开始质疑稀疏表示在分类中的作用。有研究表明,协作表示(即查询图像由所有类别的训练实例协作表示)才是确保 SRC 模式分类有效性的关键。使用非稀疏的 l2 - 范数正则化表示系数,能获得与 l1 - 范数正则化相似的分类结果,且算法速度显著提高。基于此,还提出了松弛协作表示(RCR)用于多视图融合,它能以闭式解形式获得结果,提升测试速度。但 JSSL 和 RCR 在训练阶段都未能利用现有标签信息,为此又提出了联合判别和协作表示(JDCR)方法,既融合多视图数据,又利用标签信息。
##### 1.2 预备知识
为了更好地理解后续提出的方法,先介绍稀疏表示分类器(SRC)和协作表示分类器(CRC)。
- **稀疏表示分类器(SRC)**
- 给定训练和测试实例集,SRC 的核心思想是线性组合训练样本以获得测试样本,并使表示系数尽可能稀疏。具体通过最小化 l1 - 范数,确保测试样本以最稀疏的方式由训练样本线性表示。
- 假设训练样本集(字典)表示为矩阵 $D = [D_1, D_2, \cdots, D_J]$,其中 $J$ 是类别数,$D_i \in R^{m×n_i}$ 是第 $i$ 类的训练集。测试样本 $y \in R^{m×1}$ 可通过以下公式计算:
$\hat{\alpha} = \min_{\alpha} \|y - D\alpha\|_2^2 + \lambda \|\alpha\|_1$
其中 $\lambda$ 是惩罚参数,$\|\cdot\|_1$ 是 l1 - 范数,$\|\cdot\|_2^2$ 是 l2 - 范数。$\hat{\alpha} = [\hat{\alpha}_1; \hat{\alpha}_2; \cdots; \hat{\alpha}_J]$ 是稀疏系数,$\hat{\alpha}_i$ 是对应 $D_i$ 的稀疏系数。
- 若测试样本 $y$ 来自第 $i$ 类,则可由第 $i$ 类的训练样本很好地表示。通过以下公式确定测试样本的类别标签:
$i^* = \min_{i} \|y - D_i \hat{\alpha}_i\|_2^2$
- **协作表示分类器(CRC)**
- 有研究指出,协作表示分类(CRC)而非 l1 - 范数稀疏表示才是使 SRC 分类有效的关键。使用 l2 - 范数正则化 $\alpha$ 能获得相似的分类结果。
- 若不考虑对异常值的鲁棒性,CRC 的编码模型为:
$\hat{\alpha} = \min_{\alpha} \|y - D\alpha\|_2^2 + \lambda \|\alpha\|_2^2$
- 可推导得出:
$\hat{\alpha} = (D^T D + \lambda \cdot I)^{-1} D^T y$
其中投影矩阵 $P = (D^T D + \lambda \cdot I)^{-1} D^T$ 不依赖于测试样本 $y$,可提前计算,因此协作表示的计算速度很快。
- 与 SRC 类似,CRC 通过检查能提供最小正则化重建误差的类别来进行分类。
#### 2. 联合相似和特定学习(JSSL)
JSSL 是一种新颖的分类融合方法,它联合表示多个视图并共享相似性,同时提取个体组件以保持多样性,对分类很有帮助。该方法使用交替方向法(ADM)和增广拉格朗日乘数法(ALM)进行优化,并应用于健康与糖尿病(DM)、健康与葡萄糖调节受损(IGR)的分类任务,将从一个人身上提取的舌象、面部和舌下静脉特征视为多视图数据。
##### 2.1 问题表述
同一实例的不同视图或特征向量可能具有相似性,合理的假设是不同视图在其相关字典上编码的表示系数应具有一定相似性。为实现这一目标,使用以下公式:
$\min_{\alpha_k} \sum_{k = 1}^{K} \|\alpha_k - \bar{\alpha}\|_2^2$
其中 $\alpha_k$ 是第 $k$ 个视图的表示系数,$\bar{\alpha} = \frac{1}{K} \sum_{k = 1}^{K} \alpha_k$ 是所有 $\alpha_k$ 的均值向量,$K$ 是视图或特征的数量。此公式旨在减小不同表示系数 $\alpha_k$ 的方差,使其共享相似性。
但不同视图之间也存在差异,因此需要同时实现两个目标:利用所有视图的相似性和保持每个视图的灵活性。为解决这个问题,将表示系数 $\alpha_k$ 分为特定部分 $\alpha_s^k$ 和相似部分 $\alpha_c^k$,即 $\alpha_k = \alpha_c^k + \alpha_s^k$。模型的公式为:
$\min \sum_{k = 1}^{K} \left( \|y_k - D_k (\alpha_c^k + \alpha_s^k)\|_2^2 + \tau \|\alpha_c^k - \bar{\alpha}_c\|_2^2 \right) + \sum_{k = 1}^{K} \lambda \left( \|\alpha_c^k\|_1 + \|\alpha_s^k\|_1 \right)$
其中 $y_k$ 是测试实例,$D_k = [D_1^k, D_2^k, \cdots, D_J^k]$ 是第 $k$ 个视图的训练实例集,$D_i^k \in R^{m_k×n_i^k}$ 是第 $i$ 类在第 $k$ 个视图的训练集,$\bar{\alpha}_c = \frac{1}{
0
0
复制全文
相关推荐









