深度堆叠集成学习在侧信道攻击中的应用
立即解锁
发布时间: 2025-08-31 01:15:11 阅读量: 9 订阅数: 13 AIGC 

### 深度堆叠集成学习在侧信道攻击中的应用
#### 1. 实验背景与目标
在侧信道攻击(SCA)的背景下,为了提升攻击性能,考虑从评估者的角度出发,利用后验集成学习方法。通过减小攻击性能来增加集成规模,从而探索不同集成方法(如堆叠和装袋)的效果。并且,针对神经网络堆叠方法在SCA中的应用进行深入研究,尽管此前有相关提及,但尚未有详细探索。
#### 2. 堆叠实验的设置
##### 2.1 实验范围
为了验证堆叠方法的鲁棒性以及其对元模型超参数化的敏感性,训练了30个具有随机超参数配置的多层感知器(MLP)作为元模型。使用与弱模型相同的训练数据来训练元模型,以研究堆叠对弱模型的影响,并通过猜测熵(Guessing Entropy)的收敛情况作为性能评估标准。
##### 2.2 超参数搜索空间
元模型的超参数搜索空间如下表所示:
| 超参数 | 最小值 | 最大值 | 步长 |
| ---- | ---- | ---- | ---- |
| 层数 | 2 | 8 | 1 |
| 神经元数量 | 100 | 1000 | 100 |
| 激活函数 | Relu, Elu, Selu, Gelu, Tanh | - | - |
| 训练轮数 | 早停:验证损失耐心值20 | - | - |
| 学习率 | 0.0001 | - | - |
| 小批量大小 | 100 | - | - |
| 优化器 | RMSprop | - | - |
| 损失函数 | 分类交叉熵:度量准确率 | - | - |
##### 2.3 弱模型预测的拼接方法
将弱模型的预测按深度顺序拼接,若有N个弱模型,每个模型每次预测产生256个值,则最终得到形状为256 * N的堆叠预测c用于训练元模型:
\[c = [P_0^0, P_0^1, ..., P_0^N, ..., P_{256}^0, P_{256}^1, ..., P_{256}^N]\]
其中\(P_i^j\)表示弱模型j输出的第i个分量。这种拼接方式对于MLP元模型的学习过程先验上没有影响,但对于如CNN这样的元模型可能有重要影响,后续可进一步研究。
#### 3. 不同数据集上的实验结果
##### 3.1 ASCADF 0d和ASCADV 0d数据集
- **堆叠结果**:在ASCADF 0d上,基于4个最佳弱模型预测训练的元模型,仅需203条迹线即可成功攻击,相比最佳弱模型的1109条迹线,减少了81.69%。在ASCADV 0d上,基于5个最佳弱模型预测训练的元模型,582条迹线成功攻击,相比最佳弱模型的2973条迹线,减少了80.42%。整体上,堆叠使两个数据集的攻击性能分别提升了60%和70%。但随着集成规模增加,提升攻击性能的元模型数量减少,这可能是因为元模型对于学习任务过于复杂,容易过拟合。
- **与装袋方法的比较**:堆叠方法收敛更快,攻击性能优于装袋。装袋过程在弱模型性能差距较大时受影响明显,而堆叠聚合受弱模型性能差异的影响较小,因为元模型能够学习每个弱模型的相关性。
##### 3.2 AES HD和ASCADV 100d数据集
- **堆叠结果**:在ASCADV 100d上,基于7个最佳弱模型预测训练的元模型,351条迹线成功攻击,相比最佳弱模型的1792条迹线,减少了80.41%,整体攻击性能提升80%。在AES HD上,基于9个最佳弱模型预测训练的元模型,1220条迹线成功攻击,相比最佳弱模型的22034条迹线,减少了94.46%,整体攻击性能提升超90%。在这两个数据集上,堆叠方法更具鲁棒
0
0
复制全文
相关推荐









