摘要
时间序列异常检测(TSAD)是物联网时代一项重要的数据挖掘任务,有着广泛的应用。近年来,大量基于深度神经网络的方法被提出,在解决各种领域的挑战性TSAD问题方面,它们的性能明显优于传统方法。然而,这些深度TSAD方法通常依赖于干净的训练数据集,不受异常污染,以学习潜在动态的“正常剖面”。这个要求很重要,因为在实践中很难提供干净的数据集。此外,在没有意识到它们的鲁棒性的情况下,盲目地应用带有潜在污染训练数据的深度TSAD方法可能会导致检测阶段的性能显著下降。在这项工作中,为了解决这一重要挑战,我们首先研究了常用的带有污染训练数据的深度TSAD方法的鲁棒性,为在提供的训练数据不保证是异常的情况下应用这些方法提供了指导。此外,我们提出了一种模型不可知的方法,可以有效地提高学习具有潜在污染数据的主流深度TSAD模型的鲁棒性。实验结果表明,在广泛使用的基准数据集上,我们的方法能够一致地防止或缓解主流深度TSAD模型的性能下降。
方法
近年来,深度神经网络(DNNs)被广泛应用,在解决各种现实应用中具有挑战性的TSAD问题方面显示出了比传统异常检测模型更好的性能。到目前为止,主流的深度TSAD模型可以分为两类:基于预测的和基于重构的。具体来说,基于预测的TSAD首先学习一种预测模型,如递归神经网络[9,15,31,35]和卷积神经网络[13,33]来预测未来时间步长的信号。然后将预测信号与观测信号进行比较,产生剩余误差。如果剩余误差超过阈值,则检测到异常。基于重构的TSAD采用了类似的方法,只是它学习了一种重构模型,如自动编码器[5,16,21,25,38]和变压器[24,32],将时间信号压缩到低维嵌入,然后进行重构。重建误差用于检测异常。
还有其他的深度异常检测模型,如基于密度的[3,11,20,29,37,40],基于生成式对抗网络的[18,19,27,28]和基于一类的[26,34]。然而,它们要么不是专门为时间序列数据设计的,要么与主流模型密切相关,因为它们的底层骨干主要是一个重建或预测模型。
问题
由于通常标记异常的稀缺性,大多数深度TSAD模型都是半监督的,这意味着它们需要一个干净的、不受任何异常污染的训练数据集来学习数据中正常的时间动态剖面。
然而,这样清晰的数据集在实践中很少存在。在实际应用中,建模人员通常会得到可能被未知异常污染的数据集。与此同时,DNN经常使用过度参数化的机制进行训练,这意味着它们的参数数量可能超过训练数据的大小。因此,深度TSAD模型有能力对任何给定的训练数据进行过拟合,而不考虑异常的未知比例,导致检测阶段的性能严重下降。我们在各种基准数据集上使用两个代表性的深度TSAD模型(基于预测的和基于重构的)进行实验,清楚地证明了这个问题。
模型
提出了一种简单而有效的模型不可知论方法,可以显著提高从污染训练数据学习的深度TSAD模型的鲁棒性。具体来说,我们的方法是在模型训练的早期阶段,丢弃训练损失持续较大或损失更新振荡较强的样本。我们的样本过滤方法的理由是DNNs的“记忆效应”[4],这意味着DNNs倾向于优先学习多个样本共享的简单模式,然后在训练过程中逐渐记忆噪声样本。
我们用于学习鲁棒深度TSAD模型的模型不可知样本过滤方法是基于DNN在初始阶段开始从常见模式学习,并在训练期间逐渐适应噪声样本的观察。因此,当对污染数据进行训练时,DNN将优先从正常样本学习,然后再对整个数据集进行过拟合。直观地说,当dnn使用反向传播更新它们的参数时,梯度是对所有训练数据平均的。因此,在初始阶段,整体梯度更容易被正常样本所主导。因此,正常样本上的训练损失更有可能稳步下降,而异常样本上的训练损失在初始阶段的训练时段内保持较大或剧烈波动。
损失更新迭代
NNN为试验epoch的总数,xxx为训练数据
用LxiL_x^iLxi表示xxx在第iii个epoch结束时的损失
用Δxi=Lxi−Lxi−1\Delta_x^i=L_x^i-L_x^{i-1}Δxi=Lxi−Lxi−1