活动介绍

目标识别前沿论文最新进展 2018.11.06 方建勇1

preview
需积分: 0 0 下载量 81 浏览量 更新于2022-08-08 收藏 170KB DOCX 举报
【文章概述】 这篇摘要主要涉及两篇关于深度学习在目标识别领域的最新研究论文,以及一篇关于机器学习在自动驾驶车辆中的安全问题。第一篇论文探讨了深度神经网络(DNN)在时间序列分类(TSC)任务中的迁移学习,强调了预训练模型在不同数据集上的微调对于提高模型准确性的潜力。第二篇论文则关注了预处理噪声过滤对对抗性机器学习的影响,指出噪声滤波器可以削弱某些对抗性攻击,并提出了一种新的攻击方法。第三篇论文介绍了一种针对自动驾驶车辆的无知识安全攻击方法,利用训练后的深度神经网络生成“潜移默化攻击”。 【第一篇论文】 标题:时间序列分类的转移学习 关键概念:深度神经网络、迁移学习、时间序列分类、UCR归档文件 主要内容:作者通过在源数据集上训练基础网络,然后将学到的权重转移到目标数据集上的第二个网络,以改善深度神经网络在时间序列分类任务中的泛化能力。论文进行了广泛实验,表明根据用于转移的数据集,迁移学习可以提升或降低模型预测的准确性。提出了一种新方法,通过动态时间扭曲测量数据集间的相似性,以选择最佳源数据集,从而提高71个数据集中的71个数据集的准确性。 【第二篇论文】 标题:预处理噪声过滤对对抗性机器学习的影响 关键概念:深度神经网络、对抗性机器学习、预处理噪声滤波器、FAD-ML攻击 主要内容:论文指出,预处理噪声滤波器可以使得许多现有的对抗性攻击失效,因为这些攻击依赖于引入对抗性噪声。同时,作者提出了一种新的预处理噪声滤波器感知的逆转录酶ML攻击——FAD-ML攻击。通过在没有视觉噪声的GTSRB数据集上生成对抗性图像,即使存在预处理噪声滤波器,也能导致分类器错误。 【第三篇论文】 标题:ISA4ML:对自主车辆机器学习模块的不知情安全攻击 关键概念:机器学习、自动驾驶、潜移默化攻击、深度神经网络 主要内容:论文提出了利用DNN反向传播特性生成的“潜移默化攻击”,这种攻击方法在不需要了解训练数据集的情况下,能够影响自动驾驶车辆的交通标志检测。通过在GTSRB数据集上训练的VGGNet DNN进行实验,证明了这种方法的有效性,可以在主观测试中产生错误分类。 总结来说,这些研究进一步揭示了深度学习在实际应用中的复杂性和挑战,尤其是在安全性方面。迁移学习提供了优化模型性能的可能性,而对抗性机器学习则提醒我们在设计系统时必须考虑到潜在的安全威胁。同时,这些论文也表明,对预处理步骤的理解和利用是提高模型鲁棒性的重要途径。
身份认证 购VIP最低享 7 折!
30元优惠券