论文部分内容阅读
随着神经网络模型的广泛应用,其安全性也日益受到重视,本文主要讨论了基于单像素攻击算法对经典CNN模型在黑盒条件下的对抗性攻击,利用该算法对LeNet和ResNet模型进行对抗性攻击测试,并采用粒子群算法进行优化,经过优化后,在扰动差异度为0.3%条件下,LeNet模型攻击成功率在80%以上,ResNet模型攻击成功率60%以上;同时提出针对性防御,自适应异常像素检测修正算法,可实现对单像素攻击算法产生的低扰动攻击进行有效防御,在扰动差异度为0.1%条件下,防御成功率可以达到80%以上。