免费建网站流程,常用网站域名,模板建站源码,产品线上推广方式原文来源#xff1a;arXiv作者#xff1a;Wieland Brendel、Jonas Rauber、Matthias Bethge「雷克世界」编译#xff1a;嗯~阿童木呀、哆啦A亮不知道大家有没有注意到#xff0c;许多机器学习算法很容易受到几乎不可察觉的输入干扰的影响。到目前为止#xff0c;我们还不清… 原文来源arXiv作者Wieland Brendel、Jonas Rauber、Matthias Bethge「雷克世界」编译嗯~阿童木呀、哆啦A亮不知道大家有没有注意到许多机器学习算法很容易受到几乎不可察觉的输入干扰的影响。到目前为止我们还不清楚这种对抗干扰将为现实世界中机器学习应用的安全性带来多大的风险因为用于生成这种干扰的大多数方法要么依赖于详细的模型信息基于梯度的攻击或者置信度分数例如类概率基于分数的攻击而这两种在大多数现实世界中都是不可用的。在许多这样的情况下目前我们需要后退到基于迁移的攻击中其中它依靠繁琐的替代模型需要访问训练数据并可以被防御。在这里我们强调了纯粹依靠最终模型决策的攻击的重要性。这种基于决策的攻击是1适用于真实世界的黑盒模型如自动驾驶汽车2需要较少的知识比基于迁移的攻击更容易应用3相较于基于梯度或基于分数的攻击它对于简单的防御具有更强健的鲁棒性。以往的攻击只限于简单的模型或简单的数据集。而在本文中我们引入边界攻击Boundary Attack——一种基于决策的攻击它从一个大的对抗性干扰开始然后力求在保持对抗的同时减少干扰。这种攻击在概念上是很简单的要求接近没有超参数的调整并且在像ImageNet这样的标准计算机视觉任务中可以与最好的基于梯度的攻击相媲美。我们将这个攻击应用于Clarifai.com中的两个黑盒算法。特别是边界攻击以及基于决策的类攻击为研究机器学习模型的鲁棒性开辟了新的途径并提出了关于部署机器学习系统安全性的新问题。这个攻击的实现可以作为Foolbox的一部分https://github.com/bethgelab/foolbox。 图1 :左对抗攻击方法的分类。边界攻击适用于现实世界中机器学习算法因为它只需要访问模型的最终决策例如类标签或转录句子而不依赖于模型的信息如梯度或置信度分数。右应用于Clarifai品牌识别模型的案例。一般说来应用于计算机视觉、语音识别和其他领域中的许多高性能机器学习算法易受到其输入的微小变化的影响Szegedy等人于2013年提出。我们可以举一个具体的例子来说明这一点比如像VGG-19这样一个在目标识别中训练的先进的深度神经网络可以将图像中的主要目标准确地识别为虎猫tiger cat但是如果以某种特定的方式对像素值进行轻微的干扰那么同一网络的预测结果将会彻底改变比如将其识别为公交车。这些所谓的对抗性干扰在许多机器学习模型中是普遍存在的而且往往不被人类所感知。一般情况下我们将力求找到这种对抗性干扰的算法称之为为对抗性攻击。这种对抗性干扰引起了人们对于两个方面的关注。一方面他们担心已部署的机器学习算法的完整性和安全性比如自动驾驶汽车或人脸识别系统。路牌上例如将停车标志变成200公里/小时的速度限制或路灯上例如将红灯变成绿灯的微小干扰可能造成严重的后果另一方面对抗性干扰为人类和机器的感官信息处理之间的差距提供了一种关注焦点并因此为更具鲁棒性、更加人性化的体系架构提供了指导。对抗攻击大致可以分为三类基于梯度的、基于分数的和基于迁移的攻击参见图1。基于梯度的攻击和基于分数的攻击通常被分别表示为白盒攻击和oracle攻击但我们试图尽可能地明确在每个类别中所使用的信息。影响所有这些类别的攻击的一个严重问题是它们直截了当地进行防御•基于梯度的攻击大多数现有的攻击都依赖于详细的模型信息包括输入的损失的梯度。防御防御基于梯度的攻击的一种简单方法是对梯度进行掩码操作例如通过隐式地增加不可微的元素比如防御性精炼或饱和的非线性再或者通过明确地添加不可微的分类器。•基于分数的攻击一些攻击更加不可知只依赖于模型的预测分数例如类概率或逻辑。防御通过在模型中加入像dropout这样的随机元素从而可以直接严重阻碍对数值梯度的估计。此外许多鲁棒的训练方法在样本周围引入了一个极值点它们不仅对梯度本身进行了掩码而且还对其数值估计进行了掩码。•基于迁移的攻击基于迁移的攻击并不依赖于模型信息而是需要关于训练数据的信息。该数据用于训练一个完全可观察的替代模型而该模型可以合成对抗干扰。它们依赖于经验观察即对抗样本经常在模型之间迁移。防御最近针对迁移攻击的一种防御方法是基于通过对由替代模型的对抗样本增强的数据集进行的健壮性训练而它已经证明在2017年的Kaggle 对抗攻击竞赛中它几乎可以成功防御所有攻击https://www.kaggle.com/c/nips-2017-defense-against-adversarial-attack。•基于决策的攻击直接攻击完全依赖于模型的最终决策例如第一类标签或被转录的句子。这个划分类别是合理的原因如下首先相较于基于分数的攻击基于决策的攻击与真实世界的机器学习应用程序关联更大其中在这些应用程序中很难获得置信度分数或logit。与此同时相较于其他类别的攻击基于决策的攻击有可能对标准防御如梯度掩码、固有随机性或鲁棒性训练具有更稳健的鲁棒性。最后与基于迁移的攻击相比它们所需要的模型架构和训练数据信息要少得多而且要简单得多。目前还没有有效的基于决策的攻击能够扩展到像ImageNet这样的自然数据集中且能够适用于深度神经网络DNN。先前最相关的研究是迁移攻击的一个变体其中用于学习替代模型的训练集被替换为合成数据集。这个合成数据集是由攻击者以及替代模型的训练生成的。每个合成样本的标签都是从黑盒模型中抽取的。虽然这种方法可以很好地处理内部类的可变性很低的数据集(比如MNIST)但是这并不表明它可以扩展到诸如CIFAR或ImageNet这样更为复杂的自然数据集中。其他基于决策的攻击是特定于线性或凸诱导性convex-inducing classifiers分类器并不适用于其他机器学习模型。Biggio等人于2013所进行的研究基本上处于迁移攻击和基于决策的攻击之间其中替代模型是在从黑盒模型中观察到的标签的数据集上进行训练的。这种攻击仍然需要关于黑盒模型训练的数据分布知识所以我们不认为这是一个纯粹的基于决策的攻击。最后一些朴素攻击比如沿着一个随机方向偏离原始样本的路线搜索我们可以将其称之为基于决策的攻击但它们引发了巨大的、非常明显的干扰而这些干扰要比典型的基于梯度的、基于分数的或基于迁移的攻击要大得多。在整篇论文中我们主要关注威胁情景在这种情景下攻击者的目标是通过对样本产生最小干扰来改变特定输入样本的模型的决策无论是有针对性还是无针对性。攻击者可以观察模型对于任意输入的最终决策并且知道至少一个干扰但是大的干扰样本是对抗的。本文的贡献如下•我们强调基于决策的攻击是与现实应用高度相关的对抗攻击的一个重要类别对衡量模型的鲁棒性非常重要。•我们引入了第一个有效的基于决策的攻击可扩展到复杂的机器学习模型和自然数据集。 边界攻击1在概念上非常简单2极其灵活3只需要很少的超参数调整4在有针对性和无针对性计算机视觉场景中能够与最好的基于梯度的攻击相媲美。•我们表明边界攻击能够打破以前建议的防御机制如防御性精炼。•我们在Clarifai.com网站上展示了边界攻击在两个黑盒机器学习模型上的实用性用于品牌和名人识别。 由边界攻击生成的对抗样本三个案例分别基于MNIST、CIFAR、ImageNet。对于MNIST差异显示为正蓝色和负红色变化。对于CIFAR和ImageNet我们采用颜色通道规范。所有差异都已被放大以提高能见度。 无针对性攻击的例子。这里的目标是在错误分类原始图像被正确分类的同时合成与原始图像尽可能接近的图像。对于每个图像我们报告直到该点图像上方的模型调用预测的总数以及对抗及原始图像下方之间的均方误差。在本文中我们强调了一个大多数被忽视的对抗性攻击类型的重要性——基于决策的攻击 可以在模型中找到对抗样本其中只有最后的决策才能被观察到。我们认为这个类型的重要性原因有三首先这个类型的攻击与许多真实世界中部署的机器学习系统如内部决策过程是不可观测的自动驾驶汽车高度相关其次这个类别的攻击不依赖于在被攻击的模型上进行相似的数据训练的替代模型从而使实际的应用更加直截了当。第三这个类别的攻击有可能对诸如梯度掩码内在随机性或鲁棒训练等常见欺骗行为具有更强的可靠性。我们还引入了第一个适用于通用机器学习算法和复杂自然数据集的有效攻击边界攻击。 边界攻击的核心是遵循对抗和非对抗样本之间的决策边界采用非常简单的拒绝抽样算法rejection sampling algorithm结合简单的建议分布proposal distribution和信赖域方法Trust Region methods启发的动态步长调整。其基本的工作原理——从一个大的干扰开始并逐渐减少——基本上推翻了了所有以前对抗攻击的逻辑。除了出奇的简单之外边界攻击在可能的对抗标准方面也是非常灵活的并且能够在基于最小干扰大小的标准计算机视觉任务上与基于梯度的攻击相提并论。事实上简单约束的独立同分布的高斯分布可以作为边界攻击每一步的有效建议干扰是出乎意料的并揭示了当前计算机视觉体系结构信息处理的脆弱性。尽管如此边界攻击还有很多方法可以更加有效特别是通过某个特定模型学习适当的建议分布或者通过对最近成功或失败的建议历史进行调整建议分布。基于决策的攻击对于评估机器学习模型的鲁棒性以及突出像自动驾驶汽车这样的闭源机器学习系统的安全风险具有高度的相关性。我们希望边界攻击能够促进在这一领域进行更深入的研究。未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能互联网和脑科学交叉研究机构。由互联网进化论作者计算机博士刘锋与中国科学院虚拟经济与数据科学研究中心石勇、刘颖教授创建。未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市云脑研究计划构建互联网城市云脑技术和企业图谱为提升企业行业与城市的智能水平服务。 如果您对实验室的研究感兴趣欢迎支持和加入我们。扫描以下二维码或点击本文左下角“阅读原文”