机器之心全球首例,Adversarial T-shirt让你在AI检测系统隐身( 三 )


如下面的动图所示:?
【机器之心全球首例,Adversarial T-shirt让你在AI检测系统隐身】
机器之心全球首例,Adversarial T-shirt让你在AI检测系统隐身
本文插图
?
最终 , 在现实世界中 , 该方法利用 TPS 生成的样本对抗 YOLOV2 可以达到 57% 的攻击成功率 , 相较而言 , 仅使用仿射变换只能达到 37% 攻击成功率 。
除此之外 , 研究者们还做了非常详尽的 ablation study:针对不同场景 , 距离 , 角度 , 穿戴者姿势进行研究 。
机器之心全球首例,Adversarial T-shirt让你在AI检测系统隐身
本文插图

机器之心全球首例,Adversarial T-shirt让你在AI检测系统隐身
本文插图
结果显示 , 提出的方法对距离的远近和角度变化较为敏感 , 对不同的穿戴者和背景环境变化表现出的差异不大 。
关于 AI 安全的更多讨论
生成对抗样本其实和深度神经网络的训练是同根同源的 。 通过大量样本学习得到的深度神经网络几乎是必然的存在大量的对抗样本 。 就像无数从事 Adversarial Machine Learning(对抗性机器学习)的研究者一样 , 大家充分意识到了神经网络的脆弱性和易攻击性 。 但是这并没有阻碍我们对深度学习的进一步研究和思考 , 因为这种特殊且奇妙的现象来源于神经网络本身 , 且形成原因至今没有明确的定论 。 而如何构建更加鲁棒的神经网络也是目前该领域的 open issue 。
该研究旨在通过指出这种特性 , 以及它有可能造成的社会潜在危害从而让更多的人意识到神经网络的安全问题 , 最终目的是帮助 AI 领域构建更加鲁棒的神经网络从而可以对这些对抗样本不再如此敏感 。
第一作者介绍
许凯第:美国东北大学 ECE 系 PhD 三年级学生 , 主要研究领域为 Adversarial Machine Learning , 研究内容已经在发表在 NeurIPS、ICML、ICCV、ECCV、CVPR、ICLR 等众多机器学习和计算机视觉会议 。


推荐阅读