人工智能的发展中,有一项很实用,也对于人类科技发展很重要的技术,就是图像辨识系统。这套系统从识别照片中的物体,到装在无人车上认路,都有着非常关键的角色。这也是为什么「对抗图像」这项技术相对重要的原因。所谓的「对抗图像」,就是可以干扰、甚至使 AI 图像辨识系统完全失灵的图案,这些图案通常带有的特点就是,人类在解读这些有加上对抗图像的画面时,并不会有任何的辨识障碍,但却会让 AI 完全无法辨识出画面里的图形,或是出现错误的辨识结果。通常,这类辨识图像的制作并不容易,需要研究人员事前针对辨识系统详细研究,找出辨识系统辨识的方法,并且藉此加入经过设计的干扰噪声,最终导致 AI 失灵。不过现在研究人员发现,有更快的方法可以扰乱 AI ─ ─你只需要随机复制贴上就好了。
突兀的物品随机摆放,就能搞死 AI 的大脑
来自约克大学与加拿大多伦多大学的研究人员,最近发现了全新搞混神经网络的方法,只需要在一个画面中加上与该画面场景截然不同的图案,就能导致神经网络错乱,最终无法成功识别图案。研究人员举例,一张图片中有一个人,前方有一张桌子跟一台笔记本电脑,AI 可以很正确的辨识出来,但是如果今天突然在图片中加入一只大象,AI 便完全无法辨识,而有很高的机率导致错误判断。会造成这样的结果跟神经网络的学习方法有关。由于在早期大量学习的过程中,AI 从未看过大象出现在客厅的图片,因此对 AI 而言,突然出现的一只大象是它「不认识」的物体,因此只能够透过联想「客厅内可能会出现,长得跟大象很像」的物体来推估那头大象代表的是什么对象。这种可以说是利用了 AI 学习的弱点进行的对抗图像,藉由将一个场景的辨识目标复制贴上到另外一个场景中,导致 AI 无法顺利辨识运作,研究人员称这为「目标移植」。
当对抗图像制作方法变简单,AI 发展的未来岌岌可危
这样的发现一方面代表着 AI 还有可以进步的空间,另一方面却也代表着图像辨识目前可能遭遇的危险。由于过往对抗图像的制作需要很高的技术,因此就算知道对抗图像可以干扰 AI 的图像辨识,通常也比较不担心路上会有人利用这种技术来干扰智慧摄影机、无人车等装置的运作;然而如今发现的方式却相对简单 ─ ─ 只需利用一些比较突兀的图案就好。若是这样的研究成果遭到有心人士恶意利用的话,可以想见的是未来 AI 的图像辨识系统将会遭遇到前所未有的挑战,研究人员也必须要加把劲,想办法及时解决这些问题才行。参考数据源:乐彩爱公益 http://pctchp.org.tw/