一件T恤就可以完美“隐身”,AI“眼睛”竟如此脆弱?

◎ 科技日报记者 谢开飞 通讯员 许晓凤 王忆希
只要穿上一件印有特殊图案的T恤,就能骗过AI人体检测系统,从而达到“隐身”效果?最近,这一场景真实上演。
近日,美国东北大学和麻省理工学院等研究机构,共同提出了基于对抗样本的T恤衫。据研究人员介绍,这是全球首个在非刚性物体(如T恤)上,进行的物理对抗性实例。在AI人体检测摄像头下,无法准确地检测出穿着该T恤的行人,同时无论衣服发生任何褶皱或变形,都能达到“隐身”效果。
这件特殊的T恤背后基于什么原理?AI目标检测技术的这种缺陷会不会导致安全问题的产生,要如何解决?就此,科技日报记者采访了有关专家。
图片
特殊图案便能“骗过”AI的“眼睛”
在本次实验中,从远处走来一位穿着白T恤的男性和一位穿着黑T恤的女性,在AI人体识别摄像头下,只能看到黑T恤女性的身影。
这是如何做到的?仔细观察,白T恤上印有千变万化的色块,原来,研究人员使用了一种称为对抗攻击的方法来欺骗 AI。这些色块在人眼看来与普通图案无异,但对于机器来说,将造成一定干扰。
中国科学院自动化研究所王金桥研究员解释说,这背后的原理主要在于,科研人员对原T恤上的内容进行修改,通过技术手段生成具有较强干扰性的图案替换原有内容,从而改变T恤原有的视觉外观,使得AI模型对数据标签的预测发生混淆和错误,从而到达攻击的目的。
“攻击者通过构造微不足道的扰动来干扰源数据,可以使得基于深度神经网络的人工智能算法输出攻击者想要的任何错误结果。而这类被干扰之后的输入样本被称之为对抗样本。”王金桥说。
对抗样本在实际中主要用来检验一些安全系数较高的系统,通过对抗的方式来打磨AI模型的安全,抵御可能面临的安全风险。比如刷脸支付,它必须具有一定地抗攻击能力,攻击者不能简单地利用照片或者定向修改原输入从而破解用户支付系统,否则将带来灾难性的后果。
图片
图片来源:视觉中国
曾有实验表明,对于一个正确分类的熊猫图像,在加入特定对抗样本的干扰之后,人眼看来仍然是熊猫,但是AI图像识别模型却将其分类为长臂猿,且置信度高达99%。
不过,将对抗性图案印在衣服上这种欺骗 AI 的方式有一个缺陷,只要图案的角度和形状发生变化,就会轻易被识破。过去在设计对抗样本时,通常采用一些简单的变换,比如缩放、平移、旋转、亮度对比度调整以及添加自适应的噪声等。
王金桥解释说,这些简单的变换,在产生静态目标的对抗样本时往往比较有效,但是针对行人这样一种非刚体的动态目标则容易失效。动态目标由于运动以及姿态变化,将导致这些简单变换发生较大的改变,从而使得对抗样本丧失原有的性质。
“相比过去设计的对抗性样本,本次攻击的成功率更高。”福州大学数学与计算机科学学院、福建新媒体行业技术开发基地副主任柯逍博士指出,为应对人体移动造成的T恤形变,科研人员采用“薄板样条插值”的方法来建模行人可能发生的各种形变。同时,在训练阶段使用T恤上棋盘图案的格子来学习形变控制点位置变化关系,使得产生的对抗样本更加真实,对人体形变的贴合度更高。
AI“视觉系统”受到多方因素干扰
除了对抗攻击之外,在实际应用中也存在很多环境因素和人为因素,都可能导致AI人体检测出现失误。
如在自动驾驶场景下,由于天气条件恶劣(如大雪、大雾等)或者光线及路况复杂,导致前方人员成像模糊等,会极大影响前方目标检测性能。在监控场景下,可疑人员可能通过衣物、雨伞等的遮挡来干扰人工智能算法等。
“排除本身紧急制动功能问题,具备行人检测功能的汽车也存在着小目标人体检测失误、检测实时性等问题。”柯逍举例说,美国汽车协会曾对具备行人检测功能的多个品牌车辆做过一个测试,测试中用到的被撞目标包括成人假人与儿童假人。当车前出现儿童或车速达到48km/h时,仅一个品牌有一定概率检测出行人,其余三家品牌在两个场景下均未检测到行人或最终撞到行人。
为何在AI视觉识别技术下的目标检测模型如此脆弱?
图片
图片来源:视觉中国
“在人类眼中,轻微的图像干扰并不会影响最终的判断,但对于AI模型来说却不是如此。”柯逍举例说,有相关实验表明,一个测试结果表现良好的图像检测与识别分类器,并没有像人类一样学习与理解到目标图像真正底层的表示,而只是在训练样本上构建了一个表现良好的机器学习模型。
据了解,现有的AI视觉识别技术通常采用深度神经网络,本质上是一种特征深层映射,只是学习数据的统计特征或数据之间的关联关系,对数据量以及数据本身的丰富程度依赖较高,数据越多越丰富,则学习出来的特征越具有判别力,也越能反映关联关系。
王金桥表示,但真实情况是,数据往往非常有限,使得神经网络学习到的模式也比较有限,难以让神经网络模型“见多识广”,导致其对从未见过的数据往往表现不如人意。另一方面,这种统计特征分布以及关联关系,一旦被攻击者获知或者破解,就有可能针对性地修改输入样本,从而改变模型的输出,达到攻击的目的。
AI“视觉失灵”易诱发安全问题
穿上特殊T恤,达到所谓的“隐身”效果,其实就是“混淆”AI的“视觉系统”。AI目标检测技术的这种缺陷是否会导致安全问题的发生?
柯逍表示,美国汽车协会的汽车辅助驾驶案例中,行人被漏检或者未能及时被检测到,都可能导致交通事故的产生。此外,安防监控下危险人物与物品的漏检也可能导致安全隐患,不法分子可以利用对抗攻击来发现目标检测系统的漏洞,并进行攻击。
“安全问题的产生可能有模型本身缺陷问题,如泛化性能不足,训练数据单一,存在过拟合等现象。此时,应当尽可能地丰富训练数据,并在模型训练过程中加入防止过拟合的技术手段等来提升模型的实战能力。”王金桥认为,另一方面,实际系统中往往也需要融合模型安全的考虑来增强结果可信度和模型的健壮性,加入攻击模型的预判,提高对抗样本的判别能力,从而降低安全风险。
当前,科研人员正不断提出精度更高、速度更快的AI目标检测模型,用于解决目标检测技术中存在的漏检、误检、实时性与鲁棒性等问题。对于未来技术安全的构建,还需要做哪些努力?
王金桥认为,人工智能目前总体还处于起步阶段,现有的人工智能算法本质上还是学习简单的映射关系,并未真正地理解数据背后内容及潜在的因果关系。因此,其理论创新和产业应用还面临着诸多的技术难点,需要科研人员持续攻关,实现真正意义上的“智能”以降低应用的风险。
“其次,科研人员在进行技术研究以及新技术的应用中,应当尽可能的考虑各种安全问题,加入对抗样本防攻击模型,并做好相应的处理措施。”王金桥建议,从社会层面也应当建立和完善人工智能相关的法律法规,对技术的应用范围加以引导,对可能出现的安全问题作出相应的指导和规范,营造更加全面和成熟的科技创新环境。
来源:科技日报
编辑:张爽
审核:管晶晶
终审:冷文生