一张AI生成假图引发美国“血案” 推特老毛病引出新问题

划重点:
  • 1

    “五角大楼附近发生大爆炸”的虚假推文以及合成图片在网上疯传,促使许多权威媒体账户纷纷转载,甚至就连股市都短暂受到影响。

  • 2

    这次事件凸显了人工智能生成虚假信息所带来的危险,它不仅可能影响数百万人类的工作,传播错误信息,甚至还可能误导其他自动化系统。

  • 3

    此前,推特上也曾出现过广为流传的虚假信息,但这是首次出现人工智能生成的、与紧急事件相关的虚假报道。随着时间推移,这类恶作剧可能越来越多。

  • 4

    目前有多家公司在开发识别文本、图像以及视频等内容真伪的技术,这已经演变成一个重要商机。

  • 5

    人工智能技术的进步速度非常快,需要国际社会联合起来对其进行监管,目前有六种可行的尝试。

图片
腾讯科技讯 5月23日消息,美国当地时间周一早上,一个名为Bloomberg Feed、经过验证的推特账户分享了一条突发新闻。在“华盛顿特区五角大楼附近发生大爆炸——初步报告”的字样下面,显示滚滚浓烟冲天而起,旁边则是隐约像是美国国防部的建筑。
然而,经过仔细审视,你会很快发现这张照片是假的,很可能由人工智能生成。但在这起骗局被揭穿之前,它已经被多家大型权威媒体转载。这条推文可能也短暂地影响了股市,道琼斯工业指数在四分钟内下跌85点,随后迅速反弹。
这场骗局似乎只是一系列人工智能生成虚假图片中的最新例证,用来愚弄某些社交媒体用户,似乎没有造成什么直接的损害。此后,推特封禁了Bloomberg Feed,这个账户与彭博社或其母公司没有任何关系。在大约20分钟后,当地政府也出面进行了解释。
五角大楼所在的弗吉尼亚州阿灵顿市消防部门负责人内特·希纳(Nate Hiner)说:“只看图片本身,那显然不是五角大楼。我不知道那栋楼是做什么的,阿灵顿也没有这样的建筑。”
然而,从大型宣传机构转载,到股市近乎做出的即时反应,所涉及的种种机制表明,如果人工智能工具继续在社交媒体管理、新闻写作和股票交易等领域取得进展,就有可能发生更多此类恶作剧。
推特看起来越来越有可能成为这种恶作剧的绝佳载体,因为其新老板埃隆·马斯克(Elon Musk)已经裁减了大量人力,包括过去负责核查病毒式传播趋势的团队,并将账户验证从手动认证过程改为基本上自动化和按需付费的认证过程。
专家预测,人工智能将影响数以百万计的人类工作,人们担心的不仅仅是人工智能产生的错误信息是否会误导人们,还包括其是否会误导其他自动化系统。
斯坦福互联网观测站的研究经理、阻止错误信息传播专家蕾妮·迪雷斯塔(Renee DiResta)说:“这本身不是人工智能的问题,任何用过Photoshop的人都可以做出这样的照片,而且可能会做得更好。但它让我们看到,帮助人们判断推特上突发新闻信息是否可信的机制似乎变得毫无用处。”
01 认证账户也转载虚假新闻
最早发布有关此次事件信息的一个账号名为“沃尔特·布隆伯格”(Walter Bloomberg)。当地时间上午10点左右,它在推特上写道:“华盛顿特区五角大楼附近发生大爆炸——初步报告。”这条推文没有任何图片,只有文字。
这个账户已经注册了9年,与其试图模仿的彭博终端没有任何关系,但其拥有超过65万名粉丝,并发布简短的头条新闻和故事链接。目前还不清楚该账户最初是从哪里得到上述初步报告的,发送给该账户所有者的推文和Discord账户的消息没有得到回应。但推特数据显示,截至美国东部时间下午1点50分,这条虚假推文的浏览量已超过73万次。
在接下来的几分钟里,其他账号也发布了类似的虚假报道。上午10点06分,拥有38.6万名粉丝的账户@financialjuice发推文称,“华盛顿特区五角大楼附近发生大爆炸的初步报告—推特来源。”上午10点08分,拥有15万粉丝的股市新闻账户@CheddarFlow在推特上写道:“华盛顿特区五角大楼附近发生大爆炸——初步报告。”根据对推特帖子的评论,还有很多人跟进。
图片
上午10点11分,名为@BloombergFeed的账户(与彭博社无关)发布了这则虚假报道,但增加了新元素——假图。上面显示,滚滚浓烟出现在看似政府大楼的建筑物旁边。照片中的建筑看起来不太像五角大楼,但它具有人工智能生成的某些特征。
据社交媒体分析网站Social Blade称,自去年8月创建以来,@BloombergFeed已经发布了22.4万条推文,有时一天就有数千条推文。它经常转发彭博社的帖子。然而,这个账户的粉丝还不到1000人,也不清楚是谁在运营它,以及为什么要运营它。推特已经暂停了该账户。
上午10点17分,沃尔特·布隆伯格的账户发推文称:“报称五角大楼附近发生爆炸的推特账户已经删除了这条推文”,但没有透露该账户的名称。上午10点24分,五角大楼发言人在推特上表示,没有发生爆炸。然而,这些推文的浏览量比最初的虚假报道少了数十万次。
有些在推特上发布虚假事件的账户拥有蓝V认证标记,而分享真相的合法组织却没有该标记。负责保护五角大楼的“五角大楼部队保护局”的官方账号没有付费,推特也没有分配给他灰色认证标记,表明它是个经过验证的政府机构。该机构转发了当地执法部门的帖子,称“没有发生爆炸”。截至下午4点,这条推文的浏览量只有7.8万次。
Twitter没有回应置评请求。
02 地方政府采取紧急行动
负责弗吉尼亚州北部紧急通讯的阿灵顿消防队长希纳说,他花了大约五分钟才意识到推特上的报道是假的。上午10点10分,希纳正在开会,这时他接到了第一个电话,他走出会场去调查。
第一个让他觉得不对劲的迹象是,希纳没有收到该部门应急软件First Due发出的任何警报。First Due负责监控调度情况,并在火灾等重大事件中派出急救人员时向他发送推送通知。
接下来,希纳检查了自己的移动数据终端,实际上就是一台笔记本电脑,上面列出了阿灵顿所有正在发生的紧急事件。不过,上面没有五角大楼附近发生任何事情的迹象。“没有医疗呼叫,没有火警呼叫,没有任何事故,”他说。
就在那时,希纳终于自己打开了社交媒体,希望能在图贴上看到一些目击者的描述。但是,还是什么也没有。他只看到了被篡改过的爆炸照片。
随即,希纳联系了美国国防部和五角大楼部队保护局的发言人。上午10点27分,他在阿灵顿消防局的推特账户上发帖称,这些报道是假的。他写道:“在五角大楼及其附近没有发生爆炸或其他紧急事件,对公众没有直接的危险或危害。”
图片
希纳说,他有时会收到阿灵顿居民的奇怪问询,因为他们在自己的社区看到消防车,或者根据扫描仪流量接到误导的电话。但他说,此前,“社交媒体上还没有关于紧急事件的虚假报道”。
03 推特的老毛病引出新问题
从飓风桑迪期间高速公路上出现鲨鱼的PS图片到名人死亡的虚假报道,推特上经常会出现广为流传的虚假信息。从ChatGPT等聊天机器人到Midjourney和Stable Diffusion等人工智能工具,生成式人工智能只是恶作剧者得到的最新玩具。近几个月来,它们还被用来制作其他爆火的图片,比如美国前总统唐纳德·特朗普(Donald Trump)被捕的场景。
绝大多数时候,主流媒体都能成功地驳斥这些错误信息,确保世界正常运转。尽管如此,有些恶作剧还是在不同程度上造成了混乱。2013年,一条关于袭击白宫的假推文引发了金融市场暴跌。
随着时间的推移,社交媒体用户和新闻媒体已经学会了对病毒式传播报道持怀疑态度,尤其是来自未经证实消息来源的报道。但推特的新验证系统意味着,曾经作为一种视觉快捷方式,赋予某个账户某种程度权威的蓝色复选标记,已经名存实亡。
人权组织“目击者”(Witness)的执行主任萨姆·格雷戈里(Sam Gregory)研究了许多虚假图像和虚假信息。他说,最新五角大楼爆炸图像有很多伪造的特征,包括视觉故障和对五角大楼的不准确观察。格雷戈里说,应对这类假图的挑战在于,它们在互联网上会快速传播。他说:“这些信息传播得很快,而在机构层面进行事实核查、揭穿或核实的过程却进展较慢。”
格雷戈里补充说,尽管对某些人来说,这张图片显然是假的,但它附在看起来很权威的声明上,这一事实使它更有可能引起人们的注意。他说:“这种图像不需要看起来和真实建筑完全相同就能引起人们的注意,人们总会欣然接受和分享那些看起来不太对劲但感觉很对的东西。”
至于为什么这些假图会被分享,目前还不清楚。有些假消息被分享是为了获得政治加分,而另一些则被用来建立用户群希望借此赚钱。格雷戈里表示:“有时候他们这么做是带有恶意的,有时候则只是为了获得更多的浏览量。你可以很快获得足够受众,这是一种非常好用的方法。”
阿灵顿县官员克里斯蒂安·多尔西(Christian Dorsey)表示,在应对错误信息方面,像阿灵顿这样的地方政府面临着越来越严峻的挑战,因为人工智能更容易迅速产生可信的虚假信息。他说,官员们试图引导居民在推特上关注当地政府,并向他们寻求可靠的信息,而不是追踪随机的推特账号。”阿灵顿县及其警察和消防/急救部门都在推特上得到了银色认证,表明他们是政府运营的官方账户。
但多尔西承认,这可能还不够。他称:“与一些最受欢迎的社交媒体账户相比,我们的粉丝数量实在太少。但在没有灵丹妙药的情况下,只要能确保这些平台传达最真实的信息,已经是我们能够做到的极致。”
04 如何识别AI假照片?
那么,我们如何分辨真实图像和电脑生成的图像?专家表示,视觉上的不一致和图片的背景可能会有所帮助,但没有绝对有效的方法来加以区分。
最近涌现的人工智能工具,如Midjourney、DALL-E以及Stable Diffusion等,可以通过大量数据培训生成无限数量的图像。虽然大多数创作者会澄清,声称这些被广泛分享的图片是虚假的,但其他照片在没有任何背景的情况下流传出去,许多都被认为是真实的。
开发人员已经推出了诸如Hugging Face之类的工具来检测这些电脑生成的图像。但测试显示,结果好坏参半,有时甚至可能会产生误导。
奥地利理工学院的人工智能专家兼工程师大卫·菲辛格(David Fischinger)表示:“当人工智能生成图片时,这通常不会是从无到有突然出现的,而是需要有成千上万张照片被用来学习数十亿个参数。”
1)比对原始图片
初创公司Draft & Goal为大学推出了一款人工智能探测器,该公司联合创始人文森特·特拉西(Vincent Terrasi)补充说:“人工智能将数据库中的这些图像混合起来,解构它们,然后逐个像素重建图片,这意味着在最终渲染时,我们不会再注意到原始图像之间的差异。”
有鉴于此,使用检测软件识别人工智能生成的图像方面效果往往不佳。图片的元数据有时可以揭示人工智能生成图像的来源,但也没有太大帮助。人工智能专家安娜丽莎·维多利亚(Annalisa Verdoliva)说:“不幸的是,你不能依赖元数据,因为社交网络上的元数据已经被完全删除了。”
专家表示,一个重要的线索是找到这张照片第一次被发布到网上的痕迹。在某些情况下,创作者可能会声明其是人工智能生成的,并指出使用的工具。反向图片搜索可以通过查看图片是否已在搜索引擎中编入索引,并查找具有相同照片的旧帖子来提供帮助。
图片
如果找不到原始照片,如果照片在分享时被裁剪或修改过,通过反向搜索可以找到质量更好的版本。一张更清晰的照片将更容易分析出可能存在的错误。反向图像搜索也会发现类似的图片,这可以将潜在人工智能生成的照片与来自可靠来源的照片进行比较。
图片说明和在线评论在识别人工智能生成内容的特定风格时也很有用。例如,DALL-E以其超现实主义的设计而闻名,而Midjourney则以生成名人场景而闻名。有些工具,如Midjourney,会在不同的对话渠道上留下人工智能生成图像的痕迹。
即使不知道照片的来源,你也可以利用视觉线索分析图像本身。有时线索隐藏在照片中,比如有些人工智能创作工具使用的水印。当然,并非所有人工智能生成的图像都有水印,这些水印可以被删除、裁剪或隐藏。
巴黎萨克雷大学研究图像处理的博士生蒂娜·尼克哈(Tina Nikoukhah)称:“如果有疑问,可以看看图像的纹理,人工智能生成的照片与真实照片之间截然不同。”
2)视觉不一致
尽管生成式人工智能取得了飞速发展,但在人工智能生成的内容中仍然会出现错误。专家表示,这些缺陷是识别伪造图像的最佳方法。
Draft & Goal公司联合创始人文森特·特拉西说:“有些特征,通常是相同的特征,给人工智能带来了问题。就像在找不同游戏中一样,必须仔细审查这些导致视觉不一致的人为因素。”
然而,人工智能专家安娜丽莎·维多利亚警告说:“生成方法随着时间的推移而不断改进,显示的合成痕迹越来越少,所以我不会长期依赖视觉线索。”
例如,在2023年3月,逼真的手仍然难以生成。人工智能生成的皮特手部照片显示,这位演员的手指大得不成比例。有时候,还会有六根手指。
图片
特拉西说:“目前,人工智能图像也很难产生反射。发现人工智能生成图像的一个好方法是寻找阴影、镜子、水,但也要放大眼睛,分析瞳孔,因为拍照时通常眼睛会有反射。我们还经常注意到,生成图像的眼睛大小不一,有时颜色也不同。”
图像生成器也经常创造不对称特征,比如脸可能不成比例,耳朵大小也可能不同。牙齿和头发是很难模仿的,它们的轮廓或质地可能会暴露出图像不是真实的。还有些元素可能无法很好地融合起来,比如太阳镜会和脸融为一体。
专家还表示,将几张图像混合起来,可能会在人工智能生成的图像中产生光线明暗问题。
3)检查背景
识别人工智能生成图像的另一个好方法是观察照片背景。虽然乍一看很正常,但人工智能生成的照片经常会出现错误,比如据称是美国前总统巴拉克·奥巴马(Barack Obama)和德国前总理安吉拉·默克尔(Angela Merkel)在海滩上的照片,背景中有一个人的腿似乎被截断了。
图片
特拉西说:“元素离得越远,物体就越模糊、扭曲,透视也就越不正确。”
4)运用常识
有些因素可能没有被扭曲,但它们仍然可以暴露出逻辑错误。奥地利理工学院的人工智能专家兼工程师大卫·菲辛格说,当你怀疑一幅图像时,“最好依靠常识做些判断”。
比如Midjourney生成的巴黎照片,上面有一个蓝色的禁止进入标志,这在法国根本不存在。这条线索,再加上男主角看起来很“怪异”的手指、一个塑料感十足的羊角面包,以及一些窗户上光线的不同,都表明这张照片是人工智能生成的。
图片
最后,如果一张图片声称展示了某个事件,但它的可信度有疑,那就转向可靠的来源,寻找可能的不一致之处。
05 识别AI造假成新商机
现在任何人都可以使用生成式人工智能工具,而且许多生成文本、音频、图像和视频越来越难以辨别,这引发了人们对虚假信息、失业、歧视、隐私等诸多担忧。不过,这也出现了一个新商机。
目前,已有十几家公司提供工具来识别某件东西是否由人工智能生成的,这些工具包括Sensity AI(深度造假识别)、Fictitious. AI(抄袭检测)以及Originality. AI(抄袭检测)。
总部位于旧金山的初创公司Optic主要帮助识别图片真伪,该公司将自己的技术描述为“数字内容X光机”。用户可以在Optic的网站上查看图片,看看它们是真实照片还是人工智能生成的图片。该公司正在开发其他验证视频和音频真伪的服务。
Optic创始人安德烈·多罗尼切夫(Andrey Doronichev)说:“内容真实性将成为整个社会需要面对的一个主要问题。我们正在进入廉价假货的时代。”他说,因为制作虚假内容的成本不高,所以可以大规模进行。
市场研究公司Grand View research的数据显示,到2030年,整个生成式人工智能市场价值预计将超过1090亿美元,在此之前平均每年增长35.6%。专注于检测这项技术的企业在该行业中的比例越来越高。
在普林斯顿大学一名学生创建了GPTZero几个月后,据说已经有100多万人使用该程序来识别计算机生成的文本。CopyLeaks去年筹集了775万美元资本,部分是为了扩大其人工智能反抄袭服务。
大型科技公司也参与其中:英特尔的FakeCatcher声称能够以96%的准确率识别深度造假视频,部分是通过分析像素来寻找人脸毛细血管中血液流动的细微迹象。
在政府内部,美国国防高级研究计划局计划今年投入近3000万美元来运行“语义取证”,这是一个开发算法的项目,可以自动检测深度造假,并确定它们是否存在恶意。
就连OpenAI也在致力于检测服务。去年年底,OpenAI发布了ChatGPT工具,推动了人工智能的发展。该公司今年1月推出了一款免费工具,帮助区分人类撰写的文本和人工智能编写的文本。
OpenAI强调,虽然该工具是对过去迭代的改进,但它仍然“不完全可靠”。该工具正确识别了26%人类撰写的文本,但错误地将9%的人类成果标记为计算机生成的文本。
专家表示,人工智能生成的视频很容易识别,但音频克隆和图像生成都已经非常先进。区分真假将需要数字取证策略,如反向图像搜索和IP地址跟踪等。
帮助验证消费者身份的Persona公司的信任和安全架构师杰夫·萨卡塞格瓦(Jeff Sakasegawa)表示,人工智能带来的挑战才刚刚开始。他说:“这股浪潮正在积聚动能,它正朝岸边涌去。我不认为它已经崩溃!”
06 六种监管尝试
生成式人工智能正被捧为生产力工具和创意助手,但它们已经显现出可能造成“伤害”的方式,比如生成错误信息,被用作诈骗工具等。
下面是六种不同的国际监管人工智能所做出的尝试以及它们的利弊:
1)签署具有法律约束力的人工智能条约
欧洲人权组织欧洲委员会(The Council of Europe)正在敲定一项具有法律约束力的人工智能条约。该条约要求签署国采取措施,确保人工智能的设计、开发和应用能够保护人权、民主和法治。该条约可能包括暂停使用面部识别等对人权构成威胁的技术。如果计划进展顺利,欧洲委员会可能会在11月前完成草案的起草工作。
优点:欧洲委员会共有47个成员国,除了27个欧盟成员国外,还包括许多非欧洲国家,比如英国和乌克兰,它还邀请了美国、加拿大、以色列、墨西哥和日本等国参加谈判。
缺点:每个国家必须单独批准该条约,然后将其纳入本国法律,这可能需要数年时间。
2)经合组织人工智能原则
2019年,经济合作与发展组织(OECD)成员国同意采用一套不具约束力的原则,列出了一些应该支撑人工智能发展的价值观。在这些原则下,人工智能系统应该是透明和可解释的;应以稳健、可靠和安全的方式发挥作用;应有问责机制;应以尊重法治、人权、民主价值观和多样性的方式进行设计。
优点:这些原则构成了西方人工智能政策的一种宪法,从那时起就影响了世界各地的人工智能政策举措。
缺点:经合组织的任务不是制定法规,而是刺激经济增长,将这些原则转化为可行政策需要各个国家做大量工作。
3)建立人工智能全球伙伴关系
2020年,加拿大总理贾斯汀·特鲁多(Justin Trudeau)和法国总统埃马纽埃尔·马克龙(Emmanuel Macron)推动成立全球人工智能伙伴关系(GPAI)。这是一个国际机构,可以分享人工智能的研究和信息,促进人工智能领域的国际研究合作,并为世界各地的人工智能政策提供信息。
优点:GPAI的价值在于它有可能鼓励国际研究与合作。
缺点:有些人工智能专家呼吁成立一个类似于联合国政府间气候变化专门委员会的国际机构,分享有关人工智能的知识和研究,而GPAI有可能符合这一要求。但该组织始终保持低调,今年迄今为发表任何声明。
4)欧盟人工智能法案
欧盟正在敲定人工智能法案,这是一项全面的法规,旨在监管人工智能系统中的“最高风险”。
优点:该法案可能会追究不良行为的责任,通过开出巨额罚款并阻止不符合规定的人工智能技术在欧盟销售和使用,来防止最糟糕的人工智能行为。该法案还将对生成性人工智能进行监管,并对被认为会产生“不可接受”风险的人工智能系统施加一些限制。
缺点:该法案的许多内容都存在很大的争议,欧盟将面临科技公司的激烈反对。
5)建立技术行业标准
标准制定机构的技术标准将在将法规转化为公司可以遵循的规则方面发挥越来越关键的作用。例如,一旦欧盟的人工智能法案获得通过,符合某些技术标准的公司将自动遵守该法律。许多人工智能标准已经存在,更多的标准正在制定中。
优点:这些标准帮助企业将复杂的法规转化为实际措施。
缺点:大多数标准都是通用的,适用于不同的行业。因此,企业将不得不做相当多的翻译工作,以使它们在各自的特定行业中可用。
6)联合国发挥作用
拥有193个成员国的联合国希望成为那种能够支持和促进全球人工智能协调的国际组织,为此该机构于2021年设立了新的技术特使。同年,联合国下属教科文组织还通过了的人工智能伦理框架,对该技术影响进行评估。
优点:南半球国家也将能够影响人工智能政策的制定。
缺点:这需要各国自觉遵守自愿道德准则,而该机构在科技领域的协调行动效果不显。(金鹿)