较真札记|使用AI编造的假新闻开始涉嫌犯罪,假新闻将迈入AI时代?

第一期,2023/5/6~2023/5/12
丁阳 | 较真主笔
各位好,本周起,腾讯较真会开启一个新栏目“较真札记”,记录点评一周内比较有影响力的谣言、假新闻和相关动态与趋势,希望有助于网友识别虚假信息,并推动不实信息的治理。
使用AI编造假新闻,出现首个涉嫌犯罪的案例
本周出现了一个影响面波及不太广,但或许意义深远的与假新闻有关的消息——“近日,甘肃平凉市公安局网安大队侦破一起利用AI人工智能技术炮制虚假不实信息的案件。”
具体来说,4月25日时,甘肃平凉警方巡查时发现某平台出现了“今晨甘肃一火车撞上修路工人致9人死亡”的文章,判断为虚假信息后开展工作,发现有21个账号在同一时段发布了该文章,还涉及了不同地点,点击量达1.5万次。
图片
据警方通报,“经查,涉案账号均为广东深圳某自媒体公司所有,公司法人代表洪某弟有重大作案嫌疑。”“经审讯,犯罪嫌疑人洪某弟通过微信好友获知网络赚取流量变现方法,并购买大量账号。同时在全网搜索近几年社会热点新闻,为规避平台查重功能,洪某弟通过近期火爆的ChatGPT人工智能软件将搜集到的新闻要素修改编辑后,使用软件上传至其购买的账号上非法获利。”“洪某弟利用现代科技手段编造虚假信息,并散布在互联网上,被大量传播浏览,其行为已涉嫌寻衅滋事罪。”
这可能是《互联网信息服务深度合成管理规定》颁布实施后,全国已知首例涉嫌犯罪的利用AI编造假新闻案件。今年2月,网上曾出现过声称“杭州3月1日取消限行”的“新闻稿”,被证实也是ChatGPT写的,但这只是某小区业主群里开的玩笑,被不明真相者传播出去,并非故意造谣,没有涉及违法犯罪。而洪某弟的行为,不仅是为了牟利而使用AI编造假新闻,还涉嫌了犯罪。
这会是AI假新闻时代来临的信号吗?
至少是很值得忧虑的。这则“今晨甘肃一火车撞上修路工人致9人死亡”的假新闻,之所以被迅速识别并侦破,主要原因恐怕是假新闻编的过于离谱,生造一个这么重大的安全事故,必然会引起执法部门的重视。但如果这个自媒体创作者经验丰富,编造一些相对安全,不易引起执法部门注意的假新闻,那还会这么容易侦破吗?有没有可能,各个平台上大量所谓“新闻”已经是用生成式AI编造出来的呢?
点开这位“洪某弟”所使用的工具主页,清清楚楚写着“买会员送ChatGPT”。不能说AI工具就是用来编假新闻的,但这种可能性绝对不容忽视。
图片
生成式AI编造的内容,甚至开始“侵蚀”正规媒体。某正规媒体的短视频账号,在播报“特朗普性侵指控成立”这则新闻时,其封面使用的,居然是“特朗普被美国警方逮捕”的画面——然而,该画面是美国推特用户在前阵子“特朗普被纽约检方刑事指控”期间用AI生成的,画面描述的事情是从未发生过的,而这幅AI作画居然被中国的正规媒体用在另一条与特朗普有关新闻的封面上,这实在有点离谱。可以想象,生成式AI对正规媒体的“侵蚀”,会源源不断出现。
图片
不止是国内才有这样的情况。据5月8日一则消息,国外一家追踪网络谣言的组织 NewsGuard 报告称,目前有 49 个所谓的新闻网站,其内容几乎完全由人工智能软件生成。NewsGuard 称,专家们担心的新闻网站可能被人工智能生成的情况已经变成了现实。
或许,生成式AI已经深深影响了整个资讯环境,随着AI孙燕姿的爆火,人们已经逐渐认识到,在屏幕上看到的脸未必是真的脸,听到的声音也未必是真的声音,万物都可能是编造出来的,甚至,连真的也被认成假的。
一夜爆红的“挖呀挖幼师”,其中一位叫“音乐老师花开富贵”,被不少网友指其实是经过美颜,也有人称是经过了AI换脸,才获取了这么高的流量。流传的截图确实看起来判若两人,甚至还有人给出了视频作为依据,也传播较广。还有人把截图发在各条新闻的评论区,力图让网友“看清真相”。
但实际上,爆红幼师才是原视频,是她被替换成了其他女网友。具体可以参见《“挖呀挖幼师”一夜爆红靠的是美颜或换脸?并非如此》。正所谓“假作真时真亦假”,大家以后看待各种资讯时,都要做好心理准备了。
图片
本周其他值得注意的谣言:
“女子骑车等红绿灯,迎面走来男子突然将其撞倒”——这则画面上标注“5月6日杭州”的短视频,实际上最晚2019年就已经出现,并且在这几年反复在网上流传。这个短视频,没有来源,没有可信的时间地点信息,没有前因后果,只传递情绪,不提供事实,可以说是典型的“新黄色新闻”,价值非常低,最好的做法其实就是无视。
图片
“一键操作,30秒无痛离世。安乐死舱在瑞士通过审批”——这是一则近期非常受欢迎、转评赞都超过10万次的短视频,配上非常舒缓的音乐,让不少人对安乐死产生了浪漫化想象。然而,这不仅是一个旧新闻,而且还是个假新闻,所谓的安乐死舱在瑞士根本就没有通过审批。国外的批评者认为这种便利性不过是在美化自杀,其本质上就是个“毒气室”。具体可参见《较真丨辟个谣,“30 秒无痛离世”的自杀胶囊在瑞士没有合法化》。
图片
“男孩从购物车上摔下,后脑勺着地瘫痪,家长欲向山姆索赔”——这是一则让人看了“血压上来了”的视频,明显是家长的不当举动,让孩子遭殃,却把罪过怪到商家身上。然而,这不是真的。据媒体报道,山姆客服回应称男孩无大碍,目前未接到家长索赔诉求。如果你轻易相信了谣言,原因应该是造谣者刻意迎合了一种刻板印象,以及你的愤怒。这是后续大家在看待资讯时,需要注意的。
图片
“村民被骗到缅北割腰子”——网民“某大哥”在短视频平台上发布了一条视频,讲述了“我村民去缅甸缅北支模被割腰子”的故事。视频中的“村民”讲述自己被高薪工作诱骗至缅北,却遭受了毒打、割腰子、坐水牢等各种折磨。视频短时间内浏览量超过了25万。然而,这个视频纯属编造。据云南昭通市公安局网安部门多方查证,最终抓获了发布者。经调查,嫌疑人郑某某表示此前在网络上看到了多条关于缅北的信息和视频,联想到近期有关“缅北割腰子”话题的讨论热度,觉得自己可以利用这个信息去吸粉、蹭流量。于是在没有事实依据的情况下,自编自导自演了一出“我村民被割腰子”的戏。“割腰子”的传说为什么不可靠,较真此前的一篇文章曾有过介绍,大家可以参考。昭通警方的这次行动,再次验证了类似谣言是基于什么目的、是如何炮制出来的,以后再也不要上当了。
图片
本周的较真札记就到这里。咱们下周再见。