小羊说天下丨朋友圈的自拍被P成裸照,遭22万人围观?韩国紧急立法

你能想象吗?一位女性随手在朋友圈发了张自拍,可能下一秒就被人上传到AI软件,5秒内就能合成一段色情视频,不堪入目、真假难辨,在身边大肆传播。

这样的可怕情形,在韩国非常猖獗。上个月底,韩国国会刚刚通过一项法案,把“拥有或观看AI换脸色情图片和视频”这一行为定为犯罪,观看者和传播者分别可能被判3年至7年监禁。

韩国女性的处境水深火热。数据统计,在此次deepfake AI深度伪造的受害者中,53%是韩国人,比美国人、日本人和英国人加起来还要多。

目前,已有200多所学校被爆出有自己的AI换脸色情群聊,群聊关注者足足超过22万人。更可怕的是,想加入这些群聊,就得先纳投名状,先上传自己同学、家人、同事的照片和个人信息,亲手生成一张AI换脸裸照。

韩国女性走投无路,甚至借助翻译器,到微博等各国网络平台上求助,声称已经不敢相信自己的政府和媒体,因为“韩国女性没有国家”。

为什么这些作恶者这么肆无忌惮?碍于国际舆论压力,韩国政府打击声势浩大,可之前“N号房事件”同样震惊世界,最后也只抓了主谋,这次会不会又高高举起、轻轻落下?敬请收看本期《小羊说天下》——

文案丨谢不明 吴大海

拍摄丨梁喻

剪辑丨刘颖颖 方浩

包装丨张惠鑫