最近几天,脸书用户在观看英国小报上一段黑人视频时,会看到一个自动生成的提示,询问他们是否愿意“继续观看有关灵长类动物的视频”。好家伙,这无疑是把种族歧视摆到门面上了!
虽然严格来说,人类确实是属于灵长类动物的,但是脸书的AI推送机制在这里的意思明显就是认为黑人=灵长类野生动物!将黑种人群关联为“灵长类动物”,不仅是不科学的,更是不尊重人的。
歧视可以避免,却选择放任不管
出了这样的事情脸书发言人迅速道歉,并称其为“明显不可接受的错误”,还表示涉及的推荐软件已下线。 “我们向任何可能看到这个技术问题的人道歉。”然而前“脸书”内容设计经理达西·格罗夫斯可不买这套说辞的账,格罗夫斯表示,“这太离谱了。”
脸书恐怕并不仅仅只是“技术管理的缺陷”导致的。因为至今,脸书已经多次因为放任种族歧视、仇恨言论而深陷舆论的漩涡。对歧视性言论的管理混乱,默许种族歧视行为,脸书早已是“声名狼藉”。
去年6月,脸书放任美国前总统特朗普的种族主义言论,之后遭到了包括可口可乐、联合利华在内的全球750多家知名企业的联名抵制。今年4月,有网友在Instagram的评论区发送了“猴子”的表情,以及在脸书上发表针对英格兰足球俱乐部利物浦球员凯塔、阿诺德的歧视言论。
但脸书官方对这些事情并没有第一时间采取措施,而是放任不管。除此之外,脸书还多次因为歧视黑人员工被相关部门进行调查。前脸书黑人高管卢基曾在一封公开信中声称,“公司存在歧视黑人员工的问题”。
所以由此看来,劣迹斑斑的脸书绝不是无意的,而是其内部“充分的“种族歧视现象的一种外化。
人工智能:有其父必有其子
事实上这不是美国公司第一次把黑人认成大猩猩,之前就有这样的问题。之前索菲亚就报道过,一种AI去马赛克算法,就犯了“种族歧视”的大忌,将美国前总统奥巴马打了马赛克的图片识别成了白人。
人工智能披着种族歧视外衣的,还有2015年谷歌图像识别算法问题:当时黑人杰基·阿尔金震惊地发现,谷歌竟然把他的黑人朋友分类成了“大猩猩”!这位黑人兄弟立马向谷歌发起了抗议。
有趣的是,尽管谷歌对此深表歉意,并立刻着手处理这一漏洞,但他们的工程师却无论怎么修改编程,都无法解决AI混淆黑人和黑猩猩照片的技术难题,科技巨头竟然无法解决一个如此简单的问题,真是十分滑稽!
那为什么现在连AI也开始沾染上人类“歧视”的恶习了呢?尽管人工智能本身并没有“歧视”与“偏见”,但背后数据的研究人员却会因为个人的因素,以至于在训练数据的选择上就会产生偏向性。
在创建AI算法的过程中会有许多工程师参与,他们的思想、价值观与阶层意识,都导致了经由他们制造出来的 AI 也不可避免地带上了与之类似的观点。如果有一部分工程师存在种族歧视问题,那训练出的AI也“天然的“带有种族歧视色彩。
索菲亚认为,人工智能技术发展的初衷就是让更多的人平等而有尊严地生活下去,但如果连人工智能的开发者自己都无法克服种族歧视的偏见,那么又怎能让AI也做到平等待人呢?