我是一名“鉴黄师”,但和你想的不一样

图片
写在前面
这是一次特别的推送。腾讯新闻王牌纪实栏目《中国人的一天》创办十周年之际,我们特此联合栏目方向大家呈现以腾讯人为蓝本的中国互联网人的故事。
过去十年,《中国人的一天》记录了许许多多普通中国人的生存状态和喜怒哀乐。这一次,故事的主角是腾讯普通员工,你会看到,他们在现实世界中的一举一动,可能影响着数字世界的千千万万人……
图片
面对镜头,略显腼腆的程序员Fay
他们是互联网世界的“滤芯”,他们沉默寡言,不善表达,很少被人看见,在关键位置默默发挥作用。但他们和你想象中的“鉴黄师”,并不一样。
点击观看视频:传统鉴黄师靠的是肉眼,而我们更依赖技术
冷不丁,耳机里突然传出一阵娇喘。
Fay肩膀快速抖动一下,他摘下耳机,摇摇头,露出心有余悸的表情,“我去,是个男的。”
30岁的Fay,是腾讯安全部门内容风控天御团队一名研发负责人。
几年前,一则关于“鉴黄师”的新闻走红网络,也给Fay增加不少烦恼,“别人很容易就把我和这个职业对号入座了。
不少人想象里,Fay的日常工作,就是盯着若干块“花花绿绿”的屏幕,一看一天。
有人担心Fay,和“不良内容”长年累月接触,会不会让他心理扭曲?也有人对他的职业,产生了莫名的羡慕和好奇。
Fay心里有点苦,“其实,并不是你们想象的那么回事。”
图片
“鉴黄师”团队
2015年,Fay加入腾讯,在网络安全中心做基础平台研发。
程序员波澜不惊的日子,终结于他入职的第二年。2016年,国内直播盛行,乱象横生,伴随着大量涉黄涉暴内容出现。
“我们也在琢磨,如何把内容审核经验和能力,进行服务输出,帮助用户识别、清理这些不良内容。”于是,包括Fay在内,一个10人的“鉴黄师”团队成立了,主攻审核系统研发。
Fay所在的团队,主要服务腾讯平台和外部客户,客户数超过上万家。
图片
和“鉴黄师”不太一样的工作场景
“传统鉴黄师靠的是肉眼,而我们更依赖技术。”Fay说,虽然两者工作内容有交叉,但本质是有区别的。
他举了个例子:三年来,他所在的内容风控团队,累计处理了上万亿条数据。“这样的数据量,单靠人工识别,那是不可能完成的。” 解决方案,只能是通过AI人工智能。
图片
Fay和同事的日常交流
“但AI不会一开始就那么聪明,需要经历人工标注+机器学习的反复过程。”
为了训练AI,Fay和同事,每周会抽检5万条数据,包括图片、音频、文本,进行人工审核,筛出不良内容、标注违规类型。
图片
“鉴黄师”也有一颗卡通的心
这部分被标注的样本,将送给AI模型学习训练,理解其共同特征,在后续判定中“智能”识别不良内容。
“现在系统的识别率达已经提升95%以上。” Fay认为,相比“鉴黄师”,自己的工作,更像是AI人工智能的训练师。
图片
对违规内容进行人工审核
训练师带领的AI,和违规内容的战争,远比想象中复杂,AI在更新迭代,违规内容也在不断推陈出新。
从传统的文字,到图片、视频、音频……三年来,Fay接触到的违规内容,可谓形形色色,五花八门。
图片
类似不愉快的经历,并不少见
“色情、血腥、暴恐图片,很容易被识别,而有一些则隐藏很深,试图绕过AI。” Fay举例,有些音频场景,前半段很正常,“中间突然出现女人娇喘声。”
他顿了一下,“甚至是男人的,第一次听到时,简直颠覆三观。”
图片
空闲时,和小伙伴打把游戏释放压力
随后,技术团队开发出了“娇喘识别”系统,对音频场景中的违规内容进行清理。
“娇喘识别”系统上线,也绝非一劳永逸,“我们仍需要不断推动算法模型的调优和升级,比如在嘈杂背景识别声音违规等,这就非常考验我们的审核模型。”
图片
日子也并非都是按部就班,云卷云舒,时常也有需要Fay救火的时候。
“有一次,客户平台突然出现大量违规内容,给平台带来严重风险。”而Fay团队需要在一周之内,帮助客户将平台所有数据全部做一遍机器审核和人工审核。
“那一周,我们处理了几十亿的图文信息量,每天都是熬到凌晨三四点。”
最终,Fay团队完成了任务,保证了客户产品正常运营。
图片
Fay在和小伙伴讨论工作
Fay把自己团队比喻成“滤芯”, 将互联网的阴暗面和普通人隔离开来。“让人享受互联网的信息便利,免受被侵害的危险。”
“有时我也想,如果没有滤芯的存在,这世界会是什么样。”
图片
Fay在公司附近夜跑释压
Fay也承认,在这个位置呆久了,潜移默化中,也会吸收一些负面的信息,继而转化为消极的情绪。
组织团队小伙伴开一把黑,打球,或者深夜独自去附近大学跑跑步,“实在想找人说说话,就约几个朋友出来,吃吃饭,喝喝酒。” 这都是他,一位非标准“鉴黄师”释放情绪的方式。
他们是滤芯,是和你想象中不太一样的“鉴黄师”,他们沉默寡言,不善表达,很少被人看见,却在关键位置默默发挥作用。
摄影/吴海文 韩佳林剪辑/张珂
统筹/孙伊豆责编/匡匡
出品/腾讯新闻、腾讯官方公众号