深度学习之父对人工智能的未来发展表示担忧

作为主导现代人工智能技术发展,并首次提出深度学习概念的三大开山鼻祖之一,约书亚·本吉奥(Yoshua Bengio)并未紧随另外两大巨头杨立昆(Yann LeCun)和乔弗里·辛顿一样分别投入脸书(Facebook)和谷歌(Google)公司旗下,而是继续在蒙特利尔大学担任全职教授,2017年才同意兼任微软公司的人工智能战略顾问。

谈及屡次拒绝科技巨头的原因,本吉奥表示 希望像20世纪发明核武器的科学家们一样“保持中立”。他深知人工智能和深度学习技术的巨大潜力,不支持“一两家公司垄断这一领域”。

近日,本吉奥接受了麻省理工技术评论网站人工智能资深编辑威尔·奈特的专访,对于该技术的现状及其未来发展发表了看法。

本吉奥表示并不欣赏各大国间在人工智能领域展开的激烈竞赛,认为此举并不明智。在他看来,人类“可以以整体形式参与人工智能的发展”,作为一名“以共同利益为出发点的科学家”,他建议将技术目标设定为“如何在研发更加智能的机器的同时,确保人工智能技术尽可能广泛地为越来越多的人造福”。

本吉奥呼吁加强各国在人工智能技术领域的合作,特别是吸纳来自非洲的科研人员。他认为欧美等发达国家以各种理由拒绝向非洲等发展中国家和地区的人工智能学者发放签证是错误做法,这不但严重限制了自身的科研资源,而且使其在行业内的视野日趋狭窄,而人工智能技术恰恰在这些国家具备最大的商业市场、最好的应用前景和最多样化的实际需求。为此,由他倡导的深度学习顶级峰会“国际学习表征会议”(ICLR)2020年年会将前往非洲举行。

同时,他再次强调人工智能并不是某些公司的专利。这项研究本身会导致权利、资本和智力的高度集中,由此带来数据和软件的垄断,从而危及整个行业的健康发展和有序运行。“最好的公司有最多的钱,因此总能吸引最优秀的学生。这在公司层面无可厚非,但对行业而言隐患巨大”。

针对人工智能技术被用于军事领域这一问题,本吉奥持“非常坚决的反对” 态度。他希望能够使“拥有致命性人工智能武器”被判定为违背道义,但这需要在塑造和修正文化、法规及条约方面付出极大的努力、耗费漫长的时间。他坦承无法完全阻止人工智能武器的开发,甚至“被部分流氓国家用于实战”,解决方法是在对其进行谴责的同时加强自身的防御能力建设——“针对人类的进攻性人工智能武器和反制这些武器的防御性人工智能武器存在显著差别”。

本吉奥认为,军事机构始终将命令与职责置于道义之上,因此即使人工智能武器具备正确的道德观与价值观,也难以实现可靠、可信的人机交互合作。

人工智能领域近期所取得的成果在本吉奥看来都属于“短期的、渐进式的进步”,其长远发展“需要考虑更复杂、更艰巨的挑战”,深度延伸至归因、推理,甚至通过探索外部环境来学习和获取信息。实现人脑级别的人工智能水平则“完全是另一回事”,需要长期、持续、稳定的投资和雄厚的学术支撑。

以因果模型为例,人类能够将自己投射到与日常体验截然不同的情境中。,但机器由于缺乏类似的因果模型而无法实现这一能力。人工建模的因果模型并不能满足需要,真正匮乏的是发现因果模型的机器,而这种模型必须不断完善。与其相类似的是,人类也从未拥有足以适应任何现实环境的因果模型,因此在犯错与改正之间不断反复,但人类的优势在于吸取教训和积累经验,这也是人类占据生物链顶端的根本原因之一。

来源:麻省理工技术评论网站/图片来自互联网

军事科学院军事科学信息研究中心 廖南杰

如需转载请注明出处:“国防科技要闻”(ID:CDSTIC)