奇才霍金生前发警告:人类若不控制这一技术将会毁灭世界

  3月14日,据媒体报道,英国著名物理学家史蒂芬·霍金去世,享年76岁,作为世界天文物理学知名科学家,以及现代最伟大的物理学家之一,霍金曾多次就人类最终命运提出自己的见解,2011年,史蒂芬·霍金在一次演讲中就人类科技发展的弊端进行了讨论,这可能是他他一生中最重要的五个预言之一,霍金认为人类如果不能控制人工智能技术的发展,未来可能将反过来被“人工智能”所击败,未来的战争可能是人和“人”之间的战争,或者说人和人工智能自我意识的战争,一旦人类失去对人工智能的自我意识进行控制,人类反而会被自己的创造品所吞噬,这就是所谓的“人工智能困局”。军事专家陈忠告诉记者,当“人工智能”越来类人且其自主化能力的提升,如何进行善恶、是非判断成为一个严重的问题,是否执行人类的命令为何来纠错都成为“人工智能”技术发展未来的隐患。

  2017年3月,霍金向英国《独立报》表示,人类必须建立有效机制尽早识别威胁所在,防止新科技(人工智能)对人类带来的威胁进一步上升。霍金认为,自从人类文明形成以来,来自生存能力优势群体的侵略就一直存在,强盛国家消灭弱小国家,强大且生存力强的生物捕食弱小生物,为了生存,生物和生物群体的进攻性从而停止,而人工智能进一步发展便可能具备这种优势,即便人工智能自己没有背叛我们,但是人类自身却很可能会通过人工智能,来进行核战争或生物战争从而摧毁我们的世界,因此人类需要利用逻辑和理性去控制未来可能出现的威胁。上世纪80年代的科幻电影《终结者》中,人类制造了一整套人工智能自动核武器防御“天网”系统,但“天网”系统最终发动了核战争消灭了大部分人类,人工智能通过控制工厂生产只能机器人,对仅存的人类进行“围剿”,这是人工智能对人类赤裸裸的“背叛”,这部电影是一个恐怖的未来预言。

  军事专家告诉记者,人工智能技术已经开始深入未来武器发展和军事作战系统构建中去,目前,人类制造的最新型防空系统和反导系统,都存在人工智能自我决策机制的存在,例如在以色列“箭3”反导系统中,反导雷达发现目标后,对目标进行确认防空系统可以自主进行射击拦截,当然这个过程中,操作人员可以进行人工干预,但问题是他不听话怎么办?近年来,人工智能在逻辑能力上已经显著超越了人类,著名的“阿尔法狗”就是其中一个例子,军事专家陈忠认为,“阿尔法狗”只代表了人工智能在基于神经网络的机器深度学习、高性能计算和大数据技术等领域的最新成就,属弱人工智能。但有军事专家预言,未来强人工智能的运用就会如同5年前大数据的进入一样,带来巨大的改变。在竞争与博弈更为激烈的军事领域,人工智能自上个世纪随着计算机的出现已经越来越多地走向战场,推动着智能化战争时代的来临。

  人工智能的自我学习能力很强,但人工智能最严重的问题是其没有伦理道德制约,“杀人”只是一个指令,善良与罪恶、正义与否都不在现有人工智能的考虑范围内,霍金的对人工智能的疑虑恰恰就在于此,众所周知,人工智能技术的核心命意,乃是通过对于计算机的恰当编程,以使得相关设备能够在行为层面上表现出与人类类似的“智能性”。尽管关于什么样的行为可以被判为“智能的”,学界尚有不少的争议,但是一般人都不会反对这么一条评判意见:理想中的人工智能产品,应当能够在尽量减少人工干预的情况下,在相关工作环境中,按照用户的要求自主地完成各种任务。很显然,人工智能在多大程度上被人工干预可能是一个很大的问题,因为这个自主是自己判断对与错,杀与不杀,开火还是不开火呢?还是等待操作人员按动YES或者NO的选择框呢?

  军事专家告诉记者,从伦理学的角度,军事冲突的语言即关于辩护的语言,所谓辩护就是指你有没有充足的理由发动夺取人生命的战争,理由这个词非常玄妙,人类可以创造出很多理由发动战争,而且理由都很冠名堂皇,但人工智能能够明白吗?一些军事学者认为,军事冲突导致人员的死亡以及财产的受损,并造成各种形式的可以想象的大量伤害。不给理由就去做这些事情乃是疯狂的。正所谓出师有名,但人工智能到底需要不需要了解这些东西呢,如果是自主化的无人机或无人战车,他在射击之前还要请示一下是不是开火,显然那肯定是不行的,要不然搞人工智能又是为了做什么?人类也不可能期盼人工智能能够明白这其中道德上的用心良苦吧。

  不过,即使你有了理由去进行杀伤性作战行动,如果战争中制服或杀伤人员目标,可以通过更少的人员与财产损失来达到,那么,相关的军事行动还是无法得到辩护,然而,人类总是有理由发动战争,而军用人工智能系统的介入,又会在多大问题上会改变此类问题的性质呢?我们知道,“机器人战士”或军用人工智能毕竟还是人类生产或设计的产物,我们也完全不能够设想这些人工智能,能在“其设计者不知其如何运作”的前提下进行作战行动,那么作为人类的设计者真的明白自己在做什么吗?