研究表明,人工智能才是我们从未发现外星人的真正原因

人工智能(AI)在过去几年中以惊人的速度发展。一些科学家现在正着眼于人工超级智能(ASI)的发展,这是一种不仅超越人类智能,而且不受人类学习速度限制的人工智能。
但如果这个里程碑不仅仅是一个非凡的成就呢?如果它也代表了所有文明发展的一个巨大瓶颈,一个如此具有挑战性的瓶颈,它阻碍了它们的长期生存呢?
图片
这个想法是迈克尔·加勒特(Michael Garrett)最近在《宇航学报》上发表的一篇研究论文的核心。人工智能能否成为宇宙的“大过滤器” —— 一个难以逾越的门槛,阻止大多数生命进化成太空文明?
这一概念或许可以解释,为什么搜寻地外文明(SETI)至今仍未探测到银河系其他地方先进技术文明的迹象。
大过滤假说最终是对费米悖论的一个解决方案。这就提出了一个问题,为什么在一个浩瀚而古老的宇宙中,我们没有发现任何外星文明的迹象。
这一假设表明,在文明的进化时间轴上,存在着无法逾越的障碍,阻止它们发展成太空实体。
迈克尔·加勒特相信,人工超级智能(ASI)的出现就是这样一个过滤器。人工智能的快速发展,可能导致ASI,可能与文明发展的关键阶段相交 —— 从单行星物种向多行星物种的过渡。
这是许多文明可能会动摇的地方,人工智能的发展速度远远超过了我们控制它或持续探索和繁衍太阳系的能力。
人工智能,特别是ASI的挑战在于其自主、自我放大和改进的本质。在没有人工智能的情况下,它有可能以超过我们进化时间线的速度增强自己的能力。
发生严重问题的可能性是巨大的,在生物文明和人工智能文明有机会成为多行星文明之前,它们就会崩溃。
例如,如果各国越来越依赖并将权力让给相互竞争的自主人工智能系统,军事能力可能会被用于以前所未有的规模进行杀戮和破坏。这可能会导致我们整个文明的毁灭,包括人工智能系统本身。
在这种情况下,迈克尔·加勒特估计,一个技术文明的典型寿命可能不到100年。这大约是从能够接收和广播恒星之间的信号(1960年),到预计在地球上出现ASI(2040年)之间的时间。与数十亿年的宇宙时间尺度相比,这是惊人的短。
这一估计,当与德雷克方程的乐观版本相结合时 —— 德雷克方程试图估计银河系中活跃的、交流的地外文明的数量 —— 表明,在任何给定的时间里,只有少数智慧文明存在。此外,像我们一样,他们相对温和的技术活动可能使他们很难被发现。
警钟
这项研究不仅仅是一个潜在厄运的警示故事。它为人类敲响了警钟,要求建立健全的监管框架,指导包括军事系统在内的人工智能的发展。
这不仅仅是为了防止人工智能在地球上被恶意使用;这也是为了确保人工智能的进化与我们物种的长期生存保持一致。它表明,我们需要投入更多的资源,尽快成为一个多行星社会 —— 自阿波罗计划令人兴奋的日子以来,这个目标一直处于休眠状态,但最近私营公司的进步又重新点燃了这个目标。
正如历史学家尤瓦尔·诺亚·赫拉利(Yuval Noah Harari)所指出的那样,历史上没有任何东西能让我们为将无意识的超级智能实体引入地球所带来的影响做好准备。最近,人工智能自主决策的影响导致该领域的杰出领导人呼吁暂停人工智能的发展,直到能够引入负责任的控制和监管形式。
但是,即使每个国家都同意遵守严格的规章制度,流氓组织也将难以控制。
在军事防御系统中集成自主人工智能必须成为一个特别关注的领域。已经有证据表明,人类将自愿将重要的权力交给能力日益强大的系统,因为它们可以在没有人类干预的情况下更快、更有效地执行有用的任务。
因此,鉴于人工智能提供的战略优势,各国政府不愿在这一领域进行监管,正如最近在加沙发生的破坏性事件所证明的那样。
这意味着,我们已经在危险地接近一个悬崖,在这个悬崖上,自主武器的操作超越了道德界限,回避了国际法。
在这样一个世界里,为了获得战术优势而将权力拱手让给人工智能系统,可能会在不经意间引发一系列迅速升级、极具破坏性的事件。眨眼之间,我们这个星球的集体智慧可能会被消灭。
人类正处于其技术发展轨迹的关键时刻。我们现在的行动可以决定我们是成为一个持久的星际文明,还是屈服于我们自己创造的挑战。
以SETI为视角,我们可以审视未来的发展,这为讨论人工智能的未来增加了一个新的维度。我们所有人都有责任确保,当我们伸手去摘星星时,我们这样做不是作为其他文明的警示故事,而是作为希望的灯塔 —— 一个已经学会了与人工智能一起茁壮成长的物种。
如果朋友们喜欢,敬请关注“知新了了”!