斯诺登预警OpenAI版“棱镜门”,AI安全的“红灯”谁来掌握?

全文1845字,阅读约需6分钟,帮我划重点

划重点

01爱德华·斯诺登警告称,AI明星企业OpenAI已卸下伪装,与政府和大规模监控数据结合可能带来风险。

02OpenAI任命美国国家安全局前局长保罗·中曾根为公司董事,引发对AI技术与政府深度合作的担忧。

03由于内部安全团队与管理层矛盾,OpenAI联合创始人伊利亚·苏茨克维尔和简·雷克离职。

04业界领袖如李飞飞、埃隆·马斯克等人呼吁对AI技术潜在负面影响保持清醒认识。

05然而,政策制定速度跟不上技术革新,如何在技术创新与伦理规范之间找到平衡仍是挑战。

以上内容由腾讯混元大模型生成,仅供参考

在数字化浪潮的巅峰,人工智能(AI)以其不可抵挡的势头重塑着我们的世界,从日常生活到产业革命,无所不及。然而,AI的飞速进步也引发了前所未有的安全与伦理挑战。据财联社7月1日报道,以揭露“棱镜计划”闻名全球的吹哨人爱德华·斯诺登近日发出警告,将矛头直指AI领域的明星企业OpenAI,称其“已经卸下了伪装”。
斯诺登的警钟源于OpenAI一个举动——2024年6月任命美国国家安全局(NSA)前局长保罗·中曾根为公司董事。斯诺登的担忧在于,这样的决策不仅表明了OpenAI与政府深度合作的倾向,更可能预示着AI技术与大规模监控数据结合的风险,将“可怕的权力”置于少数人之手。这不禁让人联想到过去被斯诺登曝光的棱镜计划,揭示出政府机构利用技术手段侵犯公民隐私的阴暗面。
斯诺登的批评并非孤立事件,而是与近年来AI领域频发的安全伦理争议相互映照。OpenAI这家曾被视为技术乌托邦的公司,其内部的动荡更是加剧了外界的忧虑。据《财经》2024年5月报道,OpenAI内部安全团队与管理层之间的矛盾日益凸显,尤其是围绕AI开发的速度与安全性平衡的争论。安全团队成员选择相继离职,包括联合创始人伊利亚·苏茨克维尔和超对齐团队负责人简·雷克。
简·雷克离职时在社交媒体上透露,他离开的原因是“与OpenAI领导层在公司核心优先事项上的意见相左”。在简·雷克看来,OpenAI必须成为一家安全第一的AI公司。公司应该把更多资源用在系统安全、性能监控、潜在风险准备、维护人类社会安全等问题上。按简·雷克的说法,OpenAI在追求技术创新与商业利益最大化的过程中,安全考量处于被边缘化的趋势。超对齐团队的解散,意味着原本旨在确保AI安全可控的努力遭受重创,这无疑加重了人们对AI技术失控的担忧。
早在2023年11月,OpenAI就曾发生“宫变”。OpenAI当时宣布,山姆·奥特曼辞去首席执行官一职,并退出董事会,首席技术官Mira Murati被任命为临时首席执行官。有关奥特曼被突然解职的原因众说纷纭,钛媒体的报道指出,奥特曼被罢免可能与其在安全性上的冒进和过度商业化有关,这可能引发了董事会其他成员的不满。报道提到:“奥特曼被罢免的猜测主要有两个方向:一是近来OpenAI的激进发布,与微软步骤不一,让作为最大投资人的微软对其多有不满,在背后作用;二是董事会‘内讧’,奥特曼在安全上的冒进和过度商业化,引发了董事会其他成员包括联合创始人Illya的不满,最终导致奥特曼被罢免出局。”
在更广泛的视野中,斯诺登的警告与OpenAI内部风波只是冰山一角。美国乃至全球范围内,对AI安全的警觉与反思正形成一股不容忽视的力量。近年来,业界领袖如李飞飞、埃隆·马斯克等人,尽管他们在推动AI发展方面扮演着重要角色,却也不遗余力地呼吁对技术潜在的负面影响保持清醒认识。他们提出的观点包括但不限于:AI可能被滥用,侵犯个人隐私和人权;AI系统的决策过程缺乏透明度,可能导致偏见和不公;以及长远来看,超级智能的崛起可能对人类构成生存威胁。
面对这些担忧,美国和欧洲等地区已经开始采取措施,试图为AI的发展设定框架,确保其安全、可控且符合伦理标准。美国政府在加强监管的同时,也在推动行业自律,鼓励企业自我审查,并参与制定AI伦理准则。欧洲则通过了《通用数据保护条例》(GDPR),为个人信息保护设定了严格的标准,同时欧盟委员会发布了《人工智能道德准则》,旨在确立AI发展的基本伦理原则。此外,国际间的合作也在逐步加深,力求在全球范围内制定协调一致的AI治理策略。
然而,政策制定的速度似乎总是赶不上技术革新的步伐。即便是在最前沿的科技企业内部,安全与伦理的考量也可能被商业野心所掩盖。OpenAI安全团队的困境,凸显了在追求技术突破与商业价值最大化的过程中,如何平衡创新与风险,确保技术服务于公共利益而非成为潜在的威胁,是一个亟待解决的重大课题。
更令人警惕的是,作为全球领先的AI研究机构,OpenAI若被贴上鲜明的“官方标签”,其他国家,尤其是那些在AI领域同样蓄势待发的国家,或将视此为技术霸权的展现,从而加速自身独立研发进程,甚至催生技术封锁与反封锁的循环,加剧全球科技分割。国家间的互信本就脆弱,此举无异于在本就微妙的平衡上放置了一块沉重的砝码。
斯诺登对OpenAI的警告,以及OpenAI内部对于AI商业化与安全如何兼顾的分歧,都是对整个AI行业发展方向的深刻拷问。在技术进步的洪流中,如何确保AI技术的安全性,防止其成为侵犯隐私、破坏民主和社会稳定的工具,是我们所有人——从政府、企业到每一个个体——都需要深刻思考的问题。未来的路,需要我们在技术创新与伦理规范之间找到微妙的平衡,确保AI的发展能够真正惠及全人类,而非成为少数人或者某个国家手中的危险武器。在这个过程中,每一次警钟的敲响,都是对人性智慧与责任的考验。
• (本文仅为作者个人观点,不代表本报立场)
毕舸
责编 辛省志