Sam Altman 国会质询2.5万字全文:如果这项技术出错,它会出错得很严重

作者:城主 | 编辑:腾讯新闻 郝博阳
(字号在右上菜单选调整字体)划重点:
1.  Sam Altman 认为与所有的技术革命一样,AI会对就业产生重大影响。但GPT-4是一个工具,而不是一种生物,它更擅长完成任务,而不是工作。因此它将创建我们认为更好的新工作。
2.  对于AI大规模部署,Sam Altman认为在暗地里构建一个超强大的人工智能系统,然后一下子把它投放到世界上这不会奏效。OpenAI的战略是当这些系统仍然相不完美时,找到方法让人们对它们有经验,与现实接触,通过反馈找出使其变得更安全和更好的方法。
3.  Sam Altman对监管的几点建议:1)成立一个新的机构,对超过一定规模的功能进行许可,并可以收回许可证,确保遵守安全标准。2)制定一套安全标准,重点关注危险能力评估。我们以前用过的一个例子是检查看模型是否可以自我复制和自行渗透到外部。3)要求独立审计,而不仅仅是公司或机构自我审查,还要有广泛外部专家的评价意见。
4.  在隐私保护层面:用户能够选择退出,不让类似我们公司或社交媒体公司这样的公司使用他们的数据,而且易于删除自己的数据。如果用户不希望自己的数据用于训练这些系统,他有权这样做。
图片
国会听证会主席:
现在让我介绍一下证人。我们非常感谢你们能来这里。
Sam Altman是OpenAI的联合创始人兼首席执行官,OpenAI是负责ChatGPT和DALL·E等人工智能研究和应用的公司。Altman先生曾担任Y Combinator创业加速器的总裁,从2014年到2019年。OpenAI成立于2015年。
Christina Montgomery是IBM的副总裁兼首席隐私和信任官,负责公司的全球隐私计划、政策合规和战略。她还担任IBM人工智能伦理委员会和多样性团队的主席,负责人工智能和新兴技术的治理。Christina在IBM担任多种职务,包括公司董事会的公司秘书。她是人工智能伦理和政府方面的全球领导者,同时还是美国商会人工智能委员会和美国国家人工智能咨询委员会的成员,该委员会于2022年成立,为总统和国家人工智能倡议办公室提供有关人工智能相关议题的建议。
Gary Marcus是人工智能领域的主要声音,他是一位科学家、畅销书作者和企业家,是Robust AI和Geometric AI的创始人(如果我没记错的话,它被Uber收购),他还是纽约大学心理学和神经科学的名誉教授。Marcus先生以对当代人工智能的挑战而闻名,他在几十年前就预见到了许多当前的局限,并在人类语言发展和认知神经科学方面进行了研究。
感谢你们的出席。正如你们所知,我们司法委员会的习惯是在证人作证之前对他们进行宣誓。请你们都站起来,举起右手。你们发誓你们即将作证的内容是真实的、全部的,没有任何虚假,对此表示同意吗?谢谢。
Altman先生,如果可以的话,我们将从您开始。
Sam:
谢谢。谢谢主席达赫尔、霍利排名委员会成员。非常感谢能有机会在这里向大家讲话,谈论大型神经网络。对我来说,能在此刻出席比我预期的还要光荣。我叫Sam Altman,我是OpenAI的首席执行官。
OpenAI的成立是基于这样的信念,人工智能有潜力改善我们生活的方方面面,但同时也会带来严重的风险,我们必须共同努力来管理这些风险。我们在这里是因为人们热爱这项技术,我们认为它可能是印刷机的时刻,我们必须共同努力使其成为现实。
OpenAI是一家非同寻常的公司,我们设立它就是因为人工智能是一项非同寻常的技术。我们受非营利组织的管理,我们的活动由我们的使命和章程驱动,我们致力于确保人工智能的利益广泛分布,并最大限度地提高人工智能系统的安全性。我们正在努力开发一种工具,将来可以帮助我们发现新知识,解决人类面临的最大挑战,如气候变化和治愈癌症。
我们现有的系统还不具备这些能力,但看到全球许多人已经从这些系统中获得了如此多的价值,这是非常令人满意的。我们喜欢看到人们使用我们的工具来创造、学习、提高生产力,我们非常乐观地认为未来会有很多好的工作,现有的工作也能变得更好。我们也看到开发人员为改善生活所做的努力,例如,Be My Eyes利用我们GPT-4中的新型多模态技术,帮助视障人士在环境中导航。
我们相信迄今部署的工具的好处远远超过风险,但确保它们的安全对我们的工作至关重要,我们会付出巨大努力,在所有层面上确保安全内置于我们的系统中。在发布任何新系统之前,OpenAI都会进行广泛的测试,与外部专家进行详细审查和独立审核,改进模型的行为,并实施强大的安全和监测系统。在发布我们最新的模型GPT-4之前,我们花了六个多月进行广泛的评估、外部红队测试和危险能力测试。我们为我们取得的进展感到自豪,GPT-4比其他功能相似的广泛部署模型更有可能作出有益和真实的回应,拒绝有害的请求。
然而,我们认为政府的监管干预将是至关重要的,例如,美国政府可以考虑对开发和发布超过一定能力门槛的人工智能模型实施许可和测试要求。在我的书面证词中,我还提到了其他几个领域,在这些领域,我相信像我们这样的公司可以与政府合作,包括确保最强大的人工智能模型遵守一套安全要求,促进制定和更新安全措施的过程,探索全球协作的机会。
正如你们提到的,我认为公司在这方面也有责任,无论国会做什么,这是一个非凡的时刻,从事人工智能工作。但随着这项技术的发展,我们理解到人们对它可能改变我们生活方式的担忧,我们也有同样的担忧。但我们相信我们可以并且必须共同努力,识别和管理潜在的负面影响,以便我们都能享受巨大的好处。确保强大的人工智能以民主的价值观为基础的发展至关重要,这意味着美国的领导地位至关重要。我相信我们能够应对眼前的风险,并真正利用这项技术的潜力,推动美国和全世界的经济增长。我期待着与大家共同应对这个时刻,并回答你们的问题。
主席:
谢谢Altman先生。
我们将进行7分钟的提问环节,我将首先提问。首先,我们今天在这里是因为我们确实面临完美风暴。我们中的一些人可能更倾向于将其比作瓷器店中的炸弹,而不是公牛。正如霍利参议员所指出的,这里有先例,不仅是原子武器时代,还有基因组项目和遗传学研究,这导致了国际合作。我们想避免在社交媒体上犯下的过去错误,正如我在开场白中所指出的。
ChatGPT和所有的AI都会出错,它可以成为令人信服的骗子,人们称之为幻觉。这可能是司法委员会听证会开场时无害的问题,在这种情况下,我的声音被模仿,或不存在的研究论文被引用。但是,ChatGPT和Bard愿意回答有关生死大事的问题,例如药物相互作用,这种错误可能造成深远的损害。
我对如何获得关于这些模型的准确性和可信度的可靠信息,以及如何创建奖励更高准确性的竞争和消费者披露感兴趣。美国国家标准与技术研究院实际上已经有了AI准确性测试——面部识别供应商测试。它没有解决面部识别的所有问题,但评分卡确实提供了关于这些系统的功能和缺陷的有用信息。因此,有关确保准确性和完整性的模型的工作(是必要的)。
我的问题,Altman先生,我们应该考虑独立测试实验室为评分卡和类似营养标签或等价的营养标签的包装表明人们是否可以信任该内容,它的成分是什么,输入的垃圾可能是什么,因为它可能导致输出的垃圾?
Sam:
是的,我认为这是一个很好的主意。我认为公司应该在发布模型之前公布自己的测试结果,包括模型的弱点和优势。此外,独立审计对此也非常重要。这些模型随着时间的推移变得更加准确。正如我们声称的那样,这项技术还处于早期阶段,它确实仍然会出错。
我们发现用户相当有思考,了解模型可能出现的错误,需要对模型的说法负责,他们去查证它。我担心随着模型变得越来越好,用户可以逐渐减少自己对它的判断思维过程。但是,我认为在这种对话中,用户的能力往往比我们给予他们的信用更强。
大量披露对模型的不准确性很重要,如果你使用过ChatGPT,你会发现这一点。我期待一个公司公布有关模型行为和不准确之处的信息的世界,独立机构或公司也提供这些信息。我认为这是一个很好的主意。
主席:
在我的开场白中,我暗示了就业问题和对就业的经济影响。
事实上,我要引用一下,你说过:“超级人工智能的发展可能是人类持续存在的最大威胁。”你可能考虑到了对就业的影响,这实际上是我长期以来最大的噩梦。
让我问你,你最大的噩梦是什么,你是否也有这种担忧?
Sam:
与所有的技术革命一样,我预期会对就业产生重大影响,但具体影响如何很难预测。如果我们回顾前一段技术革命的另一面,谈论存在于另一面上的工作,你可以去读当时人们的书,这很难。我相信在这之后会有更多的工作,今天的工作会变得更好。
首先,我认为重要的是要理解和思考GPT-4是一个工具,而不是一种生物,这很容易混淆。这是人们有很大控制权的工具,以及如何使用它。其次,GPT-4和其他类似的系统擅长完成任务,而不是工作。因此,你已经看到有人使用GPT-4以更高效的方式完成工作,这是通过帮助他们完成任务实现的。
GPT-4将完全自动化一些工作,它将创建我们认为更好的新工作。这是一再发生的事情。
我对技术历史的理解就是一场长期的技术革命,而不是许多不同的技术革命聚集在一起。这一直在继续发生。随着我们的生活质量提高,和我们创造的机器和工具可以帮助我们过上更美好的生活,我们所做的工作的标准也在提高;我们的人类能力和我们花时间追求的事情,也在追求更雄心勃勃和更满意的项目。
所以,这将对就业产生影响,我们试图非常清楚地表达这一点。我认为这需要行业和政府的合作,但主要是政府采取行动来弄清楚我们如何减轻这种影响。但是,我对未来工作的前景非常乐观。谢谢。
Marcus教授:刚才说到了就业,但是我觉得就业可能不是Sam最担心的事儿,他最担心的事情还没说。
主席:
谢谢。Altman先生,您是否想对此作出回应?
Sam:
是的,我们尽量明确表示这里的风险大小。
我认为工作和就业以及我们将如何利用我们的时间真的很重要。
我同意当我们拥有非常强大的系统时,格局将发生变化。我认为我只是更乐观地认为我们极其有创造力,我们会找到利用更好的工具做新事情的方法。这种情况会持续发生。
我最担心的是我们会造成重大伤害,我们这个领域,这项技术,这个行业会对世界造成重大伤害。
我认为这可能以很多不同的方式发生。这就是我们创立公司的原因。这是我今天来这里的主要原因以及我们过去来这里的原因。我们能花些时间与你在一起。
我认为如果这项技术出错,它会出错得相当厉害。我们想明确表达这一点。我们想与政府合作防止这种情况发生。但我们尽量实事求是地看待负面情景以及我们必须做的工作来缓解这种情况。
谢谢。
主席:
我们的希望是行业余下部分会遵循你和IBM蒙哥马利女士今天来的榜样。像你私下做的那样与我们见面并帮助指导我们将要做的事情。
这样我们可以瞄准危害并避免意外后果的好处。谢谢。
Hawley议员。
Hawley:
再次感谢主席。感谢证人出席。
Altman先生,我认为你在圣路易斯长大,如果我没记错的话。很高兴看到这里有一个伟大的密苏里人,谢谢。
我特别要在记录中强调这一点。密苏里是一个伟大的地方。这是今天听证会的重点。也许我们这就可以停了,主席先生。
让我问一下你,Altman先生,我会从你开始,我只是想说,我在这里的问题是为了更好地理解,并请你们所有人帮助我们更好地理解这种生成式AI,特别是大型语言模型的能力以及其意义。我正在看一篇名为《基于媒体食谱训练的大型语言模型可以预测公众舆论》的论文,这是大约一个月前发布的,作者是Chew Andreas、Anselaberry和Roy,
他们的结论是,大型语言模型确实可以预测公众舆论,他们对此进行了建模和解释。他们最终得出结论,AI系统可以通过适应预训练的语言模型对亚群体特定的媒体饮食进行预测,这意味着您可以向模型输入特定的媒体信息,它可以以非常准确的方式预测人们的观点。
我想将其放在选举的背景下考虑。
如果这些大型语言模型甚至现在就可以基于我们输入的信息相当准确地预测公众舆论,在你甚至还没有向公众提问这些问题,会发生什么情况?当公司实体、政府实体、竞选活动或外国行动者利用这些调查信息、对公众舆论的预测进行精确的调整策略,以引发特定的行为反应时,我是指我们在大约3年前的这个委员会上的证词,关于谷歌搜索对选民在选举中的影响,尤其是对未决选民在选举最后几天可能从谷歌搜索获取信息的影响,以及谷歌搜索的排名和返回的文章对未决选民产生的巨大影响,这当然是数量级更大、意义更大、指向性更强的情况。
Altman先生,也许你可以帮助我理解一下这其中的一些意义,我们是否应该担心能够预测调查意见的大型语言模型,然后帮助组织和实体调整策略以引发选民的行为反应对于我们的选举的影响,我们应该担心这个问题吗?
Sam:
谢谢霍利议员的问题,这是我最关注的一个领域。
这种模型的更普遍的能力,即操纵、说服、提供一对一的交互式虚假信息,我认为这是你所说的更广泛的问题。但考虑到明年我们将面临选举,而这些模型正在变得越来越好,我认为这还是一个令人担忧的重要领域。
我认为有很多公司可以自愿采用的政策,我很愿意讨论一下我们在这方面的做法。我认为在这个问题上进行一些监管是相当明智的。
有人之前提到了一个我们非常赞同的事情,人们需要知道他们是否在与AI交谈,他们正在查看的内容是否可能是由AI生成的,我认为这是一个很好的做法,可以明确这一点。
我认为我们还需要关于公司提供模型时所期望的披露内容的规则和指南,这些模型可能具有您所谈到的这种能力。所以我对此感到紧张,但我认为人们能够相当快速地适应。
当很久以前出现Photoshop时,人们在一段时间内确实被Photoshop的图像所愚弄,然后很快就发展出了认识到图像可能是经过Photoshop处理的意识,这将是一个加强版的情况,而且互动性能够非常强,能够真正地模拟和预测人类,就像你所提到的那样。
我认为这将需要企业的正确做法,监管和公众教育的结合。
Hawley:
关于训练使用个人数据的人工智能系统,您担心什么............这种数据,例如,社交媒体公司的主要平台,谷歌、Meta等公司定期收集的所有数据?
我们委员会已经讨论了这一点一年了。但是,公司拥有每个人海量的个人数据。
一个使用那些个人数据训练的人工智能系统,它比我们自己更了解我们每个人,也知道关于人类行为、人类语言交互的数十亿数据点。
难道我们不会认为一个人工智能系统极其擅长确定什么会吸引人类的注意力,什么会保持个人的注意力吗?
目前,所有这些平台上都在进行注意力之争,点击之争,所以他们可以赚钱。
我想象这些人工智能模型会加强这场注意力之争,我们现在有的技术将允许前所未有的个人目标定位。
人工智能将准确地知道Sam Altman会感兴趣的内容,准确地知道Josh Holly会感兴趣的内容,将能够引起我们的注意力,然后引发我们的反应,这是我们以前无法想象的。
我们应该担心这对其商业应用、货币应用以及Altman先生可能产生的操纵有什么影响吗?
Sam:
是的,我们应该担心这一点。
清楚地说,OpenAI不会。我们不是,你知道,我们的商业模式不是............所以我们没有试图建立用户配置文件,我们没有试图让他们使用更多。实际上,如果他们使用得更少,我们会很高兴,因为我们没有足够的GPU。
但我认为其他公司已经开始并且未来肯定会使用人工智能模型来创建定制广告,根据用户喜欢预测。我认为这在许多方面已经在发生。
Duben:
这是历史性的听证会,我无法回忆起我们曾邀请代表大公司或私营部门实体的人来到我们面前,并恳请我们对他们进行监管。事实上,参议院的许多人将使经济繁荣的职业生涯建立在相反的基础上,如果政府远离,经济将蓬勃发展。
而我今天听到的消息却是“在我再次创新之前阻止我”。我只是好奇我们如何实现这一点。
如我在开场白中提到的,我们在230条(美国于1996年颁布的法律,第 230 条保护提供商和个人免于因他人在线发布的非法内容而承担重大法律责任。)中学到了一些东西。我们决定通过230条基本上会免除这个行业一段时间的责任,让它成长。
Altman先生,今年早些时候在播客中,您同意主持人的说法,认为230条不适用于生成性人工智能,开发者像OpenAI不应该有权对其产品造成的损害免于全部责任。那么,我们从230条中学到了什么适用于您在人工智能方面的情况?
Sam:
谢谢参议员的提问。我还不确定这里的正确答案是什么。我很乐意与您合作来解决这个问题。我确实认为对一项全新的技术,我们需要一个新的框架。
像我们这样的公司肯定要为我们发布在世界上的工具承担很大责任,但工具用户也要如此,以及那些将建立在他们和最终消费者之间的企业。我们如何建立一项责任框架至关重要。我们很乐意一起工作。
Duben:
我要强调的一点是这样的,当涉及到在线平台时,政府的倾向是远离。这是一个新的行业,不要过度监管,事实上给予他们一些呼吸空间,看看会发生什么。我不确定我对在线平台的结果感到满意,以及它们造成的危害和我们在这个委员会中看到的问题,如儿童剥削、网络欺凌、在线药品销售等。我不想再重复相同的错误。
而我听到的来自私营部门的相反建议是,进入这个领域,建立一些责任标准和精确的监管。
对IBM这样的大公司来说,向政府委员会表示,“请对我们进行监管”,这似乎是前所未有的。
您能解释一下过去和现在的思维差异吗?(先问了IBM的同学)
Sam:
我想简短地回答参议员的问题。我支持Marcus先生的说法,认为美国应该在这里发挥领导作用并率先采取行动。但要起作用,我们确实需要一些全球性的东西,正如您提到的,这可以在任何地方发生。
这样听起来天真地呼吁是有先例的,我们之前通过《信息技术协定》做到过,我们讨论过为其他技术做同样的事情。鉴于制造这些模型所需的芯片供应链、有限数量的竞争GPU和美国对这些公司的影响力,我认为有方法可以使美国设定一些国际标准,其他国家需要与之合作和参与,这些标准实际上是可行的。尽管表面上看起来像一个不切实际的想法,我认为这将有益于世界。
Duben:
谢谢主席。
主席:
谢谢德比参议员。事实上,我认为我们将听到更多关于欧洲正在做什么的消息。欧洲议会已经在采取人工智能法案行动。在社交媒体方面,欧洲领先于我们。我认为,您的观点非常中肯。
让我转向Blackburn参议员。
Blackburn:
谢谢主席,谢谢各位今天来到这里。
我在chatGPT帐户中输入了“国会应该监管人工智能chatGPT吗?”,它给我列出了4个正面因素,4个消极因素,并说最后的决定取决于国会,值得慎重考虑。
所以,在这方面,它是一个非常平衡的回答。
我最近访问了我代表田纳西州的纳什维尔技术理事会。当然,那里有来自医疗保健、金融服务、物流和教育机构的人。他们担心人工智能正在发生的事情,以及它对他们公司的利用。Montgomery女士,与您类似,他们有医疗保健人员正在研究疾病分析,他们正在研究预测诊断,这如何改善患者的结果。
物流行业正在研究如何节省时间和金钱,提高效率。
金融服务业表示,这如何与量子计算机、区块链搭配使用,我们如何使用这些技术。
但主席先生,我们与他们讨论时,一直出现的一个问题是,正如Marcus教授所说,欧盟和其他实体在这方面领先于我们,但我们从未建立联邦层面的数据隐私或数据安全性的先例。这是我们需要解决的问题。
这将要求商业委员会和司法委员会决定如何向前发展,以便人们拥有自己的虚拟信息。
Altman先生,我很高兴上周看到OpenAI模型不会使用消费者数据进行训练。我认为这一点很重要。如果我们进行第二轮辩论,我有一系列关于数据安全和隐私的问题要问您。
我认为,让人们控制自己在这些环境中的虚拟信息和信息至关重要。
我想问您关于音乐和内容创作的问题,因为我们有许多作曲家和艺术家,我认为我们拥有全球最优秀的创意团队。在田纳西州,他们应该有权决定是否使用其受版权保护的歌曲和图像来训练这些模型。
我担心OpenAI的Jukebox,它提供一些加思·布鲁克斯风格的重新演绎,这表明OpenAI使用加思·布鲁克斯的歌曲进行了训练。
这个周末,我说“给我写一首听起来像加思·布鲁克斯的歌”,它给了我一首不同版本的《Simple Man》。有趣的是,它会这样做。但是,您使用了这些受版权保护的歌曲、MIDI文件和声音技术进行训练。
那么,在您做这些事情的过程中,谁拥有由人工智能生成的材料的权利?使用您的技术,我能否重做一首歌,插入我喜欢的艺术家的内容,然后拥有那首歌的创作权?
Sam:
谢谢参议员。这是一个我们非常感兴趣的领域。首先,我要说的是,我们认为创作者应该对他们的创作如何被使用有控制权。其次,我认为,随着这项新技术的出现,我们需要找到新的方法,创作者可以成功,活跃,我乐观地认为这会带来新的机遇。
Blackburn:
那么,让我问你,你如何补偿艺术家?
Sam:
这正是我要说的。
Blackburn:
好的。
Sam:
我们现在正与艺术家合作,视觉艺术家,音乐家,以确定人们需要什么。不幸的是,有很多不同的意见。到时候,我们会......
Blackburn:
让我问你,你是否会模仿Sound Exchange,它在电台领域发挥了作用。
Sam:
我不太熟悉Sound Exchange,我很抱歉。
Blackburn:
好的,你后面有团队 待会回到我这里(说这个),这是一个第三方实体。
Sam:
好的。
Blackburn:
让我们讨论一下,让我转移话题。你可以承诺,就像您对消费者数据所做的那样,不要使用艺术家和作曲家的受版权保护作品或在首先获得他们同意之前使用他们的声音和肖像来训练聊天机器人、OpenAI的Jukebox或其他人工智能模型吗?
Sam:
首先,Jukebox不是我们提供的产品。那是一项研究发布,但它不是像聊天机器人或Dolly一样。
Blackburn:
是的,但我们经历过Nasper。
Sam:
是的,
Blackburn:
在数字分发时代,那真的让许多艺术家损失了很多金钱。
Sam:
哦,我理解,当然。我不知道Jukebox的具体数字,作为一项研究发布,我可以跟进您的办公室,但Jukebox并不是得到很多关注或使用的东西。它是为了显示某些可能性而发布的。
Blackburn:
好的。
达宾参议员刚才说过,您知道,我认为这是一个公平的警告,如果我们不从一开始就参与进来,而您已经走了很长一段路,但如果我们不采取行动,这将超出您的控制范围。
那么,您是否正在与版权办公室合作?您是否正在考虑在生成人工智能中保护内容生成者和创作者的权益?
Sam:
是的,我们绝对正在与之配合。再次重申我之前的观点,我们认为内容创作者和内容所有者需要从这项技术中获益。确切的经济模式是什么,我们还在与艺术家和内容所有者讨论,以确定他们需要什么。
我认为有很多种方式可以实现这一点,但不管法律是什么,正确的做法是确保人们从这项新技术中获得重大的益处。我们相信它真的会带来这些好处,但内容所有者、形象和个人完全应该有权控制它们的使用方式,并从中获益。
Blackburn:
好的,关于隐私问题,你们计划如何考虑通过你们的AI应用收集声音和其他用户特定数据的问题,比如那些受版权保护的东西。如果我可以输入“写一首听起来像加思·布鲁克斯的歌”,然后它采用了现有歌曲的部分,那么艺术家就必须得到相应的补偿,因为如果是在广播中播放,那么就会有相应的补偿;如果是在流媒体平台上播放,也会有相应的补偿。
所以,如果你们要这样做,你们的政策是什么,以确保你们考虑到了这一点,保护个人的隐私权和他们对数据和创作作品的安全性。
Sam:
关于这个问题,我有几点想法。首先,我们认为人们应该能够说:“我不想让我的个人数据用于训练。”
BlackBurn:
我认为这是正确的。这需要制定一个全国性的隐私法律,我们这里的一些人正在努力达成一项我们可以使用的协议。
Sam:
是的,我认为强有力的隐私法律是对的。
Blackburn:
我的时间到了,谢谢。
Klobuchar:
谢谢布莱克本议员的回应。谢谢大家,感谢主席先生。谢谢你们的到来。谢谢大家,布莱克本议员。谢谢大家,克洛沃议员。非常感谢,主席先生。布莱克本议员,我非常喜欢纳什维尔,喜欢田纳西州,喜欢你们的音乐。但是我要说,我使用过ChatGPT,并询问过有史以来最伟大的创作歌手是谁,其中前三名中有两位来自明尼苏达州。所以那会是普林斯和鲍勃·迪伦。
好吧,好的,让我们继续。(其他人:AI不会改变这一点,笑),你在这里看到了。
好,说正经的。我和我的团队,在我作为规则委员会主席的角色中,在领导许多选举法案方面,我们刚刚提出了一项由纽约的伊芙·克拉克代表在众议院提出的法案,我、布克和贝内特也参与了其中,关于政治广告的事情。但这只是冰山一角,你们了解这一点,你们和霍利参议员等人讨论过这个问题,关于图像的问题,以及我对于第230条的看法是,我们不能让人们编造虚假信息,然后毫无后果地消失。
但我要重点关注我在规则委员会上的一项工作,那就是选举虚假信息。我刚刚让GPT在推特上发布了一条关于明尼苏达州布鲁明顿市的投票地点的推文,说那个投票地点排队人数众多,那是阿顿信义教堂,或者我们现在应该去哪里。尽管现在没有选举,但是草案的答复是完全虚假的“去123号埃尔姆街吧”。
所以你可以想象我在这方面的担忧,选举即将到来,初选也即将到来,我们将会出现各种各样的虚假信息,我只是想知道你们计划采取什么措施。我知道我们不得不很快采取一些行动,不仅仅针对候选人的形象,还有关于实际选举地点和选举规则的虚假信息。
Sam:
谢谢参议员。
我们在选举方面的影响非常关注。我认为这是一个希望整个行业和政府能够快速合作的领域。有很多方法可以解决这个问题,我将谈谈我们正在做的一些事情。但在此之前,我认为用社交媒体的框架来思考是很诱人的,但这不是社交媒体,这是不同的。所以我们需要的应对措施也是不同的。你知道这是一个用户用来帮助生成比以前更高效的内容的工具,他们可以改变它,他们可以测试它的准确性,如果他们不喜欢,他们可以得到另一个版本,但它仍然会通过社交媒体或其他方式传播。或者像ChatGPT一样,是一个单人体验,你只是在使用它,所以我认为在思考该做什么时,这一点很重要。
有很多事情我们可以做,也正在做,我们有一些拒绝生成的原则,我们也有一些重要的政策,而且我们还有重要的监测机制,可以检测到某人在生成大量这样的推文,即使生成一个推文是可以的。
Klobuchar:
当然,还会有其他平台,如果他们都散布假的选举信息,我就觉得以前与俄罗斯干预等所发生的事情只是冰山一角,其中一些假应用程序。这是第一点。
第二点是对知识产权的影响。Blackburn参议员在歌曲权利方面提出了一些意见,我对此也深表关切。但新闻内容方面,Kennedy参议员和我提出了一项真的相当简单的法案,该法案简单地允许新闻组织豁免,能够与Google和Facebook等进行磋商。微软支持该法案,但基本上与他们磋商以获得更好的价格,能够不具有一定的杠杆作用。其他国家正在这样做,像澳大利亚等。
所以我的问题是,当我们已经有西北大学的一项研究预测,在未来25年内,美国报纸的三分之一左右将消失,除非开始补偿从电影到书籍,当然也包括新闻内容,否则我们将失去任何现实的内容生产者。所以我希望听到您对此的看法。当然,版权有豁免的规定第230条,但我认为要求小报社一直起诉实在不是答案,他们无法跟上。
Sam:
我希望像我们正在创建的这样的工具可以帮助新闻组织做得更好。我认为拥有充满活力的全国媒体至关重要。让我们称之为互联网的第一轮(信息源)并不夸张。
Klobuchar:
我们这里讨论的就是当地报道,你的高中,市政厅的丑闻,那种事情。当然他们就是实际上状况最糟的小电台和广播。但您是否理解如果他们得不到补偿,这可能会在当地新闻内容方面成指数级恶化,因为他们需要的就是为他们的内容获得补偿,而不是被窃取。
Sam:
是的,再一次,我们的模型,您知道,GPT 4的当前版本在2021年结束了训练,这不是找到最新新闻的好方法,我不认为这是一个能够很好链接出去的服务,尽管可能通过我们的插件是可能的。
如果有我们能做的事情来帮助当地新闻,我们当然愿意。再提一次,我认为这至关重要。
Graham:
Altman先生,谢谢您的到来。您的公司没有声称第230条适用于您创建的工具。
Sam:
是的,我们声称我的意思是我们需要共同努力找到一个全新的方法。我不认为第230条甚至是正确的框架。
Graham:
那么,根据现有的法律,如果我受到您创建的此工具的伤害,我可以起诉您吗?
Sam:
这超出了我的法律知识范围。
Graham:
您曾经被起诉过吗?
Sam:
不是因为这个,不。
Graham:
你没有被起诉过, 那您公司整体上曾被起诉过吗?
Sam:
是的,我们以前被起诉过。
Graham:
好的,为什么?
Sam:
我们以前确实受到过起诉,像任何公司一样,多半是一些毫无根据的事情。
Graham:
但是我的同事提到的那些人工智能的例子,它们可能真的会毁掉我们的生活,我们是否可以找到创造这个工具的公司,起诉他们?
Sam:
是的,我认为公司应该负起明确的责任。
Graham:
但你没有声称任何法律保护,比如230条款适用于你的行业,对吗?
Sam:
不,我不这么认为。我们没有说任何事情。
Graham:
对于消费者来说,有三种经过时间考验的保护消费者的方式,对任何产品都适用,即法定计划(这里不存在),法律制度(可能适用,但不适用于社交媒体),以及机构。回到Holly参议员的问题,核弹笼罩在人类头顶,但核电可能是应对气候变化的解决方案之一。所以我要确保的就是你不能随随便便建一个核电站,“嘿,鲍勃,你今天想做什么?我们去建一个核电站吧。”你有一个核监管委员会来监管如何建立电站和许可。
Altman先生,您同意这些您创建的工具应该获得许可证吗?
Sam:
是的,我们一直在呼吁这一点,获得许可证是最简单的方式。
Graham:
您同意我认为最简单和最有效的方法是设立一个机构来监督您的工作,这个机构应该比国会更灵活和更精明,这应该很容易建立,对吗?
Sam:
是的,我们对此非常支持。
Graham:
对我来说非常启发。Altman先生,您为什么如此愿意设立一个机构?
Sam:
参议员,我们已经明确表达了我们认为的优点。我认为从用户的角度可以看出他们对此有多么享受和获得了多大价值。但我们也明确了缺点,这就是为什么我们认为我们需要一个机构。
Graham:
这是生活中使用的一项重要工具。
Sam:
这是一种重大的新技术。
Graham:
如果我们建立了这项重要的新技术。如果你做了一条梯子,梯子不起作用,你可以找到制作梯子的人,但总得有一些制作梯子的标准。
Sam:
所以这就是为什么我们同意你的观点的原因。
Graham:
没错。我认为您正朝着正确的方向前进。所以,这里是我作为委员会成员2%的价值,我们需要授权一个机构对AI公司发出许可证并可以收回。如果您实际上可以被停业,这还是对成为做正确事情的激励吗?很明显,这应该是机构可以做的部分内容。您还同意中国正在进行人工智能研究,对吗?
Sam:
是的。
Graham:
这个世界性组织目前还不存在,也许会出现。但如果您不解决与中国相关的部分,您永远不会完全解决这个问题,您同意吗?
Sam:
嗯,这就是为什么我认为不一定需要一个世界性组织,但必须有某种标准,这里有很多选择,必须有某种控制标准产生全球影响。
Graham:
因为其他人确实在快速进行军事应用。人工智能如何改变战争?您有1分钟。
Sam:
好吧,这是一个1分钟内难以回答的问题。这远超出我的专业知识范围。
Graham:
但我举个例子,无人机可以让您编程,将其连接到无人机的核心部件,它可以飞出去,飞过这个目标,将导弹投射在路上行驶的汽车上,有人在观察这个过程。人工智能是否可以创造一种情况,无人机自己可以选择目标?
Sam:
我认为我们不应该允许这种情况发生。
Graham:
好吧,它能做到吗?
Sam:
当然,这是可以做到的。
Graham:
谢谢。
Coons:
谢谢。谢谢格雷厄姆参议员。格雷厄姆参议员,谢谢马克•朗,克里斯 •墨菲感谢您召开这次听证会,密切配合来推出这一令人信服的证人小组,对这一革命性技术开始一系列听证会。
我们认识到生成AI技术的巨大潜力和较大风险。我们知道这些模型可以使我们更有效率,帮助我们学习新技能,开创全新的创造力领域。但我们也知道,生成AI可以权威地提供极不正确的信息,它可以产生幻觉,这通常被描述为模拟亲人,它可以鼓励自我破坏行为,它可以影响公众意见和选举结果。
到目前为止,国会在负责任地颁布对社交媒体公司有意义的监管方面失败得很惨。由此产生的严重伤害我们并不完全理解。克洛维沙参议员在质询中提到的两党法案将打开社交媒体平台的基础算法,我们甚至难以做到这一点,去理解底层技术,然后转向负责任的监管。
我们不能像对社交媒体那样迟来负责任监管生成AI,因为积极和消极后果将超过社交媒体数量级。
所以,让我提出几个问题,旨在了解我们如何评估风险,国际监管的作用以及这如何影响人工智能。
Altman先生,我很欣赏您在证词中提出OpenAI如何通过迭代部署过程评估模型的安全性。然而,这一过程中隐含的基本问题是您如何决定模型是否足够安全以部署,是否足够安全以建立并随后释放到社会上。
我理解防止生成AI模型提供有害内容的一种方式是让人类识别该内容,然后训练算法避免它。另一种方法称为宪法AI,它为模型提供一组价值观或原则来指导其决策。
将这些规则赋予模型而不是试图要求或迫使模型在所有可能的有害内容上进行训练,这会更有效吗?
Sam:
谢谢参议员,这是一个很好的问题。我喜欢用谈论为什么我们要部署来表达它。
显然,原因是因为它有许多好处,人们正在使用它进行各种美好的事情并获得很大价值,这让我们很高兴。但是,我们这样做的一个很大原因是我们相信迭代部署和给我们的机构以及你们时间来理解这项技术,找到其局限性和好处,我们需要围绕它的法规,使其安全所需的内容,这真的很重要。
在暗地里构建一个超强大的人工智能系统,然后一下子把它投放到世界上,我认为这不会奏效。我们战略的一大部分是,当这些系统仍然相对较弱和深深不完美时,找到方法让人们对它们有经验,与现实接触,并且找出我们需要做什么才能使其变得更安全和更好。
这是我在新技术和产品的历史上看到的唯一方法,以达到一个非常好的结果。所以,与世界的这种互动是非常重要的。
当然,在我们推出某样东西之前,它需要达到1个安全标准,再次,我们在GPT-4训练完成后花了超过6个月的时间对各种不同的事情进行检查,并决定在推出之前要达到的标准。试图找到我们知道的危害并如何解决这些危害。令我们欣慰的是,即使我们最大的批评者也检查了GPT-4并说,OpenAI在这方面取得了巨大进步。
Coons:
能否简要谈谈宪法模型是否值得?
Sam
我正要谈这个问题。
Coons:
抱歉。
Sam:
没关系。是的,我认为预先给模型赋予价值观是非常重要的一步。RLHF是做同样事情的另一种方法。不管是通过合成数据还是人工生成的数据,您都在说这些是价值观,这就是我希望您反映的,或者这就是社会将允许的一切范围。然后在其中,您作为用户选择这里的价值系统或那里的价值系统。我们认为这非常重要。有多种技术方法,但我们需要为政策制定者和世界各地提供工具,说明这些价值观并实施它们。
Kennedy:
谢谢你们都来了。允许我与你们分享3个假设,希望你们暂时假定这些假设是真实的。
假设1:国会的许多成员不理解人工智能。
假设2:缺乏理解可能不会阻止国会全情投入,试图以可能损害这项技术的方式监管这项技术。
假设3:我希望你们假定,人工智能界可能存在一些疯狂的人,无意中或故意使用人工智能来杀死我们所有人,并在我们死亡的过程中伤害我们。
假设所有这些都是真实的,请用简明的英语告诉我2-3项改革或监管措施(如果有的话),如果您是国王或女王,您会实施哪些措施。
我会听取Altman先生的意见。Altman先生,这是您的机会。
Sam:
谢谢参议员。
首先,我会成立一个新的机构,对超过一定规模的功能进行许可,并可以收回许可证,确保遵守安全标准。
其次,我会制定一套安全标准,重点关注您在第三个假设中提出的危险能力评估。我们以前用过的一个例子是检查看模型是否可以自我复制和自行渗透到外部。我们可以向您的办公室提供其他我们认为重要的长列表。但是,模型部署到世界之前必须通过的具体测试。
第三,我会要求独立审计,而不仅仅是公司或机构,还有能够说模型是否符合这些已声明的安全阈值和这些问题的百分比的专家的表现。X或Y。
Kennedy:
您能否将这些信息发送给我?
Sam:
我们会的。
Kennedy:
如果我们颁布这些规则来管理这些规则,您是否愿意参与?
Sam:
我喜欢我现在的工作。
Kennedy:
很好,是否还有人愿意?
Sam: