追问weekly | 过去两周,AI领域有哪些新突破?

图片

█ 政策法规与新闻

谷歌云文档AI漏洞引发数据泄露风险,Vectra AI发警告

Meta坦承以用户数据训练AI:隐私与创新的博弈

AI误导信息泛滥,研究人员呼吁加强监管和透明度

加州立法严防AI"换脸",演员数字克隆权益获保障

谷歌再战欧盟法庭,15亿欧元反垄断罚单悬而未决

谷歌AI模型PaLM2面临欧盟隐私审查

美国和尼日利亚联合主办泛非洲人工智能大会在拉各斯举行

互联网"回声室"效应蔓延,"言论来源透明"或可解毒

量子源公司获5000万美元融资,光子量子计算开启商业化新纪元

█  大模型与基础建设

谷歌推出AI教育计划:培养下一代人工智能人才

百亿美元助力AI基础设施,微软、贝莱德联手打造AI新时代

谷歌全面升级AI图像检测能力,C2PA标准成行业新宠

谷歌发布DataGemma语言模型,数字事实问答精准度大幅提升

Oracle公有云将推出全球首个Zettascale AI集群

Kong Konnect升级迎接AI,API管理平台为生成式AI应用赋能

█ 技术与研发

机器人也有"直觉"?赋能算法让机器人更懂得自主决策

机器学习赋能机器人触觉,德国航空航天中心开创新途径

CollaMamba:利用状态空间模型释放协同感知的力量

自动调优大规模神经网络模型,SNOPS框架开启脑科学新篇章

Co-LLM:让AI模型学会"打电话求助"

区块链让深度强化学习触手可及,AI民主化时代来临

人机协同大幕开启,AI赋能人类认知新高度

鱿鱼启发的新屏幕,无需电子元件即可存储和显示加密图像

液态神经网络:颠覆传统AI的新型神经网络

OpenAI发布o1系列模型:AI推理能力再上新台阶

E²CL:教机器人从错误中学习(而不被解雇)

群体智能机器人:社会化行动中力量觉醒

█ 应用与实践

xAi将助力Tesla的FSD、Optimus和Siri-like功能

iPhone 16全面拥抱AI:新相机功能和Apple Intelligence

谷歌Gemini AI新功能:笔记秒变播客,知识随身听

AI驱动的健康和保健市场将在2024-2028期间扩大1.92万亿美元

AI作为自我镜像:探索人工智能对自我认知的影响

背景音乐市场将增长5.272亿美元(2024-2028)

Workday发布AI助手Illuminate,助力企业提升生产力

Co-STORM:用 AI 驾驭未知的圆桌讨论

█ 交叉与创新

中世纪神学遇上AI:谁为人工智能负责?

橡皮泥变身生物传感器,人体电信号检测新突破

世界扫盲基金会在国际扫盲日推出革命性设备

讲故事的艺术:生成式AI为儿童故事带来多模态魔法

AI的社会实践模拟:多代理系统中的社会动态破冰者


*如需定位对应内容,请使用微信的检索功能

(点击右上方三点,找到查找页面内容按钮)


政策法规与新闻


谷歌云文档AI漏洞引发数据泄露风险,Vectra AI发警告


网络威胁检测与响应公司Vectra AI近日警告,Google云服务Document AI存在漏洞,恶意行为者可利用错误配置的权限非法访问敏感数据。Document AI是Google云服务的一部分,利用机器学习技术从非结构化文档中提取结构化数据,实现文档处理的自动化。


该漏洞源于Document AI在批量处理文档时的权限设置。服务代理“Document AI Core Service Agent”被赋予过大的权限,能够访问项目内任何Cloud Storage存储桶。这意味着即使调用者的权限有限,服务代理仍能绕过限制,从而导致严重的数据泄露风险。


Vectra AI自4月4日向Google报告此漏洞,但Google尚未对此作出实质性回应。研究人员警告,所有使用Google云的客户都需对Document AI服务的启用和使用进行严格控制,以降低潜在风险。随着人工智能技术的普及,其安全问题也日益凸显,Document AI漏洞提醒我们在享受AI便利的同时,需警惕潜在风险并加强数据安全。

相关阅读:


Meta坦承以用户数据训练AI:隐私与创新的博弈


社交媒体巨头Meta(前身为Facebook)近日承认在开发人工智能(AI)系统时使用了用户数据,这一消息引发了对科技公司数据使用行为的广泛质疑和担忧。人工智能的发展离不开海量数据支持,用户生成内容(UGC)成为AI训练的重要“原料”。以大型语言模型(LLM)为例,模型通过分析海量文本数据,学习语言的统计规律和语义关系。Meta作为全球最大的社交平台之一,其庞大的用户数据无疑是AI训练的“富矿”。


然而,用户数据的使用也带来了隐私方面的担忧。公众质疑Meta是否有权在未明确获得许可的情况下使用用户信息进行AI开发。这些数据可能包含个人身份、位置和社交关系等敏感信息,一旦泄露或滥用,后果不堪设想。Meta坚称只使用了公开分享的内容,未触及私人消息,但这一说法未能平息公众疑虑,许多用户可能并未意识到他们的分享内容可能被用于训练AI模型。


Meta的案例凸显了AI时代数据治理的复杂性。用户数据是AI创新的重要“燃料”,在自然语言处理和计算机视觉等领域,海量真实数据对于提升模型性能至关重要。与此同时,隐私意识的提升以及GDPR等法规的出台,增强了用户对个人数据控制权的要求。科技公司需遵循最小够用、目的限定和匿名脱敏等原则,增加了数据获取的难度和成本。


如何在创新与隐私之间取得平衡,成为科技巨头面临的难题。Meta表示正在探索合成数据和联邦学习等隐私保护技术,以保护用户隐私并为AI开发提供必要的数据。然而,这些方法能在多大程度上替代真实数据尚待验证。

相关阅读:


AI误导信息泛滥,研究人员呼吁加强监管和透明度


随着人工智能(AI)技术的快速发展,AI生成的误导信息正日益增加,给社会带来了诸多挑战。最近的一项研究表明,AI生成的误导信息已经成为全球性问题,亟需各国政府和科技公司采取更强有力的措施来增强监管和透明度。


研究人员强调,AI生成的误导信息不仅通过社交媒体和搜索引擎广泛传播,还可以利用深度伪造技术生成视频和音频。这些信息的传播可能导致公众对真实信息的信任度下降,严重时甚至影响政治选举和社会稳定。


为应对这一问题,研究人员建议采取以下措施:


  • 加强监管:政府应建立更为严格的监管制度,以防止AI生成的误导信息的扩散。

  • 提高透明度:科技公司需增强AI生成信息的透明度,使公众能够清楚了解这些信息的来源及其真实性。

  • 加强教育:政府与科技公司应联手加强公众教育,以帮助人们更好地识别和抵制AI生成的误导信息。


此外,AI生成误导信息的原理主要依赖于几种技术。生成对抗网络(GAN)能够创建高度逼真的图像和视频,自然语言处理(NLP)技术则可以生成可信的文本信息,而深度伪造技术则用于生成逼真的视频和音频。这些技术的结合使得AI能够制造出假新闻、假视频和假音频等高度迷惑的信息。

相关阅读:


加州立法严防AI"换脸",演员数字克隆权益获保障


随着人工智能技术的迅速发展,好莱坞电影产业正面临前所未有的挑战。为保护演员和表演者免受未经授权的AI“换脸”侵害,加利福尼亚州州长加文·纽瑟姆于周二签署了两项新法案,以加强对演员数字肖像权的保护。这些法案的出台恰逢加州立法者加强对AI行业的监管,旨在平衡保护公众和工人免受潜在风险,同时促进这一快速发展的产业。


纽瑟姆在声明中强调,尽管AI和数字媒体正在改变娱乐行业,立法的核心原则始终是保护工人,确保行业的可持续发展。这项立法赋予演员在合同中不明确且可能导致AI滥用的情况下,解约的权利。该法案计划于2025年生效,得到了加州劳工联合会和美国电视与广播艺人工会(SAG-AFTRA)的支持。


另一项法律禁止在未获已故演员遗产继承人许可的情况下,使用其数字克隆进行商业活动。这项法律的支持者认为,有助于遏制不当使用数字克隆的现象,特别是针对已故演员的虚假重现。


加州的立法行动标志着在保护演员权益方面的积极进展,成为继田纳西州之后在全国范围内最早制定类似法律的州。尽管新法律旨在鼓励负责任地使用AI,但也面临着执行和潜在法律诉讼的挑战。


数字克隆技术的核心在于深度学习算法,特别是生成对抗网络(GAN)。这种技术允许根据真人的特征生成高度相似的数字化身,提供了影视创作的新可能性。然而,未经授权的克隆行为可能侵犯他人的肖像权和声誉权,甚至可能被滥用于制作虚假信息。如何在促进技术创新的同时,建立必要的伦理和法律边界,成为AI治理的重要课题。

相关阅读:


谷歌再战欧盟法庭,15亿欧元反垄断罚单悬而未决


科技巨头谷歌与欧盟之间的反垄断纠纷似乎已经成为一部连续剧。上周,谷歌因24.2亿欧元的罚单败诉,本周三将揭晓另一个14.9亿欧元罚单的上诉结果。自2017年至2019年,欧盟委员会对谷歌开出了总额高达82亿欧元的三张罚单,成为全球反垄断行动的先锋。其中,24.2亿欧元的罚单因谷歌滥用市场主导地位而来,已在欧盟最高法院得到维持。而本周待决的罚单则源于2019年对谷歌广告服务AdSense的垄断指控。


除了欧盟的法律挑战,谷歌还面临来自美国的监管压力。美国政府最近指控谷歌在广告技术领域存在垄断行为,而这已是谷歌在不到一年内面临的第二起重大反垄断诉讼。广告技术成为全球监管者的新战场,英国和欧盟的调查结果可能迫使谷歌剥离广告技术业务。


面对科技巨头的挑战,欧盟正在不断强化反垄断政策。去年生效的《数字市场法案》(DMA)赋予了欧盟更大权力,以预先规制科技巨头的行为。这一法律旨在让企业在问题发生之前就改变做法,减少事后处罚的需要。


谷歌的广告技术之所以受到关注,主要在于其先进的机器学习算法。通过分析用户数据,谷歌的算法能够精准预测广告的点击和转化概率,并优化广告投放和竞价策略。然而,这种数据优势和市场主导地位也引发了反垄断的担忧,如何在推动创新的同时保持市场开放和公平竞争,将是谷歌及整个行业面临的重要挑战。

相关阅读:


谷歌AI模型PaLM2面临欧盟隐私审查


欧盟正在对谷歌的人工智能模型PaLM2展开调查,以评估其是否符合严格的数据隐私规定。爱尔兰数据保护委员会(DPC)已对谷歌及其Pathways Language Model 2(PaLM2)启动法定调查。PaLM2是谷歌于2023年5月推出的最新大型语言模型,基于Transformer架构,使用数千亿个参数,能够执行问答、总结、翻译等多种自然语言任务。


DPC的调查将评估PaLM2处理欧盟和欧洲经济区公民个人数据的方式是否违反《通用数据保护条例》(GDPR),该条例要求企业在处理个人信息前进行数据保护影响评估(DPIA)。监管机构强调,这种评估对于维护个人基本权利至关重要。谷歌尚未对此作出回应,而DPC表示此次调查是其针对科技巨头开发大型语言模型的一系列行动之一。


随着生成式AI技术的快速发展,隐私和安全问题引发了越来越多的关注。LLM在训练过程中摄入大量网络数据,可能包含个人信息,因此如何在保护隐私的同时保持模型性能成为一大挑战。虽然一些研究者提出了隐私保护机器学习的方法,如同态加密和差分隐私,但这些方法通常伴随性能损失和额外开销。


谷歌在AI治理方面努力保持谨慎与透明,发布了一系列AI原则和最佳实践,承诺以负责任的方式开发AI。然而,面对快速变化的技术和监管环境,任何失误都可能导致合规问题。此次PaLM2事件再次凸显了数据隐私与AI创新之间的张力,随着GDPR等隐私法规的实施,科技巨头将面临更大的合规压力,相关隐私争议势必会持续升温。

相关阅读:


美国和尼日利亚联合主办泛非洲人工智能大会在拉各斯举行


近日,美国和尼日利亚联合主办的泛非洲人工智能大会在拉各斯举行,吸引了来自非洲各国的顶级AI研究人员和技术专家。大会的主要目的是推动非洲人工智能的发展,探讨AI在教育、医疗、农业和基础设施等领域解决社会和经济挑战的潜力,同时加强美国与尼日利亚之间的国际合作。


大会议程包括主题演讲、专家研讨会和展览会,顶级AI研究人员分享了最新技术和研究成果。通过这些交流与讨论,与会者共同探讨了AI在推动非洲社会进步方面的具体应用和未来前景。

相关阅读:


互联网"回声室"效应蔓延,"言论来源透明"或可解毒


随着互联网的普及,信息获取方式发生了巨大变化,但随之而来的“回声室”效应也愈发明显。人们倾向于关注与自身观点一致的信息,忽视不同的声音,这种现象正在侵蚀互联网的生态环境。为此,一些学者提出了“言论来源透明”的理念,认为如果用户能够清楚了解信息的来源,可能会更容易接触到多元观点,从而形成更加全面的认知。


当前,算法推荐的普及加剧了同温层效应,使用户在信息的真伪辨别上面临困境。个性化推荐算法根据用户的浏览历史推送相似内容,用户因此陷入信息茧房,接触到的多为与其观点一致的信息,而缺乏对立面观点的了解。这导致一些极端言论迅速传播,造成社会对立和分化,而真实、客观的信息却可能被忽视。


主流的协同过滤算法存在“马太效应”,使得强者愈强、弱者愈弱。算法通过分析用户行为发现相似用户,并根据这些相似用户的行为进行内容推荐。这种过程形成正反馈,进一步加剧观点的趋同和两极分化。


为应对算法推荐的弊端,“言论来源透明”被视为可能的解药。该理念要求平台向用户披露信息来源,帮助用户判断内容可信度。例如,文章的作者、机构或政治立场应明确标注,以提升信息的透明度。然而,实施这一理念面临技术和伦理挑战,如何界定和标注信息来源是一大难题。同时,过度透明可能影响隐私和言论自由,特别是对某些敏感群体。


此外,依赖来源透明并不足够,用户的媒介素养和批判性思维能力同样至关重要。只有当用户具备独立思考和客观判断的能力,才能真正走出信息茧房,形成理性的认知。

相关阅读:


量子源公司获5000万美元融资,光子量子计算开启商业化新纪元


总部位于特拉维夫的初创公司Quantum Source Labs Ltd.近日宣布成功筹集5000万美元,以开发实用且经济高效的量子计算解决方案,释放这一新技术的商业潜力。本轮A轮融资由Eclipse领投,参与者包括Standard Investments、Level VC和Canon Equity等新投资者,以及Pitango First、Grove Ventures等现有投资者。迄今为止,该公司已筹集超过7700万美元,助力其量子计算技术的发展。


量子计算被视为改变药物设计、材料开发和网络安全等领域的“游戏规则改变者”,它利用量子比特(qubit)同时表示1和0,从而解决经典计算无法处理的复杂问题。Quantum Source采用了一种创新的方法,将光子芯片与单个原子结合,通过光子生成量子纠缠,从而提升效率,缩小规模,易于控制。


该公司的团队拥有多位博士,致力于光子计算的创新,新的融资将用于增强工程能力,加速量子解决方案的商业化。Quantum Source的核心技术结合光子和原子量子比特,使得量子纠缠和信息处理变得更加高效和可靠。展望未来,量子计算的市场潜力巨大,预计到2030年将达到640亿美元,Quantum Source有望在这一竞争中占据领先地位。

相关阅读:


大模型与基础建设


谷歌推出AI教育计划:培养下一代人工智能人才


为了应对人工智能技术的快速发展,谷歌近日宣布启动一项雄心勃勃的AI教育计划,旨在为全球学生提供AI技能培训,培养新一代人才。谷歌CEO桑德尔·皮查伊表示,作为AI领域的领导者,谷歌有责任帮助更多人了解和掌握这一变革性技术。


在未来三年内,谷歌将投入3000万美元开展教育项目,覆盖中小学、大学及在职人员,提供从基础知识到前沿研究的全方位课程。计划中,谷歌将与教育机构和非营利组织合作,为教师提供AI教学资源和培训,帮助他们将AI融入课堂教学。


谷歌的教育计划融合了理论学习、实践项目和伦理探讨。在理论学习方面,提供涵盖机器学习、深度学习和自然语言处理等核心技术的在线课程,适合不同基础的学习者。而在实践项目中,学生将使用谷歌的AI平台和工具,参与实际项目,如开发图像识别应用或训练聊天机器人,从而提高实际技能。


此外,谷歌特别强调AI伦理教育。皮查伊指出,技术发展必须以人为本,符合道德规范。课程将设置AI伦理模块,邀请专家与学生探讨AI的社会影响和道德边界,提升他们的伦理决策能力。谷歌还计划举办一系列伦理研讨会和论坛,促进业界、学界和公众的对话,为AI的健康发展营造良好的生态环境。

相关阅读:


百亿美元助力AI基础设施,微软、贝莱德联手打造AI新时代


微软公司与全球最大资产管理公司贝莱德集团近日宣布成立全球AI基础设施投资伙伴关系(GAIIP),计划投资高达1000亿美元,用于建设支持人工智能发展的数据中心和能源项目。这一举措为人工智能的未来发展注入了强心剂,GAIIP的成员还包括Global Infrastructure Partners(GIP)和迪拜投资公司MGX。


投资将主要用于在美国及其合作伙伴国家建设新的数据中心,以满足日益增长的算力需求,并同时投资能源基础设施,确保可持续运营。虽然全球最大的AI芯片制造商英伟达并未作为投资方,但将提供工厂设计和集成咨询。GAIIP还计划与行业领导者合作,增强AI供应链和能源采购。


该伙伴关系计划从投资者、资产所有者和企业募集300亿美元的私募股权资本,再加上债务融资,总投资潜力可达1000亿美元。微软董事长兼首席执行官萨提亚·纳德拉对此次合作表示乐观,认为这将推动各行业的创新与增长。


微软近年来已多次承诺投资AI基础设施,包括在马来西亚、威斯康星州和瑞典的项目。此外,自2019年以来,微软向OpenAI投资约130亿美元,未来可能追加更多资金。随着AI技术快速发展,对算力和能源的需求也在上升,企业需优化数据中心和能源供应,以应对不断上涨的训练成本和能耗。

相关阅读:


谷歌全面升级AI图像检测能力,C2PA标准成行业新宠


谷歌近日宣布将在其多项服务中实施C2PA(内容出处和真实性联盟)技术标准,以验证图像的真实性,旨在应对AI生成图像的泛滥,为用户提供更可靠的内容体验。C2PA由英特尔、苹果等公司于2021年发起,谷歌于今年加入,旨在判断图像是否由AI生成或在创建后被修改。其工作原理是为每个图像附加一个“清单”的元数据文件,包含创建时间、AI生成情况和后期编辑信息,并采用哈希技术防止篡改。


谷歌将C2PA集成到其搜索引擎、广告系统和YouTube,提升用户对图像来源的了解。此外,谷歌还推出SynthID工具,为AI生成图像添加隐形水印,进一步保障内容的真实性。在DALL-E、Midjourney等AI图像生成模型兴起的背景下,C2PA的统一标准显得尤为重要,有望成为行业的事实标准。


从技术角度看,C2PA通过密码学原理构建了坚实的安全防线,哈希指纹机制有效防止篡改,降低了验证成本。然而,C2PA无法验证AI生成图像内容的真实性,需要与其他技术结合使用。随着C2PA的推广,用户将能够更轻松地识别图像真伪,享受更可靠的内容体验。

相关阅读:


谷歌发布DataGemma语言模型,数字事实问答精准度大幅提升


谷歌近日发布了一系列名为DataGemma的语言模型,显著提高了回答数字事实问题的准确性。DataGemma系列模型源代码已在Hugging Face平台上开源,基于开源的Gemma 2 27B模型,专为处理特定市场领域的统计事实优化。该模型使用谷歌的Data Commons知识库,涵盖2400多亿个数据点,来源于联合国、世界卫生组织等权威机构。


DataGemma系列包括两个版本,分别采用不同的技术处理用户问题。第一个版本利用检索交错生成(RIG)方法,向Data Commons请求信息,再生成答案。第二个版本采用检索增强生成(RAG)方法,首先检索相关信息,然后通过更先进的Gemini 1.5 Pro模型生成答案。根据测试,RIG版本的准确率可达58%,而RAG版本在80%到94%之间,远超其他模型。


Transformer架构是DataGemma的核心,其自注意力机制使得模型能够更好地理解语言上下文,并通过多头注意力机制提升表达能力。谷歌计划通过在更多信息上训练DataGemma,扩充模型能力,将回答问题的数量从几百个增加到数百万个。此外,未来可能将DataGemma的数据检索功能整合到旗舰Gemini系列模型中,展现出语言模型在知识问答领域的广阔前景。

相关阅读:


Oracle公有云将推出全球首个Zettascale AI集群,算力高达2.4 zettaflops


云计算巨头甲骨文公司(Oracle)在其Oracle CloudWorld大会上预览了一款全新的AI计算集群,称之为全球首个Zettascale级别的AI集群,提供高达2.4 zettaflops的AI算力。该集群的核心是英伟达最新的Blackwell B200 GPU,理论峰值性能可达2.4 zettaflops,显著超过目前全球最快超级计算机所使用的GPU数量。


B200芯片采用4纳米制程工艺,配备192 GB的HBM3e高带宽存储器,具有“微缩放”能力,能够加速计算。此外,B200集群支持InfiniBand和RoCEv2网络协议,通过内核旁路功能提高数据传输效率,预计将在2025年第一季度上市。Oracle还计划推出基于英伟达GB200 NVL72系统的新基础设施,以扩展其公有云。


为了适应新集群,Oracle升级了云存储基础设施,推出支持每秒几十TB数据吞吐量的完全托管Lustre文件服务,提升了网络容量以匹配增强的存储吞吐量。随着人工智能技术的迅速发展,Oracle的Zettascale AI集群将为用户提供训练和部署超大型AI模型的能力,显著提升其在AI云服务市场的竞争力。

相关阅读:


Kong Konnect升级迎接AI时代,API管理平台为生成式AI应用赋能


API连接初创公司Kong Inc.近日对其旗舰平台Kong Konnect进行了重大更新,旨在将其打造为一个适应人工智能时代的全新平台。随着全球企业加速采用AI技术,构建、运行和管理API及生成式AI应用的统一平台需求日益增长。Kong通过Kong Konnect提供一个全面的API生命周期管理平台。


Kong Konnect支持跨云和多环境的API基础设施管理,使用智能自动化功能在云、Kubernetes环境、数据中心等多种环境中连接API和微服务。这一平台简化了API的管理,使开发者能够更方便地构建应用,例如通过Skyscanner预订航班并自动同步到Google日历的功能,都是通过API实现的。


此次更新引入了Konnect Service Catalog,一个集中式API系统,增强了对影子API的可见性和控制力,便于开发人员更快地更新API配置并集中管理敏感数据。同时,Konnect Service Catalog提供了将API与生成式AI应用中的大型语言模型集成的工具,帮助组织发现和管理未被发现的API,从而降低潜在风险。


Kong Konnect的另一个重要功能是AI Gateway 3.8,增强了AI和API基础设施的语义功能。这一版本增加了语义缓存功能,可以在特定情况下将AI响应速度提高20倍,并降低计算开销。此外,新的语义提示守卫工具能够智能阻止不适当的提示,增强安全性。


此外,Kong Konnect的更新还提升了开发者的生产力,简化了API管理。最新版本扩展了Konnect Dedicated Cloud Gateway在亚马逊网络服务(AWS)上的可用性,并新增了Microsoft Azure专用云网关。Kong Insomnia工具也进行了更新,提升了API设计和测试的质量和安全性。


Kong联合创始人兼首席执行官Augusto Marietti表示,API在新AI应用中发挥着关键作用,而Kong Konnect的升级正是为开发者提供必要基础设施的重要举措。随着AI技术的飞速发展,企业对构建和部署AI应用的需求不断增长,Kong通过这些创新功能为开发者提供了端到端的API管理解决方案,从而简化了企业的AI应用构建和部署过程。

相关阅读:


技术与研发


机器人也有"直觉"?赋能算法让机器人更懂得自主决策


赫特福德大学的研究人员近期开发出一种新算法,使机器人能够像人类和动物一样直观地做出决策,推动了机器人的自主性和适应性。这项突破性成果发表在《PRX Life》杂志上,其核心原理基于混沌理论,允许机器人根据环境变化自主创建目标,从而掌握系统的"混沌"。


该算法的基础是“赋能最大化”理论,旨在通过扩大未来结果的选择范围,使机器人在未来拥有更好的决策能力。这一方法可以取代传统的奖励系统,帮助机器人在没有明确指令的情况下自我探索和学习。具体实现上,机器人通过动态观察环境,自主设定目标,计算“赋能”,并选择能够最大化赋能的行动策略。


随着这项技术的发展,研究者期待能够让机器人具备更直观的学习能力,提升它们在现实场景中的价值。Polani教授指出,这项研究将使机器人能够在没有先验经验的情况下解决新问题,推动人性化机器人的发展。