客户端
游戏
无障碍

0

评论

收藏

2

手机看

微信扫一扫,随时随地看

神经形态计算:受人脑启发的技术如何驱动下一代人工智能|研究·CyberDaily

图片
人工神经网络和数据传输.4X-Image / iStock
重点:
神经形态计算将为生物神经网络各方面实现为数字副本
神经形态计算始于1980代,源自人脑的启发
为什么需要神经形态计算:摩尔定律接近尾声,导致我们的计算机性能停滞不前;我们正在生成越来越多的数据,它需要存储和分类
神经形态的未来:可能会出现超过10亿个神经元的计算能力甚至更高
神经形态计算同样面临伦理问题:如何与人共处
作为进化的杰出产物,人脑的基线能量足迹约为20瓦,这可以使大脑有能力在毫秒内处理复杂的任务。当今的CPU和GPU在执行串行处理任务方面的性能大大超过人脑,但是,将数据从内存输送到处理器,然后再回输的过程需要太多缓存时间,并且还会产生大量能耗。
神经形态系统试图正在模仿人类神经系统的运作方式,而该工程领域正在试图模仿生物传感和信息处理神经系统的结构。换句话说,神经形态计算将生物神经网络的各个方面实现为电子模拟电路或数字副本。
神经形态工程:始于1980代
无论如何,神经形态学已不是一个新概念,就像现在正在兴起的许多其他新兴技术一样,神经形态学已经悄悄地发展了很长时间。但这还不是他们发光的时候,还有许多必须做更多的工作。
30多年前,在1980年代后期,美国科学家,工程师和微处理器先驱卡佛·米德(Carver Mead)教授提出了神经形态工程学的概念,也称为神经形态计算机。
神经形态工程描述了包含电子模拟电路的超大规模集成(VLSI)系统的使用。这些电路的排列方式类似于人类神经系统中的神经生物学结构。
神经形态计算:源自人脑的灵感
图片
人工神经网络和数据传输。资料来源:ktsimage / iStock
神经形态计算是从人脑的结构和动力学中获得灵感,从而创建了用于信息处理的节能硬件,使其能够执行高度复杂的任务。
神经形态计算包括神经网络的产生和使用。它从人脑中汲取灵感,旨在设计能够合并内存和处理能力的计算机芯片。在人脑中,神经突触提供对处理信息的神经元直接访问记忆的能力。
几十年来,电气工程师一直对生物物理学,神经计算以及对人工神经网络的实用混合信号电路的开发着迷。其中的挑战在于跨越了从电子设备到算法的广泛学科。神经形态系统的实际用途将会应用在我们的日常生活中,光是这一项就值得付出努力。
神经形态计算:为什么需要它
“人工智能(AI)需要新的硬件,而不仅仅是新的算法。我们正处在一个转折点,摩尔定律接近尾声,导致我们的计算机性能停滞不前。与此同时,如今,我们正在生成越来越多的数据,它需要存储和分类。”当被问及为什么要开发脑启发性技术(即神经形态计算)时,加州大学圣塔芭芭拉分校的电气工程师德米特里·斯特鲁科夫(Dmitri Strukov)教授在接受《自然通讯》采访时说这样说道。
斯特鲁科夫教授继续向《自然通讯》讲述AI的最新进展如何使该过程实现自动化,而数据中心却以消耗成倍增加的电量为代价进行倍增,这对我们的环境是一个潜在的问题。斯特鲁科夫教授说:“这种能耗主要来自计算机中分离的内存和处理单元之间的数据通信。”
德米特里·斯特鲁科夫说:“它浪费了电能,大大降低了计算速度。纳米技术的最新发展提供了将大量内存接近处理甚至更好地将其直接集成到处理单元中的可能性。
根据斯特鲁科夫的说法,神经形态计算的想法是从大脑中汲取灵感,设计出融合内存和处理能力的计算机芯片。在大脑中,突触提供对处理信息的神经元的直接记忆访问。这就是大脑以很少的功耗实现令人印象深刻的计算能力和速度的方式。通过模仿这种架构,神经形态计算为构建智能神经形态芯片提供了一条途径,该芯片消耗很少的能量,并且计算速度很快。
神经形态芯片:构建大脑启发的计算
图片
英特尔Nahuku主板的特写镜头,每个主板包含8到32个Intel Loihi神经形态芯片。英特尔最新的神经形态系统Pohoiki Beach由多个Nahuku主板组成,包含64个Loihi芯片。Pohoiki Beach于2019年7月推出。资料来源:Tim Herman /英特尔公司
在某些人看来,神经形态计算似乎是遥不可及的未来的一部分。但是,神经形态技术比你想象的要发展得快。除了研究和未来派的猜测之外,英特尔的Neuromorphic Lab还创建了一种自学习的神经形态研究芯片,最初的代号为“ Loihi”(发音为low-ee-hee)。英特尔的第五种神经形态芯片Loihi于2017年9月宣布为主要研究芯片。从那时起,它已经走了很长一段路。
有意思的是,英特尔为该芯片取名为Lōihi,在夏威夷语中是“长”的意思,同时也是夏威夷皇帝海山链中最新的(有时被称为最年轻的)活动海底火山,是一串火山延伸至奥地利洛伊希西北,约6200公里。
回到Loihi上,Loihi是具有片上学习功能的神经形态多核处理器,其中该14纳米芯片包含了超过20亿个晶体管,13万个人工神经元和1.3亿个突触。
Loihi芯片为该领域集成了多种新颖功能,例如可编程突触学习规则。根据英特尔的说法,神经形态芯片是下一代人工智能的推动者。
关于Loihi论文摘要:IEEE Micro发布的具有片上学习功能的神经形态多核处理器,其内容如下:
“ Loihi是采用英特尔14纳米工艺制造的60毫米2芯片,可推动硅中尖峰神经网络的最新建模。它集成了该领域的各种新颖功能,例如层次连接,树突区室,突触延迟以及最重要的是可编程的突触学习规则。通过运行局部竞争算法的尖峰卷积形式,Loihi可以解决LASSO优化问题,与在CPU等处理/电压/区域上运行的常规求解器相比,其能量延迟乘积高出三个数量级。这提供了一个清晰的基于峰值的计算示例,其性能优于所有已知的常规解决方案。”
神经形态计算的未来
图片
随着对实时动态数据处理的需求变得越来越紧迫,研究人员正在探索全新的计算范例,例如神经形态架构,以寻找答案和解决方案。资料来源:4X-Image / iStock
最近,英特尔与桑迪亚国家实验室(Sandia National Laboratories)签署了一项为期三年的协议,以探索神经形态计算对于扩大规模的人工智能问题的价值。
英特尔公司称,桑迪亚公司将使用基于Loihi的5000万神经元系统启动其研究,该系统已交付至位于新墨西哥州阿尔伯克基的工厂。与Loihi的最初合作将为后期合作阶段奠定基础,预计将包括对英特尔即将推出的下一代神经形态架构的持续大规模神经形态研究,以及迄今为止提供的英特尔最大的神经形态研究系统——可能会超过10亿个神经元的计算能力。
协议发布后,英特尔神经形态计算实验室主管麦克·戴维斯表示:“通过应用神经形态计算架构的高速,高效和自适应功能,桑迪亚国家实验室将探索对高需求的加速以及不断变化的工作量,对我们的国家安全越来越重要。我们期待进行富有成效的合作,以开发出下一代神经形态工具,算法和系统,这些神经形态工具,算法和系统可以扩展到10亿个神经元水平甚至更高。”
显然,人们对神经形态技术的前景寄予厚望。迄今为止,大多数神经形态研究都集中在该技术对边缘应用的承诺上,但新的发展表明,神经形态计算还可以为大型,复杂的计算问题提供价值,这些问题需要实时处理,问题解决,适应和从根本上进行学习。
英特尔作为神经形态研究的领导者,正在通过向英特尔神经形态研究社区(INRC)发布1亿个神经元系统Pohoiki Springs,积极探索这一潜力。在Pohoiki Springs上进行的初步研究表明,与最新型的CPU相比,神经形态计算如何可以提供高达四个数量级的更高能效,以实现约束满足(一种标准的高性能计算问题)。
共同努力的目标之一是更好地了解新兴技术(例如神经形态计算)如何用作应对当前最紧迫的科学和工程挑战的工具。
这些挑战包括科学计算、防扩散、反恐、能源及国家安全方面的问题。可能性是多种多样的,也许是无限的。如我们所见,应用范围比一开始就想的要多。
在这一点上,扩大神经形态计算的先进研究对于确定这些系统在哪里至关重要和最有效,以及它们如何提供现实价值。首先,这项即将到来的新研究将评估从物理建模到图形分析再到大规模深度网络的各种尖峰神经网络工作负载的扩展。
英特尔认为,这类问题对于进行科学模拟(例如,对流体,等离子体和材料中的粒子相互作用进行建模)非常有用。此外,这些物理模拟越来越需要利用优化,数据科学和先进的机器学习功能方面的进步来找到正确的解决方案。
因此,这些工作负载的潜在应用包括模拟材料的行为,在数据集中查找模式和关系以及从传感器数据分析时间事件。可以说,这仅仅是开始。尚未出现什么现实生活中的应用程序。
神经形态工程:伦理学考虑
神经形态系统旨在模仿人脑这一事实提出了重要的伦理学问题。实际上,与传统的计算机逻辑相比,人工智能中使用的神经形态芯片在人类认知方面具有更多共性。
当人类在房间里遇到一台机器,而该机器的神经网络与人类的神经网络相比,而不是与微处理器具有更多相似性时,这会给未来带来什么样的观念,态度和影响?
尽管神经形态技术仍处于起步阶段,但该领域正在迅速发展。在不久的将来,市场销售的神经形态芯片很可能会对边缘设备,机器人和物联网(IoT)系统产生影响。神经形态计算正朝着低功耗,小型化芯片的方向发展,这些芯片可以实时推断和学习。
我们可以期待神经形态计算领域,出现那个激动人心的高光时刻。
*本文由CyberDaily 作者See 编译,转载请联系后台。
See|CyberDaily作者,关注脑机接口、人工智能及机器人,挖掘科技故事、人文及思想。
-未来已来,只是分布不均匀-
免责声明:本内容来自腾讯平台创作者,不代表腾讯新闻或腾讯网的观点和立场。
举报
评论 0文明上网理性发言,请遵守《新闻评论服务协议》
请先登录后发表评论~
查看全部0条评论
首页
刷新
反馈
顶部