改变AI发展格局 神经拟态计算还差关键一步
知名信息研究和分析机构高德纳预测,到2025年,神经拟态芯片有望成为用于AI系统的主要芯片之一。
20世纪80年代,科学家设想将人类大脑的功能映射到硬件上,即直接用硬件来模拟人脑结构,这种方法称为神经拟态计算,这类硬件被称为神经拟态芯片。经过近40年发展,神经拟态芯片相继问世。全球知名信息研究和分析机构高德纳(Gartner)日前的预测显示,到2025年,神经拟态芯片将成为高级人工智能部署的主要计算架构,该芯片有望成为用于AI系统的主要计算机芯片之一。
脉冲神经网络信息处理不再依赖计算机
传统人工智能主要以计算,即通过编程等手段实现机器智能。其中深度学习是目前广泛应用的技术之一,2006年左右,深度学习技术进入大众视野。它通过添加多层人工神经网络,赋予机器视觉、语音识别以及自然语言处理等方面的能力。
尽管深度学习有人工神经网络的加持,但通过计算实现智能的影子并未消失。“只不过与传统计算相比,深度学习的算法模型发生了变化,实现的物理载体依然是计算机。”北京大学信息科学技术学院教授黄铁军接受科技日报记者采访时表示。
“而与深度学习采用的多层人工智能神经网络不同,神经拟态计算构造的是脉冲神经网络,通过模拟生物神经网络实现智能。它本身就是能处理信息的载体,不再依赖于计算机。”黄铁军表示,神经拟态计算是探索实现人工智能的新范式。在信息处理方面,现在的人工神经网络处理的是相对静态的、固定的信息,脉冲神经网络则适合处理与时空高度相关的复杂信息流。
举例来说,机器人看到豹子时,采用深度学习方法能识别出是豹子,但对机器人而言这只是一个系统中的信息标签,而这些信息好像与它无关,机器并不能结合这些信息为下一步的行动作出判断。而人看到豹子,不仅可以通过外观识别出自己面对的动物是猛兽,还会观察豹子的行动,甚至判断自己所处的现实环境,并根据综合信息作出是否需要逃跑的判断。“这才是真正的智能。智能不仅是信息分类这么简单,它是对时空信息进行综合处理并作出决策行动的过程。”黄铁军解释道,神经拟态计算就是要通过模拟生物神经网络的方式,让机器拥有接近甚至超越生物神经网络的系统,帮助机器感知自然界中时空变化的信息,实时处理信息流并采取行动。
“电脑”超越人脑成为可能
深度学习的大规模应用对计算机的计算能力提出更高要求,同时也让经典计算机的耗能一直居高不下,而按照生物神经网络结构设计的神经拟态计算,已成为大势所趋和必然选择。
神经拟态学工程师、德国海德堡大学物理学家卡尔海因茨·迈耶(KarlheinzMeier)表示,人脑相对计算机而言有三大特性:一是低能耗,人脑的功率大约是20瓦特,而当前试图模拟人脑的超级计算机需要几百万瓦特;二是容错性,人脑时刻都在失去神经元,而不会影响脑内的信息处理机制,而微处理器失去一个晶体管就能被破坏;三是无须编程,大脑在与外界交互的过程中自发地学习和改变,而无需像实现人工智能的程序一样遵循预设算法所限制的路径和分支。
黄铁军认为,通过模仿生物神经网络实现机器智能是一条十分重要的研究路线,未来它甚至有可能突破生物智能的天花板。尽管生物神经网络是一个慢速系统,每秒钟能产生的神经脉冲数量只有十几个,生物获取和处理的信息量也处于较低水平,但一旦将生物神经网络电子化,其处理信息的能力将比被模拟的生物大脑高出多个数量级。
黄铁军说,当与人脑类似的“电脑”变为现实时,它对人脑的大幅度超越就发生了:速度上,“电脑”可以比人脑快多个数量级;规模上,没有颅骨限制,“电脑”可以根据需求扩容;寿命上,电子系统即使有损耗,也可以复制迁移到新系统而永生;精度上,生物大脑的很多缺陷和短板将被“电脑”避免和弥补。
目前缺乏应用于现实的模型
虽然神经拟态计算前景广阔,但要实际应用仍面临不小挑战。黄铁军认为,缺少应用于现实的模型是神经拟态计算最大的瓶颈。
目前不少研究人员正在寻觅突破瓶颈的方式。有两种主要的技术途径:第一种是照着生物的脑部结构,依葫芦画瓢设计神经拟态计算系统。但前提是搞清楚生物神经网络的细节,如神经元的功能、结构,神经突触连接的特性等。
当前,人脑神经元的工作模式大体上已被科学家们掌握,大脑中数百个脑区的功能分工也已探明,但是脑区内的神经元网络的细节依旧是个谜。如果把生物神经网络看成地球,单个神经元就是城市里的一户人家,目前城市之间的交通连接是比较清楚的,但这远远不够,还要搞清楚每户人家是如何连接起来的。人脑有近千亿个神经元和数百万亿个连接,要解析出精细蓝图,工程量可想而知。
黄铁军认为,20年内就很有可能弄清楚人脑神经网络的精细结构。他还提到,研究人脑结构是个长远目标,目前的工作重点是斑马鱼、果蝇等动物的脑结构。他预测,几年之内果蝇脑(包含约30万神经元)就能解析清楚,这个级别的脉冲神经网络模型就会出现,利用果蝇脑模型,无人机就能更好地实现飞行、避障、追逐等。
在生物神经网络蓝图完成之前,第二种技术路径是人工设计脉冲神经网络模型。这也是黄铁军团队的工作内容之一,如基于对生物视觉的初步了解,设计视觉脉冲神经网络模型;根据机器对于目标检测、跟踪和识别功能的需求,研发超速全时视网膜芯片等。
专家表示,一旦能解决实际问题,神经拟态计算将会改变人工智能的发展格局。不过,深度学习作为基本方法依然有存在价值,就像算法仍然会在其擅长的领域发挥作用一样。另外,仿生物神经网络是实现强人工智能的一条途径,多种多样的生物智能本身就是最好的证据,但这不等于说所有的智能问题都要用仿生方式去解决。
“神经拟态计算不是实现智能的唯一方式。”黄铁军强调。
延伸阅读
神经拟态芯片不会与AI加速器形成竞争
神经拟态芯片是实现神经拟态计算不可或缺的硬件之一。目前,神经拟态芯片和当下备受市场青睐的AI加速器均为处理神经网络而设计,都比CPU性能高,且都声称能耗更低。在这样的发展背景下,有人提出疑问:神经拟态芯片和AI加速器之间会发生竞争吗?
英特尔神经拟态计算实验室主管迈克·戴维斯(MikeDavies)认为,神经拟态芯片不能直接与传统的AI加速器相比。AI加速器是为深度学习而设计的,它使用大量数据训练大型网络,而神经拟态计算处理单个数据样本。神经拟态芯片接收到真实世界的数据信息后,以最低的延迟和最低的功耗进行处理,此模型与AI加速器完全不同。
黄铁军称,神经拟态芯片和AI加速器的价值取向完全不同。神经拟态芯片是面向未来的技术,旨在打造全新的架构,建立新的智能模型和体系。而AI加速器则是立足当下产业的技术,其目的是把“计算机+软件”打造的人工神经网络硬件化,提高运行效率。“至于让人工智能处理时空信息,构建更复杂的神经网络,并非AI加速器当下的着眼点。毕竟,从产业化角度来说,应用于现实场景解决实际问题才是最重要的。”
“所以,神经拟态芯片和AI加速器之间不会发生竞争。”黄铁军称,假如脉冲神经网络最终替代了深度学习技术,今天做AI加速器的生产商或许会转战神经拟态计算市场,不过那是另一回事。
- 上一篇
首次完全以网上形式举办的广交会开幕
据新华社电 第127届广交会6月15日拉开帷幕。这是我国首次将广交会整体性“搬上云端”。历经63年不间断的广交会,即使面对新冠肺炎疫情冲击,依然如约而至,彰显我国坚持对外开放的坚定信念。作为我国贸易的“风向标”和“晴雨表”,本届广交会会期10天,保持24小时不间断,按16大类商品设置50个展区,180万件展品同期上线展示。“参展企业热情高,上传展品数量超预期。众多全球首发产品集中亮相,将为全球采购商呈现一场中国制造的‘网上盛宴’。”广交会秘书长、中国对外贸易中心主任李晋奇介绍说,官网设有展商展品、新闻与活
- 下一篇
互联网下半场 新的网络架构在布局
“将来,有可能我们需要多大的带宽就有多大的带宽,需要多长的时延就有多长的时延,网络可以根据你的需要来服务,每个人都可以有自己的网络。”6月15日,在网络通信与安全紫金山实验室(以下简称紫金山实验室),中国工程院院士刘韵洁如此描摹互联网的未来。这并非心血来潮。为了这个理想,科学家们早在10年前便开始布局科研攻关,一场有关网络强国的谋划,也逐渐按下“快进键”。2018年,紫金山实验室揭牌。如今,这个以刘韵洁院士团队、东南大学尤肖虎教授团队、邬江兴院士团队为主的1000多人的科研队伍,成功研发出全球首个大网级网