论文部分内容阅读
计算机处理数学等难题的能力已经远超人类,但它依然摆脱不了作为“机器”的局限性——比如具备嗅觉和味觉。如果计算机能够模拟人脑建立起对外部环境的认知,一切将会不同。
今年3月,《自然-机器智能》(Nature Machine Intelligence)杂志封面刊登了英特尔研究院与美国康奈尔大学研究人员联合发表的一篇论文,研究人员基于英特尔一款名为“Loihi”的神经拟态芯片,模拟出人类嗅到气味时大脑的运行机制。
论文中,研究员列举了Loihi在存在明显噪声和遮盖的情况下,学习和识别危险化学品的能力——他们采用了一个由72个化学传感器组成的数据集来采集气味,并在Loihi芯片上配置生物嗅觉电路图,结果,Loihi仅需单一样本便可学会识别每一种气味,同样的准确率如果采用“深度学习”训练,则需要3000倍以上的样本。这一结果被看作是神经科学与人工智能交叉研究的“突破性”进展。
高性能计算、神经拟态计算、量子计算,这三者通常被称为通往未来人工智能(AI)的三条“赛道”。其中,高性能计算的进展速度最快,以芯片制造商为代表的技术公司都在研发深度学习芯片,而神经拟态芯片这个研究方向直到1980年代才被提出。不过传统深度神经网络的应用中,还是以处理视觉数据、音频数据的案例为主,在极具个性化差异的“嗅觉”和“味觉”应用上,机器就会束手束脚。
深度学习的局限性在于,首先要求有足够量且标注好的数据,另外需要有可供训练的数据池,以及未来要处理相关问题的测试集合。以识别一款葡萄酒的味道为例,不同品酒人会给出不同的描述,甚至同一个人在不同时间点品尝酒,也有可能给出不一样的结果,因此很难用一个客观标准去标记这些味道。除此之外,嗅觉和味觉都是小数量场景,比如气味是由不同密度的化学成分构成的,普通人经过特殊训练可以区分三四百种气味,想要把其中的每种气味找出足够多的样本供机器学习,显然是不现实的。
不过在现实生活中,气味可以解决的问题有很多,比如监测行李中是否有爆炸品,空间内是否存在有害气体,以及农业中能根据气味判断作物的成熟度。对此,英特尔的科学家们找到了另外一条思路——神经拟态计算。
“我们试图观察、学习和理解大脑的运行,并在计算机芯片上复制。”英特尔神经拟态计算实验室主任Mike Davies说。
论文发布后,紧接着英特尔又推出了名为“Pohoiki Springs”的神经拟态研究系统,它集成了768块Loihi芯片,可提供1亿个神经元的计算能力——这个数字比小型哺乳动物的脑容量还要大。
神经拟态计算不同于传统计算机架构,是一种基于传统半导体工艺和芯片架构的新型计算模式,它通过模拟人脑神经元的构造和神经元之间互联的机制,能够在低功耗以及少量训练数据的条件下持续不断自我学习,大幅提高机器学习的能效比。
拿嗅觉来说,人在识别气味时,首先流入鼻腔的空气会和鼻腔中的传感细胞接触,不同传感细胞连接着下部不同的感知神经元。科学家在构造“电子鼻”时,会首先用化学传感器或有机物传感器来模拟这些传感细胞对应的空间分布,然后感知气体流过传感细胞的分子接触,从而形成一个时间上的脉冲序列,这个过程和人类嗅觉系统的感知机理十分相似。
接下来就需要利用脉冲神经网络(SNN)模型去模拟大脑“识别”的过程。人类大脑认知事物的过程,其实是大脑神经网络通过脉冲传递信息的过程——神经元在链路上发送选择性信号,这些信号由一系列脉冲编码而成。因此,研究人员可根据信号的幅度、频率、延迟等,模拟这种脉冲编码方式,让计算机“记住”一个物品、声音或气味,下一次遇到时便可以识别出来。如果你想进一步提高识别的精确度,只需增加传感器的种类便可。
而Loihi这样的神经拟态计算芯片,可以方便研究人员构建一个包含时间和空间处理的模型,然后对数据模式做匹配,如此,仅需一个样本的训练就能得到超过90%的高准确率。而基于深度神经网络的识别之所以效率不及此,原因是其构造的网络很大,且分为很多层,其中每一层的小节点都有参数,将少量数据输入进去后,这些数据很难引起深层参数的变化,因此会出现参数在多轮训练后依然不变的情况,工程师称之为“收敛”。这样的训练方式不仅需要大量数据,功耗也相对较高。
为了进一步降低功耗,硬件方面,Loihi还采用一种新颖的异步脉冲方式设计,由多个独立的时钟驱动,根据应用的需求,只让需要工作的部分工作,其他部分处于待机状态。
英特尔的研究人员认为,神经拟态是目前让机器具备“嗅觉”的最佳路径。“下一代AI即将进入3.0时代,五六年前的2.0时代是靠统计式学习、数据库命令的机器学习,在视觉、语音和金融数据处理中已经发挥重要作用,3.0时代需要AI能从更少量的数据中学习,并且能够适应环境变化进而自我演进,甚至能够推理。”英特尔中国研究院院长宋继强告诉《第一财经》杂志,他认为神经拟态芯片将会成为AI主流的架构形态,因为它是真正“类脑”的。目前除了英特尔,从事神经拟态计算研究的还有IBM,以及一些实验室和初创公司。
而成为“通用架构”的前提是,神经拟态芯片需要更丰富的工具链,以便不同需求的开发者使用。“神经拟态可以在低功耗下完成一些前端感知和持续学习的动作,如果放在云端,它会比CPU、GPU省电很多。”宋继强说。英特尔还创建了一个神经拟态研究社区(INRC),目前成员已经超过100人。
不过科学家们还需要解决两个难题,一个是进一步理解“大脑能够实时处理复杂信息的同时只消耗极少的能量”的高效工作機制,并把这些机制用到芯片中去。另一个是,为了获得更高的性能,研究人员需要将神经拟态计算芯片互联,以获得线性的性能增长。
值得一提的是,神经拟态技术的发展或许还可以助脑研究一臂之力。
“脑科学的顶尖专家目前对人脑的了解也很有限,人脑的研究速度不像摩尔定律,它是非常缓慢的。”宋继强解释道。脑科学家可以借鉴用神经拟态构建的复杂工作模型,来研究脑神经本身复杂的信息“激励”机制。在器件方面,工程师对“忆阻器”等存储计算器件的研发,也可以侧面模拟人脑的工作机理——毕竟计算机所具备的很多能力已经远远超过人脑。目前全球已有多个关于脑科学、脑计算的跨学科研究中心。
英特尔称,目前Loihi芯片并没有确切的商业化进程,它依然是一款研究测试芯片,下一步的重点方向是完善软件工具链,并支撑“脑科学 IT”的合作研究。
当被问及神经拟态计算的杀手级应用有可能是什么时,宋继强认为,现在下具体判断还为时过早。“有几个领域目前我们判断是比较有希望的,比如嗅觉、行为识别,还有大规模的图片搜索,这方面现在多是用高性能计算做,需要消耗很多计算资源,但神经拟态计算可以并发地去测试。”他表示,相关芯片并不会取代现有的CPU、GPU和FPGA等芯片。
量子计算和神经拟态计算,从学术研究成果转换为商业应用通常需要5年以上的时间。在这段时间里,不管是计算机技术还是脑科学研究,都有可能发生令人意想不到的事。