12月16日至17日,由北(běi)京未来芯(xīn)片技术高精(jīng)尖创新中心(xīn)及清华大学微电子(zǐ)学研究所联合主办的“北京高精尖论(lùn)坛暨2019未来芯片(piàn)论坛”在清(qīng)华大学举行,这次论(lùn)坛上,类脑(nǎo)计算成为多位权威专家(jiā)热议的人工(gōng)智(zhì)能研究方向(xiàng)。
人工智能浪潮下的洋流
类脑计(jì)算又被称为神经形(xíng)态计算(Neuromorphic Computing)。它不仅是学术会议关注的(de)新热点,产业界也在探索之中。
11月中(zhōng)旬,英特尔官网(wǎng)宣(xuān)布了一则消息(xī):埃森哲、空中(zhōng)客车、通(tōng)用电气和日立公司加入英特尔神经形(xíng)态研(yán)究(jiū)共同体(INRC),该共同体目(mù)前已(yǐ)拥(yōng)有超(chāo)过75个成员机构(gòu)。
如(rú)果(guǒ)说,当(dāng)下人工智能发展浪潮正(zhèng)波涛汹涌的话,类脑计算就是浪(làng)潮之下的洋流。虽不太引人注意,未来却有可能改(gǎi)变人工智能(néng)发展趋势。
原因之一是,深度学习虽(suī)在(zài)语音识别、图像(xiàng)识别、自然语言理解等领域取得很大突破,并被广泛应用,但它需(xū)要大(dà)量的算(suàn)力支(zhī)撑,功(gōng)耗(hào)也很高。
“我们希望智能驾驶(shǐ)汽车的驾驶水平像司机一样,但现在显然还达不到。因为它对信息的(de)智(zhì)能判断和分析不(bú)够,功耗也非常高。”清华大(dà)学微纳电子系教授吴华(huá)强告诉科技日报(bào)记者,人工(gōng)智(zhì)能算法训练中心(xīn)在执(zhí)行任务时动辄(zhé)消(xiāo)耗电(diàn)量几万瓦甚(shèn)至几十万瓦,而人的大脑(nǎo)耗能却仅相当于(yú)20瓦左右(yòu)。
北京大学计算(suàn)机科(kē)学技术系教授黄铁军(jun1)也举了一个生动(dòng)的例子:市场上应(yīng)用深(shēn)度学(xué)习技术的智能(néng)无人机已经(jīng)十分灵巧(qiǎo),但(dàn)从(cóng)智能程度上看,却与一只苍蝇或蜻蜓相差甚(shèn)远,尽管(guǎn)体积和功耗比后者高很多(duō)。
追求(qiú)模拟(nǐ)大脑的功能
到底什么(me)是(shì)类脑(nǎo)计算,它又凭什(shí)么赢得学术界和产业界的宠(chǒng)爱(ài)?
“类脑计算从结构(gòu)上(shàng)追(zhuī)求设计出像生物神经(jīng)网络那样的(de)系统,从功(gōng)能上追求模拟大脑(nǎo)的功能(néng),从性(xìng)能上追求大(dà)幅度超越生物大脑,也称神经(jīng)形(xíng)态计算(suàn)。”黄铁军(jun1)接受科技日报记者采访时说(shuō)。
类脑计算试(shì)图模拟(nǐ)生物神经网(wǎng)络的(de)结构和信息加工过程。它在(zài)软(ruǎn)件层面的(de)尝试之一是(shì)脉冲神经网络(SNN)。
现在深度学习一般通过卷积神经网络(CNN)或递归神经网络(RNN)来实现。“CNN和(hé)RNN都属(shǔ)于人工(gōng)神经网络,其(qí)中的人工(gōng)神经元(yuán),至今仍在使用上世纪40年代时的模型(xíng)。”黄铁军说,虽(suī)然现在设计出(chū)的人工神经网络越(yuè)来越大,也越(yuè)来(lái)越复(fù)杂,但从根本上讲,其神经元模型没有太大改进。
另(lìng)一方面,在深度(dù)学习人工神经网络中,神经元之间的连接被称(chēng)为权值。它们是人工神经网络的关键要素(sù)。
而在脉冲神经网络中,神经元之间却是神经(jīng)脉冲(chōng),信息的(de)表达和处理通过神(shén)经脉冲发送来实现(xiàn)。就像我(wǒ)们的(de)大(dà)脑(nǎo)中,有大量神经脉冲在传递和流(liú)转。
黄铁军(jun1)告诉记者,由于神经脉冲在不(bú)停地传递和流(liú)转,脉冲神经网络(luò)在表达和(hé)处(chù)理信息时,比深度学习的(de)时间性更突出,更加适合进行高(gāo)效的时空信息(xī)处理。
推广应用可能不需(xū)太久
也有人从硬件(jiàn)层面去实现类脑(nǎo)计(jì)算,比如(rú)神经形态芯片。
2019年7月,英特尔发(fā)布消息(xī)称,其神(shén)经形态(tài)研究(jiū)芯(xīn)片Loihi执行专用(yòng)任(rèn)务的速度可比普通CPU快1000倍,效率(lǜ)高10000倍。
“在对信息(xī)的编码、传输(shū)和处理方面,我们希望从大(dà)脑机制中(zhōng)获得(dé)启发,将这些想法(fǎ)应用到芯(xīn)片技术上,让芯片的处理速度更快(kuài)、水平更高、功耗更低。”吴华强也在进行神经形态芯片相(xiàng)关研究,他告诉科(kē)技日报记(jì)者。
吴华强介绍,在(zài)传统的冯·诺依曼架构中,信息的处理和存储是分开的,而人的大(dà)脑在(zài)处理信息时,存储和处理是融为一体的。
“所以我(wǒ)们在尝试研发存算一体化的芯片,希望通过避免(miǎn)芯片内部不停地搬运数据,来大幅提(tí)高芯片的能效(xiào)比。”吴华强(qiáng)说,他的团队现在也已(yǐ)研发出存算一体(tǐ)的样品芯片。
谈到类脑计算的进展,黄铁军(jun1)告诉记者(zhě),目前类脑(nǎo)计算仍在摸索阶段,还缺乏典型(xíng)的成功应(yīng)用。但商业公司已(yǐ)经嗅到味道,相关(guān)技术获(huò)得规模(mó)性应(yīng)用可(kě)能不需要太长时间。
“现在的神经形态计算还比较初步,它的发展(zhǎn)水平跟(gēn)现(xiàn)有主流人工(gōng)智能算法相比,还存在一定差距。”中(zhōng)科院自(zì)动化所研究员张兆翔接受科技日报记者采访时认为,但(dàn)作为一种(zhǒng)新(xīn)的探索方式,应该继续(xù)坚持(chí),因为它可能就是未来人工智(zhì)能技术发展的重要突破口。