您现在的位置:主页 > www.33222.com >

登上顶级杂志封面这颗芯片为什么这么火?

发布日期:2019-08-08 07:44   来源:未知   阅读:

  前几日,清华大学教授施路平团队研发的类脑计算芯片“天机芯”,登上世界顶级学术杂志《自然》封面,刷爆了朋友圈。

  据论文介绍,“天机芯”是一款新型人工智能芯片,结合了类脑计算和基于计算机科学的人工智能,是世界首款异构融合类脑芯片。和世界先进的IBM公司TrueNorth 芯片相比,“天机芯”功能更全、灵活性和扩展性更好,密度提升20%,速度提高至少10倍,带宽提高至少100倍。以下视频为“天机芯”具体介绍:(建议连接WiFi查看)

  顾名思义,类脑芯片是指参考人脑神经元结构和人脑感知认知方式来设计的芯片,代表了人工智能芯片研究的最新方向。

  具体而言,类脑芯片架构就是模拟人脑的神经突触传递结构,众多的处理器类似于神经元,通讯系统类似于神经纤维,每个神经元的计算都是在本地进行的,从整体上看神经元们分布式进行工作的,也就是说整体任务进行了分工,每个神经元只负责一部分计算。

  对于人工智能产业而言,随着数据量的不断增加,想要提升运算效率最常见的方向就是优化算法和提升芯片算力。然而在摩尔定律下,处理器集成器件数量越发接近极限,提升芯片算力显然不能依靠传统方法。想要突破数据量激增所带来的计算瓶颈,就需要从芯片底层架构需求重构和变化。

  1、基于GPU、FPGA等通用芯片打造半定制的方案。例如英伟达公司针对各类应用场景开发对应的GPU芯片,并通过打造CUDA平台提升其编辑效率、开放性和丰富性,并建立了完整的算法平台,使得人工智能算法可以和多种类型智能终端相融合。

  2、针对深度学习算法开发ASIC芯片。目前谷歌推出的TPU和寒武纪推出的NPU都是基于ASIC架构研发的深度学习芯片。

  3、开发类脑计算芯片。其本质上借鉴人脑的工作原理来实现深度学习,进而解决极其复杂的计算问题,有望带来计算体系革命与架构变革。

  但是从本质上讲,目前主流的GPU、FPGA以及ASIC芯片都属于冯•诺依曼结构,在这种结构中,计算模块和存储模块是分开的。CPU在执行命令时需要先从存储单位读取数据,也就是我们常说的“内存墙”,这就产生延时及大量的功耗浪费,从而限制了其计算性能的提升。

  相比之下,人脑却没有此类问题出现,据研究表明,人类大脑平均每秒可执行1亿亿次操作,所需能量只有10~25瓦特。因而研究员们正转向模拟人类大脑研究,试图通过模拟人脑运转机制,通过研发类脑芯片,使计算机能低能耗高功效地进行计算,甚至使计算机优于类人的智能。

  除此之外,目前主流的人工智能系统都需要提前的进行人工建模,转化为计算问题进行处理再进行深度学习。而采用类脑芯片的系统,理论上可以自动感知,进行问题分析和求解,决策控制等。

  基于类脑芯片的数据计算领域的革新性,吸引了大量公司投入研发。而为了保持技术优势,美国先发起类脑计算芯片的相关研究工作,通过模仿人脑工作原理,使芯片能够进行异步、并行、低速和分布式处理信息数据,并具备自主感知、识别和学习的能力,第一款类脑芯片就来自于美国的IBM公司。

  2011年8月,IBM率先在类脑芯片上取得进展,研发出两个具有感知、认知功能的硅芯片原型。但因技术上的限制,IBM戏称第一代TrueNorth为“虫脑”。

  2014年IBM又开发了第二代TrueNorth芯片,采用了三星28nm工艺,共用了54亿个晶体管,其性能相比于第一代有了不少提升。功耗每平方厘米消耗仅为20 毫瓦,是第一代的百分之一,直径仅有几厘米,是第一代的十五分之一。

  每个核都简化模仿了人类大脑神经结构,包含256个“神经元”(处理器)、256个“轴突”(存储器)和64000个突触(神经元和轴突之间的通信)。总体来看,TrueNorth芯片由4096 个内核,100 万个 “神经元”、2.56 亿个 “突触” 集成。

  2017年9月,英特尔公司发布“Loihi”的神经模拟原型芯片,这是其推出的首款自学习神经元芯片。芯片包含的数字电路能模拟人脑13万个神经元和1.3亿个突触连接。

  Loihi芯片采用了一种“异步激活”的全新计算方式,来模仿大脑运作模式,组成它的128个计算核心每个都包含1024个神经元,总共模拟出人脑13万个神经元和1.3亿个突触连接,组成异步神经形态的多核网状结构,每个神经元都能与成千上万个其他神经元同时通讯。

  据英特尔测试结果,Loihi的学习效率比其他智能芯片高100万倍,而且完成同一个任务所消耗的能源可节省近1000倍。

  早在2013年高通就公布了Zeroth芯片,名称来源于IsaacAsimov的机器人学第零定律:“机器人不会伤害人类,而它们也不会允许人类来伤害它们。”

  Zeroth芯片基于一款新的硬件结构,其与主宰计算机领域多年的硬件结构有很大区别。它模仿人类大脑结构,由数十亿协力合作的神经细胞组成。

  上海西井科技基于神经形态工程学,目前已推出了自主研发的拥有100 亿规模的神经元人脑仿真模拟器(Westwell Brain)和可商用化的 5000 万类脑神经元芯片(DeepSouth)两款产品。

  Westwell Brain 可以通过接受医学上大脑神经元脉冲放电数据,以更直观方式呈现人脑的脉冲形态,用于检验药物及治疗的作用区域及效果。目前,其已经和生物试剂供应商 ABR 公司达成战略合作。

  可商用化的 DeepSouth 则能模拟出高达5000万级别的 “神经元”,总计有50 多亿 “神经突触”。DeepSouth 在同一任务下的功耗仅为传统芯片的几十分之一到几百分之一。

  2015年来自浙江大学与杭州电子科技大学的年轻的研究者们研发出一款成为达尔文的类脑芯片。这款芯片是国内首款基于硅材料的脉冲神经网络类脑芯片。

  “达尔文”芯片面积为25平方毫米,比1元硬币还要小,内含500万个晶体管。芯片上集成了2048个硅材质的仿生神经元,可支持超过400万个神经突触和15个不同的突触延迟。

  类脑芯片公司aiCTX于2017年2月底在瑞士苏黎世创立,随后便发布了世界首款完全基于事件触发运算的动态视觉AI处理器DynapCNN。

  该处理器是一款纯异步、高可配置性、可拓展性的神经形态处理器。芯片面积仅为12平方毫米,采用GF22nm工艺设计,单芯片集成超过100万脉冲神经元和400万可编程参数,支持多种CNN架构,其芯片架构所具有的可拓展性适合于实现大规模脉冲卷积神经网络。

  目前,除了欧洲和美国正在大力投入类脑芯片研发之外,中国也十分重视类脑研究,并将类脑计算作为国家战略发展的制高点,列入国家“十三五”规划。但是,类脑芯片还处于前期探索阶段,想要真正的落地还需要面临诸多挑战:

  一是类脑芯片的单晶硅材料和忆阻器等技术有待突破。为了在硬件层面上模仿人脑中的神经突触,科学家们研究了基于CMOS和忆阻器实现人工神经网络。但是从忆阻器理论出发,神经元模型中的钙离子和钾离子通道由易失性忆阻器构成,对忆阻器的频率依赖严重,满足类脑芯片的单晶硅和忆阻器等材料技术仍有待突破。

  二是对脑的观测和工作机制了解不够;类脑芯片的研究集中于直接在微芯片上模拟生物神经元和突触的属性,但是用半导体材料模拟脑细胞和突触的功能来设计芯片,由于人类对于脑的研究远远不够,这样的芯片在性能上远远达不到“人脑”的要求。

  三是类脑芯片的研究门槛高,人才和企业队伍缺失;据不完全统计,目前从事类脑芯片研究队伍(包括企业和研究机构)不到一百家,全球研究这门技术人才远远不够撑起整个产业。

  四是类脑芯片的工程化难题;对于不同的应用,类脑芯片处理器的产业化进程会有所不同,这对于中下游企业而言,芯片在不同场景下的兼容性和性能也会有所不同,目前还尚未出现真正产业化的通用类脑芯片。