人工智能芯片前沿技术研究

(整期优先)网络出版时间:2023-07-26
/ 2

人工智能芯片前沿技术研究

刘盈萱

江南机电设计研究所,贵州 贵阳550000

【摘要】随着社会信息技术和计算机网络技术的发展,人们对科技的向往日益剧增,由于人工智能在一定程度上成成为科学技术前沿领域,所以世界上各个国家对人工智能的发展越来越重视,本文首先分析人工智能的发展过程,然后研究其在应用过程中的作用,提出以下内容。

【关键词】计算机、人工智能、芯片

1. 发展过程

人工智能,就是“让机器行为看起来就像是人所表现出来的智能行为一样”。人工智能算法的实现需要强大的计算能力支撑,特别是深度学习算法的大规模使用,对计算能力提出了更高的要求。

进入2010年后,云计算广泛推广,人工智能的研究人员可以通过云计算借助大量CPU和GPU进行混合运算,进入2015年后,业界开始研发针对人工智能的专用芯片,通过更好的硬件和芯片架构,在计算效率上进一步带来10倍的提升。

1

图1人工智能芯片发展趋势

目前,根据计算模式,人工智能核心计算芯片的发展分为两个方向:一个是利用人工神经网络从功能层面模仿大脑的能力,其主要产品就是通常的CPU、GPU、FPGA及专用定制芯片ASIC。另一个神经拟态计算则是从结构层面去逼近大脑,其结构还可进一步分为两个层次,一是神经网络层面,与之相应的是神经拟态架构和处理器,如IBM的TrueNorth芯片,这种芯片把数字处理器当作神经元,把内存作为突触。与传统冯诺依曼结构不同,它的内存、CPU和通信部件完全集成在一起,因此信息的处理完全在本地进行,克服了传统计算机内存与CPU之间的瓶颈。同时神经元之间可以方便快捷地相互沟通,只要接收到其他神经元发过来的脉冲(动作电位),这些神经元就会同时做动作。二是神经元层面,与之相应的是元器件层面的创新。CPU、GPU和FPGA等通用芯片是目前人工智能领域的主要芯片,而针对神经网络算法的专用芯片ASIC也正在被Intel、Google、英伟达和众多初创公司陆续推出,并有望将在今后数年内取代当前的通用芯片成为人工智能芯片的主力。

2. 国内外研究现状

英伟达无疑是AI芯片市场中无可争议的领导者。2017年,英伟达可谓是风光无限。从游戏、数据中心到人工智能,市场对英伟达芯片的需求一路上升。 由于深度学习对计算速度的要求是“暴力”的,英伟达GPU芯片可以让大量处理器并行运算,速度比CPU快十倍甚至几十倍。

Google在2016年宣布独立开发一种名为TPU的全新的处理系统。TPU是专门为机器学习应用而设计的专用芯片。通过降低芯片的计算精度,减少实现每个计算操作所需的晶体管数量,从而能让芯片的每秒运行的操作个数更高,这样经过精细调优的机器学习模型就能在芯片上运行得更快,进而更快地让用户得到更智能的结果。

英特尔作为世界上最大的计算机芯片制造商,近年来一直在寻求计算机以外的市场,其中人工智能芯片争夺成为英特尔的核心战略之一。为了加强在人工智能芯片领域的实力,不仅以167亿美元收购FPGA生产商Altera公司,还以153亿美元收购自动驾驶技术公司Mobileye,以及机器视觉公司Movidius和为自动驾驶汽车芯片提供安全工具的公司Yogitech,背后凸显这家在PC时代处于核心位置的巨头面向未来的积极转型。

寒武纪是全球第一个成功流片并拥有成熟产品的AI芯片公司,拥有终端AI处理器IP和云端高性能AI芯片两条产品线。2016年发布的寒武纪1A处理器(Cambricon-1A)是世界首款商用深度学习专用处理器,面向智能手机、安防监控、无人机、可穿戴设备以及智能驾驶等各类终端设备,在运行主流智能算法时性能功耗比全面超越传统处理器。

深鉴科技将其开发的基于FPGA的神经网络处理器称为DPU。到目前为止,深鉴公开发布了两款DPU:亚里士多德架构和笛卡尔架构,其中,亚里士多德架构是针对卷积神经网络CNN而设计;笛卡尔架构专为处理DNN/RNN网络而设计,可对经过结构压缩后的稀疏神经网络进行极致高效的硬件加速。相对于 Intel XeonCPU 与 Nvidia TitanX GPU,应用笛卡尔架构的处理器在计算速度上分别提高189倍与13倍,具有24000倍与3000倍更高能效。

BPU(BrainProcessing Unit)是地平线机器人自主设计研发高效的人工智能处理器架构IP,支持ARM/GPU/FPGA/ASIC实现,专注于自动驾驶、人脸图像辨识等专用领域。2017年,地平线基于高斯架构的嵌入式人工智能解决方案将会在智能驾驶、智能生活、公共安防三个领域进行应用,第一代BPU芯片“盘古”目前已进入流片阶段,预计在今年下半年推出,能支持1080P的高清图像输入,每秒钟处理30帧,检测跟踪数百个目标。地平线的第一代BPU采用TSMC的40nm工艺,相对于传统CPU/GPU,能效可以提升2~3个数量级(100~1,000倍左右)。

百度2017年8月Hot Chips大会上发布了XPU,这是一款256核、基于FPGA的云计算加速芯片。合作伙伴是赛思灵(Xilinx)。XPU采用新一代 AI 处理架构,拥有GPU的通用性和FPGA的高效率和低能耗,对百度的深度学习平台PaddlePaddle做了高度的优化和加速。据介绍,XPU关注计算密集型、基于规则的多样化计算任务,希望提高效率和性能,并带来类似CPU的灵活性。

百度2017年8月Hot Chips大会上发布了XPU,这是一款256核、基于FPGA的云计算加速芯片。合作伙伴是赛思灵(Xilinx)。XPU采用新一代 AI 处理架构,拥有GPU的通用性和FPGA的高效率和低能耗,对百度的深度学习平台PaddlePaddle做了高度的优化和加速。据介绍,XPU关注计算密集型、基于规则的多样化计算任务,希望提高效率和性能,并带来类似CPU的灵活性。

3. 技术应用与前景分析

人工智能芯片主要应用在训练(training)和推理(inference)两个环节。训练环节的作用是指利用海量数据,选择合适的训练方法,训练出一个人工智能模型。训练环节最关心的指标是速度快。国内外的人工智能巨头公司都建立了庞大的GPU集群,以最快速度处理海量数据训练、验证模型的有效性。而在线推理环节也就是人工智能模型的实际应用环节,是指利用训练出来的模型来在线响应用户的需求。推理环节又分为两个场景,一个是在云端数据中心响应用户需求,一个是在前端智能设备响应用户需求。

目前,人工智能芯片在手机领域的应用主要体现在两大功能,分别是语言识别和图像分析。未来人工智能芯片在手机上的应用将使智能手机实现真正意义上的“智能”。随着人工智能芯片技术研发和商业化发展,未来手机处理器将能够利用名为“深度学习”的人工智能方式。

未来的智能手机将成为真正的智慧手机,到2025年超过90%的智能终端用户将从个性化、智慧化的智能个人助理服务中获益。人工智能不仅能让手机听懂、看懂、对话,甚至将以人类的思考方式来理解人类诉求,让用户快速、精准的获取信息和服务,人工智能芯片在手机领域的应用潜力巨大。

自动驾驶系统被认为是汽车智能化发展的最高目标,对促进汽车产业转型升级具有重大战略意义。人工智能芯片在自动驾驶技术中有着丰富的应用,自动驾驶汽车需要实时处理来自激光雷达、摄像头等多路传感器传输的海量数据并作出实时反映。如果通过云端反馈处理,则必然会增加时延和不确定性,导致无人汽车安全性下降。因此,无人驾驶中必须将计算平台部署在前端。

4. 总结

近年来,在政府和市场资本的双重推动下,我国的人工智能芯片行业正引来一个高潮。当前的人工智能正处于产业化的早期阶段,所有国家都站在同一起跑线上。而我国政府从上至下给予了人工智能高度的关注,完成了一系列政策层面的顶层设计(如:人工智能及与其密切相关的“脑计划”研究已列入我国“十三五”规划纲要,“脑科学与类脑研究”列入国家科技创新2030重大项目等)。而拥有大量的数据并对数据主权的管理以及应用场景的本土化,也必将进一步助力中国芯片公司的崛起。