网站首页

产品中心

智能终端处理器 智能云服务器 软件开发环境

新闻中心

关于必一运动

公司概况 核心优势 核心团队 发展历程

联系我们

官方微信 官方微博
主页 > 新闻中心

AI B体育芯片和传统芯片有何区别?

发布时间:2024-05-26 22:36浏览次数: 来源于:网络

  必一运动广义上,AI芯片是用于运行AI算法的专用处理器,与传统芯片(如CPU)的区别在于

  某种程度上,GPU和FPGA也可以视为AI芯片,不过ASIC类的特点鲜明,因此最具有代表性。

  比特币的共识算法是SHA256算法,基于哈希运算,所以不存在反向计算公式,只能靠矿机去穷举海量的可能值。对于每个区块,最先尝试到正确值的矿工,将获得挖矿奖励。对于矿工来说,计算速度越快,获得奖励的期望就会越高。

  在CPU作为主流挖矿方式的时期,一位论坛ID为Laszlo的程序员,发现GPU的挖矿效率远远高于CPU。于是他仅用一块9800显卡,就挖出了超过8万个比特币。

  (1)性能与传统芯片,比如CPU、GPU有很大的区别。在执行AI算法时,更快、更节能。

  传统的CPU、GPU都可以拿来执行AI算法,但是速度慢,性能低,无法实际商用。

  比如,自动驾驶需要识别道路行人红绿灯等状况,但是如果是当前的CPU去算,那么估计车翻到河里了还没发现前方是河,这是速度慢B体育,时间就是生命。如果用GPU,的确速度要快得多,但是,功耗大,汽车的电池估计无法长时间支撑正常使用,而且,老黄家的GPU巨贵,经常单块上万,普通消费者也用不起,还经常缺货。另外,GPU因为不是专门针对AI算法开发的ASIC,所以,说到底,速度还没到极限,还有提升空间。而类似智能驾驶这样的领域,必须快!在手机终端,可以自行人脸识别、语音识别等AI应用,这个必须功耗低,所以GPU OUT!

  现在所说的AI芯片,可以分两类,一类是面向训练和推断(Inference)皆可的,这个活GPGPU可以干B体育,CPU也可以干,FPGA(Altera的Stratix系列)也都行,但是Google的TPU2和Bitmain的sophon之类因为专门设计可能在能耗比上有优势。这类产品相对GPGPU,整体类似,保留了相当多的浮点处理单元的同时(或者说建立了很多张量计算单元),抛弃了一些没啥用的图形流水线的玩意,提高了能耗表现。这部分玩家少,但是却更有趣。当然ICLR也有琢磨用定点器件训练的工作,Xilinx家是希望XNOR-net让定点器件都能参与训练。

  当前AI芯片设计方案繁多,包括但不限于GPU/FPGA/ASIC/DSP等。目前市场上的对于AI芯片并无明确统一的定义,广义上所有面向人工智能(Artificial Intelligence,AI),包括Training(训练)和Inference(推理)应用的芯片都可以被称为AI芯片。

  当前AI运算指以“深度学习” 为代表的神经网络算法,需要系统能够高效处理大量非结构化数据(文本、视频、图 像、语音等)。这需要硬件具有高效的线性代

  其实没有传统芯片的说法,按不同的方式芯片可以有不同的分类方法,我想题主说的传统芯片是指CPU、GPU这些。CPU、GPU与AI芯片他们的共同点是都可以进行AI的运算,不同点是

  CPU(central processing unit)是通用处理器,可以处理一切事物,就像一把瑞士军刀,哪方面都能做但都不是专业高效的。

  GPU(Graphics Processing Unit)是专门用来处理图形图像相关的处理器,与CPU相比GPU处理的数据类型单一,因为运算与AI相似以及容易组成大的集群,所以进行AI运算时在性能、功耗等很多方面远远优于CPU,经常被拿来处理AI运算。

  DSP(digital signal processor),是专门用来处理数字信号的,DSP与GPU情况相似,也会被拿来做AI运算,比如高通的手机SoC。

  AI芯片是专门用来处理AI相关运算的芯片,这与CPU、GPU、DSP的“兼职”做AI运算不同,即便是最高效的GPU与AI芯片相比也是有差距的,AI芯片在时延、性能、功耗、能

  AI芯片与传统CPU芯片的区别还是比较多的,其中非常关键的一点就是AI芯片更加强调「软硬结合」。

  前一段给一期视频创作了脚本(视频地址:从拼算力到拼效率,为什么说征程 5 是智能汽车最强大脑?),原脚本内容实际上比视频丰富很多,其中的部分内容恰好可以回答这个问题,在此分享出来:

  童年史蒂夫·乔布斯在参观农场时,看到小牛犊在出生几分钟后就能挣扎开始走路,这让他大为震憾:「这不是通过学习获得的技能,而是与生俱来的」、「就像是设计好的,身体与大脑在出生后立刻协同作用」[1]。

  几十年后,在 2007年第一代iPhone发布会上,乔布斯以图灵奖得主、图形用户界面发明人艾伦·凯(Alan Kay)的一句话强调了「软硬结合」思想的重要性:「真正认真对待软件的人应该做自己的硬件」。

  上结论先,AI芯片和传统芯片(CPU)最大区别在于,CPU是为通用功能设计的架构而AI芯片则是为专用功能优化的架构。

  第一个问题,假设你做手机,使用AI芯片,就某些特定的功能来说,肯定强于传统芯片(也就是只部署CPU)。因为AI芯片就是为了优化特定的算法设计的芯片。目前手机搭载的AI芯片主要实现以下功能:图片识别、实时翻译、文字识别。他们背后都需要深度学习的参与,而AI芯片为深度学习提供了算力支持。在需求越来越多的今天,我们需要更强的芯片来更快更好的完成工作,而CPU已不足以支持这些独特的需求。

  如果从技术角度分析传统芯片(CPU)和AI芯片,可能还要从CPU的架构开始说起。

  CPU内部由成千上万个处理核心组成。根据不同的运算,处理核心又分为逻辑运算、算术运算和寻址运算。单个处理核心的功能很简单,关于代码是如何翻译成操作运算,以及指令如何存储,哪些指令需要存储,统统不负责。而指令调度、指令寄存、指令翻译、编码、运算核心和缓存加起来就大约是一块CPU了。

  因为(xx)两个不同架构项目的关系,不断有朋友问我,怎么看AI芯片和通用计算芯片在架构上的差异和优缺点?其实这个话题有点“旧”了,这几年中,既有学术界专家的比较正式的文章回答,也有业界大佬在会议上总结了一些观点,感兴趣的稍微搜一下就可以找到。但其实这个问题却又非常难回答,一个主要的原因,AI芯片架构众多,有几条不同的路线,再加上不同的应用场景:训练(normal/HPC),推理(Datacenter/Edge/Mobile/Tiny),自动驾驶是Mobile+Edge的组合,L2/L2.5以Mobile为主。我们不能以其中一个架构代表所有的AI芯片架构,但让我们了解了所有的AI芯片再来回答这个问题,就会发现太发散了,不好总结。

  我尝试从几个最主要的特征出发,基于当前的一代架构为基础,将这些架构分成几类,纯粹个人见解:

  进入公司AI产业快有3个年头,AI芯片和传统芯片,甚至AI芯片和GPU,还有AI芯片的发展历史,面向未来场景的挑战都有很多话题,下面我们一起来聊聊AI芯片和传统芯片的区别哈。

  芯片是半导体元件产品的统称,而集成电路,缩写是IC,就是将电路小型化,通过电子学和光学,将电路制造在半导体晶圆上面。

  我们会分为4个小点进行介绍AI芯片前言解读。首先是AI芯片从CPU、GPU、到XPU的发展情况总体介绍,接着是AI芯片都有哪些系统架构,基于不同的系统架构,又引申出不同的AI芯片。第三部分来整体看看,AI芯片的产业链情况,了解AI芯片从设计到应用的一个分部。最后自然是了解AI芯片未来的发展趋势,展望未来。

  首先我们说下到底什么是AI芯片,广义上讲,只要能够运行人工智能算法的芯片都叫作AI芯片。但是通常意义上的AI芯片,指的是针对AI算法做了特殊加速设计的芯片,当前阶段的AI算法一般以深度学习算法为主,也可以包括其它机器学习算法。

  相信你一定还记得击败了李世石和柯洁的谷歌“阿尔法狗”(Alpha Go),那你知道驱动Alpha Go的是什么吗?

  如果你觉得Alpha Go和人相似,只不过是把人脑换成了芯片,那么你就大错特错了。击败李世石的Alpha Go装有48个谷歌的AI芯片,而这48个芯片不是安装在Alpha Go身体里,而是在云端。所以,真正驱动Alpha Go的装置,看上去是这样的...

  因此李世石和柯洁不是输给了“机器人”,而是输给了装有AI芯片的云工作站。

  然而近几年,AI技术的应用场景开始向移动设备转移,比如汽车上的自动驾驶、手机上的人脸识别等。产业的需求促成了技术的进步,而AI芯片作为产业的根基,必须达到更强的性能、更高的效率、更小的体积,才能完成AI技术从云端到终端的转移。

  目前,AI芯片的研发方向主要分两种:一是基于传统冯·诺依曼架构的FPGA(现场可编程门阵列)和ASIC(专用集成电路)芯片,二是模仿人脑神经元结构设计的类脑芯片。其中FPGA和ASIC芯片不管是研发还是应用,都已经形成一定规

  此刻,你应该是在电脑或手机上看这篇文章。不管怎样,这些机器都属于现代计算机,它们都有中央处理器(CPU)和其他为特定功能服务的专用芯片,例如显卡、声卡、网卡、传感器融合等。处理特定任务时,专用处理器往往比通用CPU更快更高效。

  计算机发展早期,CPU都会和专用处理器配合使用。1970年代的8位和16位CPU需要依赖软件来模拟浮点指令,因此执行浮点运算非常慢。而由于计算机辅助设计(CAD)和工程模拟等应用对浮点运算的速度要求较高,于是人们开始用数学协处理器(math coprocessor)辅助CPU,让数学协处理器分担所有浮点运算任务,它的浮点运算速度和效率都比CPU更高。这就是专用处理器的一个例子。

  关注AI和半导体行业的朋友近来可能听说过“机器学习(ML)专用处理器”(即AI加速器)。最常见的AI加速器莫过于NVIDIA GPU,此外还有Intel的Habana Gaudi处理器、Graphcore的Bow IPU、Googl

  CPU我们都很熟悉了,中央处理器,可以处理一切事物,负责大多数处理活动的计算单元。CPU根据来自硬件和软件的特定计算机指令工作,以提供所需的结果(输出)。它被宽泛的称为计算机的“大脑”,因为它执行复杂的数学计算以有效地处理不同的任务。

  GPU(Graphics processing unit,图形处理器),又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站等上做图像和图像相关运算工作的微处理器。

  GPU的工作原理是通过多个处理单元并行处理图形、图像和计算任务来提高处理速度和效率。这些处理单元分布在不同的计算核心和计算单元重,可以同时处理多个任务。与CPU相比,GPU具有更多的处理器和更快的内存。这使得GPU能够更快地执行大量数据密集型任务,例如图像处理、科学计算和深度学习。

  通常意义上的AI芯片,指的是针对AI算法做了特殊加速设计的芯片,当前阶段的AI算法

  是根据程序对数据进行处理,早期大概是因为计算器普及,所以发展方向是逻辑运算。

  后期发现这东西应该可以看电影做娱乐,开始发展单指令多数据,大概是叫MMX指令集?这个后期大概是从1990年开始到现在。

  同时发现显示器的单数据多指令是比较固定的,最好是拿出来单独做个硬件,这样可以让CPU的设计更简单,提高显示性能,这个东西叫显卡。

  之后硬件分类结构基本成型,发展了多核大战和64位技术,低压节能技术,超线程等等。一直在优化,获得更高性能B体育。

  最近几年,在对逻辑研究透彻的基础上,开始设计GPU进行计算。擅长处理特定数据,逻辑比较简单的数据,只需要运算不需要复杂调度。

  AI芯片,是因为发现了一类数据,运算量很大,调度也很多。写到这儿觉得,其实一个CPU加一个显卡就等价于一个AI芯片。

  总结一下,有部分专业人士对未来数据处理器的发展预测是AI方向,所以应当作为CPU设计方向,国内在做,国外也在做,做的好不好是一种

  人工智能研究已经有六十多年的时间。从最简单的文字对话,到电脑程序战胜人类国际象棋大师。人工智能在竖立了一个里程碑之后似乎就进入了平台期,再无标志性的成绩出现。然而最近几年,计算机的智能水平突然得到了明显提升:识别图片和语音正确率超过人类,自动驾驶汽车开始上路,参加智力问答竞赛获得冠军,甚至曾经被认为无法战胜人类的围棋领域,人工智能现在已成绩斐然。

  到今天,这些成绩的背后,都离不开AI算法和运算能力的突飞猛进。AI算法和芯片的算力,始终互相成就。一方面,GPU的不断升级,带动了AI计算突破算力瓶颈,实现了大规模应用;反过来AI大规模应用,产生的庞大数据、更复杂的需求,也带动了芯片的创新。

  2022年6月,全球最权威的AI计算竞赛之一,也被称为“机器学习的奥林匹克”的ML Perf,MLCommons发布了MLPerf Training v2.0的结果,此次共收录了来自21个不同提交者的250多项性能测试结果,包括Azure、百度、戴尔、富士通、技嘉、谷歌、Graphcore、HPE、

  终端AI芯片要求功耗低,算力需求也相对较低,主要是AI推理的应用。终端AI芯片以各种带AI模块的MCU来呈现,专注于某一类应用,例如,智能音箱里面的AI芯片,可以用于语音识别。智能门锁的AI芯片,可以人脸识别等等

  云端AI芯片则是数据中心,用于云端AI加速,不但可以推理也可以做训练。例如NVIDIA的GPGPU卡,谷歌的TPU等等。云端AI芯片性能比较强,面积也非常大,例如A100据说在7nm下有826mm2,性能也比较强悍!

  章鱼这种生物比较奇怪,章鱼有8条腿,但是章鱼的某些决策不是都要放到大脑中来计算,而是在腿中就进行计算。

下一篇:AI芯片到底是个神马 解读技术 AI基础 必一运动官方网站算力必备
上一篇:B体育华为、阿里、百度、地平线家AI芯片厂商梳理

咨询我们

输入您的疑问及需求发送邮箱给我们