网站首页

产品中心

智能终端处理器 智能云服务器 软件开发环境

新闻中心

关于必一运动

公司概况 核心优势 核心团队 发展历程

联系我们

官方微信 官方微博
主页 > 新闻中心

AI芯片的诞生和发展背景 A必一运动I芯片发展的技术方向 A的趋势

发布时间:2024-01-29 22:41浏览次数: 来源于:网络

  必一运动官方网站大模型作为重要的技术方向已经取得显著进展,应用场景不断拓展和渗透,全球企业纷纷入场角逐。然而,由此带来的算力瓶颈问题正越来越受到关注。AI大模型高算力需求正催生AI的快速迭代,“无芯片,不AI”,以AI芯片为载体实现的算力正成为人工智能发展水平的重要衡量标准。

  自1956年美国达特茅斯学院首次提出人工智能(AI)的概念以来,AI技术不断获得突破和快速发展,对算力的需求也不断增加。为了满足这种需求,AI芯片不断迭代升级,目前已成为算力提升的核心基础硬件。

  2006年以前,AI算法尚未出现突破性进展,且AI的训练数据主要以小数据为主。因此学术界和产业界对AI的算力需求主要由CPU提供,在这个阶段AI芯片发展较慢。

  2006年到2016年期间,AI算法在深度学习上获得突破,同时大数据、云计算等技术在这期间高速发展,进一步促进了AI在“大数据+深度学习”模式上的快速发展,随之而来的是AI性能的提升越来越依赖于计算能力的大小。研究人员发现,相比于CPU,GPU具备并行计算特性,因此在深度学习等人工智能先进算法所需的“暴力计算”场景中更为高效。通过充分发挥GPU的优势,人工智能算法的计算效率可以大幅提升,这促使研究人员广泛采用GPU进行人工智能领域的研究和应用。

  2016年以后,随着AI技术的发展和商用化,AI芯片进入大发展阶段。2016年,美国谷歌旗下DeepMind团队开发的AI系统AlphaGo战胜韩国棋手李世石,引发全球AI热潮。此后,AI领域对于算力的需求不断增加。但GPU的高功耗和高价格限制了其在不同场景中的应用。为应对上述挑战,研究人员开始致力于开发定制化的AI芯片,以实现在加速AI算法运算的同时降低功耗和成本。自此,大量初创企业和传统互联网巨头纷纷涌入AI芯片领域,推动了专用AI芯片的快速发展。2022年11月,美国OpenAI公司推出AI大模型ChatGPT,引发全球AI大模型发展浪潮,这一趋势进一步加大了AI领域对算力的需求,推动了AI芯片的投资和发展。

  广义而言,AI芯片指的是专门用于处理人工智能应用中大量计算任务的模块,即面向人工智能领域的芯片均被称为AI芯片。狭义的AI芯片指的是针对人工智能算法做了特殊加速设计的芯片[1,2]。从技术架构来看,AI芯片主要分为图形处理器(GPU)、现场可编程门阵列(FPGA)、专用集成电路ASIC)、类脑芯片四大类。其中,GPU为通用型人工智能芯片,FPGA和ASIC是针对AI需求特征的半定制和全定制芯片,类脑芯片则是一种模仿人脑神经系统结构和功能的处理器。

  (一)图形处理器(GPU)。GPU最初是专门用来做图像处理的,如图像渲染、特效制作等,后因其优秀的矩阵计算能力和并发计算的架构,被广泛运用于AI领域。目前,GPU已成为AI领域最为成熟和广泛应用的通用型芯片,在数据中心、超级计算机等大型计算设施中备受青睐,在AI芯片市场中占据主导地位。

  在全球GPU厂商中,英伟达GPU技术一直处于领先水平,其融合了统一计算设备架构CUDA必一运动,构建起软硬件高性能计算的生态壁垒。2022年3月,英伟达在GPU技术大会(GPUTechnology Conference)上发布了基于新一代Hopper架构的高性能GPU芯片H100,其配备第四代TensorCore和Transformer引擎,与上一代产品相比,H100的综合技术创新可以将AI大型语言模型的速度提高30倍。

  (二)现场可编程门阵列(FPGA)。FPGA是一种灵活可编程的硬件平台,具备较高的计算性能和可定制性等优点,能够对AI算法进行加速和优化。在不断迭代的AI算法场景下,FPGA凭借其灵活性、低功耗和低延时的技术优点,在AI推理应用中表现出色。2022年11月,英特尔发布基于第二代英特尔Hyperflex FPGA架构的Agilex FPGA芯片,其中整合引入了AI张量模块的增强型数字信号处理(DSP)功能模块,能够更好支持AI/图像/视频处理以及可执行复数计算的DSP密集型应用。

  (三)专用集成电路(ASIC)必一运动。ASIC是针对用户对特定电子系统的需求而设计的专用集成电路,其计算能力和计算效率可根据算法需要进行定制,是固定算法最优化设计的产物。2016年,谷歌发布ASIC芯片TPU v1,主要应用于AI推理过程。自此,ASIC克服了GPU价格昂贵、功耗高的缺点,开始逐渐应用于AI领域,成为AI芯片的重要分支。2017年5月,谷歌发布TPU v2,相比于TPU v1,TPU v2最大的特色在于它既可以用于AI训练,又可以用于AI推理。2018年5月,谷歌发布TPU v3,可实现超过100PFLOPS的处理能力,几乎是TPU v2的8倍。2022年5月,谷歌又推出TPU v4,相比于英伟达A100芯片,处理速度最高快1.7倍,节能效率提高1.9倍。

  2022年3月,中国寒武纪公司推出训推一体AI加速卡MLU370-X8,搭载双芯片四芯粒思元370,集成寒武纪MLU-Link多芯互联技术,可应用于YOLOv3、Transformer等AI训练任务中,每张加速卡可获得200GB/s的通讯吞吐性能必一运动,是PCIe4.0带宽的3.1倍,可高效执行多芯多卡AI训练和分布式AI推理任务。

  (四)类脑芯片。类脑芯片是结合微电子技术和新型神经形态器件,模仿人脑神经系统进行设计的AI处理器,旨在突破“冯·诺依曼瓶颈”,实现超低功耗和并行计算能力。类脑芯片被认为是后摩尔时代重要的发展方向之一,可能成为未来智能计算的突破口。

  2017年,清华大学研发出第二代异构融合类脑芯片“天机芯”,其具有高速度、高性能、低功耗的特点,制程为28纳米。相比于当时世界先进的IBM的TrueNorth芯片,其功能更全、灵活性和扩展性更好,密度提升20%,速度提高至少10倍,带宽提高至少100倍。2019年,基于“天机芯”研究成果的论文《面向人工通用智能的异构天机芯片架构》(Towards Artiicial GeneralIntelligence with Hybrid Tianjic Chip Architecture)作为封面文章登上《自然》(Nature)杂志。2021年4月,英特尔发布第二代神经拟态芯片Loihi 2,其集成神经元达到100万个,是上一代的7.8倍,处理速度提高10倍。

  芯片的发展和升级换代一直依赖于工艺、架构和应用三个方面的推动。在应用方面,随着AI技术的深入发展和广泛应用,不同的AI应用场景正推动AI芯片向专业化方向发展,以满足特定场景对性能、功耗和成本的需求。在技术方面,随着拟态神经元、量子等技术的发展,AI芯片正不断突破传统架构、工艺对性能的束缚,在不同的技术路径上进行探索创新,呈现出多样化的发展方向。

  在AI算法和应用场景的推动下,GPU、FPGA和ASIC正呈现出以满足专业化需求为特征的发展方向。(1)GPU在处理大量并行计算任务中表现出色,且可通过加速设计更好地发挥AI潜能,但也存在功耗高、成本高等缺点。目前,GPU仍然是AI训练所需算力的主要硬件选择。(2)FPGA具有较强的计算能力、较低的试错成本和足够的灵活性,但其缺点在于价格较高、编程复杂,因此在半定制化AI场景中具备优势。(3)ASIC具有更高的处理速度和更低的能耗,并且可针对特定AI任务进行优化设计,从而在性能和能耗方面具备更好的综合素质,这使其在全定制化AI场景中表现优异。

  随着拟态神经元、量子等前沿技术的发展,AI芯片逐渐发展出类脑、量子等多样化技术路径的新型芯片,类脑芯片更是开始走向商用化。(1)类脑芯片拥有大规模并行计算、超低功耗和超低延迟等技术潜力,这些优势使其在未来AI应用场景中扮演重要的角色。未来,类脑芯片的一个重要发展方向就是围绕AI算法构建更加高效的存算一体计算系统,如开发更加高效的芯片架构、具备更多神经元的芯片等,以不断迭代升级AI芯片的综合性能。(2)量子芯片是基于量子力学原理构建的芯片,可推动人类计算能力呈指数级增长,形成“量子优越性”。有专家认为,量子芯片有望彻底解决AI算力瓶颈的问题。未来,随着AI的广泛应用,整个社会对于AI算力的需求和耗电量将会大幅增加,而量子芯片是解决上述一系列问题的潜在方案。不过,当前量子计算机的发展还面临着如退相干等问题,导致当前量子芯片仍主要存在于实验室阶段,距离商业化较远。总的来说,类脑芯片和量子芯片作为新型芯片技术,拥有巨大的潜力,将在未来的AI和计算领域发挥重要作用,为我们带来更高效、更强大的计算能力。

  声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。举报投诉

  (Artificial Intelligence chips)是特别设计用于处理人工智能(

  加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由CPU负责)。当前,

  TPMS发射器由五个部分组成(1)具有压力、温度、加速度、电压检测和后信号处理ASIC

  组合的智能传感器SoC;(2)4-8位单片机(MCU);(3)RF射频发射

  ,数据量呈现爆炸性增长态势,而传统的计算架构又无法支撑深度学习的大规模并行计算需求,于是研究界对

  如何?探境科技创始人CEO鲁勇在接受电子发烧友采访时做了详细阐述。 探境科技创始人CEO鲁勇 终端

  的灵感来自AlphaGo——这个计算机程序在2016年通过自学掌握了如何下围棋,并击败了

  ,对大规模并行计算能力有很高的要求,CPU和传统计算架构无法满足对于并行计算能力的需求[5],需要特殊定制的

  的兴起,智能化成为了传统车企转型升级的目标和需求导向,自动驾驶在众多汽车应用场景中广受关注,在对

  人工智能深度学习基础算法,在上世纪80、90年代就已经被提出,此后人类对其进行了大量改进,过程中,很重要的一点是,大量数据得以积累。在1998年,人类难以运用海量数据,而

  “成名”的时间要更早一些,毕竟5G正式开启商用是在2019年,而人工智能的崛起要更早。说起来,

  ,他表示数据的爆发式增长对设备的运算能力提出的严峻的考研,早先低能高耗的CPU/GPU已经难以胜任,亟待新的系统级平台支撑

  行业中体现的也尤为明显,算力供应虽然充足但非常昂贵,对国内众多安防中小企业而言非常不划算,廉价甚至普惠制的

  :一个是利用人工神经网络从功能层面模仿大脑的能力,其主要产品就是通常的CPU、GPU、FPGA及专用定制

  将挑战GPU绝对统治地位;数字身份有望成为第二张身份证;5G连接能力将增强至百亿级。

  带来的新一轮机遇?《单片机与嵌入式系统应用》小编特邀请了几位专家和工程师谈谈对此问题的看法,也欢迎大家留言讨论!

  的需要,阿里、云知声、出门问问、Rokid和百度等公司相继发布了自己的

  的初级阶段,无论是科研还是产业应用都有巨大的创新空间。我们相信,未来十年将是

下一篇:政策扶持与创新突破并举TCL摩星等中国AI芯片产业弯道超车B体育
上一篇:必一运动官方网站热点题材AI芯片概念是什么?热门概念股有哪些

咨询我们

输入您的疑问及需求发送邮箱给我们