029-85247636
最近,人工智能公司OpenAI推出的谈天机器人ChatGPT全面出圈,掀起一阵全球性的热潮。上一年11月30日,ChatGPT一经推出就敏捷成为史上用户添加快度最快的消费级使用,仅5天注册用户数就超越100万。
短短两个月后,其用户数已打破1亿,改写了人工智能谈天程序用户数添加的记载。微软、谷歌、阿里、腾讯、百度等国内外大厂也都在抢占布局ChatGPT,竞相宣告将推出相关产品,使其热度继续高涨。
ChatGPT是人工智能技能驱动的天然言语处理东西,它能够经过学习和了解人类的言语来进行对话,还能依据谈天的上下文进行互动,真正像人类相同来谈天沟通,甚至能完结编撰邮件、视频脚本、案牍、翻译、代码,写论文等使命。
咱们正在进入一个以ChatGPT代表的AI新年代,而高算力AI使用需求大规划数据学习和快速运算,AI芯片的需求将随之暴增。
中商工业研究院指出,人工智能商业化使用将加快落地,推进AI芯片商场高速添加,估计全球AI芯片商场规划有望从2020年的约175亿美元提高到2025年的726亿美元(近5000亿元)。据亿欧智库测算,2025年我国人工智能中心工业商场规划将到达4000亿元,其间根底层芯片及相关技能的商场规划约1740亿元。
因而,在ChatGPT背面供给算力的GPU、CPU、FPGA、ASIC等芯片必将迎来新的添加点。本文将扼要整理这四类芯片在ChatGPT使用中的重要性,及其各自的商场规划、国产化现状、代替厂商名单等。
从构建AI模型的进程来看,首选要用超大算力和数据构建预练习模型,然后要在预练习模型上进行针对性练习。因为具有并行核算才能,可兼容练习和推理,GPU被广泛使用于加快芯片。
在AI年代的云端练习芯片中GPU占有较大的比例到达64%,被视为AI年代的算力中心。ChatGPT练习模型中就已导入至少1万颗英伟达GPU,ChatGPT的炽热鼓起对GPU的需求可见一斑。
跟着云核算、人工智能等高功用异构核算的开展,GPU并行核算的优势被进一步开掘,成为高功用核算范畴的“宠儿”。从2020年开端,GPU便成为国内芯片范畴“最吸金”赛道之一,融资总额已超越200亿元。
放眼全球,GPU出现寡头高度独占的格式。在GPU商场,排名前三的英伟达、AMD、英特尔的营收简直独占整个GPU职业,占有商场比例高达63%。在我国商场中,三大巨子也是分走了大部分“蛋糕”。
受限于工艺制程、EDA等技能封闭,国内厂商现在在自主研制范畴的效果与世界一流水平存在较大距离。但跟着国内自研GPU的领军企业景嘉微、壁仞科技、芯动科技等逐步锋芒毕露,各厂家已开展出一系列产品线,而且均选用国内老练制程工艺及自主架构,国产代替浪潮下,国内独立GPU厂商的宽广商场空间已被翻开。
眼下,ChatGPT的爆火正呼喊更强功用GPU的问世,而这将促进资金加快流入职业,国产厂商将有时机在其间分得一杯羹。
FPGA(Field Programmable Gate Array)又称现场可编程门阵列,是指一种经过软件手法更改、装备器材内部衔接结构和逻辑单元,完结既定规划功用的数字集成电路。
FPGA芯片在实时性(数据信号处理速度快)、灵活性等方面优势显着,还能够编程、并行核算,在深度学习范畴占有不行代替位置。
比较于CPU/GPU/ASIC,FPGA具有更高的速度和极低的核算能耗,常被用作专用芯片的小批量代替品。在AI模型构建时,FPGA要完成深度学习功用,需求与CPU结合,一起使用于深度学习模型,相同能够完成巨大的算力需求。
FPGA是集成电路中的卡脖子范畴,技能门槛极高,现有国内商场规划每年超百亿元。得益于5G通讯技能和机器学习等新技能的鼓起和使用场景的拓宽,我国FPGA商场将进一步扩容,估计将到达全球商场比例的1/3。
全球FPGA芯片商场中赛灵思和英特尔算计占有率高达87%左右,前四家美国公司即占有了全世界 92%以上的FPGA供给商场。国内FPGA商场中赛灵思和英特尔算计占有80%的商场比例,国产厂商只占4%,具有宽广的提高空间。
因为FPGA芯片具有较高的技能和资金壁垒,国内FPGA厂商硬件功用指标相较赛 灵思、Intel等技能水平较低,在本钱操控才能、软件易用性等方面都与头部 FPGA厂商存在必定的距离。
从供给视点看,现在国外公司占有了90%以上国内商场比例,进口代替需求激烈,尤其在28nm以上中高端范畴国产化率更低,国产代替空间大。
近年来我国FPGA厂商活跃布局人工智能、自动驾驶等商场,抢先企业现已完成了部分技能打破。如上一年8月,京微齐力发布首颗国产22nm的FPGA芯片并成功量产。在职业全体规划上升与进口代替加快的驱动下,未来国产FPGA企业将有望缩小与世界先进水平的距离,并完成成绩和规划的进一步添加。
从深度学习的视点来看,尽管GPU是最适合深度学习使用的芯片,但CPU作为核算机运算与操控的中心,天然也不行疏忽。想要完成深度学习功用,其它芯片均需求与CPU结合,一起使用于深度学习模型,以完成巨大的算力需求。CPU作为智能化的中心部件,一直以来都受到国内注重,咱们正在加快改动对国外CPU过度依靠的局势,加大相关方针和资金的扶持,完成技能自主可控。
近期,在ChatGPT带动下,国内各科技大厂也纷纷表明早已布局相关产品,比方百度的“文心一言”、网易有道的AI白话教师等。这些产品背面所均需求的强壮算力支撑,未来将拉动CPU等相关硬件的出资,国产CPU商场规划也将进一步得到拓宽。
依据全球半导体交易核算安排(WSTS) 的数据,2019年,受世界交易影响,全球CPU职业总收入略有下降;2020年,因交易冲突缓解,加之数据中心、5G商用、 智能轿车等需求的添加,全球CPU职业商场规划上升至839亿美元,CAGR(复合年均添加率)4.1%,商场重回稳步添加态势。估计2030年全球CPU商场规划将到达1287.4亿美元。
现在,Intel、AMD仍占有着全球CPU首要商场比例,两家企业出货量占商场比例近乎100%,寡头独占特征显着。
我国CPU起步并不晚,但开展进程较为崎岖。近年来,在国产CPU企业奋力追逐之下,近年来已取得较大开展。
2016年3月,国内24家软硬件关键技能和使用研究单位,一起建议建立了一个非营利性社会安排“信息技能使用立异作业委员会”,简称“信创”,旨在处理中心技能“卡脖子”的问题,它的建立,进一步推进了国产CPU的开展进程,各大厂商研制实力快速提高,逐步完成国产化代替。
近年来,在党政、金融、电信、教育、交通、公用事业等信创要点范畴中,国产CPU及其配套软硬件逐步具有越来越高的市占率。依据国泰君安猜测,2025年国产CPU潜在商场规划到达360亿元。
现在,鲲鹏、飞扬、龙芯、兆芯、海光、申威等一批优质国产CPU厂商快速兴起,进入“春秋六国”年代。
在架构上,我国CPU首要分为x86、Arm、MIPS和Risc-V四大生态阵营。在这些指令集架构中,x86和Arm架构都受到西方国家掣肘,而MIPS等架构则不契合干流开展趋势,所以现在来看,Risc-V或将成为国产CPU重要开展方向之一。
跟着数据量的不断添加和芯片工艺的极限到来,对算力的诉求越来越难以被满意,ASIC由此诞生。ASIC(Application Specific Integrated Circuit),即专用集成电路,其核算才能和核算功率可依据用户特定需求进行定制,广泛使用于人工智能设备、虚拟钱银挖矿设备、耗材打印设备、军事国防设备等才智终端。
ASIC芯片可依据终端功用不同分为TPU芯片、DPU芯片和NPU芯片等。其间,TPU(Tensor Processing Unit)为张量处理器,专用于机器学习。DPU(Data Processing Unit),可为数据中心等核算场景供给引擎。NPU(Neural-network Processing Unit)是神经网络处理器,在电路层模仿人类神经元和突触,并用深度学习指令集直接处理大规划电子神经元和突触数据。
标准优势:ASIC芯片在规划时充分利用单位运算单元功用,防止冗余核算单元存在,有利于缩小芯片体积。
能耗优势:ASIC芯片单位算力能耗相对CPU、GPU、FPGA较低,如GPU每算力均匀约耗费0.4瓦电力,ASIC单位算力均匀耗费约0.2瓦电力,更能满意新式智能家电对能耗的约束。
集成优势:因选用定制化规划,ASIC芯片体系、电路、工艺高度一体化,有助于客户取得高功用集成电路。如TPU1是传统GPU功用的14-16倍,NPU是 GPU的118倍。寒武纪已发布对外使用指令集,ASIC将是未来AI芯片的中心。
比较于GPU和FPGA,ASIC缺少灵活性,特别是在AI、服务器这类范畴,在各种算法不断迭代的情况下,ASIC芯片的特性反而成为了它的负担。但地平线CEO余凯曾揭露表明,一旦软件算法固定下来,专用集成电路ASIC必定是未来的方向,按每瓦功耗核算才能看,ASIC可比GPU提高30-50倍,这也将是未来职业的竞赛焦点。
Research and Markets的陈述显现,2018年全球ASIC芯片商场规划为148.7亿美元,到2025年,全球ASIC芯片商场规划估计将到达247亿美元,在猜测期内以8.2%的复合年添加率添加。从数据上能够看到,其实ASIC芯片的商场规划并不小。
上文已说到,跟着机器学习、边际核算的开展,很多数据处理使命,让人们对核算功率、核算能耗等都提出了更高的要求,在此布景下,ASIC芯片开端受到注重,国外谷歌、英特尔、英伟达等科技巨子相继发布了TPU、DPU等ASIC芯片,国内大厂也开端瞄准这一商场敏捷发力。
*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联络作业人员删去。