算力焦虑下,挑战英伟达成大厂必修课
人工智能和深度学习技能的敏捷开展使得对高功用核算的需求急剧添加,人工智能企业需求不断投入核算资源,以前进算法的准确性和功率、应对数据量的增加、满意时效性要求并坚持技能竞赛优势,这为芯片公司供给了巨大的商场时机。
其间,GPU作为一种专门为图形烘托和大规模并行核算而规划的芯片,具有高并发、低功耗、高功用等优势,十分合适用于深度学习和人工智能核算。英伟达是现在GPU商场的领导者,其GPU在功用、兼容性和生态系统方面都具有较大的优势。可是,跟着商场竞赛的加重,许多芯片公司都妄图应战英伟达的位置。

英伟达现状
趁着人工智能的春风,英伟达现在笑傲半导体江湖。据TrendForce集邦咨询研报,估计AI芯片2023年出货量将增加46%。英伟达GPU是AI服务器商场搭载干流,市占率约60%到70%。
GPU头部厂商英伟达股价飙升,其A100/H100芯片一卡难求,被视作大模型生态中的最大赢家。英伟达仍占有着很多AI核算商场份额,这首要获益于英伟达的CUDA软件渠道,经过此渠道,开发者能够拜访英伟达的中心硬件功用。
一起,国内GPU创业公司的产品大多兼容CUDA,以保证用惯了英伟达产品的客户在迁移时没有妨碍。正因而,英伟达现在还没有能不坚定其位置的竞赛对手。
依据Jon Peddie Research发布的GPU商场数据核算陈述,英伟达2022年全年PC GPU出货量高达3034万块,是AMD的近4.5倍;到2022年四季度,在独立GPU商场,英伟达占有84%的商场份额,远超同业竞赛公司。
老对手不甘人后
本年8月,在英特尔最近的财报电话会议上,英特尔首席执行官Pat Gelsinger表明,英特尔正在研制下一代Falcon Shores AI超算芯片,暂定名为Falcon Shores 2,该芯片估计将于2026年发布。为了打破英伟达在AI范畴的独占位置,英特尔可谓是竭尽全力。7月11日,英特尔举行芯片发布会,针对我国商场推出高端AI处理器Gaudi 2。
英特尔研究院副总裁、英特尔我国研究院院长宋继强近来表明:“在这一波大模型浪潮傍边,什么样的硬件更好并没有结论。”他认为,GPU并非大模型仅有的硬件挑选,半导体厂商更重要的战场在软件生态上。芯片或许花两三年时刻就做出来了,可是要打造芯片生态需求花两倍乃至三倍的时刻。英特尔的开源生态oneAPI比闭源的英伟达CUDA开展或许更快。

经过一年的开展,oneAPI日趋完善,现在不只支撑DP C++,也支撑优化的Python。在软件东西库方面,英特尔一口气拿出了7个,包含数学、人工智能、视频处理等场景,使开发者能够快速取得最佳功用和跨体系结构支撑。
在英特尔自家的硬件产品上,根据oneAPI编写的程序能够轻松无缝移植。比方一个在至强处理器上运转的方针检测模型,开发者只需将设备称号这一行代码从CPU更改成XEHP,即可在Xe显卡上运转。oneAPI仍是全职业的敞开规范,任何厂商都能够运用。因而oneAPI取得了职业支撑,包含微软Azure和谷歌TensorFlow最近的认可,美国阿贡国家实验室、伊利诺伊大学都在运用oneAPI。

另一位不甘心屈于人下的对手是AMD。6月14日,AMD发布了AI处理器Instinct MI300系列。直接对标H100。这颗芯片将CPU、GPU和内存悉数封装为一体,然后大幅缩短了DDR内存行程和CPU-GPU PCIe行程,然后大幅前进了其功用和功率。
据悉,Instinct MI300行将上市。AMD称Instinct MI300可带来MI250加快卡8倍的AI功用和5倍的每瓦功用进步(根据稀少性FP8基准测验),能够将ChatGPT和DALL-E等超大型AI模型的练习时刻从几个月削减到几周,然后节省数百万美元的电费。
另一方面,在不久前针对2023年第二季度的财报电话会议上,AMD首席执行官苏姿丰博士强调了加快人工智能作业负载的数据中心产品线的重要性。此外,AMD或许会像英伟达及英特尔那样,经过定制产品绕开相关的出口约束,寻找时机向我国客户供给对应的人工智能解决方案,以此进一步扩展商场。
科技大厂围歼
芯片公司在AI方面的尽力众所周知,一些科技公司也开端凭仗在特定范畴或特定运用中堆集的丰厚经历和技能优势,开发专门用于深度学习的芯片,这些芯片在处理大规模数据集时能够供给更高的功用。
2017年,谷歌高调聘请了苹果A系列处理器开发首要领导人之一Manu Gulati,向业界暗示其正在树立一个手机处理器芯片的硬件规划团队。表面上看谷歌当然是想脱节对高通芯片的依靠,节省购买专利和产品的预算,树立自有的生态圈招引用户。事实上,自主研制芯片,尤其是具有深度学习功用的芯片,是谷歌为了抢夺AI商场做衬托。
据外媒Axois陈述,谷歌在自研处理器方面取得了明显前进,最近其自主研制的 SoC 芯片现已成功流片。据悉,该芯片是谷歌与三星联合开发,选用5nm工艺制作,“2+2+4”三架构规划的8核CPU集群,以及搭载全新ARM公版架构的GPU,一起在ISP和NPU上集成了谷歌Visual Core AI视觉处理器。这让谷歌的终端芯片能够更好地支撑AI技能,比方大幅进步谷歌帮手的交互体会。

亚马逊正在美国德州的实验室规划两种微芯片,用于练习和加快生成式人工智能。这两款定制芯片的代号分别为Inentia和Trainium,它们为亚马逊云科技(AWS)客户供给了一种替代挑选,能够替代英伟达图形处理器训练大言语模型。现在,收购英伟达的图形处理器越来越难,而价格也越来越高。
2023年头,亚马逊云科技专为人工智能打造的Amazon Inferentia 2(可经过芯片之间的直接超高速衔接支撑分布式推理)发布,最多可支撑1750亿个参数,这使其成为大规模模型推理的有力竞赛者。
民生证券方竞研报表明,下流运用端的高速开展使得微软、谷歌、Meta等很多海外巨子争相添加算力储藏,算力芯片需求高度旺盛之下,英伟达一家独大的商场格式或将迎来改变。
Meta和微软则合力为人工智能范畴引入了更多的竞赛,另辟蹊径打造了妄图打破GPU深度依靠的Llama 2。其能够为企业供给一种新的、高功用的核算东西,以支撑大规模的言语处理使命。关于那些现已具有很多 GPU 资源的企业来说,Llama 2 能够进一步前进其言语处理的功率和准确性。而关于那些缺少 GPU 资源的企业,他们也能够经过运用 Llama 2 来下降核算资源的耗费和本钱。

小结
人工智能商场竞赛剧烈,各企业需求不断进行技能研制和立异,以坚持竞赛优势。核算才能是人工智能技能的一个重要方面,具有更强的核算才能,意味着企业能够更快地开发和运用新技能,前进产品功用和用户体会。
因而,除了海外闻名半导体厂商和科技大厂的尽力,国内的芯片企业也敏捷入局,本年国际人工智能大会上天数智芯推出的通用GPU推理产品“智铠100”、瀚博半导体发布的图形处理烘托芯片sg100第二代、昆仑芯科技展现的包含第二代ai芯片和根据第二代ai芯片的加快卡产品r200系列等新品和海飞科的GPU compass c10芯片,都在必定程度上向人工智能的算力端紧追。
尽管英伟达在GPU商场上的抢先位置暂时难以撼动,但跟着技能的不断开展和商场的不断改变,其独占位置或许被许多对手进一步分解。因而,英伟达仍需求坚持继续的立异和技能抢先,以应对商场的应战和改变。