ASIC 会不会取代 GPU?
近期,美国股票市场出现了不少波动。其中,两个科技股概念突然变得备受瞩目,市场涨幅惊人,引发了高度关注。这两个概念分别是ASIC和量子计算。
本文将重点谈论ASIC。
据资本市场称,ASIC正迅速崛起,对GPU在人工智能计算中的主导地位构成威胁。博通作为ASIC中最重要的概念股,股价一路飙升,从180美元一度飙升到250美元,市值也突破了万亿美元。与此形成鲜明对比,英伟达的股价持续下跌,甚至跌至不到130美元。
ASIC时代是否即将到来?博通是否真的能取代英伟达,成为新的AI巨头?
█ ASIC和GPU的定义
ASIC和GPU都是用于计算功能的半导体芯片。因为它们都可用于AI计算,所以也被称为“AI芯片”。
确切来说,计算芯片还包括人们更熟悉的CPU以及FPGA。
在行业中,通常将半导体芯片分为数字芯片和模拟芯片。其中,数字芯片市场份额较大,约占70%。
数字芯片还可进一步细分为逻辑芯片、存储芯片和微控制单元(MCU)。CPU、GPU、FPGA和ASIC都属于逻辑芯片。
逻辑芯片即计算芯片。它包含各种逻辑门电路,能实现运算与逻辑判断功能。
在这四种芯片中,CPU和GPU是通用芯片,能完成多种任务。尤其是CPU,功能全面,单核主频高,可完成各种任务,因此常被用作主处理器。
GPU最初用于图形处理(即显卡)。由于其拥有许多内核(数千个),适合进行并行计算,擅长同时进行大量简单计算任务(图形处理即同时处理大量像素计算)。
AI计算和图形计算一样,也是典型的并行计算任务。
AI计算包括大量并行的矩阵相乘、卷积、循环层、梯度计算等任务,因此,GPU非常适合完成这些任务。CPU不擅长AI计算,这也是英特尔股价跌至20美元以下的一个原因。
自2023年以来,随着AI浪潮的涌现,大多数企业的AI训练采用英伟达的GPU集群。进行适当优化后,一块GPU卡可提供相当于数十至上百台CPU服务器的算力。这直接导致英伟达的股价飙升了数十倍,仍然供不应求。
接下来看看ASIC和FPGA。
ASIC(特定应用集成电路),是一种专用于特定任务的芯片。ASIC的官方定义是:根据特定用户或特定电子系统的需求专门设计制造的集成电路。
谷歌公司的著名TPU(张量处理单元),数年前曾风靡一时的比特币矿机,英特尔的Gaudi 2 ASIC芯片,IBM的AIU,AWS的Trainium,都属于ASIC芯片。
近年来非常火热的DPU(数据处理单元)和NPU(神经网络处理单元)也属于ASIC芯片。
FPGA(现场可编程门阵列)是半定制芯片,也被称为"万能芯片"。FPGA可根据用户需求,在生产后进行无限次重复编程,实现所需的数字逻辑功能。
ASIC和FPGA的区别在于,AISC是全定制芯片,功能固定,无法更改。而FPGA是半定制芯片,功能灵活,可编程性强。FPGA无需流片(一项昂贵的工序),但由于可编辑性和冗余功能较多,一旦用于单一目的便会产生资源浪费。大规模生产情况下,FPGA的成本高于ASIC,且极致能效不及ASIC。
因此,FPGA目前主要用于产品原型开发、设计迭代,以及一些低产量特定应用,或用于培训和教学。适用于开发周期必须短的产品,也经常用于ASIC的验证。
总的来说,在大规模供货的AI计算方面,一般不考虑FPGA。
因此,AI芯片即GPU和ASIC之争。
█GPU和ASIC,究竟能谁更厉害?
作为专用定制芯片,ASIC基于面向的专项任务定制。其计算能力和效率严格匹配于任务算法。包括芯片核心数量、逻辑计算单元和控制单元比例,以及缓存等,整个芯片架构都是精确设计的。
因此,ASIC能够实现极致的体积、功耗。这类芯片的可靠性、保密性、计算能力、能效都会比通用芯片(GPU)更优。
例如,在同等预算下,AWS的Trainium 2(ASIC芯片)在完成推理任务速度上可比英伟达的H100 GPU更快,性价比提高了30-40%。明年计划推出的Trainium3,计算性能提高了两倍,能效提高了40%。
但是,为什么这些年GPU一直更为热门呢?
主要原因是英伟达的实力强大。
英伟达也是在人工智能上意外获得成功。当年AI领域权威辛顿(新晋诺贝尔奖得主)带领团队利用GPU进行AI训练,取得突破性进展,英伟达意识到自己有着不可思议的潜力。
随后,英伟达开始在人工智能领域加大投入,努力开发更为强大的GPU(当然,游戏也推动着这一进程)。
借助英伟达持续的努力,GPU核心数和工作频率不断提升,芯片面积也逐渐扩大。强大的计算能力有助于缩短训练时间,加快产品发布进程,这也是其重要优势所在。
当然,随着算力的提升,功耗也在水涨船高。不过,通过工艺和水冷等被动散热手段,勉强还能控制,不至于过热。
除硬件外,英伟达在软件和生态方面也有着不俗的布局。
他们打造的CUDA(AI开发软件套件)是GPU的核心竞争力之一。基于CUDA,即便是初学者也能快速上手。因此,英伟达的GPU解决方案在全球用户中广受欢迎,形成了牢固的生态体系。
相较之下,FPGA和ASIC的开发相对较为复杂,不太适合普及。
ASIC在AI领域无法取代GPU,这与其高昂成本、极长的开发周期以及巨大的开发风险有很大关联。当前AI算法变化迅速,而ASIC开发周期过长,显然不易适应这种快速变化的情况。
综上所述,GPU才有了目前的广阔市场。
值得一提的是,前文提到,AI计算可分为训练和推理两种。训练任务需要更强大的算力,因此在AI训练领域,厂商主要以GPU为主。
相较而言,推理任务对算力要求较低,并不需要太多的并行处理能力,因此GPU的算力优势并不那么明显。在这种情况下,许多企业开始采用成本更低、更节能的FPGA或ASIC来进行计算。
这一情况一直持续至今。目前,GPU在AI芯片中的占比可达70%以上。
当前,由于人们对英伟达的依赖过于深入,希望减少对其的依赖,非常渴望算力的多样化。此外,大型模型目前已从"训练热"阶段转向"推理热"阶段。推理类AI计算需求增加,为ASIC提供了机会。
因此,支持ASIC产业链,提高ASIC芯片在AI领域的份额,已成为共识。这也是博通和Marvell股价猛涨的原因。(据悉,博通正在与三家大型客户合作开发AI芯片,预计到2025年,AI芯片业务收入将达到150亿至200亿美元。)
那么,ASIC真的会轻松取代GPU吗?
显然不会。
基于前述性能、生态、集成能力等优势,英伟达的GPU仍将是近期AI芯片的首选。英伟达拥有成熟的软硬件网络整套解决方案,技术和资金实力卓越,GPU存量和出货量仍然庞大,市场地位难以撼动。
尽管ASIC的崛起速度很快,但仍需要时间成熟。AI ASIC芯片的研发也充满高风险。即使成功研发,也需要时间被市场接受。
这意味着,在相当长的时间内,GPU和ASIC将共存。用户将根据不同场景选择适合自己的芯片。自研ASIC更多是有利于厂商和英伟达进行谈判和议价。
未来前景仍难以预测。量子计算是否会带来计算领域的革命是当前的热议话题。
以上便是本文的全部内容,感谢大家耐心阅读!
文章来源:鲜枣课堂(ID:xzclasscom),作者:小枣君
广告声明:文中涉及的对外链接用于传递更多信息,结果仅供参考。【广告】
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。