英伟达的竞争对手不是 AMD,而是谷歌和亚马逊。
自 Open AI 发布 ChatGPT 以来,生成式 AI 成为一大热潮,英伟达的 GPU 作为 AI 芯片开始流行。然而,在 GPU 的生产中,存在两个瓶颈:台积电的 CoWoS 和高带宽内存(HBM),导致 GPU 在全球范围内短缺。
在这些 GPU 中,H100 的需求量尤其大,其价格飙升至 4 万美元,引发了所谓的英伟达「GPU 狂热」。
在这种情况下,台积电将产能翻倍,SK 海力士等 DRAM 厂商增加了 HBM 产量,导致「H100」的交货时间从 52 周缩短至 20 周。那么,英伟达的「GPU 狂热」会结束吗?
在这篇文章中,我们将讨论英伟达的「GPU 狂热」是否即将结束。先说结论,预计即使到 2024 年,ChatGPT 级 AI 开发和运营所需的高端 AI 服务器也只有 3.9% 的出货量。因此,谷歌、亚马逊、微软等云服务提供商(CSP)的需求似乎根本无法得到满足。总之,到目前为止,英伟达 的「GPU 狂热」只是一个开始,全面的生成式 AI 热潮即将来临。
下面,我们先简单回顾一下英伟达 GPU 的两大瓶颈。
两个英伟达 GPU 瓶颈
在英伟达 GPU 的生产中,代工厂台积电负责所有前、中、后制程。这里,中间工序是指分别生产 GPU、CPU、HBM 等芯片,并将其放置在从 12 英寸硅片切下的方形基板上的工序。这种基板称为硅中介层(图 1)。
图 1 2.5D 到 3D 中出现的中级工艺,例如 英伟达 GPU
另外,台积电开发的英伟达 GPU 封装称为 CoWoS(Chip on Wafer on Substrate),但两个瓶颈是硅中介层容量和 HBM(图 2),情况如下。
图 2 CoWoS 结构和英伟达 GPU 上的两个瓶颈
CoWoS 于 2011 年开发,但此后,随着 GPU 性能的提高,GPU 芯片的尺寸不断增大,GPU 中安装的 HBM 数量也随之增加(图 3)。结果,硅中介层逐年变大,而从单个晶圆上可获得的中介层数量却与之成反比减少。
图 3 Interposer 面积和 HBM 数量随着每一代的增加而增加
此外,GPU 中安装的 HBM 数量增加,HBM 内部堆叠的 DRAM 芯片数量也增加。此外,DRAM 每两年就会小型化一次,HBM 标准每两年更新一次以提高性能。因此,尖端 HBM 供不应求。
在这种情况下,台积电将其硅中介层产能从 2023 年夏季前后的每月 15,000 片翻倍至今年夏季前后的每月超过 30,000 片。此外,三星电子和美光科技已获得英伟达认证,并开始供应尖端 HBM,此前由 SK 海力士主导。
受上述影响,需求量最高的英伟达 H100 的交货时间从 52 周大幅缩短至 20 周。那么,AI 服务器的出货量因此增加了多少呢?
两类 AI 服务器的定义
根据 DIGITIMES Research 发布的《全球年度服务器出货量,2023-2024》(Servers Report Database, 2024)显示,AI 服务器有两种类型:
配备两个或多个 AI 加速器但未配备 HBM 的系统称为「通用 AI 服务器」。
配备至少四个配备 HBM 的 AI 加速器的系统被称为「高端 AI 服务器」。
这里的 AI 加速器是指为加速 AI 应用,特别是神经网络和机器学习而设计的特殊硬件,典型的例子就是英伟达的 GPU。此外,ChatGPT 级别的生成式 AI 的开发和运行需要大量高端 AI 服务器,而不是通用 AI 服务器。
那么,通用 AI 服务器和高端 AI 服务器的出货量分别是多少?
通用 AI 服务器和高端 AI 服务器出货量
图 4 显示了 2022 年至 2023 年通用 AI 服务器和高端 AI 服务器的出货量。预计 2022 年通用 AI 服务器出货量为 34.4 万台,2023 年出货量为 47 万台,2024 年出货量为 72.5 万台。
图 4 通用 AI 服务器和高端 AI 服务器出货量(2022-2024)
同时,ChatGPT 级生成式 AI 开发和运营所需的高端 AI 服务器预计 2022 年出货 3.4 万台,2023 年出货 20 万台,2024 年出货 56.4 万台。
那么,高端 AI 服务器的出货量能否满足美国 CSP 的需求呢?
图 5 显示了服务器、通用 AI 服务器和高端 AI 服务器的出货数量。从服务器整体来看,无论是通用人工智能服务器还是高端人工智能服务器,出货量都非常少。
图 5 服务器、通用 AI 服务器、高端 AI 服务器出货量
当我研究开发和运行 ChatGPT 级别的生成式 AI 需要多少高端 AI 服务器时,我更加失望。
ChatGPT 级别生成 AI 所需的高端 AI 服务器
据报道,ChatGPT 的开发和运营需要 30,000 台英伟达 DGX H100 高端 AI 服务器(图 6)。
图 6 运行 ChatGPT 需要多少高端 AI 服务器?
英伟达 DGX H100 配备了八颗 H100 芯片,每颗芯片的价格已飙升至 4 万美元,使得系统总价达到 46 万美元。换句话说,生成 ChatGPT 级别的 AI 需要投资 30,000 台 x 460,000 美元 = 138 亿美元。
我认为世界上充斥着生成式人工智能系统,但实际上已经构建了多少 ChatGPT 类生成式人工智能?
图 7 服务器出货量、高端 AI 服务器出货量、ChatGPT 级生成 AI 系统数量
由于 2022 年高端 AI 服务器出货量为 3.4 万台,因此只能构建一套 ChatGPT 级 AI 系统(这正是 ChatGPT)。次年,即 2023 年,高端 AI 服务器出货量达到 20 万台,因此可以构建 6 到 7 个 ChatGPT 级 AI 系统。由于预计 2024 年将出货 56.4 万台高端 AI 服务器,因此将有可能构建 18 至 19 个 ChatGPT 级 AI 系统。
不过,上述估算假设 ChatGPT 级 AI 可以用 3 万台高端 AI 服务器「英伟达 DGX H100」构建。然而,由于一代 AI 可能变得更加复杂,在这种情况下可能需要超过 30,000 个 英伟达 DGX H100。综上所述,美国通信服务提供商不太可能对当前高端人工智能服务器的出货量感到满意。
现在,我们来看看每个最终用户(例如美国的 CSP)拥有多少台高端 AI 服务器。
最终用户的高端人工智能服务器数量
图 8 显示了最终用户的高端 AI 服务器数量。2023 年,拥有 OpenAI 的微软拥有最多的高端 AI 服务器数量,为 6.3 万台,但到 2024 年,谷歌将超越微软,拥有最多的高端 AI 服务器。
2024 年排名前五的分别是谷歌,以 162,000 台(5 个系统)排名第一,微软以 90,000 台(3 个系统)排名第二,超微以 68,000 台(2 个系统)排名第三,亚马逊 67,000 台(2 个系统)排名第四。最后是 Meta,以 46,000 台(1 个系统)排名第五(括号中的数字是 ChatGPT 类生成 AI 可以构建的系统数量)。由此可见,美国前五名光热发电企业垄断了约 80% 的份额。
接下来我们看看 AI 加速器出货的高端 AI 服务器数量(图 9)。不出所料,英伟达的 GPU 是 AI 加速器使用最多的,2024 年将达到 33.6 万台。然而,令人惊讶的是,第二受欢迎的公司不是 AMD,而是谷歌。
图 9 按人工智能加速器划分的高端人工智能服务器(2023-2024)
谷歌开发了自己的张量处理单元(TPU)作为人工智能加速器。到 2024 年,搭载该 TPU 的高端 AI 服务器数量将达到 13.8 万台。这里,从图 8 我们知道,谷歌到 2024 年将拥有 16.2 万台高端 AI 服务器。因此,预计有 138,000 台配备了 Google 自家的 TPU,其余 24,000 台配备了 英伟达 的 GPU。换句话说,对于英伟达来说,谷歌既是客户,也是可怕的敌人。
另外,如果我们再看一下 2024 年的出货量,排名第三的 AMD 有 4.5 万台,排名第四的亚马逊则以 4 万台紧随其后。亚马逊还在开发 AWS Trainium 作为人工智能加速器。如果再等等,AMD 可能会被亚马逊超越。
综上所述,目前,英伟达 的 AI 加速器出货量最多,但谷歌和亚马逊正在成为其强有力的竞争对手。英伟达的竞争对手不是处理器制造商 AMD,而是美国谷歌和亚马逊。
全面的生成式人工智能热潮即将到来
让我们总结一下到目前为止的一切。根据 DIGITIMES Research 的一份报告,预计到 2024 年,能够开发和运行 ChatGPT 级生成式 AI 的高端 AI 服务器出货量仅占所有服务器的 3.9%。人们认为这个出货量根本无法满足 CSP 的需求。
也就是说,英伟达从 2023 年到 2024 年的「GPU 狂热」只是一个开始。因此,未来可能会出现全面的生成式人工智能热潮。让我们在下面展示其基础。
图 10 显示了半导体行业协会 (SIA) 发布的按应用划分的半导体市场及其未来预测。据 SIA 预测,2030 年全球半导体市场规模将超过 1 万亿美元。
图 10 按应用划分的半导体出货量预测
截至 2030 年,最大的市场将是计算和数据存储。其中包括 PC 和服务器(当然还有高端 AI 服务器),但由于 PC 出货量不太可能大幅增加,因此服务器可能会占大多数。
有线通信是指用于数据中心的半导体。这意味着到 2030 年,计算和数据存储(3300 亿美元)+有线通信(600 亿美元)=总计 3900 亿美元将成为数据中心(包括 PC)的半导体,成为全球最大的市场。
另一件值得关注的事情是数据中心市场及其前景,如图 11 所示。2022 年 ChatGPT 发布后,数据中心市场预计将稳步增长。数据中心由三个要素组成:网络基础设施、服务器和存储,预计从 2023 年到 2029 年,服务器和存储将分别增加一倍左右。
图 11 数据中心市场展望
这样,服务器用半导体(包括高端 AI 服务器)将占据全球市场最大份额,数据中心市场也将扩大。
重复最后一次。到目前为止,英伟达 的「GPU 狂热」还只是刚刚开始。全面的生成式人工智能热潮即将到来。
来源: 半导体产业纵横
声明:凡资讯来源注明为其他媒体来源的信息,均为转载自其他媒体,并不代表本网站赞同其观点,也不代表本网站对其真实性负责。您若对该文章内容有任何疑问或质疑,请立即与科姆特集团(www.shkmt.com.cn)联系,本网站将迅速给您回应并做处理。
电话:021-63900088