HI!欢迎登录财华智库网

专注港股20年,做最有深度的原创财经资讯

其它登录方式

HI!欢迎注册财华智库网

专注港股20年,做最有深度的原创财经资讯

其它登录方式

打造AI代工厂,英伟达的逻辑是什么?

日期: 2023-11-23 18:14
作者: 毛婷

英伟达(NVDA.US)公布了一份超越预期的第3财季业绩。

截至2023年10月末止的2024财年第3季,英伟达的收入同比大增205.51%,按季增长34.15%,至181.2亿美元;非会计准则净利润按年大增588.19%,至100.2亿美元。

季度毛利率达到73.95%,非会计准则毛利率为74.96%,主要受到数据中心销售额增加,以及库存降低所带动,值得留意的是,上年同期这两项数据分别为53.57%和56.13%,显见今年的表现有明显改善。

英伟达预计第4财季的收入将达到200亿美元,算力和网络需求的持续强劲将带动其数据中心的强劲增长。不过游戏业务收入将可能较第3财季下降,主要因为季节因素。预计毛利率和非会计准则毛利率分别为74.5%和75.5%。

这一收入预测规模又再上一层楼,比已创新高的第3财季收入181.2亿美元再高出10.38%,毛利率预测也要高于当前已很高的水平,可见英伟达的下一个财季表现将更加出色。

然而,尽管业绩与业绩指引都十分乐观,英伟达的股价在公布业绩前创下纪录新高后反而掉头向下。财华社认为主要原因是资金在公布业绩之后获利回吐,出口限制可能影响到其20%-25%的收入,美股市场最近持币避风的趋势明显等因素影响

英伟达VS.美国超微公司

同为GPU龙头,曾因加密货币大跌而踩空的英伟达,成功地凭借AI芯片翻身,目前或占据生成式AI芯片逾八成市场份额。

同行美国超微公司(AMD.US)(下称AMD)也紧随其后,不过慢起步的AMD可能要到明年才成火候,估计今年的收入仍会收缩。

从估值上来看,得益于这几个季度AI芯片的强劲需求,英伟达的收入大幅增长,利润也显著提高。今年以来,其股价累计涨幅达到两倍以上,紧贴其收益增长的预期。

随着这两个季度的利润大幅攀升,英伟达当前市值相对其最近12个月非会计准则净利润的差距缩小,市盈率从年初时上百倍,到如今55.59倍,与AI芯片尚未为业绩发力的AMD差距也拉小。

需要注意的是,在英伟达的AI芯片H100供不应求之际,AMD也推出了要与其一较高低的AI产品AI300,而且透露Instinct MI300A和MI300X GPU于第4季量产推进顺利

AMD在第3财季业绩发布会上指出,其AI的进展较预期理想,预计第4季数据中心GPU收入约为4亿美元,到2024年将超过20亿美元MI300有望成为AMD历史上在最短时间内达到销售额上十亿美元的产品

不过,从AMD的业绩指引来看,AI的强劲发展或尚未在第4财季获反映,要到2024财年才能体现在业绩上,也因此其市盈率估值与英伟达存在差距。

英伟达则不然,从上图可见,其收入与非会计准则净利润以前所未见的加速度攀升。

AI芯片推动了英伟达的强劲增长

第3财季,英伟达的数据中心收入贡献最大,占到80.10%,季度收入按年大增278.66%,按季增长40.60%,至145.14亿美元,主要得益于基于Hopper Tensor Core GPU架构的NVIDIA HGX平台的持续增长,以及InfiniBand端到端网络的推动。

最近两个季度,在全世界都在布局生成式AI的热浪之中,英伟达的数据中心收入大幅攀升,见下图。

NVIDIA HDX与InfiniBand一起,本质上是AI超级计算机和数据中心基础设施的参考架构。Adobe, Firefly, ChatGPT, Microsoft 365 Copilot, CoAssist, Now Assist with ServiceNow和Zoom AI Companion等的生成式AI应用程序是在英伟达上构建和运行的。

在训练和推理大型语言模型、深度学习推荐系统和生成式人工智能应用等基础设施方面的投资,推动了客户对英伟达加速计算的广泛强劲需求,也因此其数据中心与以InfiniBand为首的网络收入大幅增长。

推理现在是英伟达AI计算的主要工作负载。消费互联网公司推动了第3季的增长,构成了数据中心大约一半的收入,增速也跑赢整体增速。Meta(META.US)等公司正在全面开发学习推荐系统,并投资于AI,以帮助广告商优化图像和文本。大多数主要的消费互联网公司都在竞相加快生成式人工智能的部署。

企业开启了AI部署的竞赛。Adobe、Databricks、Snowflake和ServiceNow等企业软件公司正在添加它们的AI助手。有更多的企业正开发适用于垂直产业应用的定制化AI,例如特斯拉(TSLA.US)。本季度,云服务提供商大约贡献了其数据中心营收的另一半。

英伟达的首席财务官科莱特·克雷斯(Colette Kress)在业绩发布会上指出,所有超大规模CSP(通信服务提供商)以及全球范围内越来越多的GPU专用CSP都有需求,这些CSP正在迅速增加投资,以把握AI领域的新市场机遇。

她指出,NVIDIA H100 Tensor Core GPU实例现在几乎可以在每个具有实例和高需求的云中使用。英伟达今年各个季度都大幅增加了供应,以满足强劲的需求,预计明年还会持续。她表示,明年还会以更快的节奏发布更多产品,以满足不断增长和多样化的AI机遇。

从产品的角度来看,其第3财季的绝大部分收入来自基于Hopper GPU架构的NVIDIA HGX平台,上一代Ampere GPU架构的贡献较小。为行业标准服务器构建的新型L40 GPU开始交付,可支持跨各种客户的训练和推理工作负载。这也是英伟达GH 200 Grace Hopper秘密芯片的第一个收入季度,它结合了基于ARM(ARM.US)的Grace GPU和Hopper GPU。

值得留意的是,Grace和Hopper GPU正在开发一条价值数十亿美元的新产品线。Grace Hopper可用于GPU专用云供应商,很快就会进入甲骨文云(Oracle Cloud)。Grace Hopper也很受超级计算客户欢迎,在第3季,LaSalle、Localimos、国家实验室和瑞士国家超级计算中心开始了首批系统出货。英国也宣布将建造世界上最快的AI超级计算机之一Isambard-AI,该计算机将使用近5500颗Grace Hopper超级芯片。德国超算中心也宣布将使用接近2.4万颗Grace Hopper超级芯和Quantum 2 InfiniBand,打造新一代AI超级计算机。

因此,英伟达预计明年美国、欧洲和日本所有基于Grace Hopper打造的超级计算机合计AI算力将超过200亿次/秒,未来还会有更多。这都对其数据中心的收入带来了很大的提升,现在用于深度学习、推荐、服务聊天机器人、助手和文本图形生成的AI已经全面投入生产,也将带动更多的AI部署需求。

英伟达发布了Hopper系列的新品BH 200,这是第一款提供HBM3E(高带宽存储)、更快捷、更大内存的GPU,可进一步加速生成式AI和大模型。

与运行大语言模型(如Lambda2)的H100 GPU相比,它将推理能力提高了2倍。结合起来,TensorRT LLM和H200在短短一年内提高了性能或降低4倍的成本。

与H100相比,H200为GPT-3等推理模型提供了18倍的性能提升,允许客户迁移到更大的模型,而不会增加延迟。

从明年开始,亚马逊(AMZN.US)的云、谷歌云、微软(MSFT.US)Azure和甲骨文云将成为首批提供H200基础实例的CSP。

在上周的微软的Ignite大会上,英伟达深化并扩大了与微软的合作。

英伟达推出了一个AI代工服务,开发和调试在Azure上运行的定制生成式AI企业应用。客户可以使用自己的主域知识和专有数据,英伟达则利用其AI专业知识和DGX云的软件堆栈帮助他们构建AI模型,以确保企业的数据安全,同时又能为其提供支持。

英伟达的网络业务年收入也超出100亿美元,主要受到InfiniBand强劲需求的带动,InfiniBand对于取得训练LLM所需的规模和性能至关重要。

在软件和服务方面,英伟达预计年收有望达到10亿美元规模,在企业AI训练和AI推理的需求急增带动下,其DGX云服务和英伟达AI企业软件都具有增长机会。

游戏收入按年增长超80%,按季增长15%,至28.6亿美元,主要受到返学购物季需求强劲的推动。

汽车分部收入同比增长4%,环比增长3%,至2.61亿美元,主要得益于基于英伟达驱动或SoC(系统级芯片)的自动驾驶平台的持续增长,以及与全球OEM客户合作的AI驾驶舱解决方案的需求增长。英伟达扩展了富士康的合作,将其新一代汽车系统级芯片NVIDIA Drive 4也加入到合作范围。

出口限制的影响

在第3财季末,美国政府宣布了针对一些市场的出口限制措施。这些限制措施要求,英伟达的多款产品Hopper和MPIR 100及800系列等,都需要取得出口牌照。

据英伟达管理层透露,目前其销往受影响目的地的收入大约占其过去几个季度数据中心收入的20%-25%。

英伟达预计,在第4季,其销往这些目的地的收入将显著下降,但其他地区的强劲增长应足以弥补这些影响。美国允许其工业界向包括受限制区域在内全球市场提供数据中心计算产品。

简单来说,美国对于最先进的产品设定了出口管制,而对于性能较低的产品,则通行无阻。有鉴于此,英伟达表示正努力扩张数据中心产品组合为各个监管类别提供适用的解决方案,以满足监管要求。

英伟达表示正在与中国和中东的一些客户合作,向美国申请许可证。现在还不清楚这是否会对收入构成重大影响。许多国家开始意识到,需要投资自主的人工智能基础设施,以支持经济增长和产业创新。

“黄教主”的AI远望

CEO黄仁勋对英伟达的产业发展始终保持着创业者般的热情,而且对于创新科技的远见也十分独到,有着“教主”之称。

现在全世界都在关注AI的发展,自然少不了要向黄仁勋请教作为AI先驱的英伟达,未来的发展路径向着哪个方向。

在业绩发布会上,黄仁勋提到,软件行业将是AI影响最大的产业之一,在过去,开发手动使用的工具市场价值达万亿美元。现在,无需人类手动操作,全新的AI助手能够帮助人类使用这些软件。所以有别于过去授权软件,英伟达未来要将这些辅助系统连接到AI之中,这将成为新一代软件。

因此,软件的转变和软件的工作方式正驱动着底层的硬件,这正以两种方式转变,这种转变独立于生成式AI:

一种与加速算力有关,通用算力很浪费能源和成本,而现在有加速算力,可以节省很多能源和时间。

这就需要一种新型的数据中心,这种新型数据中心与英伟达占了三分之一的传统数据中心不一样。传统数据中心有很多应用程序运行,由很多人使用,这些人是不同的租户,他们使用相同的基础设施,通过数据中心存储了很多文件。而新型数据中心的应用非常少,它处理数据、训练模型、生成代币、创建AI,可称这类新数据中心为AI工厂。现在每个国家都在兴建主权AI工厂,这或将是未来的一个新趋势。

AI工厂运行AI助手,这是重要软件TAM(潜在市场)的延伸,推动了重要的投资,并扩张价值万亿的传统数据中心市场,引发了AI的产业变革。

而配备InfiniBand和NVIDIA AI软件堆栈的NVIDIA H100 HGX现在定义了一个AI工厂。在扩大供应链以满足全球需求的同时,英伟达也在为下一波AI浪潮打造新的增长动力。在其新增长战略中,英伟达强调了三大要素:CPU、网络、软件和服务。

Grace是英伟达第一款数据中心CPU。Grace和Grace Hopper将在明年全面投产,并将扩建数十亿美元的新产品线。黄仁勋指,英伟达可以帮助客户建立一个AI工厂并创收。

InfiniBand同比增长了五倍,并作为AI工厂的网络定位为未来的增长引擎

他表示,英伟达拥有人工智能技术、专业知识和规模,可以帮助客户构建定制模型。将其专有数据存储在NVIDIA DGX云上,并在企业级NVIDIA AI企业上部署AI应用程序。英伟达本质上是一家人工智能代工厂。英伟达GPU、CPU、网络、AI代工服务和英伟达AI企业软件都是全速增长的引擎。

总结

AMD在苦苦追赶,有心之人也在设置各种限制来阻挡英伟达将先进芯片发往全世界推动全世界AI的发展。科技发展的潮流不可逆,英伟达的缺席将触发特定地区市场奋发起来开发先进芯片的动力。所以英伟达的优势未必能一直保持。

黄仁勋认为英伟达不会因为出口限制而致收入在2024年见顶,他相信数据中心在2025年及之后仍能保持增长,主要因为其大幅扩张供应,并且已经取得全球最广泛、最庞大和最强大的供应链。

他说:“在人们的认知上,GPU仅仅是一个芯片,而其实HGX、H100和Hopper HGX拥有3.5万个部件,重70磅。这些产品拥有高压元件、高频元件和大电流元件,这本身就是一台超级计算机,测试一台超级计算机只能用另一台计算机。制造、测试、运输和安装这些产品的流程非常复杂,也因此其HGX供应链的每个方面都十分复杂。”

这也意味着,英伟达的技术累积为其竞争对手设置了近身门槛,但同时也意味着英伟达要按一些人的要求切割某些地区的供应链存在很大的难度。

也许英伟达在短期内仍占据AI发展的优势,但是不要低估一个奋发图强、发展迅猛的市场或竞争对手突破技术瓶颈的决心,从长远来看,英伟达的暂时优势不一定能一直保持,其高昂估值亦然。

1998-2024深圳市财华智库信息技术有限公司 版权所有
经营许可证编号:粤B2-20190408
粤ICP备12006556号