最新采访黄仁勋:第四季度Blackwell大量出货,供应量逐季增加。
腾讯科技讯 据国外媒体报道,8月29日,美国当地时间星期三,芯片制造商英伟达在2025财年发布了第二财年财务报告。这份成绩单大大超出了市场分析师的预测,不仅营收出色,而且盈利能力显著。此外,英伟达还发布了对第三财季的乐观展望,其预测数据比市场预测更强。
财务报告发布后,英伟达联合创始人兼首席执行官黄仁勋接受了彭博的独家采访。在采访中,黄仁勋就Blackwell产品的延迟交付、加快计算领域的强劲需求、主权人工智能的发展趋势、目前GPU市场的供需趋势等多个热门话题发表了自己的看法。
下面是整篇采访:
问: 市场对 Blackwell 期望很高,投资者渴望获得更多详细信息。从电话会议和转录文本中,我注意到这主要是一个生产问题,而不是一个 Blackwell 设计缺陷。所以,在实际布局过程中,这是否会导致布局时间的延误,从而影响商品的收入表现?
黄仁勋:我在这里进一步澄清:我们已经投入了大量的资源进行改进,显著改善 Blackwell 良好的产量,保证这个芯片在性能上达到卓越水平。现在,我们正在全球范围内进行。 Blackwell 样品检测,并且已经公开展示了实际操作中的系统,您可以通过网络获得相关照片。
在第四季度,我们已全面启动大规模生产流程,并计划实现大规模出货。那时,我们将迎来 Blackwell 这带来了数十亿美元的收益。与此同时,我们也会根据市场需求逐步增加产量。由于市场需求远远超过了我们最初的供应能力,所以,在最初阶段,我们可能会面临一些供不应求。但是我们已经做好了充分的准备,以确保产量从第四季度开始逐步增加,以满足市场需求。
展望未来,我们不仅有望在第四季度实现明显的收入增长,而且预计2025财年第一财季、第二财季甚至明年,随着产量的增加,我们将继续保持强劲的增长势头。
问: 除大规模数据中心外,还有哪些领域有显著的加速计算需求?
黄仁勋:目前,虽然大型数据中心的客户约占我们数据中心业务的45%,但我们的业务范围已经非常多样化。除了大型数据中心,还包括互联网服务提供商、主权人工智能项目和各种工业企业。因此,除了大型数据中心,其他55%的业务涵盖了许多关键领域。
所有数据中心的应用都以加快计算为核心,不仅限于生成人工智能的热门领域,还广泛应用于数据库处理、数据预处理和后处理、视频转码、科学模拟、计算机图像处理、图像处理等方面。生成人工智能只是许多应用场景中加速计算的一种。
问: 关于主权人工智能,我们能进一步讨论它的含义和对普通人的影响吗?你之前提到过,本财年主权人工智能的销售额将达到数十亿美元。这是否意味着直接与特定政府进行交易?如果是,主要政府是什么?
黄仁勋:主权人工智能的概念不仅仅是与特定政府的直接交易,它更多地涉及到与受政府资助的区域服务供应商的合作。例如,日本政府已支持国内互联网公司和电信公司建设人工智能基础设施,并提供数亿美元的补贴。与此同时,印度也在实施主权人工智能计划,致力于建设自己的人工智能基础设施。此外,加拿大、英国、法国、意大利、新加坡、马来西亚等国家也在积极支持区域数据中心的建设,旨在将这些国家的数字资源转化为国家的数字智能。作为国家自然资源,这些国家开始认识到数字知识的重要性,并致力于开发和利用这些资源。这种趋势在世界范围内几乎得到认可,可以预见,未来大多数国家都会加入这个团队,建设自己的人工智能基础设施。
问:你用了“资源”这个词,让人想起了能源供应的考虑。你在电话会议上提到,下一代模型对计算能力的需求会大大增加。那么,你如何看待这些模型对应的能源供应变化呢?英伟达在这方面有哪些竞争优势?
黄仁勋:我们主要关注如何提高产品的性能和能效。以Blackwell为例,它在相同功率下的性能远远超过了它的前身Hopper,这意味着我们可以在不增加功耗的情况下实现更高的性能,或者在保证性能不变的情况下显著降低功耗,这是我们在能效方面取得的显著进步。
其次,英伟达还积极选择液体冷却技术进一步优化能源利用。虽然我们仍然支持蒸发冷却方法,但液体冷却技术因其更高的能效比而成为我们的首选。通过这些先进技术的整合和应用,我们可以大大提高能源利用率。
三是要认识到,人工智能训练和应用并不需要完全同步。随著技术的发展,人工智能模型可在远程地点进行训练,然后将训练好的模型带到并部署到接近客户的区域,甚至直接在客户的PC或手机上运行。通过这种方式,我们可以避免逐渐消耗大量的能源来持续运行大型模型。实际上,大模型更多的是起到练习和指导小模型的作用,而小模型则负责在各个地方进行实际应用。所以,通过建立少量的大型模型来训练和协助大量的小型模型,每个人都能有效地控制能耗,同时保证性能。在未来人工智能领域,这将是英伟达保持竞争优势的基础。
问:你清楚地解释了市场对基于模型和GPU的生成人工智能产品的需求远远超过目前的供应量,尤其是在Blackwell产品上。你能详细解释一下大家公司产品的供应趋势,以及你什么时候估计供应会有明显的改善,是逐季改善,还是在年底到下一年的某个特定时间点?
黄仁勋:事实上,我们的供给正在积极改善,这体现在供给的不断增加上。由于我们与杰出合作伙伴的密切合作,我们的供应链体系庞大而高效,是世界领先的供应链之一,他们为支持我们的快速增长做出了巨大贡献。正如你所看到的,我们公司是历史上增长最快的科技公司之一,它不仅有强大的市场需求驱动力,还有我们不断提高的供应能力支撑力。
具体到供应趋势,我们预计第三财季的供应量将比第二财季有所增加,第四财季将进一步超过第三财季。当2026财年第一财季进入时,供应量将再次大幅增加,超过2025财年第四财季的水平。因此,总的来说,我们预计明年的供应将比今年有所改善。
在需求方面,Blackwell的推出无疑是一个巨大的飞跃。目前,基础模型的规模正在迅速扩大,从数百亿参数增加到数万亿参数。与此同时,他们还在学习更多类型的语言,包括但不限于人类语言、图像、声音、视频和3D图形语言。这类模型不但能理解输入内容,而且能根据需要生成相应的内容。另外,它们还在探索流体力学、粒子物理等蛋白质、化合物和物理学等语言。随着模型规模的扩大和学习内容的多样化,模型开发商的数量也在快速增加。不仅有互联网服务提供商和创业公司,还有许多企业和不同国家。所以,生成型人工智能市场的需求正在以前所未有的速度快速增长。
问题:英伟达是否有计划转型为云计算服务提供商?
黄仁勋:不,我们的战略重点不是直接的云计算服务提供商。相反,英伟达GPU Cloud(NGC)其目的是在每一个主流云平台上优化英伟达云服务。具体而言,通过GCP,我们可以、Azure、世界领先的云平台,如AWS和OCI,内部构建英伟达DGX Cloud,确保我们的云版能充分利用这些平台的资源,并与它们紧密合作,共同提高人工智能基础设施的效率。这个策略已经取得了显著的效果。
另外,我们自己也是DGX。 忠实用户Cloud。由于英伟达在人工智能领域的深入探索,我们的ic设计、软件开发等环节都非常依赖人工智能技术。所以DGX在我们内部得到了广泛的应用。 Cloud支持R&D前沿项目,如无人驾驶汽车、通用机器人和Omniverse。与此同时,我们也使用DGX。 Cloud提供AI Foundry为那些希望拥有专业技术但缺乏资源的公司提供高质量的人工智能模型。就像台积电是我们的芯片代工厂一样,我们是人工智能代工厂。
总体而言,英伟达GPU 基于三个核心原因,Cloud的策略:一是确保在所有主流云平台上提供最优化的英伟达云服务;二是满足我们作为大量用户的需求;第三,通过提供人工智能代工服务,帮助其他公司加快人工智能技术的应用和发展。
本文来源于“腾讯科技”,编译:金鹿,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com