英伟达,遭遇反垄断调查

据知情人士透露,英伟达即将因涉嫌反竞争行为而受到法国反垄断监管机构的指控,这将是第一家针对这家计算机芯片制造商采取行动的执法机构。


去年 9 月,法国对显卡行业进行了突击检查,消息人士称,针对 Nvidia 的突击检查就是法国所谓的异议声明或指控书。此次突击检查是对云计算进行更广泛调查的结果。


作为全球最大的人工智能和计算机图形芯片制造商,在生成式人工智能应用程序 ChatGPT 发布后,其芯片的需求猛增,引发了大西洋两岸的监管审查。


法国监管机构向企业发布了部分反对声明,但并非全部。英伟达拒绝置评。该公司在去年的监管文件中表示,欧盟、中国和法国的监管机构曾要求提供有关其显卡的信息。


其他知情人士表示,由于法国当局正在调查英伟达,欧盟委员会目前不太可能扩大初步审查。


法国监管机构在上周五发布的关于生成人工智能竞争的报告中指出了芯片供应商滥用的风险。


它对该行业对 Nvidia 的 CUDA 芯片编程软件的依赖表示担忧,该软件是唯一与加速计算必不可少的GPU 100% 兼容的系统。


它还提到了对 Nvidia 最近对 CoreWeave 等专注于人工智能的云服务提供商的投资感到不安。


如果违反法国反垄断规定,公司将面临高达其全球年营业额 10% 的罚款,不过它们也可以做出让步以避免受到处罚。


一位知情人士向路透社透露,美国司法部正牵头调查英伟达,并与联邦贸易委员会分担对大型科技公司的审查。


Nvidia 经济学:在 GPU 上每花费 1 美元,就能赚取 5 至 7 美元


Nvidia 表示,在四年内,公司每投资 1 美元购买 GPU,就可以赚取 5 到 7 美元。Nvidia 超大规模和 HPC 业务副总裁兼总经理 Ian Buck 本月在美国银行证券 2024 年全球技术大会上表示,客户正在投资数十亿美元购买新的 Nvidia 硬件,以跟上更新的 AI 模型,从而提高收入和生产力。


竞相建设大型数据中心的公司将特别受益,并在数据中心四到五年的使用寿命内获得丰厚的回报。


Buck 表示:“云提供商在购买 GPU 上花费的每一美元,四年内都能收回 5 美元。”


Buck表示,推理甚至更有利可图。


“这里的经济效益甚至更好:每花费 1 美元,在同样的时间段内就能产生 7 美元的营业额,并且这个数字还在增长,”Buck说。


围绕 Llama、Mistral 或 Gemma 的 AI 推理正在不断发展,并由代币提供服务。Nvidia 正在将开源 AI 模型打包到名为 Nvidia 推理微服务 (NIM) 的容器中。


Nvidia 表示,其今年早些时候发布的 Blackwell GPU 针对推理进行了优化。该 GPU 支持 FP4 和 FP6 数据类型,在运行低强度 AI 工作负载时可提高能效。


云提供商提前两年就开始规划数据中心,并希望了解未来的 GPU 架构会是什么样子。


Nvidia 已分享了 Rubin(在 Computex 上发布的一款新 GPU)的计划,以便云提供商可以为该 GPU 准备数据中心。Rubin 将于 2026 年上市,并取代将于 2025 年上市的 Blackwell 和 Blackwell Ultra。


“对我们来说,做到这一点真的很重要——数据中心不是凭空而来的,它们是大型建设项目。他们需要了解‘布莱克威尔数据中心会是什么样子,它与霍珀数据中心有何不同?’”Buck说。


Blackwell 提供了一个转向更密集的计算形式和使用液体冷却等技术的机会,因为空气冷却效率不高。


Nvidia 每年都会推出一款新的 GPU,这有助于公司跟上 AI 发展的步伐,进而帮助客户规划产品和 AI 战略。


Buck说:“Rubin已经与那些最大的客户交谈了一段时间——他们知道我们的目标和时间表。”


AI 的速度和能力与硬件直接相关。在 GPU 上投入的资金越多,公司就能训练出更大的模型,从而带来更多收入。


微软和谷歌将自己的未来寄托在人工智能上,并竞相开发更强大的大型语言模型。微软严重依赖新的 GPU 来支撑其 GPT-4 后端,而谷歌则依赖其 TPU 来运行其人工智能基础设施。


Nvidia 目前正在生产 Blackwell GPU,样品很快就会发布。但客户可以预料,首批 GPU(将于年底发货)将供不应求。


“每一项新技术的转型都会带来……供需方面的挑战。我们在 Hopper 上就经历过这种情况,Blackwell 的产能提升也将面临类似的供需限制……今年年底到明年,”Buck 说道。


Buck 表示,数据中心公司正在淘汰 CPU 基础设施,为更多 GPU 腾出空间。Hopper GPU 被保留,而基于 Ampere 和 Volta 架构的旧 GPU 则被转售。


Nvidia 将保留多个级别的 GPU,随着 Blackwell 的不断发展,Hopper 将成为其主流 AI GPU。Nvidia 已经进行了多项硬件和软件改进,以提高 Hopper 的性能。


所有云提供商都将提供 Blackwell GPU 和服务器。


Buck 表示,GPT-4 模型大约有 1.8 万亿个参数,由于 AI 扩展尚未达到极限,参数数量还将继续增长。


“人类大脑的规模为 1000 亿到 150 万亿,具体数量取决于个人,取决于大脑中的神经元和连接。目前,人工智能的规模约为 2 万亿……我们尚未进行推理,”Buck说道。


将会有一个包含数万亿个参数的大型模型,在此基础上构建更小、更专业的模型。参数数量对 Nvidia 有利,因为它有助于销售更多 GPU。


Nvidia 正在调整其 GPU 架构,从原来的基础模型方法转向混合专家模型。


专家混合涉及多个神经网络通过相互参考来验证答案。


Buck说:“1.8 万亿参数的 GPT 模型有 16 个不同的神经网络,它们都试图回答各自层的部分问题,然后商讨、会面并决定正确答案是什么。”


即将推出的 GB200 NVL72 机架式服务器配备 72 个 Blackwell GPU 和 36 个 Grace CPU,专为混合专家模型而设计。多个 GPU 和 CPU 相互连接,从而支持混合专家模型。


“这些家伙都可以相互通信,而不会在 IO 上受阻。这种演变在模型架构中不断发生,”Buck 说。


Nvidia 首席执行官黄仁勋本月在 HPE 的 Discover 大会上发表了一些激烈的言论,呼吁人们购买更多该公司的硬件和软件。


Nvidia 和 HPE 宣布推出一系列新产品,其名称简单明了,为“Nvidia AI Computing by HPE”。


“我们设计了小号、中号、大号和特大号,你可以选择。而且正如你所知,你买得越多,省得越多,”黄在《发现》杂志的舞台上说道。


黄仁勋今年早些时候还发表了另一条备受争议的言论,当时他说未来的程序员不需要学习如何编写代码。但在 Nvidia GPU 上加载 AI 模型需要了解命令行和脚本,以创建和运行 AI 环境。


Nvidia 的专有言论和在人工智能市场的完全主导地位使其成为反垄断调查的目标。


当 Buck 试图淡化人们对 CUDA 的担忧时,他必须小心谨慎,他表示“护城河是一个复杂的词”。


两位高管都表示,CUDA 是其 GPU 的必备软件——要最大限度地发挥 GPU 的性能,就需要 CUDA。开源软件可以与 Nvidia GPU 配合使用,但无法提供 CUDA 库和运行时的强大功能。


向后兼容性和连续性是 Nvidia 的独特优势。对 Nvidia 的 AI 模型和软件的支持可以延续到下一代 GPU。但对于英特尔的 Gaudi 等 ASIC 则不然,它们必须针对每个新模型重新进行调整。

粤ICP备2022076896号 粤公网安备 44030702004875号
微信客服
添加微信咨询
在线客服