OpenAI去年亏损达5.4亿美元,ChatGPT有多烧钱?


大型 AI 语言模型是一项昂贵的业务并不奇怪,但构建它们的成本究竟有多少尚不清楚。


根据研究公司 SemiAnalysis 的数据,ChatGPT 的巨大知名度和强大功能使其维护成本高得惊人,据The Information报道,OpenAI 每天支付高达 700,000 美元以维持其强大的基础设施运行。该公司首席分析师迪伦·帕特尔 (Dylan Patel) 表示:“大部分成本都基于他们所需的昂贵服务器。”


Patel在后续采访中告诉Insider,现在的成本可能更高,因为这些估算是基于 GPT-3,该模型为旧版 ChatGPT 提供支持,现在是免费版本。根据 Patel 的说法,OpenAI 的最新模型 GPT-4 的运行成本更高。


OpenAI 2022年亏损翻番,达5.4亿美元


据The Information的报道指称,OpenAI在2022年全年累积亏损达5.4亿美元,相比2021年足足扩大一倍。


为了训练大型语言模型,计算工作负载分配给集群中的数千个 GPU,这些 GPU 在高吞吐量、低延迟网络中链接在一起。虽然ChatGPT在短时间内吸引超过上亿人使用,后续更推出付费使用版本,但由于服务背后需要透过大量GPU进行加速运算,因此也让OpenAI提供服务背后成本增加。


而除了采购GPU、电力等成本持续增加,不断招募聘用技术人才也成为OpenAI目前开销扩大原因之一,因此接受微软数十亿美元投资,并且与微软云端服务平台Azure大幅整合,实际上也是为了减少营运亏损情形。


依照OpenAI执行长Sam Altman先前说明,未来几年内希望能实现1000亿美元筹资计划,借此推动更广泛的通用型人工智慧技术发展。


目前OpenAI已经获得价值达3亿美元的新一轮融资,其市值已经增长至270亿美元至290亿美元左右。而参与新一轮融资的单位,包含老虎全球(Tiger Global)、红杉资本(Sequoia Capital)、a16z (Andreessen Horowitz)、Thrive,以及K2 Global等风险投资公司,其中更包含PayPal共同创办人Peter Thiel参与成立的创始人基金(Founders Fund)。


在此之前,OpenAI更与微软签署长期投资合作,除了将ChatGPT技术用于微软旗下产品、服务,微软也将提供Azure云端平台等资源让OpenAI使用。


微软自研AI芯片为ChatGPT提供动力


在早期押注 ChatGPT 的创建者 OpenAI 之后,微软在其武器库中拥有另一个秘密武器:它自己的人工智能芯片,用于为负责理解和生成类人语言的大型语言模型提供动力。


据两位直接了解该项目的人士透露,这家软件巨头早在 2019 年就开始开发内部代号为 Athena 的芯片。其中一位表示,这些芯片已经提供给一小部分正在测试该技术的微软和 OpenAI 员工。微软希望该芯片的性能优于目前从其他供应商处购买的芯片,从而节省其在昂贵的 AI 工作上的时间和金钱。


谷歌搜索显示,Nvidia H100 是用于训练机器学习系统的更受欢迎的 GPU 之一,在市场日益稀缺的情况下,其在 eBay 等经销商服务上的售价高达 40,000 美元。


这些高昂的成本促使几家大型科技公司开发他们的硬件,Meta、谷歌和亚马逊在过去几年都在开发机器学习芯片。


在部署该芯片时,微软希望取代目前使用的 Nvidia 图形处理单元,转而使用更高效、运行成本更低的东西。简单地说,潜在的节省可能是巨大的。


“与 Nvidia 的产品相比,Athena 如果具有竞争力,可以将每个芯片的成本降低三分之一,”Patel 告诉The Information。


虽然目前只能推测 OpenAI 打算如何使用微软的 AI 芯片,但上周,OpenAI 首席执行官 Sam Altman表示,“我们正处于“巨型 AI 模型时代”的末尾,因为像 ChatGPT 这样的大型语言模型似乎正在接近其庞大规模的收益递减点。根据OpenAI 自己的分析,OpenAI 最新的 GPT-4 模型报告的参数大小超过一万亿,可能已经接近实际可扩展性的极限。


虽然更大的尺寸通常意味着人工智能的能力更强,但如果帕特尔的分析是正确的,那么所有增加的膨胀都会推高成本。


鉴于 ChatGPT 的巨大成功,OpenAI 可能不会因为钱而受伤。

粤ICP备2022076896号 粤公网安备 44030702004875号
微信客服
添加微信咨询
在线客服