智通财经APP获悉,据Meta(META.US)CEO扎克伯格透露,该公司拟斥资数十亿美元购买英伟达(NVDA.US)广受欢迎的计算机芯片,用于人工智能研究和相关项目。
周四,扎克伯格发帖称,该公司的人工智能“未来路线图”要求其建立一个“大规模的计算基础设施”。扎克伯格表示,到2024年底,基础设施将包括35万张英伟达H100显卡。
扎克伯格没有透露该公司已经购买了多少GPU,但H100直到2022年底才上市,而且供应有限。Raymond James的分析师估计,英伟达H100的售价为2.5万至3万美元,而在eBay上的售价可能超过4万美元。如果Meta支付的是价格区间的低端,那么这笔支出将接近90亿美元。
此外,扎克伯格表示,如果将其他GPU计算在内,Meta的计算基础设施将包含“相当于近60万张H100的算力”。去年12月,Meta、OpenAI和微软(MSFT.US)等科技公司表示,他们将使用AMD(AMD.US)的新Instinct MI300X AI计算机芯片。
Meta之所以需要这么多人工智能芯片,是因为该公司正致力于通用人工智能 (AGI)的研究。扎克伯格表示,这是该公司的“长期愿景”。OpenAI和谷歌(GOOGL.US)的DeepMind部门也在研究AGI,这是一种与人类智力水平相当的未来人工智能形式。
Meta首席科学家Yann LeCun上个月在旧金山的一次媒体活动中强调了GPU的重要性。
“(如果)你认为AGI将大受欢迎,你就得买更多的GPU,”LeCun当时表示。对于英伟达首席执行官黄仁勋,LeCun表示,“现在一场人工智能战争正在打响,而他正在提供武器”。
Meta在此前的第三季度业绩报告也指出,2024年的总支出将在940亿至990亿美元之间,部分原因是计算扩张。
扎克伯格在与分析师的电话会议上表示:“就投资重点而言,人工智能将是我们2024年最大的投资领域,无论是在工程领域还是在计算机资源领域。”
扎克伯格周四表示,Meta计划“负责任地开源”其尚未开发的“通用人工智能”,该公司也在其Llama系列大型语言模型中采取了这一策略。
扎克伯格还表示,Meta目前正在训练Llama 3,并使其基础人工智能研究团队(FAIR)和GenAI研究团队更紧密地合作。
在扎克伯格发帖后不久,LeCun发帖称,“为了加快进展,FAIR现在是人工智能产品部门GenAI的姐妹组织”。