OpenAI GPT-6 训练规模将创历史新高:预估 10 万张 H100 GPU,AI 训练成本达天文数字

xxn 阅读:32134 2025-03-01 10:02:02 评论:0

关于OpenAI GPT-6训练所需GPU数量的消息,科技媒体smartprix近日发布了相关报道。报道称,在介绍GPT-4.5模型的视频中,OpenAI意外泄露了可能需要的GPU数量,暗示着这一训练工作将比以往规模更大。

有观察指出,在GPT-4.5模型介绍视频中的2分26秒出,OpenAI展示GPT 4.5功能的聊天记录中,提到了“Num GPUs for GPT 6 Training”(训练GPT-6所需的GPU数量)。

视频中虽未进行详细解释,但“Num”这个词意味着一个不同寻常的数字,一些媒体猜测可能高达10万块GPU。

此前有报道称,OpenAI在训练GPT-3时耗用约1万块GPU,而随着模型不断迭代,对计算资源的需求也在不断增加。

GPT 4.5,内部代号为“Orion”,在自然度和减少“幻觉”的方面取得了重大进展,其参数量可能超过3到4万亿。据推测,训练GPT 4.5可能使用了3万到5万块NVIDIA H100 GPU,训练成本在75亿到150亿美元之间。

“Num”这个词的含义目前尚不明确,可能代表“Numerous”(大量),显示GPT-6的训练规模将远超以往。当然,也有可能这只是OpenAI的一个幌子,类似于之前将“Strawberry”(草莓)用作o1系列的代号一样。

广告声明:文中可能包含对外链接,旨在提供更多信息,节省甄选时间,结果仅供参考。

声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

搜索
排行榜
关注我们

扫一扫关注我们,了解最新精彩内容