0°

ChatGPT 成显卡熔炉,将吞 3 万颗高端 GPU,英伟达笑到最后

  据 Trendforce 报道,ChatGPT 对 GPU 的需求不断增长,新模型预计需要超过 30000 个英伟达 GPU,未来会需要更多。

  ChatGPT 算力需求惊人,以 GPT 为例,该模型开发中使用的训练参数数量从 2018 年的约 1.2 亿个增加到 2020 年的近 1800 亿个。

  根据 TrendForce 的估计,2020 年,GPT 模型处理训练数据所需的 GPU 数量达到了 20000 左右。展望未来,GPT 模型(或 ChatGPT)商业化所需的 GPU 数量预计将达到 30000 个以上。

  这些估计均使用英伟达的 A100 GPU 作为计算基础。A100 GPU 是目前最快的 AI 芯片之一,具有高达 5 Petaflops 的 AI 性能。

  同时,英伟达 DGX A100 架构已经是 AI 相关工作负载的通用系统,几乎成为大数据分析和 AI 加速的首选。

  ChatGPT 的激增对于英伟达来说无疑是天降福利,全球通货膨胀率上升导致 PC 硬件需求下滑,AI 的需求可以抵消英伟达的收入损失。

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论