英伟达在今日举行的 GTC 开发者大会上,正式对外发布了最强 AI 加速卡 GB200,并方案本年晚些时候发货。
GB200 选用新一代 AI 图形处理器架构 Blackwell,黄仁勋在 GTC 大会上表明:“Hopper 当然现已很超卓了,但咱们应该更强壮的 GPU”。
英伟达现在依照每隔 2 年的更新频率,晋级一次 GPU 架构,然后大幅度的进步功能。英伟达于 2022 年发布了根据 Hopper 架构的 H100 加速卡,而现在推出根据 Blackwell 的加速卡更强壮,更拿手处理 AI 相关的使命。
Blackwell GPU 体积十分巨大,选用台积电的 4 纳米(4NP)工艺蚀刻而成,整合两个独立制作的裸晶(Die),共有 2080 亿个晶体管,然后经过 NVLink 5.0 像拉链相同绑缚芯片。
英伟达表明每个 Blackwell Die 的浮点运算才能要比 Hopper Die 高出 25%,并且每个封装中有两个 Blackwell 芯片,总功能进步了 2.5 倍。假如处理 FP4 八精度浮点运算,功能还能进步到 5 倍。取决于各种 Blackwell 设备的内存容量和带宽装备,作业负载的实践功能可能会更高。
IT之家征引英伟达官方陈述,练习一个 1.8 万亿个参数的模型曾经需求8000 个 Hopper GPU 和 15 兆瓦的电力。现在,Nvidia 首席执行官表明,2000 个 Blackwell GPU 就能完结这项作业,耗电量仅为4 兆瓦。
英伟达还面向有大型需求的公司能够供给制品服务,供给完好的服务器出货,例如 GB200 NVL72 服务器,供给了36 个 CPU 和 72 个 Blackwell GPU,并完善供给一体水冷散热方案,可完成总计720 petaflops 的 AI 练习功能或 1,440 petaflops(又称 1.4 exaflops)的推理功能。它内部运用电缆长度累计挨近 2英里,共有 5000 条独立电缆。
机架上的每个托盘包括两个 GB200 芯片或两个 NVLink 交换机,每个机架有 18 个 GB200 芯片和 9 个 NVLink 交换机,英伟达称,一个机架一共可支撑 27 万亿个参数模型。而作为比照,GPT-4 的参数模型约为 1.7 万亿。
该公司表明,亚马逊、谷歌、微柔和甲骨文都已方案在其云服务产品中供给 NVL72 机架,但不清楚它们将购买多少。
英伟达表明亚马逊 AWS 已方案收购由 2 万片 GB200 芯片组成的服务器集群,能够布置 27 万亿个参数的模型。
微信扫一扫
手机官网