发布网友 发布时间:2024-09-28 21:37
共1个回答
热心网友 时间:2024-10-14 04:33
英伟达发布了目前世界最强的AI芯片H200,性能较H100提升了60%到90%,还能和H100兼容,算力荒下,大科技公司们又要开始疯狂囤货。H200性能直接提升60%到90%,与H100互相兼容,使用H100训练/推理模型的企业可以无缝更换成最新的H200。AI公司们正为寻找更多H100而焦头烂额,英伟达的高端芯片价值连城,已经成为贷款的抵押品。H200系统预计将于明年二季度上市,英伟达还会发布基于Blackwell架构的B100,并计划在2024年将H100的产量增加两倍。H200基于Hopper架构,配备英伟达H200 Tensor Core GPU和先进的显存,可以为生成式AI和高性能计算工作负载处理海量数据。H200拥有高达141GB的显存,与A100相比,容量几乎翻了一番,带宽也增加了2.4倍。H200的发布让性能飞跃又升了一级,直接让Llama2 70B模型的推理速度比H100提高近一倍。H200基于与H100相同的Hopper架构,除了新的显存功能外,还具有与H100相同的功能,例如Transformer Engine,可以加速基于Transformer架构的LLM和其他深度学习模型。HGX H200采用英伟达NVLink和NVSwitch高速互连技术,8路HGX H200可提供超过32 Petaflops的FP8深度学习计算能力和1.1TB的超高显存带宽。当用H200代替H100,与英伟达Grace CPU搭配使用时,就组成了性能更加强劲的GH200 Grace Hopper超级芯片。H200在处理高性能计算的应用程序上有20%以上的提升,推理能耗直接腰斩,大幅降低用户的使用成本。英伟达更是在官方公告中宣布了全新的H200和B100,将过去数据中心芯片两年一更新的速率直接翻倍。德国尤里希超级计算中心、日本先进高性能计算联合中心、德克萨斯高级计算中心和伊利诺伊大学香槟分校的美国国家超级计算应用中心以及布里斯托大学都将采用英伟达GH200构建超级计算机,提供总计约200 Exaflops的AI算力,推动科学创新。GPU竞赛进入了白热化阶段,面对H200,AMD的计划是利用即将推出的大杀器——Instinct MI300X来提升显存性能,MI300X将配备192GB的HBM3和5.2TB/s的显存带宽,这将使其在容量和带宽上远超H200。英特尔也计划提升Gaudi AI芯片的HBM容量,并表示明年推出的第三代Gaudi AI芯片将从上一代的 96GB HBM2e增加到144GB。H200的价格暂时还未公布,一块H100的售价在25000美元到40000美元之间,训练AI模型至少需要数千块。AI公司和科技公司们已经开始为即将到来的算力风暴做准备,预计明年第二季度H200上市将引发新的风暴。AI芯片竞赛进入白热化,三巨头英伟达、AMD、英特尔在AI芯片领域展开激烈竞争。GPU的价格和性能成为科技公司和AI公司关注的焦点,H200的发布预示着AI芯片领域的新一轮竞争即将开始。