速度快10倍,成本降一个数量级!英伟达发布ChatGPT专用GPU
澎湃新闻编辑 李垚瑞(00:59)“AI的iPhone时刻已经到来。”北京时间3月21日晚,图形芯片巨头英伟达(Nvidia)召开2023年GTC大会,其创始人兼CEO黄仁勋穿着标志性皮夹克发表主题演讲,介绍了英伟达在人工智能(AI)领域的多款产品,包括为大型语言模型设计的新款GPU(图形处理器)、针对AI(人工智能)视频的芯片L4,以及AI超级计算服务DGX Cloud等。在演讲中,黄仁勋多次重复道,AI的iPhone时刻已经到来,并表示“生成式AI将重塑几乎所有行业”。“生成式AI让企业产生重新思考其产品设计、商业模式,大家都希望成为推动变革的一方,而不是被变革淘汰的一方。”黄仁勋说道。3月21日美股收盘,英伟达涨1.15%,报收261.99美元/股。H100 NVL:速度快10倍,成本降低一个数量级去年11月,OpenAI推出基于大型语言模型(LLM)的聊天机器人ChatGPT,这一技术引发各界关注,随后微软、谷歌等科技公司在AI领域展开角逐。在演讲中,黄仁勋也着重介绍了英伟达在这一领域的布局,透露道针对算力需求巨大的大型语言模型(LLM),英伟达推出新款GPU——NVIDIA H100 NVL。H100基于英伟达的Hopper架构,采用Transformer引擎。其具有94GB内存,并配备了双GPU NVLINK的PCIE H100 GPU,能处理含1750亿参数的GPT-3。与用于处理ChatGPT的HGX A100相比,搭载四对H100和双NVLINK的标准服务器的处理速度最高可达10倍。黄仁勋称,它能将大语言模型的处理成本降低一个数量级。“加速计算并非易事。”黄仁勋举例,2012年计算机视觉模型AlexNet动用了GeForce GTX 580,每秒可处理262 PetaFLOPS,该模型引发了AI技术的爆炸。而十年之后,随着Transformer的出现,GPT-3动用323 ZettaFLOPS的算力,是AlexNet的100万倍。来源:英伟达此外,针对AI视频英伟达还推出了芯片L4,在视频解码和转码、视频内容审核、视频通话等功能上进行优化。英伟达称,相比传统的CPU,L4能够提供高出120倍的AI视频性能,同时能效提高99%。在芯片制造工艺方面,英伟达还宣布推出计算光刻库cuLitho,并与ASML、台积电等巨头展开合作。据介绍,cuLitho可将计算光刻加速40倍以上,使2nm及更先进芯片的生产成为可能。“计算光刻是芯片设计和制造领域中最大的计算工作负载,每年需要消耗数百亿CPU小时。”黄仁勋说道,该软件正被集成到全球最大的代工芯片制造商台积电的设计系统中,台积电将于6月开始对cuLitho进行生产资格认证。DGX Cloud:每月3.7万美元,让任何企业都能构建AI能力在主题演讲中,黄仁勋还介绍了英伟达在生成式AI方面的另一个布局——AI超级计算服务DGX Cloud。黄仁勋透露,英伟达已经与多家云服务供应商合作,推出云端人工智能DGX Cloud,未来企业可以按月租、通过浏览器使用DGX Cloud集群,快速轻松地扩展大型多节点AI训练。DGX Cloud起价为每个实例每月36999美元。“这种合作关系将英伟达的生态系统带到云服务商手中,还扩大了英伟达的市场规模和覆盖面。”黄仁勋说道。据介绍,每个DGX Cloud实例具有八个H100或A100 80GB Tensor Core GPU,每个节点共有640GB GPU内存。NVIDIA Networkin 构建的高性能、低延迟结构确保工作负载可以跨互连系统集群扩展,允许多个实例充当巨大的GPU,以满足高级AI训练的性能要求。目前英伟达已经与甲骨文展开合作,预计微软Azure在下个季度将会开始托管DGX Cloud,未来谷歌云也将加入托管行列。值得注意的是,早在2016年,黄仁勋便向OpenAI交付了第一台NVIDIA DGX超级计算机。黄仁勋透露,目前DGX已经被企业广泛用于优化数据和处理 AI,《财富》100强企业中有一半安装了DGX。黄仁勋称,DGX是超级计算机是现代AI工厂。对于英伟达带来的产品,金融机构Rosenblatt Securities的半导体分析师Hans Mosesmann表示,这些产品“比竞争对手领先很多年。”该分析师认为,“英伟达在AI软件方面的领导地位不仅具有里程碑意义,而且还在加速发展。”
本信息由网络用户发布,本站只提供信息展示,内容详情请与官方联系确认。