来源:《科创板日报》
编辑 宋子乔
生成式AI的爆火使得成立近30年的英伟达再次迎来高光时刻。
3月22日,在英伟达举办的年度GTC开发者大会上,其CEO黄仁勋发表了名为《切勿错过AI的决定性时刻》(Don’t Miss This Defining Moment in AI)的演讲,在长达78分钟的视频中,他四次用“iPhone时刻”来形容AI当下的发展,并称“这将是我们迄今为止最重要的一次GTC大会”。
英伟达并没有让大家失望,会上不仅发布了可为ChatGPT提速10倍的专用GPU芯片,还向芯片制造业甩出一枚技术“核弹”。
▌ChatGPT专用GPU来了 处理速度提升十倍
针对算力需求巨大的ChatGPT,英伟达发布了NVIDIA H100 NVL,这是一种具有94GB内存和加速Transformer引擎的大语言模型(LLM)专用解决方案,配备了双GPU NVLINK的PCIE H100 GPU。
NVIDIA H100 NVL
黄仁勋表示,当前唯一可以实际处理ChatGPT的GPU是英伟达HGX A100(OpenAI便是使用A100 GPU训练和运行ChatGPT),而H100 GPU的处理速度比A100 GPU快十倍,可以将大语言模型的处理成本降低一个数量级。
此外,为了加速生成式AI开发及部署,英伟达宣布推出四款全新推理GPU——L4 Tensor Core GPU、L40 GPU、H100 NVL GPU、Grace Hopper超级芯片(见下图),分别擅长AI视频、图像生成、ChatGPT等大型语言模型的推理加速、推荐系统和大型语言模型的AI数据库。
▌以云服务打造新商业模式
值得注意的是,英伟达如今力推AI云服务,曾其比作当今AI系统的“操作系统”。在会上,英伟达宣布与谷歌云、微软Azure、甲骨文云联手推出DGX(AI超级计算机)云服务,加速企业创建大模型和生成式AI的云服务NVIDIA AI Foundations等,并宣布与日本三菱联合打造了日本第一台用于加速药研的生成式AI超级计算机。
而使用H100芯片的云服务已经上线,OpenAI将通过微软Azure超级计算机用上H100。
简单来说,英伟达新的商业模式就是通过几家大的云来推广自家的AI产品。黄仁勋称,这种合作关系将英伟达的生态系统带到了云服务商手中,同时扩大了英伟达的市场规模和覆盖面。企业将能够每月租用DGX云集群,确保他们能够快速轻松地扩展大型多节点AI训练。
已有企业受益于此。
英伟达在周二确认,Getty Images正在使用英伟达的毕加索AIGC模型生成云服务建立自营图片和视频生成AI;另一家图片版权库Shutterstock也在使用英伟达的服务创建3D生成模型。另外,Adobe周二发布的“萤火虫”AI是该公司结合英伟达的应用创建的。
▌以软件变革芯片制造业 计算光刻提速40倍
光刻是芯片制造过程中最复杂、最昂贵、最关键的环节。会上,英伟达宣布了一项改变光刻行业的应用——通过光刻计算库cuLitho,将计算光刻加速40倍以上,大大提高芯片代工厂在这一工序上的效率,为2nm以及更先进制程的到来做好准备。
黄仁勋介绍称,英伟达H100 GPU需要89块掩膜板,在CPU上运行时,处理单个掩膜板需要两周时间,而在GPU上运行cuLitho只需8小时。此外,台积电可通过在500个DGX H100系统上使用cuLitho加速,将功率从35MW降至5MW,替代此前用于计算光刻的40000台CPU服务器。使用cuLitho的晶圆厂,每天可以生产3-5倍多的光掩膜,仅使用当前配置电力的1/9。
台积电、ASML、新思科技等公司均参与合作并引入这项技术。其中台积电将于6月开始对cuLitho进行生产资格认证。
黄仁勋曾在接受CNBC采访时表示:“我们10年前就发现,这种制作软件的方式可以改变一切,所以我们从各个角度改变了公司,生产的每个芯片都专注于AI。”
如今,随着其“迄今为止最重要的GTC大会”拉开序幕,英伟达展示了一个野心勃勃的自己——对AI的参与程度进一步提高,已不再定位于硬件供应商,而是“软硬兼施”,不断迭代GPU、DPU等芯片的同时,还将帮助企业加速构建定制生成式AI模型的云服务。
正如黄仁勋所说,“生成式AI正在推动AI的快速应用,并重塑无数行业……我们将成为全球云领域最好的AI销售人员……让AI模型遍地开花。”