DoNews5月29日消息,在台北电脑展COMPUTEX 2023上,黄仁勋做了展前主题演讲,并发布了包括超级GPU GH200在内的一系列与AI相关产品。
包括大内存生成式AI超级计算机DGX GH200;Grace Hopper超级芯片GH200;加速以太网平台Spectrum-X;为游戏提供定制化AI模型代工服务;与全球最大的营销服务机构WPP合作打造生成式AI内容引擎等。
(相关资料图)
英伟达还发布了MGX服务器规范,为系统制造商提供快速高效构建100多种服务器配置的模块化参考架构。黄仁勋说,有超过1600家生成式AI公司采用了英伟达技术。
在演讲中,黄仁勋宣布,人类已经到达了生成式AI的引爆点。从此,全世界的每个角落,都会有计算需求。
黄仁勋透露,英伟达最新GPU GH200 Grace Hopper超级芯片已全面投产,将为运行复杂的AI和高性能计算工作负载提供动力。
GH200 Grace Hopper超级芯片采用NVIDIA NVLink-C2C互连技术,将基于Arm的英伟达Grace CPU和Hopper GPU架构组合在同一封装中,提供了高达900GB/s的总带宽——比传统加速系统中的标准PCIe Gen5通道带宽高7倍,互连功耗降低到原来的1/5,能够满足苛刻的生成式AI和高性能计算(HPC)应用。
黄仁勋称,DGX GH200是首款将Grace Hopper超级芯片与英伟达NVLink Switch系统搭配的超级计算机,通过采用新互连方式,将256个Grace Hopper超级芯片连接在一起,使它们能像单个巨型GPU一样协同运行,从而提供了1EFLOPS的性能和144TB的共享内存,比2020年推出的上一代DGX A100 320GB系统的内存多出近500倍。
谷歌云、Meta、微软等是首批获得DGX GH200访问权限、用于生成式AI工作负载的公司。英伟达也打算将DGX GH200设计蓝图提供给云服务商及其他超大规模计算厂商,以便他们可以进一步为其基础设施定制DGX GH200。
此外,英伟达正在打造自己的基于DGX GH200的大型AI超级计算机NVIDIA Helios,以支持其研究和开发团队的工作。
它采用4个DGX GH200系统,每个都将与英伟达Quantum-2 InfiniBand网络连接,带宽高达400Gb/s,以提高训练大型AI模型的数据吞吐量。Helios将包括1024颗Grace Hopper超级芯片,将于年底上线。
责任编辑:
标签: