·下一代版本的GH200 Grace Hopper超级芯片将成为世界上第一个配备HBM3e内存的GPU芯片。HBM3e内存将使下一代GH200运行AI模型的速度比当前模型快3.5倍。
·最新版本的GH200超级芯片将于2024年第二季度推出。这个时间晚于AMD推出的最新数据中心GPU(Instinct MI300X)的上市时间。
·下一代版本的GH200 Grace Hopper超级芯片将成为世界上第一个配备HBM3e内存的GPU芯片。HBM3e内存将使下一代GH200运行AI模型的速度比当前模型快3.5倍。
·最新版本的GH200超级芯片将于2024年第二季度推出。这个时间晚于AMD推出的最新数据中心GPU(Instinct MI300X)的上市时间。
下一代版本的GH200 Grace Hopper超级芯片将成为世界上第一个配备HBM3e内存的GPU芯片。
GH200超级芯片本身并不是一个新产品,而是今年5月在中国台北Computex展上发布的GH200芯片的更新版。有趣的是,另一家芯片巨头AMD在6月推出搭载了192GB HBM3内存的数据中心GPU(Instinct MI300X)时,就有业界人士提出其可能难以形成优势,因为英伟达可能会在同一时间段甚至更早时间内提供相同的内存。
英伟达超大规模和高性能计算副总裁兼总经理伊恩·巴克(Ian Buck)对澎湃科技(www.thepaper.cn)表示:“我们对这款新的GH200感到非常兴奋。HBM3e不仅增加了GPU的容量和内存量,而且速度也更快。”
英伟达表示,HBM3e内存将使下一代GH200运行AI模型的速度比当前模型快3.5倍。不过一个关键的问题是,英伟达没有透露超级芯片GH200的价格,这对计算成本高昂的大模型来说尤为重要,H100系列目前售价约为4万美元。
值得注意的是,这次发布并未抬升英伟达的股价。其股价在发布会前已下跌约1%,消息公布后跌幅达3%,至盘中低点440.56美元,最终下跌1.66%至446.64美元。不过,AMD股价也在当天收盘下跌3.1%,至113.23 美元。与此同时,以科技股为主的纳斯达克综合指数下跌0.8%。
太平洋时间8月7日,摩根士丹利分析师爱德华·史丹利(Edward Stanley)发布报告称,“无论是以英伟达为首的AI个股还是狭义AI类股,自年初以来涨幅都超过200%。但一般而言股市泡沫在达到顶点前的3年回报率中间值约在150%,由此可见近来这波AI概念股涨势已经过头。”
为什么内存对大模型重要?
随着支撑生成式人工智能应用程序的基础AI模型尺寸的增加,为了能够在不连接独立芯片和系统的情况下运行,大模型需要更大的内存量,以避免性能下降。
巴克对记者表示,新款GH200的内存“快得多”,“拥有更大的内存允许模型保留在单个GPU上,并且不需要多个系统或多个GPU来运行。”“额外的内存只会提高 GPU的性能。”目前即使使用英伟达最顶级的H100芯片,有些模型也必须在其他GPU中“分解”模型才能运行。