英偉達推出最強AI芯片:首發(fā)HBM3e,大模型運行能力提升3.5倍!
早在今年5月29日,AI芯片大廠英偉達(NVIDIA) CEO黃仁勛就在COMPUTEX 2023展前發(fā)布會上,正式發(fā)布了升級版的GH200 Grace Hopper超級芯片,旨在助力開發(fā)面向生成式AI語言應用、推薦系統(tǒng)和數(shù)據(jù)分析工作負載的巨型、下一代模型。
GH200超級芯片,是將 72 核的Grace CPU、H100 GPU、96GB 的 HBM3 和 512 GB 的 LPDDR5X 集成在同一個封裝中,擁有高達 2000 億個晶體管。這種組合提供了 CPU 和 GPU 之間驚人的數(shù)據(jù)帶寬,高達 900 GB / s,為某些內(nèi)存受限的工作負載提供了巨大的優(yōu)勢。
相關文章:《AI性能突破1Eflop!英偉達DGX GH200發(fā)布:256個GH200芯片,144TB共享內(nèi)存!》
美國當?shù)貢r間8月8日,英偉達又發(fā)布了新一代GH200 Grace Hopper(簡稱“新版GH200”)平臺。但與今年5月發(fā)布的GH200不同的是,新一代GH200搭載了全球首款HBM3e內(nèi)存,內(nèi)存容量和帶寬都有顯著提高,專為加速計算和生成式AI時代而打造。
英偉達稱,新版GH200旨在處理世界上最復雜的生成式AI工作負載,涵蓋大型語言模型、推薦系統(tǒng)和矢量數(shù)據(jù)庫,將提供多種配置。新版GH200將于2024年第二季度投產(chǎn)。
具體來說,新版GH200芯片平臺基于 72 核 Grace CPU,配備 480 GB ECC LPDDR5X 內(nèi)存以及 GH100 計算 GPU,搭配 141 GB 的 HBM3e 內(nèi)存,分為六個 24 GB 的堆棧,并使用了 6,144 位的內(nèi)存接口。雖然英偉達實際安裝了 144 GB 的內(nèi)存,但只有 141 GB 是可用的。
相比原版GH200平臺,新版GH200平臺的雙芯片配置將內(nèi)存容量提高3.5倍,帶寬增加三倍,一個服務器就有144個Arm Neoverse高性能內(nèi)核、8 petaflops 的 AI 性能和282GB的最新HBM3e內(nèi)存技術。
HBM3e是全新一代的高帶寬內(nèi)存,帶寬達每秒5TB,比原版的GH200所搭載的HBM3快50%,可為新版的GH200提供總共每秒10TB的組合帶寬,使新平臺能運行比前代大3.5倍的模型,同時通過快3倍的內(nèi)存帶寬提高性能。
據(jù)英偉達介紹,目前配備 HBM3 內(nèi)存的原版GH200 Grace Hopper超級芯片平臺已經(jīng)在生產(chǎn)中,并將于下個月開始商業(yè)銷售。而配備 HBM3e 內(nèi)存的新版GH200 Grace Hopper超級芯片平臺現(xiàn)在正在樣品測試中,預計將于 2024 年第二季度上市。
英偉達強調(diào),新版GH200 Grace Hopper 使用了與原版相同的 Grace CPU 和 GH100 GPU 芯片,因此公司無需推出任何新的軟件版本或步進。英偉達表示,原版 GH200 和升級版 GH200 將在市場上共存,這意味著后者將以更高的價格出售,畢竟其更先進的內(nèi)存技術帶來的更高性能。
英偉達表示,配備 HBM3e 內(nèi)存的下一代 Grace Hopper 超級芯片平臺完全兼容英偉達的 MGX 服務器規(guī)范,并且可以與現(xiàn)有的服務器設計直接兼容。
黃仁勛說,為了滿足生成式 AI 不斷增長的需求,數(shù)據(jù)中心需要有針對特殊需求的加速計算平臺。新的GH200 Grace Hopper 超級芯片平臺提供了卓越的內(nèi)存技術和帶寬,以此提高吞吐量,提升無損耗連接GPU聚合性能的能力,并且擁有可以在整個數(shù)據(jù)中心輕松部署的服務器設計。
編輯:芯智訊-浪客劍
*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。