下一代AI“超級芯片”呼之欲出
AI芯片巨頭英偉達最備受關注的GTC開發(fā)者大會即將召開,全球AI算力走向備受關注。
隨著英國芯片架構企業(yè)Arm繼續(xù)發(fā)力服務器市場,并在近期更新了其服務器處理器Arm Neoverse系列的產品路線圖后,推出兩款基于全新第三代Neoverse IP構建的新的Arm Neoverse計算子系統(CSS)。外界也將初窺下一代整合CPU與GPU的AI“超級芯片”部分面貌,英偉達是否跟進也將備受關注。
Neoverse是Arm于2018年推出、針對數據中心市場的服務器處理器品牌,在Arm規(guī)劃下,Neoverse旗下N系列、V系列和E系列各有定位,如V系列即強調性能優(yōu)先,用于高端服務器市場,上一代Neoverse V2就被用于英偉達的AI芯片設計中。
去年3月,英偉達推出首款將CPU和GPU封裝到一起的“Grace Hopper”GH200超級芯片。其中“Grace”就是英偉達在2021年4月發(fā)布的數據中心Arm CPU系列,“Hopper”即英偉達最新架構GPU量產型號H100。
一位芯片行業(yè)投資人告訴界面新聞記者,英偉達的Grace Hopper芯片就是將CPU與頂級AI訓練產品(GPU)一起,打造出“超級芯片”,共同構建了AI完整解決方案。
GH200可用于AI訓練和推理,英偉達通過將一塊CPU與一塊H100 GPU封裝成一整塊芯片,大幅提高了CPU、GPU間數據傳輸效率。在同年11月,英偉達再將GH200升級,將GH200中GPU配備的96GB容量HBM3內存,升級為144GB的HBM3e,再次大幅提高數據傳輸效率。
在英偉達憑借GPU產品抓住AI浪潮的過程中,Arm也從英偉達在AI計算的強勢地位中受益,意味著數據中心市場將可能更多采用基于Arm技術的處理器。
Arm基礎設施事業(yè)部總經理Mohamed Awad向界面新聞記者解釋,英偉達之前推出的Grace Hopper超級芯片重新設計了系統架構,過去數據中心使用一顆CPU管理多個GPU的設計,而Grace Hopper芯片轉變?yōu)橐活wCPU只對應一個GPU?!案嗟腃PU意味著內存一致性,最終會大大提高GPU的利用率?!?/p>
Arm稱,隨著行業(yè)對AI算力的需求逐漸由訓練向推理轉型,CPU推理將是生成式AI計算應用的關鍵組成。
但并非所有AI處理都將在CPU上進行。Arm基礎設施事業(yè)部產品解決方案副總裁Dermot O'Driscoll以Grace Hopper為例稱,英偉達對該芯片的一項重要創(chuàng)新在于內存容量和共享內存模式,此類緊耦合CPU設計加上配置AI加速器,對當前流行的大參數大語言模型和其他AI應用非常有益。
為了使得定制芯片變得更迅速且降低設計難度,Arm于去年推出了Arm Neoverse CSS。在Neoverse CSS中,由Arm配置、優(yōu)化和驗證完整的計算子系統,并針對各類計算用例進行配置,合作伙伴則專注于軟件調優(yōu)、定制加速等工作,還能能加速產品上市時間、降低工程成本。
Dermot O'Driscoll指出,Neoverse CSS是專為幫助客戶在Arm CPU平臺上,快速打造通用計算芯粒而推出的產品。它能提供客戶所需的所有接口,以便選擇耦合自身的加速器。這種方法既可以在需要CPU時提供CPU,又可以在需要AI加速器時提供AI加速器,做到兩全其美。
一直以來,對于自研Arm架構的Grace CPU,英偉達極力淡化與英特爾、AMD的競爭色彩。
黃仁勛曾在2021年向界面新聞記者表示,絕大多數數據中心仍將繼續(xù)使用現有x86 CPU,Grace則主要用于計算領域大型數據密集型細分市場,不會對現有CPU廠商帶來“改變游戲規(guī)則”般的影響。
不過,市場格局已經發(fā)生了改變。在數據中心市場,Arm正逐漸站穩(wěn)腳跟,對英特爾、AMD兩巨頭形成挑戰(zhàn)。
根據市場研究機構Counterpoint報告,Arm架構服務器2022年首次在數據中心市場獲得超10億美元收入,其中AWS自研芯片占該市場3.16%份額,Ampere占1.52%。隨著微軟在2023年部署其自研的Arm芯片,以及Grace Hopper的出貨,預計Arm在服務器市場份額還將繼續(xù)上升。
*博客內容為網友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。