北京時間8月8日晚,英偉達創(chuàng)始人兼CEO黃仁勛在計算機圖形界頂級會議SIGGRAPH上發(fā)表主題演講。英偉達宣布推出下一代NVIDIA GH200 Grace Hopper平臺,全新Grace Hopper超級芯片將于2024年第二季投產。
這是世界上第一個配備HBM3e內存的GPU芯片。HBM3e內存將使下一代GH200運行AI模型的速度比當前快3.5倍。
今年以來,半導體下行周期中,英偉達用于訓練AI大模型的GPU芯片卻供不應求,生成式AI浪潮將英偉達推向了萬億美元市值?;剡^頭來,英特爾、AMD等芯片巨頭也快速轉向AI訓練需求。面對目前AI芯片賽道上一家獨大、仍在一路狂奔的英偉達,他們能趕上嗎?
(資料圖片僅供參考)
英偉達推出更強AI超級芯片
下一代NVIDIA GH200 Grace Hopper平臺基于全新Grace Hopper超級芯片,配備全球首款HBM3e處理器,專門服務于加速計算和生成式AI。
HBM3e內存將使下一代GH200運行AI模型的速度比當前快3.5倍。與當前一代產品相比,雙配置的內存容量增加了3.5倍,帶寬增加了3倍。
該新平臺旨在處理世界上最復雜的生成式人工智能工作負載,涵蓋大型語言模型、推薦系統(tǒng)和矢量數據庫,將提供多種配置。
黃仁勛表示:“為了滿足生成式AI不斷增長的需求,數據中心需要具有特殊需求的加速計算平臺?!薄靶碌腉H200 Grace Hopper超級芯片平臺提供了卓越的內存技術和帶寬,從而提高吞吐量;擁有可以在整個數據中心輕松部署的服務器設計?!?/p>
今年5月底,英偉達宣布首代GH200 Grace Hopper超級芯片全面投產,將為全球各地即將上線的系統(tǒng)提供運行復雜AI和HPC工作負載所需的動力。
英偉達加速計算副總裁Ian Buck表示:“生成式AI正在迅速帶來業(yè)務變革,解鎖醫(yī)療、金融、商業(yè)服務等行業(yè)的新機遇并加速這些行業(yè)的研發(fā)工作。隨著Grace Hopper超級芯片的全面投產,全球的制造商很快將會提供企業(yè)使用專有數據構建和部署生成式AI應用所需的加速基礎設施?!?/p>
不過,英偉達尚未透露新一代超級芯片GH200的價格。
AI算力供不應求
AMD、英特爾入局分羹
今年以來,ChatGPT等各類大模型不斷推出,這些大模型訓練需要大量的AI芯片,拉升英偉達AI芯片出貨,也助推英偉達總市值登上1萬億美元。截至8月8日美股收盤后,英偉達總市值超1.10萬億美元。
英偉達H100、A800等芯片供不應求,價格持續(xù)上漲,記者在某電商平臺看到A800芯片價格已超10萬元。
黃仁勛曾放言:CPU已經是過去式,而GPU才是未來。據TrendForce集邦咨詢研報,預計AI芯片2023年出貨量將增長46%。英偉達GPU是AI服務器市場搭載主流,市占率約60%到70%。
韋德布什證券公司(Wedbush Securities)董事總經理兼高級股票研究分析師Dan Ives表示,就規(guī)模、范圍和整合數據的能力而言,英偉達幾乎是賽道上唯一的競爭者。
但顯然,對于生成式AI的巨大機遇,其他暫時黯然失色的芯片巨頭也勢必想要分一杯羹。
英特爾研究院副總裁、英特爾中國研究院院長宋繼強近日表示:“在這一波大模型浪潮當中,什么樣的硬件更好并沒有定論。”他認為,GPU并非大模型唯一的硬件選擇,半導體廠商更重要的戰(zhàn)場在軟件生態(tài)上。芯片可能花兩三年時間就做出來了,但是要打造芯片生態(tài)需要花兩倍甚至三倍的時間。英特爾的開源生態(tài)oneAPI比閉源的英偉達CUDA發(fā)展可能更快。
今年6月,AMD舉行了新品發(fā)布會,發(fā)布了面向下一代數據中心的APU加速卡產品Instinct MI300。這顆芯片將CPU、GPU和內存全部封裝為一體,從而大幅縮短了DDR內存行程和CPU-GPU PCIe行程,從而大幅提高了其性能和效率。
Instinct MI300將于2023年下半年上市。AMD稱Instinct MI300可帶來MI250加速卡8倍的AI性能和5倍的每瓦性能提升(基于稀疏性FP8基準測試),可以將ChatGPT和DALL-E等超大型AI模型的訓練時間從幾個月減少到幾周,從而節(jié)省數百萬美元的電費。
標簽:
滾動