香港萬得通訊社報道,$美國超微公司(AMD.US)$周二表示,其最先進的人工智能芯片MI300X將于今年晚些時候向部分客戶發貨。
【資料圖】
據分析師稱,AMD的聲明是對英偉達的最大挑戰,$英偉達(NVDA.US)$目前以超過80%的市場份額主導著人工智能芯片市場。GPU是OpenAI等公司用來構建ChatGPT等尖端人工智能程序的芯片。
如果AMD的人工智能芯片(AMD稱之為“加速器”)被開發人員和服務器制造商接受,作為英偉達產品的替代品,那么對于這家以傳統計算機處理器聞名的芯片制造商來說,這可能是一個充滿潛力的巨大市場。
AMD首席執行官蘇姿豐(Lisa Su)周二對投資者和分析師表示,人工智能是該公司“最大、最具戰略意義的長期增長機會”。她說:“我們認為,數據中心人工智能加速器(市場)將以超過50%的復合年增長率,從今年的300億美元左右增長到2027年的1500億美元以上。”
雖然AMD沒有透露價格,但此舉可能會給英偉達的GPU帶來價格壓力,比如H100,它的價格可能在3萬美元以上。較低的GPU價格可能有助于降低生成人工智能應用程序的高成本。
人工智能芯片是半導體行業的亮點之一,而傳統的半導體處理器銷售引擎——個人電腦銷售卻表現低迷。上個月,AMD首席執行官蘇姿豐在財報電話會議上表示,雖然MI300X將于今年秋季提供樣品,但明年將開始大量出貨。
AMD表示,最新的MI300X芯片及其CDNA架構是為大型語言模型和其他尖端人工智能模型設計的。蘇姿豐說:“這其中的核心是GPU。GPU正在實現生成式人工智能。”
MI300X可以使用高達192GB的內存,這意味著它可以容納比其他芯片更大的人工智能模型。例如,英偉達的競爭對手H100只支持120GB內存。
生成式AI應用程序的大型語言模型往往需要大量內存,因為它們運行越來越多的計算。AMD演示了MI300x運行400億參數的Falcon模型,而OpenAI的GPT-3模型有1750億個參數。蘇姿豐表示:“模型對容量的要求越來越大,你實際上需要多個GPU來運行最新的大型語言模型。”她指出,隨著AMD芯片上內存的增加,開發人員將不需要那么多GPU。
AMD還表示,將推出一款Infinity Architecture,在一個系統中集成8個M1300X加速器。英偉達和谷歌也開發了類似的系統,將8個以上GPU集成在一個盒子里,用于人工智能應用。
人工智能開發人員歷來偏愛英偉達芯片的一個原因是,它有一個開發完善的軟件包,被稱為CUDA,使他們能夠訪問芯片的核心硬件功能。而AMD周二表示,它擁有自己的人工智能芯片軟件,名為ROCm。
AMD總裁Victor Peng 表示:“我們在構建強大的軟件堆棧方面取得了巨大進展,該軟件堆棧與模型、庫、框架和工具的開放生態系統一起工作。”
盡管如此,投資者似乎對AMD的新產品并不“買賬”,他們已經對人工智能的增長抱有極高的期望。截至周一收盤,AMD股價今年累計上漲了92%,但在周二的發布會上,AMD股價跌超3%。
與以往的發布會不同的是,AMD沒有透露誰將采用MI300X或更小的版本MI300A。該公司沒有詳細說明這款芯片的成本是多少,也沒有說明它將如何提振銷售。
TIRIAS Research首席分析師Kevin Krewell表示:“我認為,沒有(大客戶)表示會使用MI300A或X,這可能會讓華爾街感到失望。他們希望AMD傳達出他們已經在某些設計上取代了英偉達的信息。”
Moor Insights & Strategy分析師Anshel Sag表示:“盡管AMD在硬件性能方面具有競爭力,但人們仍然不相信AMD的軟件解決方案能與英偉達競爭。”
編輯/Somer