(資料圖片)
北京時間6月14日凌晨,AMD舉辦了“AMD數據中心與人工智能技術首映會”,并在會上推出的AI處理器MI300系列。其中,特別為大語言模型優化的MI300X將于今年晚些時候開始向部分客戶發貨。
AMD首席執行官蘇姿豐先介紹MI300A,這是全球首款針對AI和高性能計算(HPC)的加速處理器(APU)加速器。在13個小芯片中遍布1460億個晶體管。相比前代MI250,MI300的性能提高八倍,效率提高五倍。
隨后,蘇姿豐公布了本場發布會最受關注的產品——MI300X,這是一款為大語言模型進行了優化的版本。
MI300X芯片及其CDNA架構是為大型語言模型和其他尖端人工智能模型設計的。
生成式人工智能應用程序的大型語言模型使用大量內存,因為它們運行越來越多的計算。AMD演示了MI300X運行400億參數的Falcon模型。
蘇姿豐表示,MI300X提供的HBM(高帶寬內存)密度是英偉達H100的2.4倍,HBM帶寬是競品的1.6倍。這意味著AMD可以運行比英偉達H100更大的模型。單個MI300X可以運行一個參數多達800億的模型。
AMD還表示,將推出一款Infinity Architecture,在一個系統中集成8個M1300X加速器。英偉達和谷歌也開發了類似的系統,將8個或更多GPU集成在一個盒子里,用于人工智能應用。綜合
(責任編輯:王治強 HF013)關鍵詞: