AMD 發表會於 14 日展開,執行長蘇姿丰宣布了該公司一系列新產品。AMD這次發佈了開放軟體生態系以及 2 款 MI300 晶片,向 AI 王者 NVIDIA 宣戰。蘇姿丰亦提及受大型語言模型(LLM)激發的人工智能市場所隱含的龐大商機,整體市場潛力達到1,500億美元。目前,AMD Instinct GPU為全球速度最快的超級計算機提供運算能力。在全球最快的500台超級計算機排行榜上,有121台選擇使用AMD晶片。AMD MI300 系列晶片登場,進擊AI市場!
AMD總裁Victor Peng首先重點介紹了AMD所建立的生態系統及軟體,並強調「開放、驗證、就緒」的理念。特別是「開放」這個觀念,與NVIDIA專屬的CUDA有顯著區別。AMD表示,該公司正持續優化其ROCm套件,並展示了與AI框架PyTorch的合作成果。被稱為「AI 界 Github」的 Hugging Face CEO Clem Delangue 現身 AMD 發表會宣布與 AMD 的合作計畫,針對 AMD CPU、GPU 和其他 AI 硬體優化他們的模型。
AMD已開始為客戶提供Instinct MI300A的樣品,而Instinct MI300X將在2023年第三季提供樣品;Instinct MI300A與Instinct MI300X皆預計在2023年第四季投入量產。同時公佈的AMD Instinct 平台,由 8 張 Instinct MI300X 構成,具備達 1.5TB 記憶體,其設計依循產業標準的 OCP 開放伺服器平台標準。近似 NVIDIA 的 NVLink 基板設計。
GPU 產品MI300X,MI300X的HBM密度是Nvidia H100的2.4倍,HBM頻寬則是H100的1.6倍,這意味著AMD可以運行比Nvidia晶片更大的模型。MI300X擁有1,530億個電晶體,配備12個5nm小晶片,並具有最高達192GB的HBM3記憶體。
AMD Instinct MI300A : 為 AI 與 HPC 設計的 APU
AMD Instinct MI300A是AMD首次將APU產品擴展至AI與HPC領域,採用24核Zen 4架構和AMD CDNA3加速架構,以小晶粒方式組成。與消費級APU產品相比,Instinct MI300A使用CPU+GPU統一記憶體架構,配有128GB的HBM3記憶體,使單一異構晶片的CPU與GPU能直接存取彼此運算的結果。
AMD Instinct MI300A與同樣採用CPU與GPU統一記憶體的Grace Hopper Superchip在記憶體概念上有顯著差異。AMD選擇完全採用高速、高成本且相對容量較小的HBM3記憶體;而NVIDIA則在CPU區塊使用節能、容量價格優勢的LPDDRX,GPU則採用HBM3記憶體,彼此透過高達900GBs的NVLink-C2C高速通道進行共享。
AMD AI Solutions: https://www.amd.com/en/solutions/ai.html