Connect with us

經濟

Nvidia最新高端AI晶片 輸出速度提升兩倍

發佈於

【明報專訊】人工智能(AI)晶片龍頭Nvidia(美:NVDA)發布最新的高端AI晶片H200,其配備141 GB的第三代高頻寬記憶體(HBM3),相比現時頂級的H100晶片僅有80 GB記憶體,功效大幅提升。Nvidia表示,基於Facebook母企Meta的Llama 2大語言模型(LLM)進行的測試顯示,H200的輸出速度幾乎是H100的兩倍,可加快生成式AI和大型語言模型的訓練和運作。

首批料明年次季出貨

H200亦可與支援H100系統相容,雲端服務商將H200引入產品組合後,毋須修訂伺服器或軟件。首批H200預計於明年第二季出貨,與超微半導體(AMD)的新一代AI晶片MI300X競爭。亞馬遜、Google、微軟、甲骨文等將成為首批採用H200的雲端服務商。

Nvidia未透露新晶片定價。CNBC引述市場消息估計,每塊H100的價格介乎2.5萬至4萬美元,意味新晶片價格更高。Nvidia表示,最終定價將由製造伙伴訂定。Nvidia估計,下周公布的第三財季收入將按年急增170%。

(綜合報道)

[國際金融]