NVIDIA Hopper架構TensorRT-LLM使生成式AI推論提升近3倍,H200藉HBM3e記憶體散熱打破MLPerf推論紀錄

標題: NVIDIA Hopper架構TensorRT-LLM使生成式AI推論提升近3倍,H200藉HBM3e記憶體散熱打破MLPerf推論紀錄


作者: Chevelle.fu
發表時間: 2024-03-28 00:00:00

產業消息 nvidia gpu NVIDIA Hopper MLPerf 推論加速器 NVIDIA H100 大型語言模型 生成式AI Blackwell NVIDIA GB200 NVIDIA B200 NVIDIA H200

描述:

雖然NVIDIA甫在GTC 2024公布眾所矚目的全新Blackwell架構,但畢竟Blackwell仍要待到2024年下半年才會開始出貨,故目前最新的NVIDIA AI GPU加速產品為採用美光HBM3e記憶體的NVIDIA H200 Tensor Core GPU;NVIDIA公布全新的MLPerf測試成績,基於Hopper架構的H100借助TensorRT-LLM軟體突破MLPerf的生成式AI測試項突破原本的性能上限,於GPT-J LLM推論性能較6個月前提升近3倍,而陸續出貨的H200 GPU則透過容量、頻寬提升的HBM3e記憶體與更彈性的散熱,一舉刷新多項MLPerf的紀錄。▲包括...

猜你喜歡

(More)


時間分享(原讚與享)評論回應(讚與心情)外掛評論