訂閱
糾錯(cuò)
加入自媒體

英偉達(dá)發(fā)布 H200 NVL 與 GB200 NVL4 新品

編譯/前方智能

英偉達(dá)于 2024 年 11 月 18 日在亞特蘭大舉行的 SC24 高性能計(jì)算大會(huì)上宣布推出新款數(shù)據(jù)中心級(jí) GPU —— H200 NVL,以及更強(qiáng)大的四 GPU 產(chǎn)品 GB200 NVL4 Superchip,進(jìn)一步擴(kuò)展其在 AI 和高性能計(jì)算領(lǐng)域的優(yōu)勢(shì)。

圖片

圖源:英偉達(dá)

H200 NVL 是英偉達(dá) Hopper 系列的最新成員,專為低功耗、風(fēng)冷機(jī)架設(shè)計(jì)的數(shù)據(jù)中心打造。據(jù)調(diào)查顯示,約 70% 的企業(yè)機(jī)架功率在 20 千瓦以下,采用風(fēng)冷方案。H200 NVL 采用 PCIe 接口設(shè)計(jì),讓數(shù)據(jù)中心能夠靈活配置 GPU 數(shù)量,可選擇使用一個(gè)、兩個(gè)、四個(gè)或八個(gè) GPU,從而在有限空間內(nèi)實(shí)現(xiàn)更強(qiáng)大的計(jì)算能力。

與前代產(chǎn)品 H100 NVL 相比,H200 NVL 在性能方面實(shí)現(xiàn)了顯著提升:內(nèi)存效率提高 1.5 倍,帶寬提升 1.2 倍。在大語(yǔ)言模型推理方面,性能最高可提升 1.7 倍;在高性能計(jì)算工作負(fù)載方面,相比 H100 NVL 性能提升 1.3 倍,較 Ampere 架構(gòu)產(chǎn)品提升 2.5 倍。

新品還搭載了最新一代 NVLink 技術(shù),GPU 間通信速度比第五代 PCIe 快 7 倍。每片 H200 NVL 配備 141GB 高帶寬內(nèi)存,內(nèi)存帶寬達(dá)到 4.8TB/s,熱設(shè)計(jì)功耗最高為 600 瓦。值得一提的是,H200 NVL 還附帶為期五年的 NVIDIA AI Enterprise 軟件平臺(tái)訂閱服務(wù)。

圖片

圖源:英偉達(dá)

同時(shí)發(fā)布的 GB200 NVL4 Superchip 是一款更為強(qiáng)大的產(chǎn)品,集成了兩個(gè)基于 Arm 的 Grace CPU 和四個(gè)采用 Blackwell 架構(gòu)的 B200 GPU。該產(chǎn)品具備 1.3TB 的一致性內(nèi)存,通過(guò) NVLink 在四個(gè) B200 GPU 間共享。與上一代 GH200 NVL4 相比,在 MILC 代碼模擬工作負(fù)載上速度提升 2.2 倍,在訓(xùn)練 3700 萬(wàn)參數(shù)的 GraphCast 天氣預(yù)報(bào) AI 模型時(shí)快 80%,在使用 16 位浮點(diǎn)精度運(yùn)行 70 億參數(shù)的 Llama 2 模型推理時(shí)同樣快 80%。

       原文標(biāo)題 : 英偉達(dá)發(fā)布 H200 NVL 與 GB200 NVL4 新品

聲明: 本文由入駐維科號(hào)的作者撰寫(xiě),觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)