訂閱
糾錯
加入自媒體

英特爾/英偉達/AMD/IBM 逐鹿AI芯片戰(zhàn)場

5月下旬,在英特爾首屆AI開發(fā)者大會(Intel AI DevCon 2018)上,其全球副總裁兼人工智能產(chǎn)品事業(yè)部總經(jīng)理Naveen Rao表示,英特爾正在開發(fā)第一個商用神經(jīng)網(wǎng)絡(luò)處理器產(chǎn)品英特爾Nervana NNP-L1000(Spring Crest),計劃在2019年發(fā)布。據(jù)他表示,該芯片相較于去年10月推出的代號為“Lake Crest”專用人工智能芯片NNP優(yōu)化實現(xiàn)3-4倍的訓(xùn)練性能。

本月初,英偉達正式發(fā)布了全新AI芯片“Jetson Xavier”,在CEO黃仁勛看來:“這臺小電腦,將成為未來機器人的大腦”,將該芯片的使用范圍清晰定義在機器人領(lǐng)域。

AMD近日公開了全球首款7納米制程,名為“Radeon Vega”的GPU芯片原型。

IBM在近日提出了全新的芯片設(shè)計,可以通過在數(shù)據(jù)存儲的位置執(zhí)行計算來加速全連接神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。

英特爾:深度學習訓(xùn)練性能提升100倍

對于英特爾來說,想要在巨頭扎堆的AI芯片戰(zhàn)場上站穩(wěn)腳跟并不容易。PC時代,英特爾以90%的市場份額幾乎完全壟斷了CPU市場,但隨著GPU和各類可替代處理器的不斷推陳出新,CPU的市場開始萎縮。

正是發(fā)現(xiàn)了這一趨勢,英特爾也開始依托產(chǎn)業(yè)平臺轉(zhuǎn)型,爭取搭上人工智能的未來浪潮。收購“Nervana”便是濃墨重彩的一筆。

2014年4月,Nervana以打造“深度學習專用硬件”為主營業(yè)務(wù)正式成立,從成立之初到三輪共2050萬美元融資,到被英特爾收購。三年半時間,終于去年10月公布了Nervana NNP系列初代芯片“Lake Crest”,于去年年底開始出貨。

據(jù)了解,這款神經(jīng)網(wǎng)絡(luò)處理器的設(shè)計目的是為了快速解決AI應(yīng)用遇到的數(shù)學問題,特別是神經(jīng)網(wǎng)絡(luò),是目前比較流行的機器學習技術(shù)分支。

在此基礎(chǔ)上,本次AI開發(fā)者大會上Naveen Rao公開了英特爾新一代AI芯——英特爾Nervana NNP-L1000,代號為“Spring Crest”的專用人工智能芯片,與“Lake Crest”只供應(yīng)給一小部分英特爾合作伙伴不同,“Spring Crest”成為英特爾第一款商用神經(jīng)網(wǎng)絡(luò)處理器,并計劃在2019年發(fā)布。

英特爾的目標是,到2020年將深度學習訓(xùn)練的性能提升100倍,具體實現(xiàn)路徑是通過Crest的家族,與前代相比,新一代芯片將實現(xiàn)3-4倍的訓(xùn)練性能。

英偉達:Titan+DRIVE+Jetson

去年12月,英偉達推出了重磅產(chǎn)品“Titan V”PC GPU,該款GPU擁有110萬億次浮點運算性能,是其去年4月份公布的架構(gòu)Titan Xp的9倍,和用于數(shù)據(jù)中心的英偉達Tesla V100 GPU一樣,Titan V也更加清晰地面向AI。

據(jù)黃教主介紹說,“Volta”系列的“創(chuàng)生”主要為推動高性能計算和人工智能的極限:“我們用新的處理器架構(gòu)、指令、數(shù)字格式,以及存儲器架構(gòu)等打開新的局面。”

在自動駕駛領(lǐng)域,英偉達的“DRIVE”系列也是各個性能爆表。去年10月,發(fā)布了“DRIVE PX Pegasus”自動駕駛平臺,載了兩顆Xavier芯片,以及Volta架構(gòu)GPU,高配置讓其擁有了高達320 TOPS的深度學習處理能力,這個數(shù)值是上一代DRIVE PX平臺的數(shù)倍。而僅僅在兩個月后的“CES 2018”上,黃教主在主題演講中展示了NVIDIA最新的自動駕駛技術(shù)“DRIVE XAVIER”,在各種“核彈”級參數(shù)下,這款芯片在2018年Q1開始流片。

PU

AMD此次公開展示的全球首款7納米制程的GPU芯片原型是對這個預(yù)言的應(yīng)驗。這款含有32GB高帶寬內(nèi)存的芯片,專為人工智能和深度學習設(shè)計,用于工作站和服務(wù)器。

據(jù)了解,Vega性能相比上一代節(jié)點(14納米)性能提高35%,能效提高兩倍,密度也翻了一番。

IBM:DNN算力是GPU100倍

IBM在最近發(fā)表在Nature上的一篇論文中表示說,IBM Research AI團隊用大規(guī)模的模擬存儲器陣列訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)(DNN),達到了與GPU相當?shù)木取?/p>

用GPU運行神經(jīng)網(wǎng)絡(luò)的方法近年來已經(jīng)通行人工智能領(lǐng)域,然而兩者的組合其實并不完美。IBM 研究人員希望專門為神經(jīng)網(wǎng)絡(luò)設(shè)計一種新芯片,使前者運行能夠更快、更有效,據(jù)研究人員稱,IBM全新芯片可以達到GPU 280倍的能源效率,并在同樣面積上實現(xiàn)100倍的算力。

聲明: 本網(wǎng)站所刊載信息,不代表OFweek觀點?帽菊靖寮瑒(wù)經(jīng)書面授權(quán)。未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復(fù)制、翻譯及建立鏡像,違者將依法追究法律責任。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號