訂閱
糾錯
加入自媒體

從AI存儲新品,看大模型時代的存儲趨勢

2023-07-31 10:15
Ai芯天下
關注

前言:

智算時代,算力是生產(chǎn)力,數(shù)據(jù)是核心生產(chǎn)要素,大型語言模型橫空出世后,對數(shù)據(jù)存儲提出更高的要求。

作者 | 方文三

圖片來源 |  網(wǎng) 絡 

圖片

大模型時代華為的AI存儲新品

近日,華為發(fā)布大模型時代AI存儲新品,為基礎模型訓練、行業(yè)模型訓練,細分場景模型訓練推理提供存儲最優(yōu)解,釋放AI新動能。

華為發(fā)布的“OceanStor A310深度學習數(shù)據(jù)湖存儲”與“FusionCube A3000 訓/推超融合一體機”是商用AI存儲新品。

官方稱“這兩款產(chǎn)品可為AI基礎模型訓練、行業(yè)模型訓練,細分場景模型訓練推理提供新動能。

OceanStor A310深度學習數(shù)據(jù)湖存儲,主要面向基礎/行業(yè)大模型數(shù)據(jù)湖場景,實現(xiàn)從數(shù)據(jù)歸集、預處理到模型訓練、推理應用的AI全流程海量數(shù)據(jù)管理。

OceanStor A310單框5U支持業(yè)界最高的400GB/s帶寬,以及1200萬IOPS的最高性能,可線性擴展至4096節(jié)點,可實現(xiàn)多協(xié)議無損互通。全局文件系統(tǒng)GFS實現(xiàn)跨地域智能數(shù)據(jù)編織,簡化數(shù)據(jù)歸集流程,通過近存計算實現(xiàn)近數(shù)據(jù)預處理,減少數(shù)據(jù)搬移,預處理效率提升30 %。

圖片

FusionCube A3000訓/推超融合一體機,主要面向行業(yè)大模型訓練/推理場景,針對百億級模型應用,集成OceanStor A300高性能存儲節(jié)點、訓/推節(jié)點、交換設備、AI平臺軟件與管理運維軟件,為大模型伙伴提供拎包入住式的部署體驗,實現(xiàn)一站式“開箱即用”交付,2小時內(nèi)即可完成部署。

并且該一體機支持兩種靈活的商業(yè)模式,包括華為昇騰一站式方案,以及開放計算、網(wǎng)絡、AI平臺軟件的第三方伙伴一站式方案。

一體機的訓/推節(jié)點與存儲節(jié)點均可獨立水平擴展,以匹配不同規(guī)模的模型需求。

同時 FusionCube A3000通過高性能容器實現(xiàn)多個模型訓練推理任務共享GPU,將資源利用率從40%提升到70%以上。

圖片

潮流挺進,構建中國AI“新賽道”

ChatGPT的成功并不是偶然結果,在目前版本開放以前,OpenAI已經(jīng)在訓練大規(guī)模語言模型的道路上深耕多年。

目前在國內(nèi)政策層面,除了在“十四五”期間,針對人工智能的未來發(fā)展陸續(xù)出臺相關指導方案和激勵支持政策。

北京5月30日發(fā)布《北京市加快建設具有全球影響力的人工智能創(chuàng)新策源地實施方案(2023-2025年)年》和《北京市促進通用人工智能創(chuàng)新發(fā)展的若干措施》;

深圳5月31日發(fā)布《深圳市加快推動人工智能高質量發(fā)展高水平應用行動方案(2023-2024年)》;

成都6月5日發(fā)布《成都市關于進一步促進人工智能產(chǎn)業(yè)高質量發(fā)展的若千政策措施(征求意見稿)》;

杭州6月12日發(fā)布《關于加快推進人工智能產(chǎn)業(yè)創(chuàng)新發(fā)展的實施意見 (征求意見稿) 》;

無錫6月14日發(fā)布《無錫市人工智能產(chǎn)業(yè)創(chuàng)新發(fā)展三年行動計劃(2023-2025)》;

上海7月8日發(fā)布《上海市推動人工智能大模型創(chuàng)新發(fā)展的若干措施》;

重慶7月25日發(fā)布《重慶市以場景驅動人工智能產(chǎn)業(yè)高質量發(fā)展行動計劃(2023-2025)年》。

圖片

2023年全國兩會期間,多位全國人大代表、全國政協(xié)委員將視野聚焦“如何發(fā)展中國自己的ChatGPT”,為人工智能的發(fā)展獻言獻策。

全國人大代表、科大訊飛董事長劉慶峰表示,應當加快推進我國認知智能大模型建設,在自主可控平臺上讓行業(yè)盡快享受AI紅利,讓每個人擁有AI助手。

全國政協(xié)委員錢家盛則建議加大人工智能科學與技術交叉學科建設,穩(wěn)步推進“人工智能+學科群”培養(yǎng)模式,構建人工智能領域人才培養(yǎng)體系和科技創(chuàng)新體系。

出品大模型應用面臨四大挑戰(zhàn)

第一:數(shù)據(jù)準備時間長,數(shù)據(jù)來源分散,歸集慢,預處理百TB數(shù)據(jù)需10天左右;

第二:多模態(tài)大模型以海量文本、圖片為訓練集,當前海量小文件的加載速度不足100MB/s,訓練集加載效率低;

第三:大模型參數(shù)頻繁調(diào)優(yōu),訓練平臺不穩(wěn)定,平均約2天出現(xiàn)一次訓練中斷,需要Checkpoint機制恢復訓練,故障恢復耗時超過一天;

第四:大模型實施門檻高,系統(tǒng)搭建繁雜,資源調(diào)度難,GPU資源利用率通常不到40%。

目前大模型對存儲的需求

現(xiàn)階段大模型以文本型的單模態(tài)為主,但是隨著大模型與各個行業(yè)相結合,紫東太初大模型、訊飛星火大模型、ChatGLM認知大模型等,都提到過以后會加速多模態(tài)的發(fā)展,那么數(shù)據(jù)類型將日益增加。

當然對存儲的要求也會變高,一是要完成基于海量多態(tài)數(shù)據(jù)的訓練;二是要面向海量終端的數(shù)據(jù)應用。若存儲容量不足可能對模型性能產(chǎn)生影響。

從文本到圖片、音頻、視頻進行拓展,數(shù)據(jù)量也將大幅增加,預計會從純文本型的幾個TB(太字節(jié)、1TB=1024GB)向多模態(tài)的PB級(拍字節(jié)、1PB=100萬GB)容量邁進,這對存儲的架構、性能等核心能力提出更高要求。

據(jù)相關機構預計,2026年中國人工智能軟件及應用市場規(guī)模將會達到211億美元,國內(nèi)被寄予厚望的各大科技公司都在不斷探索大模型運行的新方法、新模式。

然而,只有落地才能實現(xiàn)大模型的價值。

結尾:

數(shù)據(jù)、算法、算力是AI發(fā)展的驅動力,大模型增強了AI技術的通用性,助力AI的實現(xiàn)。

未來,大模型與場景深度融合,配合專業(yè)工具和平臺支持應用落地,以開放的生態(tài)來激發(fā)創(chuàng)新,形成良性循環(huán),并通過提供全流程支持應用落地的工具和方法,讓更多企業(yè)受益。

內(nèi)容參考來源于:華為:華為發(fā)布大模型時代AI存儲新品;浦銀國際研究:從華為AI存儲新品看大模型時代的存儲趨勢;中國新聞網(wǎng):大模型催生多樣化數(shù)據(jù)處理 數(shù)據(jù)存儲面臨新要求;醫(yī)療科技高峰論壇:大模型的深度與速度

       原文標題 : AI芯天下丨趨勢丨從AI存儲新品,看大模型時代的存儲趨勢

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號