AI落地難?是時候用開源降低AI落地門檻了
過去三十多年,從Linux到KVM,從OpenStack到Kubernetes,IT領域眾多關鍵技術都來自開源。開源技術不僅大幅降低了IT成本,也降低了企業(yè)技術創(chuàng)新的門檻。
那么,在生成式AI時代,開源能夠為AI帶來什么?
紅帽的答案是:開源技術將推動AI更快、更廣泛的應用到各行各業(yè)中。
自1993年成立至今,紅帽一直是堅定的開源技術布道者和構建者。透過不久前的2024紅帽論壇,「智能進化論」看到了開源技術與AI碰撞的三大關鍵詞:簡單的AI、開源的AI、混合的AI。
01
簡單的AI從一臺Laptop開啟的企業(yè)AI應用之旅
2024年9月,AI 托管平臺 Hugging Face 宣布其收錄的 AI 模型數(shù)量已突破 100 萬個,足以證明生成式AI與大模型的火爆。
但是從通用的基礎模型,到解決不同企業(yè)實際業(yè)務問題之間,仍有不小的距離。算力、人才、模型訓練平臺和工具、技術經(jīng)驗都是大模型落地過程中的普遍痛點。比如:
“能不能讓基礎模型使用企業(yè)自己的數(shù)據(jù),在我選擇的環(huán)境里做調(diào)優(yōu),同時只需要花費相對較小的投入?”
“我們想基于基礎模型開發(fā)適配自身業(yè)務的小模型,但是團隊沒有AI開發(fā)經(jīng)驗,沒有開發(fā)平臺,甚至沒有足夠的GPU算力資源怎么開始?”
正如過去數(shù)年間,紅帽通過RHEL 和 OpenShift,將Linux 和容器技術加速普及一樣,用開源的方式將AI引入企業(yè),也是AI時代紅帽的愿景。
為此,紅帽推出了一系列AI平臺和產(chǎn)品,組成了企業(yè)AI應用三步曲:
第一步,借助Podman Desktop和InstructLab,用戶可以在最小資源配置下試用開源AI模型和工具,比如在筆記本電腦上用CPU試跑AI模型,而不需要額外的GPU卡。
過去,很多人認為AI模型的訓練不可能在一臺PC上完成,必須在配備GPU卡的大型數(shù)據(jù)中心完成。紅帽徹底改變了這一現(xiàn)實,同時也讓沒有IT開發(fā)經(jīng)驗的數(shù)據(jù)科學家和業(yè)務人員都可以參與到AI模型訓練中。
借助 Podman AI Lab 擴展包,Podman Desktop可以讓用戶在本地環(huán)境中構建、測試和運行基礎模型。只需完成幾個步驟即可設置試驗環(huán)境,用來試用不同的基礎模型。
InstructLab是一款用于基礎模型對齊的開源工具,它可以幫你從開源社區(qū)把需要的基礎模型下載到本地進行訓練,并大幅降低了模型微調(diào)的數(shù)據(jù)準備和技術門檻。
第二步,通過Red Hat Enterprise Linux AI(RHEL AI),在云端服務器上進一步訓練模型。
如果第一步測試效果滿意,用戶就可以在云端服務器上進行生產(chǎn)級的模型訓練。
RHEL AI是一個基礎模型平臺,它使用戶能夠更加便捷地開發(fā)、測試和部署生成式AI模型。
RHEL AI中整合了IBM研究院的開源授權大模型Granite、模型對齊工具InstructLab,以及包括英偉達、英特爾和AMD的GPU加速器。該解決方案被封裝成一個優(yōu)化的、可啟動的RHEL鏡像,用于在混合云環(huán)境中部署單個服務器,并已集成到OpenShift AI中。
第三步,通過OpenShift AI,在更大規(guī)模的分布式集群中進行生產(chǎn)級別的模型訓練和部署。
如果在前面兩個環(huán)節(jié)中,模型都收獲了滿意的效果,就可以通過更大規(guī)模的分布式集群投入生產(chǎn)環(huán)境。
OpenShift AI是紅帽的混合機器學習運營(MLOps)平臺,能夠在分布式集群環(huán)境中大規(guī)模運行模型和InstructLab,可以支撐大型團隊完成ML Ops的工作流程。而且,OpenShift AI支持跨云混合部署,支持本地數(shù)據(jù)中心、私有云、公有云、混合云等多種環(huán)境。
在三步曲之外,紅帽還推出了豐富的AI賦能產(chǎn)品,比如Red Hat Lightspeed通過集成生成式人工智能(GenAI),為初學者和專家提供更順暢的工作體驗。將Red Hat Lightspeed應用于RHEL AI、OpenShift AI,用戶可以通過自然語言的方式管理操作系統(tǒng)、容器平臺甚至集群。
02
開源的AI用開源社區(qū)推動大模型迭代
“你可以隨處選擇運行 AI 的位置,而且它將基于開源。”在2024年5月的紅帽全球峰會上,紅帽CEO Matt Hicks曾這樣表示。
可以說,開源開放的理念,貫穿了紅帽所有的AI產(chǎn)品與戰(zhàn)略。
InstructLab就是一個典型的例子。InstructLab既是模型對齊的工具,也是一個開源社區(qū),開創(chuàng)了一種通過開源社區(qū)推動開源模型的持續(xù)進步的新模式。
“紅帽設計InstructLab有兩個主要目的:第一,讓客戶基于Granite基礎模型,使用InstructLab和自身數(shù)據(jù)訓練出符合需求的模型。第二,我們邀請用戶更進一步,將知識和技能反饋至上游的開源社區(qū),將其整合到社區(qū)版本的Granite模型中。因此,InstructLab是連接社區(qū)和客戶的橋梁。”紅帽大中華區(qū)解決方案架構部高級總監(jiān)王慧慧表示。
同時,在推動AI落地方面,開放共創(chuàng)是紅帽堅守的理念。
“在AI應用落地方面,紅帽引入了“開放實驗室”的概念,與客戶的顧問團隊合作,針對企業(yè)的研發(fā)、生產(chǎn)、市場行銷和客戶支持等環(huán)節(jié),一起找出最具效能的應用場景。從一個小應用成功起步,再逐步擴展至更大的場景。”紅帽全球副總裁兼大中華區(qū)總裁曹衡康表示。
“關于AI最后一公里的落地,紅帽今年加速了與本土ISV及方案開發(fā)商的合作,以滿足不同行業(yè)和企業(yè)的個性化需求。”紅帽大中華區(qū)資深市場總監(jiān)趙文斌表示。
自今年5月發(fā)布全棧AI產(chǎn)品以來,紅帽AI系列產(chǎn)品在國內(nèi)市場加速落地。作為紅帽AI產(chǎn)品的首批客戶之一,國內(nèi)某保險行業(yè)企業(yè)在引入紅帽的AI產(chǎn)品后,其代碼合并和審查的準確率大大提升,顯著提升了開發(fā)效率與客戶滿意度。
“去年紅帽大中華區(qū)業(yè)務創(chuàng)下了歷史新高,今年也繼續(xù)以雙位數(shù)增長。我們的增長來自于越來越多的企業(yè)選擇開源技術,認識到開源的優(yōu)勢。”曹衡康表示。
紅帽全球副總裁兼大中華區(qū)總裁 曹衡康
03
混合的AI企業(yè)發(fā)展自主AI的必然選擇
云計算時代,企業(yè)根據(jù)不同的業(yè)務負載可以靈活選擇裸金屬、公有云、私有云、混合云、專屬云等多種部署方式。
正如云是混合的,AI也是混合的。
隨著生成式AI技術的不斷成熟,越來越多企業(yè)意識到,沒有一款基礎模型可以做到一家獨大。企業(yè)根據(jù)不同業(yè)務選擇最適合的模型將成為一種趨勢,多個業(yè)務場景對應多個模型將成為常態(tài)。
從這個層面看,生成式AI時代也是混合AI時代。自2013年發(fā)布開放混合云戰(zhàn)略以來,這種跨開放混合云的能力正是紅帽的優(yōu)勢所在,其也將在AI時代進一步延續(xù)。
紅帽O(jiān)penShift 產(chǎn)品線經(jīng)理佟一舟介紹了一個金融行業(yè)客戶的案例。該企業(yè)在大模型出現(xiàn)之前就擁有豐富的ML小模型開發(fā)實力。然而在構建生成式AI研發(fā)、生產(chǎn)、實施平臺的時候,該企業(yè)果斷選擇了紅帽。
一方面,大模型時代構建AI平臺的難度和復雜度與小模型時代不可同日而語。另一方面,在多模型的混合場景下,企業(yè)需要找到一個中立的AI平臺作為合作伙伴,才能避免被單一廠商綁定的風險。
“很多客戶希望AI平臺企業(yè)能夠穩(wěn)定為他們提供未來10年的服務,而目前很多底層技術都來自開源技術。紅帽30年的開源積淀,正是很多客戶看中的關鍵優(yōu)勢。”佟一舟表示。
結語
在生成式AI的時代浪潮中,開源技術正以其獨特的魅力和強大的推動力,為AI的廣泛應用鋪設了一條堅實的道路。
開源與AI的碰撞,不僅降低了AI落地的門檻,更讓企業(yè)擁有了更多的自主權和選擇空間。
文中圖片來自攝圖網(wǎng)
END
本文為「智能進化論」原創(chuàng)作品,
原文標題 : AI落地難?是時候用開源降低AI落地門檻了
請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 高級軟件工程師 廣東省/深圳市
- 自動化高級工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級銷售經(jīng)理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術專家 廣東省/江門市
- 封裝工程師 北京市/海淀區(qū)
- 結構工程師 廣東省/深圳市