訂閱
糾錯
加入自媒體

如果生成式人工智能被證明是一個啞彈怎么辦?

2023-08-15 16:14
元宇宙之心
關注

除了被稱為室溫超導體的LK-99可能只是曇花一現(xiàn)外,我從未見過有什么事情比生成式人工智能更受追捧。許多公司的估值達到數(shù)十億美元,新聞報道不絕于耳;從硅谷到華盛頓,再到日內瓦,所有人都在談論它。

但實際上,目前的收入還未達到預期,甚至可能永遠無法實現(xiàn)

這些估值預計會有萬億美元的市場,但目前生成式人工智能的實際收入據(jù)傳僅為數(shù)億美元。盡管這些收入可能會增長1000倍,但這純屬猜測。我們不應該簡單地假設它會實現(xiàn)。

到目前為止,大部分收入似乎來自兩個方面, 一是編寫半自動代碼(程序員喜歡使用生成工具作為助手),二是撰寫文本 。

我認為,程序員將樂于使用生成式人工智能的輔助工具;其自動補全特性對他們的工作非常有幫助,而且他們受過培訓,能夠發(fā)現(xiàn)和修復并不常見的錯誤。本科生們將繼續(xù)使用生成式人工智能,但他們的口袋并不寬裕(他們很可能會轉向開源的競爭對手)。

其他潛在付費客戶可能很快失去興趣。今天上午,頗具影響力的風險投資家Benedict Evans在“X”(原Twitter)上發(fā)表了一系列文章,提到了這一問題:

我那些試圖使用ChatGPT來回答搜索,以幫助學術研究的朋友們也面臨著類似的失望。一位律師在法律研究中使用ChatGPT后受到了法官的譴責,并書面承諾以后不在無監(jiān)督的情況下使用ChatGPT。幾周前,一則新聞報道稱,GPT的使用可能正在減少。

如果Evans的經歷是一個警示信號,那么整個生成式人工智能領域,在目前的估值下,可能會迅速走向終結。程序員會繼續(xù)使用它,那些需要撰寫大量文案來推廣產品,以提高搜索引擎排名的營銷人員也會繼續(xù)使用它。但無論是編碼還是速度、質量平平的文案寫作,都遠遠不足以維持當前的估值夢想。

即使是OpenAI,也很難實現(xiàn)其290億美元的估值;如果年復一年只能實現(xiàn)數(shù)千萬或數(shù)億美元的營收,那么估值低至數(shù)十億美元的競爭初創(chuàng)公司很可能最終倒閉。微軟今年的股價上漲了近一半,或許主要是由于人工智能的期望,但其股價可能會下跌;NVIDIA的股價飆升得更厲害,但也可能會回落。

最近,我和軟件投資領域的早期先鋒Roger McNamee討論了這個問題。也許唯一真正吸引我們的經濟應用場景是搜索。例如,使用由ChatGPT支持的必應代替谷歌搜索,但是相關的技術問題非常巨大;我們沒有理由認為“幻覺”問題會很快得到解決。如果不能解決,泡沫很容易破滅。

但現(xiàn)在讓我擔心的不僅僅是整個生成式人工智能經濟,更多地是基于期望而非實際商業(yè)用途,將來可能會出現(xiàn)大規(guī)模、令人痛心的修正,還有我們正在把整個世界和國家政策建立在人工智能生成將改變世界的前提之上,而事后看來,這種前提可能是不現(xiàn)實的。

在國家層面上,可能會延緩保護消費者的監(jiān)管措施(例如圍繞隱私、減少偏見、要求數(shù)據(jù)透明性、打擊虛假信息等),因為反對意見認為應盡快推進生成式人工智能的發(fā)展。我們可能無法獲得所需的消費者保護,因為我們正試圖培育一種可能不會如預期增長的東西。

在我看來,幾乎所有人都犯了一個根本性的錯誤,那就是認為生成式人工智能等同于AGI(通用人工智能,智能和機敏程度與人類相當或更高)

也許每個行業(yè)的人都希望你相信AGI即將來臨。這激發(fā)了他們對必然性的敘述,并推動了他們的股價和初創(chuàng)公司的估值。Anthropic公司的首席執(zhí)行官Dario Amodei最近預測,我們將在2-3年內實現(xiàn)AGI。谷歌DeepMind首席執(zhí)行官Demis Hassabis也對近期的AGI做出了預測。

我對此深表懷疑。 在生成式人工智能的核心問題上,我們面臨的不是一個,而是許多嚴重的、尚未解決的問題 ,從它們容易制造幻覺與虛假信息,到它們無法可靠地與Wolfram Alpha等外部工具可靠對接,再到從一個月到另一個月的不穩(wěn)定(這使得它們無法在大型系統(tǒng)中進行工程應用)。

現(xiàn)實情況是,除了純粹的技術樂觀主義之外,我們沒有任何具體理由認為這些問題的解決迫在眉睫。通過擴大系統(tǒng)規(guī)模來擴展系統(tǒng)在某些方面有所幫助,但在其他方面則不然;我們仍然無法保證任何特定系統(tǒng)都是誠實、無害或有益的,而不是諂媚、不誠實、有害或有偏見的。

人工智能研究人員多年來一直在研究這些問題。幻想這些具有挑戰(zhàn)性的問題會突然全部迎刃而解是不現(xiàn)實的。22年來,我一直在抱怨幻覺錯誤;人們一直在承諾解決方案即將到來,但卻從未實現(xiàn)。因為我們現(xiàn)在的技術是基于自動補全,而不是建立在事實基礎上的。

過去一段時間,人們對這種擔憂充耳不聞;但最近一些科技領導者似乎終于明白了這個道理。就在幾天前,《財富》雜志刊登了這樣一則報道:

如果幻覺問題無法解決,生成式人工智能可能也無法每年創(chuàng)造萬億美元的產值。如果它可能無法創(chuàng)造萬億美元的產值,那么它可能也不會產生人們期望的影響。如果它不會產生這種影響,也許我們不應該基于這種前提來構建我們的世界。

原文由Gary Marcus撰寫,中文內容由元宇宙之心(MetaverseHub)團隊編譯,如需轉載請聯(lián)系我們。

       原文標題 : 如果生成式人工智能被證明是一個啞彈怎么辦?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號