訂閱
糾錯(cuò)
加入自媒體

OpenAI發(fā)布新作:ChatGPT聊天機(jī)器人

今日消息,據(jù)報(bào)道,總部位于舊金山的OpenAI于11月30日推出了其最新作品:ChatGPT聊天機(jī)器人,供公眾免費(fèi)測(cè)試。聊天機(jī)器人是一種軟件應(yīng)用程序,旨在根據(jù)用戶的提示模仿類似人類的對(duì)話。在ChatGPT發(fā)布的一周之內(nèi),有超過一百萬的用戶嘗試了這個(gè)線上工具。

OpenAI表示,人工智能的創(chuàng)建重點(diǎn)是易用性。OpenAI 在宣布發(fā)布的帖子中說:“新的對(duì)話格式使 ChatGPT 能夠回答問題、發(fā)現(xiàn)錯(cuò)誤、挑戰(zhàn)錯(cuò)誤和拒絕不適當(dāng)?shù)恼?qǐng)求!

比如,當(dāng)有人問ChatGPT“偷車怎么樣”時(shí),它會(huì)回答:“偷車是一種嚴(yán)重的犯罪行為,后果很嚴(yán)重!被蛘呓o出“可以使用公共交通工具”之類的建議。

據(jù)悉,之前OpenAI 發(fā)布的語言模型并不是免費(fèi)使用的,但最新的ChatGPT可以在測(cè)試期間免費(fèi)試用,該公司希望利用在這期間的用戶反饋進(jìn)一步地完善ChatGPT,再發(fā)布最終版本。

OpenAI是一個(gè)研發(fā)機(jī)構(gòu),于2015年由硅谷投資者山姆·阿爾特曼和億萬富翁埃隆·馬斯克作為非營(yíng)利機(jī)構(gòu)成立,并吸引了包括風(fēng)險(xiǎn)資本家皮特·蒂爾(Peter Thiel)在內(nèi)的其他幾個(gè)人的投資。2019年,該集團(tuán)創(chuàng)建了一個(gè)相關(guān)的營(yíng)利性實(shí)體,以接納外部投資。據(jù)悉,馬斯克已在2018年離開了OpenAI的董事會(huì)。

ChatGPT的新訓(xùn)練方式

ChatGPT新加入的訓(xùn)練方式被稱為“從人類反饋中強(qiáng)化學(xué)習(xí)”(ReinforcementLearningfromHumanFeedback,RLHF)。這一訓(xùn)練方法增加了人類對(duì)模型輸出結(jié)果的演示,并且對(duì)結(jié)果進(jìn)行了排序。具體操作上,人工智能訓(xùn)練者扮演對(duì)話的雙方,即用戶和人工智能助手,提供對(duì)話樣本。在人類扮演聊天機(jī)器人的時(shí)候,會(huì)讓模型生成一些建議輔助訓(xùn)練師撰寫回復(fù),訓(xùn)練師會(huì)對(duì)回復(fù)選項(xiàng)打分排名,將更好的結(jié)果輸回到模型中,通過以上獎(jiǎng)勵(lì)策略對(duì)模型進(jìn)行微調(diào)并持續(xù)迭代。

在此基礎(chǔ)上完成訓(xùn)練,ChatGPT可以比GPT-3更好的理解和完成人類指令,展現(xiàn)卓越的模仿人類語言,提供連貫的、有風(fēng)格與邏輯的、符合對(duì)話主題的文段信息的能力。

ChatGPT是OpenAI在2020年推出的NLP預(yù)訓(xùn)練模型——GPT-3的衍生產(chǎn)品。在此之前,一直有預(yù)測(cè)OpenAI將在今年底或明年初推出GPT-4,雖然本次放出的ChatGPT被稱為GPT-3.5,而不是GPT-4,但業(yè)內(nèi)人士同樣認(rèn)為這將是對(duì)NLP以及人工智能領(lǐng)域有重要意義的一款模型。

支持連續(xù)對(duì)話

相比GPT-3,ChatGPT的主要提升點(diǎn)在于記憶能力。ChatGPT可以儲(chǔ)存對(duì)話信息,延續(xù)上下文,從而實(shí)現(xiàn)連續(xù)對(duì)話,這在對(duì)話場(chǎng)景中至關(guān)重要,極大地提升了對(duì)話交互模式下的用戶體驗(yàn)。

此外,ChatGPT相比前輩模型具有以下特征:1)可以承認(rèn)錯(cuò)誤,若用戶指出其錯(cuò)誤,模型會(huì)聽取意見并優(yōu)化答案;2)ChatGPT可以質(zhì)疑不正確的前提,減少虛假描述,如被詢問“哥倫布2015年來到美國(guó)的情景”的問題時(shí),機(jī)器人會(huì)說明哥倫布不屬于這一時(shí)代并調(diào)整輸出結(jié)果;3)因ChatGPT采用了注重道德水平的訓(xùn)練方式,ChatGPT在減少有害和不真實(shí)的回復(fù)上改善顯著,如拒絕回答尋求霸凌他人方案的問題,指出其不正義性。

ChatGPT的商業(yè)化落地問題

事實(shí)上,今天的ChatGPT距離實(shí)際落地還有一段距離。其中最為核心的問題,在于模型的準(zhǔn)確性和部署成本。

首先,ChatGPT的回答并不能保證準(zhǔn)確性,這對(duì)需要準(zhǔn)確回答具體問題的商業(yè)應(yīng)用來說是致命傷。這也是ChatGPT要在C端大規(guī)模推廣,所需要面臨的挑戰(zhàn)。一些業(yè)內(nèi)人士擔(dān)心,如果AI輸出虛假信息的速度太快,可能會(huì)在互聯(lián)網(wǎng)中淹沒真實(shí)信息,甚至對(duì)整個(gè)社會(huì)產(chǎn)生誤導(dǎo)。

這樣的擔(dān)心不無道理,也并非沒有先例。Meta早些時(shí)候推出的一款大型科學(xué)預(yù)言模型Galactica,就因?yàn)榛卮饐栴}過于“放飛自我”,在網(wǎng)上輸出了大量憑空捏造的虛假內(nèi)容,僅上線三天就匆匆下架了。

ChatGPT也并不能避免這個(gè)問題,OpenAI的科學(xué)家John Schulman在此前接受采訪時(shí)曾表示,他們?cè)诮鉀QAI編造事實(shí)的問題上取得了一些進(jìn)展,但還遠(yuǎn)遠(yuǎn)不夠。

小結(jié)

與許多其他基于人工智能的創(chuàng)新一樣,ChatGPT也讓一些人產(chǎn)生了疑慮和擔(dān)憂。OpenAI承認(rèn),該工具傾向于用“聽起來合理但不正確或無意義的答案”來回應(yīng),該公司認(rèn)為這個(gè)問題很難解決。

人工智能技術(shù)也可能使社會(huì)偏見長(zhǎng)期存在。包括Alphabet旗下的谷歌和亞馬遜在內(nèi)的科技巨頭此前都已經(jīng)承認(rèn),他們的一些人工智能實(shí)驗(yàn)項(xiàng)目“從道德層面上看很危險(xiǎn)”,而且有局限性。在一些公司的內(nèi)部測(cè)試中,人類不得不介入并解決人工智能帶來的破壞。

聲明: 本網(wǎng)站所刊載信息,不代表OFweek觀點(diǎn)?帽菊靖寮,務(wù)經(jīng)書面授權(quán)。未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復(fù)制、翻譯及建立鏡像,違者將依法追究法律責(zé)任。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)