訂閱
糾錯
加入自媒體

AI風(fēng)險堪比核能?詐騙、失控等眾多黑暗面,我們該如何應(yīng)對?

你敢相信嗎,一個普通的視頻聊天,竟然讓一位福州市民損失了430萬元!這就是最近發(fā)生的一起利用AI技術(shù)實(shí)施電信詐騙的驚人案例,它引發(fā)了全國網(wǎng)友的熱議和關(guān)注。

而在國外,有關(guān)AI造假的問題也是層出不窮。有人用AI技術(shù)制造了美國前總統(tǒng)特朗普“被捕”的假新聞,也有人用AI技術(shù)模仿了歐盟委員會主席的聲音,向德國總理打了個騙局電話。

這些新聞表明,AI技術(shù)的濫用和誤用已經(jīng)成為一個全球性的問題,在這種情況下,人們越來越擔(dān)心 ChatGPT 等人工智能的發(fā)展可能對社會帶來嚴(yán)重的威脅。對此,包括“ChatGPT之父”Sam Altman在內(nèi)的350位AI權(quán)威自發(fā)簽署了一封聯(lián)名公開信,警告AI可能會對人類構(gòu)成滅絕性風(fēng)險。

此前,深度學(xué)習(xí)之父Hinton也曾為了警告AI的風(fēng)險,不惜從谷歌離職。的確,AI技術(shù)的發(fā)展和應(yīng)用不僅給人們帶來了便利和福祉,也帶來了巨大的挑戰(zhàn)和危機(jī)。

如何識別和應(yīng)對AI的潛在風(fēng)險,已經(jīng)成為當(dāng)下亟待解決的問題,而我們將在以下內(nèi)容中針對這些問題做詳細(xì)的闡述。

AI有哪些風(fēng)險?

? 倫理和道德風(fēng)險

想象一下,如果有一天,AI技術(shù)發(fā)展到了超越人類智慧的水平,它會怎么對待我們?它會尊重我們的價值觀和利益嗎?它會保護(hù)我們的主體地位和自由嗎?科幻小說中人類的機(jī)器大戰(zhàn)的場面是否會成為現(xiàn)實(shí)?

這是我們需要認(rèn)真思考的一個非常重要的問題,因?yàn)樵贏I技術(shù)的發(fā)展和應(yīng)用中,倫理和道德風(fēng)險已經(jīng)悄然出現(xiàn)。

一方面,AI系統(tǒng)可能成為人類偏見的鏡子或放大器,導(dǎo)致不公平的決策或行為;另一方面,AI系統(tǒng)可能區(qū)別對待不同的個人或群體,比如有些招聘系統(tǒng)可能會針對某些性別或種族,從而影響他們的就業(yè)前景。

? 經(jīng)濟(jì)風(fēng)險

AI技術(shù)所引發(fā)的經(jīng)濟(jì)風(fēng)險也與我們的生活息息相關(guān)。詐騙分子通過“換臉”和“擬聲”等技術(shù)模仿受害人的朋友或親戚的聲音和外貌,讓受害人完全分不清真假,這便是利用AI技術(shù)進(jìn)行詐騙的典型方式。

據(jù)報道,這種詐騙的成功率高達(dá)100%,已經(jīng)造成了多起重大財產(chǎn)損失,給人們帶來了嚴(yán)重的經(jīng)濟(jì)風(fēng)險。

目前,AI詐騙包括以下幾種常用手法:

聲音合成:詐騙者通過騷擾電話錄音等來提取某人聲音,獲取素材后進(jìn)行聲音合成,從而可以用偽造的聲音騙過對方。

AI程序篩選受害人和換臉技術(shù):詐騙分子首先分析公眾發(fā)布在網(wǎng)上的各類信息,然后根據(jù)所要實(shí)施的騙術(shù),通過AI技術(shù)篩選目標(biāo)人群,最后在視頻通話中利用AI換臉騙取信任。在短時間內(nèi)便可生產(chǎn)出定制化的詐騙腳本,從而實(shí)施精準(zhǔn)詐騙。

轉(zhuǎn)發(fā)微信語音:詐騙分子在盜取微信號后,便向其好友“借錢”,為取得對方的信任,他們會通過提取語音文件來實(shí)現(xiàn)語音轉(zhuǎn)發(fā),進(jìn)而實(shí)施詐騙。

? 技術(shù)風(fēng)險

作為一種改變?nèi)藗兩罘绞胶凸ぷ鞣绞降募夹g(shù),AI的廣泛應(yīng)用為人們帶來了極大的便利,但同時AI技術(shù)的發(fā)展也給人類帶來了一系列的技術(shù)危害和技術(shù)風(fēng)險。

首先是數(shù)據(jù)隱私和安全問題。AI技術(shù)需要處理的數(shù)據(jù)通常涉及到用戶的個人信息,如果這些數(shù)據(jù)處理不當(dāng)或泄露,將給用戶帶來巨大的損失和安全隱患。

其次,AI技術(shù)往往采用黑箱技術(shù),以獲得更高的預(yù)測能力和效率,這使得AI系統(tǒng)不能向人類提供足夠的可解釋性,使得AI系統(tǒng)無法“解釋”其行為或決策的標(biāo)準(zhǔn),可能產(chǎn)生誤導(dǎo)性和歪曲性。

除了以上技術(shù)問題以外,清華大學(xué)教授陶建華曾表示,大模型的安全漏洞威脅大模型的應(yīng)用生態(tài)和國家安全,如數(shù)據(jù)投毒攻擊、對抗樣本攻擊,以及模型竊取攻擊國家、企業(yè)、個人信息竊取等。

? 社會風(fēng)險

AI技術(shù)的不斷發(fā)展還導(dǎo)致了越來越多的工作被自動化取代,部分人失去了工作機(jī)會,從而使得富人和窮人之間的差距越來越大。

在某些行業(yè)中,AI可能會取代人類工作崗位,如制造業(yè)、商業(yè)、金融和法律,這會導(dǎo)致失業(yè)、職業(yè)轉(zhuǎn)移和社會經(jīng)濟(jì)的重大變化,進(jìn)一步造成失業(yè)率上升,并對整個社會產(chǎn)生負(fù)面影響。

除此之外,AI可能對人類的社交和人際交往能力產(chǎn)生影響。在未來,人類可能會傾向于與機(jī)器對話,而不是與真正的人進(jìn)行交流,這將對我們的社會聯(lián)系和人類身份認(rèn)同帶來重要的改變。

如果AI技術(shù)變得足夠智能,可能會超出人類的控制范圍,從而導(dǎo)致不可預(yù)測的人類控制喪失。最后,由于人工智能技術(shù)的發(fā)展需要大量投資和技術(shù)資源,可能會導(dǎo)致一些國家或組織比其他國家或組織更具競爭力,從而加劇社會不平等。

該如何應(yīng)對?

? 國家層面

盡管人工智能技術(shù)具有跨國性質(zhì),并且圍繞它的擔(dān)憂程度很高。在AI監(jiān)管方面,自2017年以來,69個國家共通過了800多項(xiàng)人工智能法規(guī)。

但在人工智能監(jiān)管或數(shù)據(jù)使用方面仍然沒有統(tǒng)一的政策方法,那么,世界各地的政府機(jī)構(gòu)是如何處理這個問題的呢?

世界各地的政府機(jī)構(gòu)正在努力制定人工智能監(jiān)管和數(shù)據(jù)使用方面的政策。例如,英國宣布將舉辦世界首個人工智能峰會,呼吁加強(qiáng)AI管制。美國國家標(biāo)準(zhǔn)與技術(shù)研究院也已經(jīng)制定了負(fù)責(zé)任地使用人工智能的方法框架,并試圖在政府的AI監(jiān)管工作方面扮演突出角色。

歐盟委員會提出了一項(xiàng)旨在加強(qiáng)人工智能(AI)技術(shù)監(jiān)管的法規(guī)草案,擬創(chuàng)建一個所謂“AI高風(fēng)險應(yīng)用場景”的清單,并對AI技術(shù)在關(guān)鍵基礎(chǔ)設(shè)施、大學(xué)招生、申請貸款等被認(rèn)定為“高風(fēng)險”應(yīng)用領(lǐng)域的開發(fā)和使用制定新的標(biāo)準(zhǔn),并進(jìn)行有針對性的監(jiān)管。

此外,中國政府也在積極推進(jìn)人工智能監(jiān)管和數(shù)據(jù)使用方面的政策,中國國家互聯(lián)網(wǎng)信息辦公室發(fā)布了《人工智能安全評估規(guī)范》等文件,以加強(qiáng)對人工智能安全性的監(jiān)管。

在近日國務(wù)院辦公廳印發(fā)的《國務(wù)院2023年度立法工作計劃》中,人工智能法草案等也將預(yù)備提請全國人大常委會審議。

由此可見,國家政府機(jī)構(gòu)在處理人工智能監(jiān)管或數(shù)據(jù)使用方面問題時,通常會制定一些法規(guī)或指南來規(guī)范相關(guān)行為。這些法規(guī)或指南通常會涉及到人工智能技術(shù)的安全性、隱私保護(hù)、公平性、透明度等方方面面。

? 企業(yè)層面

為了更好地應(yīng)對AI所帶來的風(fēng)險,不只是國家層面,還需要使用AI技術(shù)的相關(guān)企業(yè)也做出努力。

如今,AI已在許多企業(yè)內(nèi)外納入應(yīng)用層面,其中的一個重要布局是與大數(shù)據(jù)相結(jié)合,能夠?qū)崿F(xiàn)智能營銷、分析需求、提升服務(wù)、改進(jìn)供應(yīng)鏈等。

但應(yīng)用該技術(shù)也暴露出不少弊端,即使是ChatGPT也存在不知道實(shí)時信息的局限性,更多依賴AI可能會招致黑客攻擊。最優(yōu)的選擇便是用最新的算法更新系統(tǒng),實(shí)現(xiàn)“技術(shù)為王”。

此外,針對AI技術(shù)衍生的部分道德倫理問題,比如自動篩選與分類容易導(dǎo)致歧視與偏見,以及面部識別技術(shù)可能會暴露人的隱私等,企業(yè)在其中往往扮演主要角色。

不可否認(rèn),逐利是企業(yè)的天性,但作為社會的一員,企業(yè)還應(yīng)承擔(dān)相應(yīng)的社會責(zé)任,合法使用用戶數(shù)據(jù)并保障知情權(quán),主動建立企業(yè)內(nèi)部監(jiān)管機(jī)制,主動接受國家與社會的監(jiān)督。竭澤而漁,顯然不是市場競爭的長遠(yuǎn)選擇。

? 個人層面

目前AI詐騙的新聞大多集中于個人案例,因此每個人都應(yīng)當(dāng)提高防范能力,包括反詐意識與技術(shù)知識。

我們不僅要對陌生網(wǎng)址、短信、電話、好友保持警惕,更要對熟人在網(wǎng)絡(luò)上突如其來的匯款請求與提供個人隱私信息的要求提高警覺。

當(dāng)無法見面核實(shí)真實(shí)情況時,請拒絕涉及隱私與財產(chǎn)的要求,一旦發(fā)現(xiàn)風(fēng)險,請第一時間尋找有關(guān)部門的幫助。

(在某社交平臺查詢到的個人經(jīng)歷分享)

了解AI前沿技術(shù)同樣能夠提高個人反詐能力。一個人很難賺到認(rèn)知之外的錢,同樣,也難以丟掉認(rèn)知之內(nèi)的錢。雖然中老年人容易因不熟悉網(wǎng)絡(luò)而被詐騙,但實(shí)際上AI詐騙早已滲透年輕一代里。詐騙者往往利用被詐騙者的自信自負(fù)、虛榮愛面子、撿漏撈偏門等心理,從而達(dá)到其目的。

理性對待AI風(fēng)險

我們必須要意識到,人工智能的發(fā)展對人類社會是一把雙刃劍。AI到今天已成為不可逆的社會潮流,但現(xiàn)有與潛在的風(fēng)險需要我們提前預(yù)防。

英國阿斯頓大學(xué)學(xué)者大衛(wèi)·科林格里奇曾提出,創(chuàng)新技術(shù)如果因?yàn)閾?dān)心后果采取提早控制,那么很可能就不會爆發(fā),如果控制過晚,就很可能會走向失控。AI失控此前只存在于科幻作品中,但近來諸如“AI將會毀滅人類”的言論甚囂塵上,引發(fā)的詐騙、隱私等問題也暴露無遺。

想要突破AI的科林格里奇困境,需要國際組織、國家機(jī)關(guān)、企業(yè)團(tuán)體與個人聯(lián)合努力,攜手并進(jìn)。

在社會高速公路上急馳AI,急停只會造成難以估量的損失,我們要做的,唯有勻速向前。

【聲明】:本文為元宇宙之心運(yùn)營團(tuán)隊原創(chuàng),未經(jīng)允許嚴(yán)禁轉(zhuǎn)載,如需轉(zhuǎn)載請聯(lián)系我們,文章版權(quán)和最終解釋權(quán)歸元宇宙之心所有。

       原文標(biāo)題 : AI風(fēng)險堪比核能?詐騙、失控等眾多黑暗面,我們該如何應(yīng)對?

聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號