ChatGPT應用爆火,安全的大數(shù)據(jù)底座何處尋?
毫無疑問,AIGC正在給人類社會帶來一場深刻的變革。
而剝開其令人眼花繚亂的華麗外表,運行的核心離不開海量的數(shù)據(jù)支持。ChatGPT的“入侵”已經引起了各行各業(yè)對內容抄襲的擔憂,以及網(wǎng)絡數(shù)據(jù)安全意識的提高。雖然AI技術是中立的,但并不能成為規(guī)避責任與義務的理由。
最近,英國情報機構——英國政府通訊總部(GCHQ)警告稱,ChatGPT和其他人工智能聊天機器人將是一個新的安全威脅。
盡管ChatGPT的概念出現(xiàn)沒有多久,但對網(wǎng)絡安全和數(shù)據(jù)安全帶來威脅的問題已經成為業(yè)內關注的焦點。對于目前還處于發(fā)展初期的ChatGPT,如此擔憂是否杞人憂天?
安全威脅或正在發(fā)生
去年年底,初創(chuàng)公司OpenAI推出ChatGPT,之后,其投資商微軟于今年推出了基于ChatGPT技術開發(fā)的聊天機器人“必應聊天(Bing Chat)”。由于此類軟件能夠提供酷似人類的對話,目前這項服務已風靡全球。
GCHQ的網(wǎng)絡安全部門指出,提供AI聊天機器人的公司可以看到用戶輸入的查詢內容,就ChatGPT而言,其開發(fā)商OpenAI就能夠看到這些。
ChatGPT通過大量文本語料庫進行訓練,其深度學習能力很大程度上依賴于背后的數(shù)據(jù)。
出于對信息泄露的擔憂,目前已有多家公司和機構發(fā)布“ChatGPT禁令”。
倫敦金融城律師事務所Mishcon de Reya禁止其律師將客戶數(shù)據(jù)輸入ChatGPT,因為擔心在法律上享有隱私特權的資料可能會遭泄露。
國際咨詢公司埃森哲警告其全球70萬名員工,出于類似的原因,不要使用ChatGPT,因為擔心客戶的機密數(shù)據(jù)最終會落入他人之手。英國電腦芯片公司Arm的母公司日本軟銀集團同樣警告其員工,不要向人工智能聊天機器人輸入公司人員的身份信息或機密數(shù)據(jù)。
今年2月,摩根大通成為第一家在工作場所限制使用ChatGPT的華爾街投行;ㄆ旒瘓F和高盛集團緊隨其后,前者禁止員工在整個公司范圍內訪問ChatGPT,后者則限制員工在交易大廳使用該產品。而在更早些時候,亞馬遜和微軟為防備員工在使用ChatGPT的過程中泄密,禁止他們向其分享敏感數(shù)據(jù),因為這些信息可能會被用作進一步迭代的訓練數(shù)據(jù)。
事實上,這些人工智能聊天機器人背后是大型語言模型(LLM),用戶的這些查詢內容將會被存儲起來,并且會在未來某個時候被用于開發(fā)LLM服務或模型。
這就意味著,LLM提供商能夠讀取到相關查詢,并可能以某種方式將它們合并到未來的版本中。
盡管LLM運營商應該采取措施保護數(shù)據(jù),但不能完全排除未經授權訪問的可能性。因此,企業(yè)需要確保他們有嚴格的政策,提供技術性支持,來監(jiān)控LLM的使用,以最大限度地降低數(shù)據(jù)暴露的風險。
另外,盡管ChatGPT本身尚不具備直接攻擊網(wǎng)絡安全和數(shù)據(jù)安全的能力,但是由于它具有自然語言生成和理解的能力,可以被用于偽造虛假信息、攻擊社交工程等方面。
此外,攻擊者還可以使用自然語言來讓ChatGPT生成相應的攻擊代碼、惡意軟件代碼、垃圾郵件等。因此,AI可以讓那些原本沒有能力發(fā)起攻擊的人基于AI生成攻擊,并大大提高攻擊成功率。
在自動化、AI、“攻擊即服務”等技術和模式加持下,網(wǎng)絡安全攻擊呈現(xiàn)出暴漲趨勢。在ChatGPT火爆之前,已發(fā)生了多次黑客使用AI技術進行的網(wǎng)絡攻擊。事實上,人工智能被用戶調教“帶偏節(jié)奏”的案例并不鮮見,6年前,微軟推出智能聊天機器人Tay,上線時,Tay表現(xiàn)得彬彬有禮,但不到24小時,其就被不良用戶“帶壞”,出言不遜、臟話不斷,言語甚至涉及種族主義、色情、納粹,充滿歧視、仇恨和偏見,只好被下線結束了短暫的生命。
另一方面,距離用戶更近的風險是,用戶在使用ChatGPT等AI工具時,可能會不經意間將私密數(shù)據(jù)輸入到云端模型,這些數(shù)據(jù)可能成為訓練數(shù)據(jù),也可能成為提供給他人答案的一部分,從而導致數(shù)據(jù)泄露和合規(guī)風險。
AI應用要打好安全底座
ChatGPT作為大語言模型,其核心邏輯事實上是海量數(shù)據(jù)的收集、加工、處理和運算結果的輸出?偟膩碚f,這幾個環(huán)節(jié)可能會在技術要素、組織管理、數(shù)字內容三個方面伴生相關風險。
雖然ChatGPT表示,存儲訓練和運行模型所需的數(shù)據(jù)會嚴格遵守隱私和安全政策,但在未來可能出現(xiàn)網(wǎng)絡攻擊和數(shù)據(jù)爬取等現(xiàn)象,仍存在不可忽視的數(shù)據(jù)安全隱患。特別是涉及國家核心數(shù)據(jù)、地方和行業(yè)重要數(shù)據(jù)以及個人隱私數(shù)據(jù)的抓取、處理以及合成使用等過程,需平衡數(shù)據(jù)安全保護與流動共享。
除了數(shù)據(jù)與隱私泄露隱患外,AI技術還存在著數(shù)據(jù)偏見、虛假信息、模型的難解釋性等問題,可能會導致誤解和不信任。
風口已至,AIGC浪潮奔涌而來,在前景向好的大背景下,關口前移,建立數(shù)據(jù)安全防護墻也至關重要。尤其是當AI技術逐漸完善,它既能成為生產力進步的有力抓手,又易淪為黑產犯罪的工具。奇安信威脅情報中心監(jiān)測數(shù)據(jù)顯示,2022年1月份-10月份,超過950億條的中國境內機構數(shù)據(jù)在海外被非法交易,其中有570多億條是個人信息。
因此,如何確保數(shù)據(jù)存儲、計算、流通過程中的安全問題,是數(shù)字經濟發(fā)展的大前提。從整體看,應該堅持頂層設計與產業(yè)發(fā)展齊頭并進,在《網(wǎng)絡安全法》的基礎上,要細化風險與責任分析體系,確立安全問責機制。同時,監(jiān)管部門可開展常態(tài)化監(jiān)查工作,安全領域企業(yè)協(xié)同發(fā)力,構建全流程數(shù)據(jù)安全保障體系。
對于數(shù)據(jù)合規(guī)和數(shù)據(jù)安全的問題,特別是在《數(shù)據(jù)安全法》推出后,數(shù)據(jù)隱私越來越重要。
如果在應用AI技術的過程中無法保證數(shù)據(jù)安全和合規(guī),可能會給企業(yè)造成很大風險。特別是中小企業(yè)對數(shù)據(jù)隱私安全方面的知識比較匱乏,不知道應當如何保護數(shù)據(jù)不會受到安全威脅。
數(shù)據(jù)安全合規(guī)并不是某個部門的事情,而是整個企業(yè)最為重要的事情。企業(yè)要對員工進行培訓,讓他們意識到每個使用數(shù)據(jù)的人,都有義務保護數(shù)據(jù),包括IT人員、AI部門、數(shù)據(jù)工程師、開發(fā)人員、使用報表的人等,人和技術要結合在一起。
面對前述潛藏風險,監(jiān)管方和相關企業(yè)如何從制度和技術層面加強AIGC領域的數(shù)據(jù)安全保護?
相較于直接針對用戶終端采取限制使用等監(jiān)管措施,明確要求AI技術研發(fā)企業(yè)遵循科技倫理原則會更具成效,因為這些企業(yè)能夠在技術層面限定用戶的使用范圍。
在制度層面,需要結合AIGC底層技術所需數(shù)據(jù)的特性和作用,建立健全數(shù)據(jù)分類分級保護制度。例如,可根據(jù)數(shù)據(jù)主體、數(shù)據(jù)處理程度、數(shù)據(jù)權利屬性等方面對訓練數(shù)據(jù)集中的數(shù)據(jù)進行分類管理,根據(jù)數(shù)據(jù)對于數(shù)據(jù)權利主體的價值,以及數(shù)據(jù)一旦遭到篡改、破壞等對數(shù)據(jù)主體的危害程度進行分級。在數(shù)據(jù)分類分級的基礎上,建立與數(shù)據(jù)類型和安全級別相配套的數(shù)據(jù)保護標準與共享機制。
目光投向企業(yè),還需加快推動“隱私計算”技術在AIGC領域的應用。
這類技術能夠讓多個數(shù)據(jù)擁有者在不暴露數(shù)據(jù)本身的前提下,通過共享SDK或者開放SDK權限的方式,在進行數(shù)據(jù)的共享、互通、計算、建模,在確保AIGC能夠正常提供服務的同時,保證數(shù)據(jù)不泄露給其他參與方。
此外,全流程合規(guī)管理的重要性愈加凸顯。企業(yè)首先應關注其所運用的數(shù)據(jù)資源是否符合法律法規(guī)要求,其次要確保算法和模型運作的全流程合規(guī),企業(yè)的創(chuàng)新研發(fā)還應最大限度地滿足社會公眾的倫理期待。同時,企業(yè)應制定內部管理規(guī)范,設立相關的監(jiān)督部門,對AI技術應用場景的各個環(huán)節(jié)進行數(shù)據(jù)監(jiān)督,確保數(shù)據(jù)來源合法、處理合法、輸出合法,從而保障自身的合規(guī)性。
AI應用的關鍵在于部署方式與成本間的考量,但必須注意的是,如果沒有做好安全合規(guī)、隱私保護,對企業(yè)來說或將蘊含“更大風險點”。
AI是把雙刃劍,用得好讓企業(yè)如虎添翼;用不好疏忽了安全、隱私和合規(guī),會給企業(yè)帶來更大損失。因此,在AI應用前,需要構筑更加穩(wěn)固的“數(shù)據(jù)底座”,正所謂,行穩(wěn)方能致遠。
相關閱讀
“火到爆炸”的ChatGPT,為何當不了智能客服?
別怪ChatGPT,AI黑客攻擊早已開始
為何ChatGPT一出現(xiàn)讓巨頭們都坐不?
一文讀懂云工作負載安全平臺CWPP
拉響警報!2023年三大網(wǎng)絡安全威脅不容忽視
用戶信息泄露事件頻現(xiàn),數(shù)據(jù)安全建設該如何升級?
【科技云報道原創(chuàng)】
轉載請注明“科技云報道”并附本文鏈接
原文標題 : ChatGPT應用爆火,安全的大數(shù)據(jù)底座何處尋?
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
-
即日-12.26立即報名>>> 【在線會議】村田用于AR/VR設計開發(fā)解決方案
-
1月8日火熱報名中>> Allegro助力汽車電氣化和底盤解決方案優(yōu)化在線研討會
-
即日-1.14火熱報名中>> OFweek2025中國智造CIO在線峰會
-
即日-1.24立即參與>>> 【限時免費】安森美:Treo 平臺帶來出色的精密模擬
-
即日-2025.8.1立即下載>> 《2024智能制造產業(yè)高端化、智能化、綠色化發(fā)展藍皮書》
-
精彩回顧立即查看>> 【線下會議】OFweek 2024(第九屆)物聯(lián)網(wǎng)產業(yè)大會
推薦專題
- 高級軟件工程師 廣東省/深圳市
- 自動化高級工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級銷售經理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術專家 廣東省/江門市
- 封裝工程師 北京市/海淀區(qū)
- 結構工程師 廣東省/深圳市