安防AI倫理困境何解?歐盟發(fā)布道德準則
現在各行各業(yè)都在向AI靠攏,但若論在哪個行業(yè)AI發(fā)展的會更快、更具有潛力,非安防莫屬。以智能監(jiān)控系統(tǒng)為代表的AI安防產品已經覆蓋到眾多應用領域,AI技術的應用讓安防行業(yè)嘗到了甜頭。如今,無論是公共安全領域、智能交通、智慧城市、智能樓宇、工廠園區(qū),乃至物流運輸、電力巡檢等都少不了AI安防產品的身影。
不過,AI技術被安防行業(yè)采納不僅是為了更有效地完成當前業(yè)務,這是一個多方面的過程,更重要的是,AI還需要不斷重新評估這些實踐結果,以適應客戶不斷變化的需求。另外,AI技術固然能在擴大監(jiān)控規(guī)模的前提下能夠有效收集情報并充分分析,及時阻止安全事件發(fā)生,也有可能產生一些倫理道德問題。
目前,從很多案例可以看出,有些AI做判斷時存在歧視。例如,美國AI會更偏向中年白人,而預測違法時往往會把黑人和黑人集中區(qū)域當做重點預測對象。我國也有根據一個人臉部特征與行為舉止來判斷此人是否具有社會威脅性并提醒警方先發(fā)制人的AI系統(tǒng)。人類的偏見被機器學習并吸收,這是AI發(fā)展所面臨的一種道德危機。這些表現無疑會使AI受到大量道德譴責。
此外,個人隱私與數據保護、AI系統(tǒng)對外部攻擊的防御能力、以及算法透明度等問題也越來越成為AI安防亟需突破的重點問題。
毫無疑問,AI的確需要監(jiān)管,但現在我們還不清楚如何對其進行監(jiān)管。歐盟(EU)近日發(fā)布了一套指南,指導企業(yè)和政府在開發(fā)人工智能時遵循道德準則,旨在解決AI帶來的棘手問題。該指南認為,未來AI系統(tǒng)應該滿足下列7項要求:人道機構的監(jiān)督、技術穩(wěn)健性和安全性、隱私和數據治理、算法透明度、多元化非歧視和公平性、環(huán)境和社會福利以及完善的問責制。這份清單為減輕AI的潛在危害提供了一個實用且具前瞻性的視角。
數字權利組織Access Now的政策經理范妮·希德維吉認為:歐盟不應止步于道德準則,因為道德準則只有在法律基礎上才能發(fā)揮更大作用。但是由道德走向法律,必須非常審慎。在此之前,還需要AI技術進一步發(fā)展并更廣泛且深入地應用。
結語:對影響日益擴大乃至滲透人們生活各個方面的AI安防而言,為了使系統(tǒng)發(fā)揮應有的作用,加強監(jiān)視和構建倫理之間必須有一個可以被社會廣泛接受的平衡。如果在采用人工智能技術的過程中包含了日后數據收集訓練的方向,那么可能會減少假警報的風險,也可以在AI驅動的決策中充分體現其公平性,盡量減少其可能對社會產生的負面影響。
請輸入評論內容...
請輸入評論/評論長度6~500個字
圖片新聞
最新活動更多
- 高級軟件工程師 廣東省/深圳市
- 自動化高級工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級銷售經理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術專家 廣東省/江門市
- 封裝工程師 北京市/海淀區(qū)
- 結構工程師 廣東省/深圳市