訂閱
糾錯(cuò)
加入自媒體

IBM建立百萬人臉數(shù)據(jù)希望解決AI偏見

科技中立,但人制造出來的 AI 卻可能帶有偏見或歧視。AI 偏見情況像是性別歧視、種族歧視,例如面部偵測算法在識(shí)別白人時(shí)的準(zhǔn)確率比識(shí)別黑人高許多,男性跟女性類別也存在類似問題,讓軟件識(shí)別犯罪嫌犯人選、企業(yè)挑選求職者時(shí),也曾引發(fā)歧視問題。

為了減少這方面的偏差,IBM研究院打造了一套更加多樣化的“百萬人臉數(shù)據(jù)集”。近年來,隨著智能手機(jī)的普及,面部識(shí)別已經(jīng)在許多領(lǐng)域得到了廣泛的運(yùn)用。然而在一些測試中,某些看似很優(yōu)秀的 AI,竟然也會(huì)敗下陣來。

憑借全新的“百萬多樣性人臉數(shù)據(jù)集”,AI 開發(fā)者將能夠充分考慮到多樣性的面部特征(DiF)。

為使面部識(shí)別能夠按照要求執(zhí)行(既公平又準(zhǔn)確),訓(xùn)練用的數(shù)據(jù),必須提供足夠的平衡和覆蓋。

它應(yīng)該足夠大、且多樣化,以便了解更多類型的面部固有差異。圖像必須反映我們在世界中看到的面部特征的多樣性。

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)