多數使用者難以辨識AI偏見,即使在訓練資料中亦然

Hacker News·

賓州州立大學與奧勒岡州立大學的研究發現,大多數普通民眾無法辨識AI訓練資料中的系統性偏見,即使資料中存在明顯的偏差,例如僅將白人臉孔與快樂情緒、非裔臉孔與不快樂情緒連結。除非個人屬於被負面呈現的群體,否則這種認知上的盲點依然存在。

暫無內容

Hacker News

相關文章

  1. 如何消除人工智慧中的偏見並擁抱包容性

    5 個月前

  2. 關於AI的新認知偏誤

    6 個月前

  3. 多數人鮮少使用AI,負面人格特質預測使用頻率較高

    6 個月前

  4. 假臉能讓AI訓練更符合道德嗎?

    8 個月前

  5. 剝開人工智慧焦慮的洋蔥

    6 個月前