精品国产av一区二区三区,国产av一区二区三区,丰满少妇大乳高潮在线,9lporm自拍视频区九色

當前位置:首頁 > 最新資訊 > 行業資訊

選擇性風險可以提高人工智能的公平性和準確性

麻省理工AI實驗室的科研人員近期發表了一篇論文,意在詰責在某些場景下應用選擇性回歸的行為,原因是這種技術會降低數據集中代表性不足的群體模型的整體性能。

這些代表性不足的群體通常是女性和有色人種,這種對他們的忽視招致了一些有關AI種族主義和性別歧視的報道。在一個賬戶中,用于風險評估的AI錯誤地將黑人囚犯標記為白人囚犯的兩倍。在另一個案例中,沒有任何背景的男性照片被認定為醫生和家庭主婦的比例高于女性。

通過選擇性回歸,AI模型能對每個輸入做出兩個選擇:預測或棄權。只有在對決策有信心的情況下,該模型才會做出預測,在幾次測試中,通過排除無法正確評估的輸入來提高模型的性能。

然則,當輸入被刪除時,它會放大數據集中已經存在的偏見。一旦人工智能模型被部署到現實生活中,這將招致代表性不足的群體進一步不準確,原因是它無法像在開發過程中那樣刪除或拒絕代表性不足的群體。最終希望確保以明智的方式考慮跨組的錯誤率,而不是單單最小化模型的一些廣泛的錯誤率。

麻省理工學院的科研人員還引入了一種新技術,意在提高模型在每個子組中的模型性能。這種技術被稱為單調選擇性風險,一種模型沒有棄權,而是包括種族和性別等敏感屬性,而另一種則不包括。同時,兩個模型都做出決策,沒有敏感數據的模型被用作數據集中偏差的校準。

為這個特定問題提出正確的公平概念是一項挑戰。不過通過執行這個標準,單調的選擇風險,我們可以確保當減少覆蓋范圍時,模型性能事實上在所有子組中都變得更好。

當使用醫療保險數據集和犯罪數據集進行測試時,新技術能夠降低代表不足的群體的錯誤率,同時不明顯影響模型的整體性能。科研人員打算將這項技術應用到新的應用中,譬如房價、學生平均學分績點和貸款利率,看看它能否用于其他任務。?

猜你喜歡