精品国产av一区二区三区,国产av一区二区三区,丰满少妇大乳高潮在线,9lporm自拍视频区九色

當前位置:首頁 > 最新資訊 > 行業(yè)資訊

科研人員正確理解AI決策的三種方法

理解AI決策對科研人員、決策者和廣大人民來說十分重要。幸運的是,有一些方法能確保我們了解更多。前沿AI企業(yè)和學術屆使用的深度學習模型已經(jīng)變得非常復雜,以至于即使是構建模型的科研人員也難以理解正在做出的決策。

這一點在某錦標賽上得到了最明顯的體現(xiàn)。在這場比賽中,數(shù)據(jù)科學家和職業(yè)圍棋選手經(jīng)常被AI在比賽中的決策所迷惑,因為它做出了非正式的游戲,而這并不被認為是最強的一步。

為了更好地理解他們構建的模型,AI科研人員開發(fā)了三種主要的解釋方法。這些是局部解釋方法,只解釋一個具體的決定,而不是整個模型的決定,考慮到規(guī)模,這可能具有挑戰(zhàn)性。

科研人員正確理解AI決策的三種方法

特征歸因

通過特征歸因,AI模型將識別輸入的哪些部分對特定決策是重要的。對于X射線,科研人員可以看到熱圖或模型認為對其決策最重要的單個像素。

使用這種特征歸因解釋,可以檢查是否存在虛假相關性。例如,它會顯示水印中的像素是否被突出顯示,或者實際腫瘤中的像素是否被突出顯示。

反事實解釋

當做出決定時,我們可能會感到困惑,不知道為什么AI會做出這樣或那樣的決定。由于AI被部署在高風險的環(huán)境中,如監(jiān)獄、保險或抵押貸款,了解AI拒絕因素或上訴的原因應該有助于他們在下次申請時獲得批準。

反事實解釋方法的好處是,它確切地告訴你需要如何更改輸入來翻轉決策,這可能具有實際用途。對于那些申請抵押貸款卻沒有得到的人來說,這個解釋會告訴他們需要做些什么來達到他們想要的結果。

樣本重要性

樣本重要性解釋需要訪問模型背后的基礎數(shù)據(jù)。如果科研人員注意到他們認為是錯誤的,他們可以運行一個樣本重要性解釋,以查看AI是否輸入了它無法計算的數(shù)據(jù),從而導致判斷錯誤。?

猜你喜歡