與2018年生效的歐洲強有力的數(shù)據(jù)保護和隱私規(guī)則GDPR相比,如今的公司對即將出臺的人工智能法規(guī)更加了解。但根據(jù)埃森哲的一份新報告,他們還遠遠沒有做好準備。
盡管大多數(shù)接受調(diào)查的公司都非常清楚負責任地使用人工智能的重要性,但“他們中的大多數(shù)人已經(jīng)建立了一套原則,但還沒有設法在整個企業(yè)中實施,”Ray說埃森哲負責任人工智能全球負責人Eitel-Porter在接受AIBusiness采訪時表示。
他說,現(xiàn)在是采取行動的時候了,因為在整個企業(yè)中建立一個有效的框架可能需要數(shù)年而不是數(shù)月。
好消息是,根據(jù)對20個行業(yè)17個地區(qū)的850名高管的調(diào)查,80%的公司表示他們已將10%的人工智能技術預算用于負責任的人工智能,而45%的公司已預留20%。“這是一個非常嚴肅的承諾,”Eitel-Porter說。
他說,重要的是,已經(jīng)建立風險管理結(jié)構(gòu)的公司不必從頭開始構(gòu)建負責任的人工智能。
負責任的人工智能是設計和開發(fā)符合道德并支持組織和社會所珍視的原則的人工智能模型的實踐。Eitel-Porter說,雖然不同的實體可能在核心價值觀上存在差異,但社會普遍對什么是使用人工智能的道德和以人為本的方式有“相當強烈的”共同看法。
值得注意的是,負責任的人工智能需要整個企業(yè)的參與。這不僅適用于技術人員。為什么?Eitel-Porter解釋說,雖然數(shù)據(jù)科學家確實為準備好訓練數(shù)據(jù)做了繁重的工作,但有些問題只有業(yè)務方才能回答。
一個例子是設置可以容忍的最小偏差閾值:是10%?15%?20%?在哪里設置偏差(或錯誤)閾值是一項業(yè)務決策。
大多數(shù)人的直覺反應是根本不應該有偏見。但這可能會導致結(jié)果不準確。“在大多數(shù)情況下,都會在準確性和偏差之間進行權(quán)衡,”Eitel-Porter說。“如果我們消除所有偏見,我們經(jīng)常會做出不準確的預測。”
讓我們考慮一下吉爾,她的信用評分很低,因為她有償還貸款或按時付款的麻煩。她申請了貸款,在所有其他條件相同的情況下,這意味著她有更高的可能性會再次違約或延遲還款。將吉爾與信用評分高的瑪麗置于同等地位——零偏見,所有其他條件相同——可能會導致對吉爾是否會償還貸款的錯誤預測。
一旦設置了錯誤閾值,人工智能模型就會使用歷史數(shù)據(jù)進行測試。包含所有公司客戶的數(shù)據(jù)集被分成組并應用模型。所有組的錯誤率應該相當一致。如果一組高于其他組,“從數(shù)學上講,我們的模型在這組中效果不佳,”Eitel-Porter說。
但是,測試AI模型是否存在偏差的挑戰(zhàn)之一是數(shù)據(jù)集中的差距。例如,一家銀行可能想要測試其AI模型是否歧視某個種族。但它的內(nèi)部數(shù)據(jù)庫中沒有種族信息,因為它沒有向賬戶持有人詢問。因此,銀行無法使用自己的數(shù)據(jù)集檢查偏差。
Eitel-Porter表示,英國的金融服務監(jiān)管機構(gòu)和學術團體正在合作開發(fā)一個公開可用的數(shù)據(jù)集,其中包括種族和性別等所謂的“受保護”特征,并將提供給公司測試他們的人工智能模型。所有個人身份信息(PII)都將被刪除,因此數(shù)據(jù)無法追蹤到個人。
許多公司可以闡明他們的核心原則并在他們的網(wǎng)站上列出它們,但“這并不意味著任何人對它們采取任何行動,”Eitel-Porter說。治理框架可確保人們尊重這些原則。
這是埃森哲基于與客戶互動開發(fā)負責任人工智能的框架。Eitel-Porter表示,橫向類別是應該成為實施負責任人工智能核心要素的四大支柱:原則和治理、風險、政策和控制、技術和促成因素、培訓和文化。
從原則和治理開始。為了使人們堅持這些核心信念,在確定檢查點并確保合規(guī)性時,請參閱第二列“風險、政策和控制”。要使實施成功,請閱讀第三列“技術和推動因素”。Eitel-Porter說,該公司的數(shù)據(jù)科學家應該在與負責任的人工智能相關的主題方面擁有經(jīng)驗和培訓,例如避免偏見。
第三方工具也可從超大規(guī)模企業(yè)或數(shù)據(jù)中心巨頭(如AWS和Azure)以及專有和開源中獲得。
第四個支柱是培訓和文化,公司確保跨部門的人員了解他們是解決方案的一部分,無論他們是在客戶服務、法律、人力資源還是其他部門。
垂直類別——審計和評估、定義、工業(yè)化、維持——幫助公司弄清楚他們在流程中的位置、仍然需要什么、如何填補這些空白以及如何維持系統(tǒng)。