精品国产av一区二区三区,国产av一区二区三区,丰满少妇大乳高潮在线,9lporm自拍视频区九色

當前位置:首頁 > 最新資訊 > 行業資訊

人工智能和大數據是我們一直在尋找的經濟平衡器嗎?

盡管開明的美國人認為所有的“主義”都被推翻了,但美國經濟仍然非常不公平。

以種族主義為例。一方面,自愛訴弗吉尼亞州將這種做法合法化以來的50年里,跨種族婚姻增長了五倍。另一方面,根據政策研究所的一份報告,1983年至2013年間,非裔美國人的平均家庭財富中位數下降了75%。西北大學、哈佛大學和社會研究所的一項聯合研究發現,自1989年以來,雇主對非裔美國人的歧視一直沒有改變。

性別歧視也呈現出類似的趨勢。盡管“我也是”運動在追究性侵犯者責任方面取得了成功,但女性的收入仍然僅為男性的82%——皮尤研究中心稱,這一數字在過去15年中保持相對穩定。

事實是,美國人并沒有靠自己建立一個公平的經濟。偏見根深蒂固,在許多情況下,體制障礙太大。然而,機器或許能夠通過開辟更多經濟機會來彌合貧富差距。

人工智能和大數據是我們一直在尋找的經濟平衡器嗎

計算正義

盡管人工智能和大數據技術還很年輕,但它們已經在一系列領域顯示出讓商業決策更加公平的前景。

例如,與白人男性相比,女性和少數族裔獲得資本仍然困難得多。驚人的98%的風險投資來自一個82%為男性的行業。不到1%的風投支持的創始人是黑人,而在風險投資高級職位的創始人中也只有2%的比例相對較小。

一家金融科技公司和借貸平臺Kabbage正在努力改變這種狀況。自動貸款平臺有意從其貸款過程中去除種族和性別偏見。由于Kabbage的算法將這些主觀因素排除在資金決策之外,因此少數族裔和女性在其貸款中獲得的份額比女性和少數族裔擁有的小企業的全國數據所顯示的要大。

人工智能和大數據也開始在另一個傳統上阻礙女性和少數族裔經濟繁榮的領域留下印記。即使采取了平權行動,事實是黑人和西班牙裔在頂尖大學的代表人數比35年前更嚴重。盡管15%的美國大學生是黑人,但只有6%的精英大學錄取者是非裔美國人。

至少在公開場合,大學還沒有使用人工智能算法來做出錄取決定。但據《連線》創始人兼《不可避免》一書作者凱文·凱利(Kevin Kelly)所說,在大學招生中使用人工智能是不可避免的。多年來,大學一直使用算法根據平均成績和入學考試成績將申請人分類為“是”、“否”和“可能”,然后接受人工審查。

在學生方面,SchoolWise等平臺正在利用人工智能和機器學習技術將學生與推薦的學校進行匹配。“雖然數據分析和機器學習[已經]改變了許多行業,但[他們沒有]在大學招生領域幫助學生,”SchoolWise創始人和麻省理工學院畢業生Salil Sethi在一份準備好的聲明中說。除了將申請人的個性與大學文化聯系起來,SchoolWise還提供其他資源,如經濟援助計算器和招生顧問。

除了獲得資本和教育之外,經濟歧視還以更有害的方式表現出來。例如,以少數族裔為主的社區支付的汽車保險費高于處于相同風險水平的白人地區。ProPublica報告發現,像Allstate、Geico和Liberty Mutual這樣的保險公司在大多數居民是少數族裔的郵政編碼地區收取的保費平均高出30%。

希望使更多保費更加客觀的保險公司正在轉向分析和人工智能尋求幫助。當好事達從主要的個人保險產品轉向商業產品時,它借此機會開發了一個名為ABIe的人工智能助手,即好事達商業保險專家,以幫助代理人報價和發行保險產品。盡管Allstate沒有提及其投保人的種族或性別構成如何發生變化,但ABIe至少從等式中消除了一定數量的代理人主觀性。

數據困境

人工智能無疑有助于使教育、金融服務和保險等經濟支柱更加公平,但它會自動將歧視排除在經濟之外嗎?如果人類繼續向其提供受偏見污染的數據,則不會。在根深蒂固的“主義”的數據集上訓練的算法在做出客觀決策方面并不比人類處理者好。

但至少與社會層面人類決策的復雜性相比,有偏見的數據集是一個需要解決的小問題。在算法決策方面,進步會帶來進步。當機器處理更客觀的數據時,它們會做出更少的主觀決定。當他們做出更公平的決定時,他們會生成更客觀的數據,以此為未來的決策建模。

因此,雖然機器可能無法單獨建立一個更公平的經濟,但它們至少能夠比人類更好地客觀地看待他們提供的數據。這聽起來可能不多,但這是向前邁出的一步:美國人自己必須邁出的一步。

猜你喜歡