導語:亞馬遜與國家科學基金會合作,投資千萬美金開發AI公平性系統,實現人工智能系統更廣泛的接受度。
智東西3月26日消息,亞馬遜昨日宣布將與美國國家科學基金會(NSF)合作,在未來三年內投入1000萬美元的研究經費,開發專注于人工智能和機器學習公平性的系統。
亞馬遜Alexa AI 團隊的自然理解副總裁 Prem Natarajan 表示,人工智能的普及使其公平性問題在學術界、政府部門和企業界都變得越來越重要,公平性問題對于建立和維護客戶的信任也是至關重要的。
為實現人工智能系統更廣泛的接受度,亞馬遜與NSF的合作將針對人工智能的可解釋性、潛在的不利偏見和影響、緩解策略、公平性驗證以及包容性考慮。美國將繼續發揮人工智能技術的潛力,希望到5月10日他們接受的人工智能公平性驗證提案能夠帶來新的開放源碼工具、公開可用的數據集和出版物。
亞馬遜將為該計劃提供部分資金,NSF根據其績效評估流程獨立地做出獎勵決定。 該計劃預計將在2020年和2021年繼續進行,并附加征集意向書。
美國國家科學基金會計算機和信息科學與工程負責人Jim Kurose表示,與亞馬遜合作進行人工智能公平性研究將支持有關開發和實施可靠的人工智能系統的研究,這些系統從一開始就將透明度、公平性和問責制融入設計中。
亞馬遜與國家科學基金會合作的消息發布后,越來越多的企業、學術機構和行業協會開始加入,進行人工智能道德研究。他們的共同工作已經產生了算法偏差緩解工具,這些工具有望加速向更公正的模型邁進。
亞馬遜與科學基金會合作,專注于開發AI和機器學習公平性的系統
去年5月,Facebook 發布了公平流程,如果算法根據種族、性別或年齡對某人做出不公平的判斷,它會自動發出警告。埃森哲咨詢公司發布了可以自動檢測AI算法偏差的工具包,為數據科學家減輕算法偏差提供幫助。微軟也在去年5月推出了自己的解決方案,同年9月谷歌推出了 What-If 工具,這是 TensorBoard 網絡儀表板上的一個偏見檢測功能,用于 TensorFlow 機器學習框架的網絡儀表板的偏置檢測功能。
IBM也在去年秋天發布了AI Fairness ,這是一款基于云計算的全產品,可以幫助了解AI系統如何做出決策并給出調整建議——例如算法調整或平衡數據。最近IBM的Watson和Cloud Platforms小組的研究重點是減輕AI模型中的偏差,特別是在面部識別方面。
麻省理工學院的研究人員發現 Rekognition ——亞馬遜網絡服務(AWS)的目標檢測 API——無法可靠地確定特定情況下女性和深膚色面孔的性別。在2018年進行的實驗中,RekogniTIon 的面部分析功能錯誤地將女性的照片識別為男性,將深色皮膚的女性的照片識別為男性的比例分別為19% 和31% 。
亞馬遜對研究結果提出異議,對于實驗結果是否準確仍存在爭議。亞馬遜表示在RekogniTIon更新版本的測試中,所有種族的性別分類準確性“無差異”,并提出研究結果的論文沒有清楚地說明實驗中使用的置信閾值。