高層速讀
關鍵信息:微軟麵部識別API更新,將深色皮膚識別錯誤率降低20倍,將所有女性麵部識別的錯誤率降低9倍,它收集了不同膚色、性別和年齡的新數據,提高了算法性別分類器的精確度。
關鍵意義:改善了算法模型中的偏見,為全球計算機視覺平台的公平性貢獻了一份力。
在微軟今天發布的博客中,其宣布了一項麵部識別API的更新,該更新將改善麵部識別平台識別不同膚色的能力,這也是計算機視覺平台麵臨的一個長期挑戰。
隨著這些更新,它能夠將深色皮膚識別錯誤率降低20倍,將所有女性麵部識別的錯誤率降低9倍。
多年來,麵部識別係統一直存在種族偏見的敏感性。一項研究顯示,在非裔美國人的麵孔上,來自安全廠商的麵部識別技術被廣泛使用,但比識別其他膚色人種的準確率要低5-10%;中國、日本、韓國的算法在識別白種人上也比黃種人有優勢;2015年穀歌曾經將軟件工程師的一位黑人朋友認定為大猩猩,而不得不站出來賠禮道歉。
為了解決這個問題,微軟的研究人員修改並擴展了臉部API的訓練和數據集,並收集了不同膚色、性別和年齡的新數據,提高了算法性別分類器的精確度。
微軟紐約研究實驗室高級研究員漢娜沃勒克在一份聲明中說:“我們討論了不同的方法來發現偏見和公平運作;我們討論了數據收集工作的種類,以使訓練數據多樣化;我們與討論了在部署前對係統進行內部測試的不同策略。”
根據微軟博客文章,該公司還在人工智能係統開發過程中建立了檢測和減輕不公平的試驗。微軟Bing團隊正與道德專家合作,探索如何在搜索結果中顯示“女性CEO的缺乏”。微軟指出,在《財富》500強中,隻有不到5%的CEO是女性,而“CEO”的網頁搜索結果主要是男性的形象。
“如果我們正在的訓練機器學習係統是由有偏見的,那麼它做出的決策必然會複製它的偏見。”沃勒克說,“這是一個機會,讓我們真正思考我們在係統中反映的價值觀,以及它們是否是我們想要係統中反映的.”
幸運的是,微軟並不是唯一一家試圖將算法偏差最小化的公司。
今年5月,Facebook宣布了“公平流程”,該流程將自動提醒用戶,如果一種算法基於他或她的種族、性別或年齡對一個人做出了不公平的判斷;IBM Watson團隊最近的研究也集中在降低人工智能模型中的偏見方麵,特別是麵部識別。
相關資訊
最新熱門應用
bicc數字交易所app
其它軟件32.92MB
下載比特國際網交易平台
其它軟件298.7 MB
下載熱幣交易所app官方最新版
其它軟件287.27 MB
下載歐昜交易所
其它軟件397.1MB
下載vvbtc交易所最新app
其它軟件31.69MB
下載星幣交易所app蘋果版
其它軟件95.74MB
下載zg交易所安卓版app
其它軟件41.99MB
下載比特幣交易app安卓手機
其它軟件179MB
下載福音交易所蘋果app
其它軟件287.27 MB
下載鏈易交易所官網版
其它軟件72.70MB
下載