微軟正在加入穀歌和Facebook的行列,將自己重新定位成一家研發人工智能的前沿科技公司。
軟件巨人最新的技術進展是嚐試解決算法中出現的偏差——這種偏差就是,當開發者為人工智能提供的數據不夠典型時,AI可能會潛移默化的滋生出反映了社會的偏見或不公平的觀點。
據麻省理工學院技術評論稱,該公司希望創建一種工具來檢測並提醒AI工程師注意到可能會歧視某些人群的AI算法,諸如人力資源部門的AI出現根據種族或性別對新員工采取區別對待的態度。
很自然地,微軟希望他們的工具能找到受過不適當訓練的AI。
但微軟用來尋找歧視算法的新算法,隻能找到並標記已經存在的問題。現在在司法、醫療保健及其它領域,有些決定已經由AI做出,它們會直接影響到我們的生活。
舉個例子,警方尋找連環殺手的智能係統,可能存在未被發現誤導性的偏見,比如說,某些年齡和行為特征符合反社會人格的男性,在經驗算法裏被標記上一定的概率,是潛在的疑犯;但是,如果犯罪學家依憑的經驗出了問題,賦予了分析對象過高的概率,就可能導致警力浪費在無辜的人員身上。而微軟的新算法在係統未曾暴漏出問題之前,可能無能為力。
為了製造出真正公平且有利於與所有人的AI,需要給予開發前端更多的關注。
一種可能方式是,公司引入第三方進行代碼審查。一家科技公司聘請一名外部的專家來分析他們的算法,尋找代碼本身或者被輸入數據存有的偏倚跡象。
麻省理工學院技術評論上發表的文章中提到的人工智能審查的想法在其他地方引起了關注,某些人工智能公司已經開始聘請監管人員來查看他們的代碼。
但是這隻對足夠簡單的AI係統有效。專家可以發現算法或數據不夠平衡,因為他們能讀懂並理解AI的代碼和培訓數據。對於更複雜的深度學習算法,這就不大現實了。
另一個可能的解決方式是,對具體製造人工智能的工程師進行更好的培訓,以便他們能夠更好地評判自己的觀點和偏見,並防止它們被算法解釋為事實本身。
這當然不是說,進行實際編程的人員正在暗搓搓地製造種族主義AI。但是,由於每個人都有某種隱含的偏見,幫助這些支撐起整個技術世界的工程師更好地梳理他們自己的世界觀,所有人將會從中受益。
以上就是主要的解決思路,需要技術公司轉變過去的開發方式,甚至也包括微軟這樣希望開發出偏見過濾器和偏倚分析算法的公司。
與此同時,研究人員和公司開始關注這個問題是一個好的開始。
本文譯自 sciencealert,由譯者 majer 基於創作共用協議(BY-NC)發布。
相關資訊
最新熱門應用
u幣交易app最新版
其它軟件292.97MB
下載kkcoin交易所手機版
其它軟件37.92MB
下載可可交易平台app2024安卓手機
其它軟件22.9MB
下載聚幣交易所官網
其它軟件50.16MB
下載歐幣交易所app官方版蘋果版
其它軟件273.24MB
下載幣包交易所app
其它軟件223.89MB
下載zt蘋果交易所app官網
其它軟件81.19MB
下載中幣網交易所app官網最新版本
其它軟件288.1 MB
下載熱幣全球交易所官網
其它軟件287.27 MB
下載幣贏交易所app蘋果版
其它軟件32.88MB
下載