亞馬遜栽了個大跟頭。
長期以來,這家電商巨頭一直應用AI提升效率,但萬萬沒想到的是,原本應該公平公正、沒有意識的AI,也會“作死”了……
好的不學,非要學別人重男輕女、歧視女性。
而這個內部秘密,剛剛被路透社曝光于天下。
事件一出,掀起了軒然大波。
國外的網(wǎng)友們紛紛開始吐槽,講述自己曾經(jīng)經(jīng)歷過的不公平事件,以及奇葩的計算機系統(tǒng)等等。還有一堆網(wǎng)友開始分析問題原因。
亞馬遜也喜提了一波嘲諷:
“可以說這個人工智能很成功,因為它模仿了亞馬遜當前的招聘狀態(tài)。”
一個戴有色眼鏡的AI
篩簡歷是很多HR的核心工作之一,對于亞馬遜這樣的大公司來講,不僅崗位多,投遞同一個崗位的求職者可能也非常多,于是,無窮無盡的瀏覽簡歷就成了HR的日常。
而且,同一個崗位收到的簡歷里,總有一些達不到用人標準的、“文不對題”的簡歷,即使是適合的人,也會分出三六九等,有人很優(yōu)秀,也有人比優(yōu)秀的人更優(yōu)秀。從求職者之中挑選最合適的人,也是讓HR們頭疼的一件事。
那能不能找一個AI,來自動幫HR們篩簡歷呢?
于是,作為一家電商公司,亞馬遜把日常的用戶給商品標星打分的功能,挪到了AI給求職者簡歷打分上。這樣,HR們就可以美滋滋的說:“我,只看五星簡歷,AI快給我挑出來。”
2014年,這個項目就開始了,亞馬遜的機器學習團隊開始開發(fā)篩簡歷AI。
但是到2015年,亞馬遜發(fā)現(xiàn):糟了,這個AI不學好,學會了人類性別歧視那一套。
如果把投遞“軟件開發(fā)工程師”或者其他技術崗位的求職者簡歷扔給這個AI來打分,它就會給包含“女”這個關鍵詞的簡歷打低星,而“男”則不受影響。
另外,如果簡歷上寫著求職者畢業(yè)于某兩所女子大學,這個AI也會給求職者降星。路透社的線人并沒有說是哪兩所學校。
人類能不能找到一份工作,竟然要看“AI的臉色”,作為女性求職者,憑什么讓AI對我說三道四?在美國,這種涉嫌歧視的事情稍不注意就會招來一大波反對的聲音,引發(fā)大負面。亞馬遜趕緊修改這個AI,讓它對“男”、“女”這些詞保持中立。
但是,改是改不完的,今天教AI不要歧視女性,明天它會不會歧視黑人?后天它會不會歧視LGBT人群?大后天它會不會開地圖炮?這些都說不準。
后來,亞馬遜放棄了這個項目。
都是你們人類的鍋!
一個好好的AI,怎么成長過程中就自動學會了性別歧視這種壞毛病?
這得看它是“吃”什么長大的,也就是用什么數(shù)據(jù)來訓練的AI。
很不幸,鍋還是得亞馬遜自己來背,因為這個AI“吃”的都是亞馬遜自家的招聘數(shù)據(jù),來自亞馬遜過去10年來收到的簡歷,依據(jù)這些簡歷,亞馬遜的AI學會了挑出男性求職者。
男性本身就多?
這些數(shù)據(jù)有什么問題呢?路透社分析,可能是因為科技行業(yè)中的大部分技術崗位都是男性在做。
路透社整理了自2017年起這些公司公布的數(shù)據(jù),從中可以看出,像谷歌、蘋果、微軟、Facebook這些公司,整體上男性占了2/3,而單獨挑出技術崗位,男性比例則達到了將近4/5。
AI學會了人類的歧視
不過,數(shù)據(jù)量大小并不意味著少數(shù)數(shù)據(jù)就會被歧視,相信亞馬遜的AI也不會傻到只選取簡歷數(shù)據(jù)中大多數(shù)人的共同特點,那樣豈不是錯過了少數(shù)天才?
在Hacker News和Reddit的評論區(qū),一些更懂技術的網(wǎng)友把矛頭對準了數(shù)據(jù)體現(xiàn)的亞馬遜在招聘中現(xiàn)存的性別歧視問題。
從技術上講,可以說這個人工智能是成功的,因為它模仿了亞馬遜當前的招聘狀態(tài)。
并給出了背后的邏輯。
機器學習過程不會引入任何偏差,但訓練數(shù)據(jù)中存在的任何偏差都將在算法中忠實地展現(xiàn)出來。
也就是說,AI自己本身是一個天真無邪的“幼兒”,它不會自主的學會偏見和歧視,但如果給“幼兒”上課的“老師”亞馬遜的招聘數(shù)據(jù)自身帶了偏見,那么這些偏見就會“言傳身教”給無辜的AI。
共2頁 [1] [2] 下一頁
短視頻平臺的未來 還要靠內容質量和AI算法
亞馬遜AI在簡歷篩選中歧視女性?AI犯錯不是第一次了
央視曝光科大訊飛以“AI“為名拿地蓋別墅
中國迅速成為全球AI工廠 港媒:AI革命離不開中國人力
AI寒冬將至?行業(yè)大咖呼吁重啟AI再出發(fā)
搜索更多: AI