亞馬遜的 AI 招聘工具觸動(dòng)了人類敏感的神經(jīng),據(jù)路透社報(bào)道,亞馬遜機(jī)器學(xué)習(xí)專家發(fā)現(xiàn)他們的 AI 招聘工具有一個(gè)明顯的傾向——在篩選簡歷過程中,重男輕女。
這事得追溯到 2014 年,亞馬遜那會(huì)兒便開始嘗試用人工智能篩選簡歷,幫助公司挑選出合適的員工。對(duì)于一個(gè)大公司來說,篩選簡歷是一項(xiàng)浩大的工程,每天的面試者可能來自五湖四海,要從堆積如山的簡歷中挑選出面試者的優(yōu)點(diǎn),并確認(rèn)其符合公司標(biāo)準(zhǔn),難上加難。不僅耗費(fèi)精力,還很花時(shí)間。
不用我贅述,我想面試經(jīng)驗(yàn)豐富的人應(yīng)該對(duì)一些大公司的面試周期記憶深刻。
通過系統(tǒng)的機(jī)器訓(xùn)練,讓 AI 代替 HR 篩選簡歷,無疑能幫助公司節(jié)省大量的勞動(dòng)力,并且更有效地挑選出合適的人才。萬萬沒想到的是,亞馬遜的 AI 卻戴上了有色眼鏡。
類似人類的情感傾向出現(xiàn)在了 AI 上,本身就有悖于人類訓(xùn)練 AI 的目的。我們希望人工智能是中立、結(jié)果導(dǎo)向的,甚至在理性的前提下,會(huì)帶有一絲無情。
好在亞馬遜自己也發(fā)現(xiàn)了這個(gè)問題,去年已將負(fù)責(zé)該項(xiàng)目的團(tuán)隊(duì)解散。
人工智能“性別歧視”的起因
在亞馬遜 AI 招聘歧視事件的最后,大家把問題歸咎于人工智能訓(xùn)練樣本上。因?yàn)樵诰唧w的訓(xùn)練方法上,亞馬遜針對(duì)性開發(fā)了 500 個(gè)特定職位的模型,對(duì)過去 10 年的簡歷中的 5 萬個(gè)關(guān)鍵詞進(jìn)行識(shí)別,最后進(jìn)行重要程度的優(yōu)先級(jí)排序。
因此簡單來說,AI 的工作還是抓取關(guān)鍵詞。然而在這些簡歷中,大部分求職者為男性,他們使用諸如“執(zhí)行”這樣的關(guān)鍵詞更加頻繁,而女性相關(guān)的數(shù)據(jù)太少,因此 AI 會(huì)誤以為沒有這類關(guān)鍵詞的女性簡歷不那么重要。
類似的事情同樣發(fā)生在了 Google 身上。早在 2017 年,Quartz 報(bào)道了一篇題為《The reason why most of the images that show up when you search for “doctor” are white men》的文章,如果你在 Google image 上搜索”doctor“,獲得的結(jié)果中大部分都是白人男性。
一項(xiàng)來自普林斯頓大學(xué)的研究表明,這一搜索結(jié)果與潛在的社會(huì)現(xiàn)狀有關(guān)。在普通人眼中醫(yī)生總是與男性相連,而護(hù)士總是與女性相連。
“正如一些數(shù)據(jù)科學(xué)家所言,什么樣的輸入就有什么樣的產(chǎn)出,沒有好的數(shù)據(jù),算法也做不出正確的決策。”
Google 意識(shí)到了這一點(diǎn),調(diào)整了搜索算法。目前“doctor”的搜索結(jié)果中,女性與男性的比例基本平等。
人工智能發(fā)展到現(xiàn)在,應(yīng)用到實(shí)際的時(shí)間并不長。如果把它比作嬰兒,那它的成長有很大一部分依靠人類給予的養(yǎng)分與教育。人工智能在機(jī)器訓(xùn)練的過程中,所輸入的數(shù)據(jù)便是養(yǎng)分。科學(xué)家盡力將算法調(diào)整到中立、客觀,但最終影響其輸出的還是數(shù)據(jù)。
即使數(shù)據(jù)中出現(xiàn)了一個(gè)小的偏差,人工智能的最終行為也會(huì)將這個(gè)偏差放大。人類獲得的結(jié)果便是“歧視”——我們?nèi)绾慰创鐣?huì),人工智能也會(huì)以相同的視角去看待社會(huì)。這一情況屬于普遍現(xiàn)象,其涉及到的不僅是技術(shù)問題,更是一個(gè)巨大的哲學(xué)問題。
今年七月份,微軟同中國發(fā)展研究基金會(huì)發(fā)布了《未來基石》報(bào)告。報(bào)告涵蓋了兩家機(jī)構(gòu)對(duì)人工智能的思考。例如微軟在人工智能的開發(fā)中,將遵循六個(gè)道德基本準(zhǔn)則,以創(chuàng)造“靠譜”的人工智能。
在微軟的人工智能產(chǎn)品中,曾出現(xiàn)了聊天機(jī)器人小冰爆粗口的情況,同樣是源于訓(xùn)練數(shù)據(jù)庫的影響。經(jīng)歷該事件后,微軟修改了小冰的對(duì)話原則,并加強(qiáng)了對(duì)數(shù)據(jù)庫的過濾。但實(shí)際上仍然無法百分百避開數(shù)據(jù)庫中不健康的信息。
想要訓(xùn)練出更靠譜的人工智能,用戶同樣是很重要的力量群體。
共2 頁 [1] [2] 下一頁 第1頁 第2頁
搜索更多: 亞馬遜