或者說,AI是從人類社會中,學會了人類的偏見和歧視。
我們不想讓AI歧視女性,但這絕非易事,因為AI無法忽視它所學習的人類社會對女性的歧視。這絕對是一個難題,不僅僅是技術(shù)上的難題,更是哲學層面上的難題。
AI在無意中學會人類之惡,這并不是第一次發(fā)生。
此前的微軟的聊天機器人Tay,就曾經(jīng)學會了人類的那些極端言論,在Twitter上咒罵女權(quán)主義者和猶太人。
而招聘AI這一次,人類的錯誤讓AI重蹈覆轍了。
“很顯然,我們沒有吸取微軟Tay的任何教訓。”有網(wǎng)友評論道。
這個AI靠抓關(guān)鍵詞?
不只是訓練數(shù)據(jù)的問題。路透社的報道中還披露了亞馬遜訓練AI的細節(jié)。
· 開發(fā)了500個針對特定工作職能及崗位的模型。
· 訓練每個模型去識別過去求職者簡歷中出現(xiàn)的近5萬個關(guān)鍵詞。
· 模型算法按照重要程度給求職者的技能進行優(yōu)先級排序。
所以這個AI,很大一部分工作是在抓關(guān)鍵詞嘛。比如它偏好的“執(zhí)行”、“抓取”這種詞,在男性求職者的簡歷中出現(xiàn)次數(shù)更多,也從另一個維度造成了女性候選人的劣勢。
因此,這也是導致性別歧視的一個原因。甚至,還可能會給人“鉆空子”的機會。
Reddit上的一名網(wǎng)友評論稱:
“亞馬遜閱讀簡歷的AI從一開始就注定了要失敗,因為任何人都可以去學習怎樣寫好一份簡歷。讓我寫一份醫(yī)生的簡歷,我打賭我會比真醫(yī)生寫的要好。”
想一想那些“簡歷寫作技巧”的培訓,是不是都告訴你HR看一份簡歷只要二三十秒,簡歷里有某些關(guān)鍵詞、重要數(shù)據(jù)就能吸引HR的注意?
因此,這種抓關(guān)鍵詞的機制,就得以讓很多人通過強行往簡歷里塞關(guān)鍵詞,而獲得更高的星級,造成了另一種不公平。
AI招聘,道阻且長
根據(jù)招聘公司CareerBuilder 2017年在美國進行的一項調(diào)查,55%的人力資源經(jīng)理表示,將會在未來五年中采用AI,并將其作為日常工作中的工具。
一些“激進”或者說有大量招聘需求的公司,已經(jīng)將AI應用到招聘環(huán)節(jié)中去了。比如希爾頓酒店,就在招聘的時候,會先利用聊天機器人面試,并為求職者匹配合適的崗位,之后再進入下一輪面試。
在接受采訪時,希爾頓招聘副主管Sarah Smart表示,“人工智能會分析求職者的語調(diào)、眼神和回答的表情,來判斷求職者是否對工作富有熱情,從而來幫助我們篩選求職者。”
具體體驗怎么樣呢?體驗過聊天機器人面試官的Japser Rey說,“和聊天機器人對話時,我不用擔心自己會分神,而且機器人不會戴有色眼鏡看人,相對更公平公正一些。”
相對來說,大部分公司并沒有將AI放到具體的招聘決策環(huán)節(jié)之中,只是作為一個輔助工具。
百度:將AI應用到了招聘上,在今年的校園招聘中,采用AI分析簡歷、推薦崗位。
高盛:開發(fā)了簡歷分析工具,會將求職者與“最適合”的部門進行匹配。
LinkedIn:根據(jù)網(wǎng)站上發(fā)布的崗位消息,利用算法為雇主提供求職者的排名。
盡管人們對AI招聘并不十分待見,但卻無法阻擋這樣一個趨勢:AI終將左右你找工作這件事。
它只會遲到,但不會缺席。
作者: 量子位-乾明 郭一璞 來源: 新芽
共2頁 上一頁 [1] [2]
短視頻平臺的未來 還要靠內(nèi)容質(zhì)量和AI算法
亞馬遜AI在簡歷篩選中歧視女性?AI犯錯不是第一次了
央視曝光科大訊飛以“AI“為名拿地蓋別墅
中國迅速成為全球AI工廠 港媒:AI革命離不開中國人力
AI寒冬將至?行業(yè)大咖呼吁重啟AI再出發(fā)
搜索更多: AI