您所在的位置:紅商網(wǎng)·新零售陣線 >> 好公司頻道 >> 正文
亞馬遜AI在簡歷篩選中歧視女性?AI犯錯不是第一次了

  AI 還有其它偏見

  與其說人工智能對這個世界有偏見,不如說是認知偏差。其算法本身是沒毛病的,但經(jīng)過算法處理的數(shù)據(jù)則是具有人類社會的特點的,因此人工智能行為也帶了人類的色彩。

  這一點在不同的行業(yè)、不同事物的類型、甚至不同的文化與國家,都有各自的體現(xiàn)。

  例如提到廚房里的人,我們通常腦海里會浮現(xiàn)出一名家庭主婦的形象,傳統(tǒng)的觀念即是如此。這種觀念由社會現(xiàn)狀決定,人類取用的數(shù)據(jù)由社會現(xiàn)狀決定,而人工智能的認知由數(shù)據(jù)決定。

  因此當一張男人站在廚房里的照片經(jīng)人工智能識別之后,它極有可能會把男人看成女人。

  這是趙潔玉和她的導師文森特·奧都涅茨研究的課題。果殼網(wǎng)《當人工智能“學會”性別歧視》一文里,詳細描述了他們研究課題的過程。最終發(fā)現(xiàn)把男人看成女人并不是程序 bug,而是因為數(shù)據(jù)庫的偏差。

  除了廚房這個特定環(huán)境,他們還發(fā)現(xiàn)在照片中“做家務、照看小孩子的就被認為是女性,開會、辦公、從事體育運動的則是男性”,有時候我們會發(fā)現(xiàn)人工智能識別的結(jié)果令人哭笑不得,但究其原因卻又情有可原。

  又如人工智能會將印度海得拉巴的印式婚紗錯認為中世紀的鎖子甲,只因為在其訓練的數(shù)據(jù)庫中,歐洲的數(shù)據(jù)更豐富,而來自第三世界的信息少得可憐。這對于部分少數(shù)群體是極不公平的。

  另一個相似的例子是,2015 年 Google Photos 將黑人標注成了大猩猩。雖然 Google 及時道歉并更正了算法,但從側(cè)面來看,人工智能仍然受提供的數(shù)據(jù)中的一般特征影響。它會將數(shù)據(jù)中的一般特征誤認為整個世界的普遍特征。

  事件過去三年,盡管算法已經(jīng)相對更加成熟,數(shù)據(jù)庫更加豐富,人工智能的壞毛病還是無法根治。據(jù)英國鏡報報道,用戶在使用 Google 翻譯時,結(jié)果里出現(xiàn)了令人毛骨悚然宗教話語,在某些小語種下,特定的重復詞組會被 Google 翻譯成帶有宗教色彩的話語。

  其緣由可能是 Google 翻譯在某些小語種的學習上,使用了圣經(jīng)——這一全球最為廣泛翻譯的數(shù)據(jù)——作為訓練模型,從而導致該情況發(fā)生。在經(jīng)過報道之后,Google 修復了這個 Bug。

  一個不得不接受的事實是,人工智能的偏見與小毛病將伴隨著它的成長。

 。▉碓矗篜INGWEST 建國)

2頁 上一頁  [1] [2] 

搜索更多: 亞馬遜

東治書院2024級易學文士班(第二屆)報名者必讀
『獨賈參考』:獨特視角,洞悉商業(yè)世相。
【耕菑草堂】巴山雜花土蜂蜜,愛家人,送親友,助養(yǎng)生
解惑 | “格物致知”的“格”到底是什么意思?
❤❤❤【拙話】儒學之流變❤❤❤
易經(jīng) | 艮卦究竟在講什么?兼斥《翦商》之荒謬
大風水,小風水,風水人
❤❤❤人的一生拜一位好老師太重要了❤❤❤
如何成為一個受人尊敬的易學家?
成功一定有道,跟著成功的人,學習成功之道。
關(guān)注『書仙笙』:結(jié)茅深山讀仙經(jīng),擅闖人間迷煙火。
研究報告、榜單收錄、高管收錄、品牌收錄、企業(yè)通稿、行業(yè)會務
★★★你有買點,我有流量,勢必點石成金!★★★