首頁 行業(yè) 活動 項(xiàng)目 快訊 文娛 時(shí)尚 娛樂 科技 汽車 綜合 生活

AI研究“重男輕女”要不得

2018-10-15 09:40:26 來源:科技日報(bào)

自2014年以來,美國亞馬遜公司的機(jī)器學(xué)習(xí)團(tuán)隊(duì)一直在秘密研發(fā)和使用一款計(jì)算機(jī)程序,用于審查求職者的簡歷,希望能將尋找頂尖人才的工作智能化。但在專家發(fā)現(xiàn)新招聘引擎不喜歡女性后,亞馬遜最終在去年年初解散了該研究團(tuán)隊(duì)。

效率提升需求推動機(jī)器學(xué)習(xí)應(yīng)用

無論是在倉庫內(nèi)部還是在推動定價(jià)決策方面,自動化是亞馬遜電子商務(wù)主導(dǎo)地位的關(guān)鍵。由于低成本計(jì)算能力的激增,機(jī)器學(xué)習(xí)在技術(shù)領(lǐng)域越來越受歡迎。亞馬遜的智能化招聘實(shí)驗(yàn)就始于這家全球最大在線零售商的關(guān)鍵時(shí)刻。

監(jiān)管機(jī)構(gòu)的文件顯示,自2015年6月以來,亞馬遜的全球員工人數(shù)增加了兩倍多,達(dá)到57萬多名。為緩解人力資源部門劇增的工作壓力,提升其工作效率,亞馬遜愛丁堡工程中心建立了一支研發(fā)團(tuán)隊(duì),目標(biāo)是開發(fā)人工智能技術(shù),快速抓取網(wǎng)絡(luò)信息并發(fā)現(xiàn)值得招募的候選人。

該公司的實(shí)驗(yàn)性招聘工具使用人工智能為求職者提供一星到五星的評分,類似于購物者對亞馬遜所售產(chǎn)品的評分。研究人員希望這個(gè)招聘軟件能達(dá)到“給軟件輸入100份簡歷,它會吐出前5名,然后公司就可優(yōu)先雇用他們”的目標(biāo)。

人工智能招聘軟件“重男輕女”

經(jīng)過培訓(xùn),亞馬遜的計(jì)算機(jī)模型學(xué)習(xí)了過去10年內(nèi)提交給公司的簡歷,找出了其固有模式,并據(jù)此來審查申請人。但從2015年開始,亞馬遜意識到在評定軟件開發(fā)和其他技術(shù)職位的申請人時(shí),該招聘系統(tǒng)并非性別中立。因?yàn)榇蠖鄶?shù)申請者都是男性,這反映了整個(gè)科技行業(yè)男性主導(dǎo)地位的現(xiàn)實(shí)。

研究團(tuán)隊(duì)創(chuàng)建了500個(gè)專注于特定工作職能和職位的計(jì)算機(jī)模型。他們教會每個(gè)模型識別過去候選人簡歷中出現(xiàn)的約5萬個(gè)術(shù)語。這些算法對IT應(yīng)用程序中常見的技能幾乎沒有重要意義,例如編寫各種計(jì)算機(jī)代碼的能力等。相反,這項(xiàng)技術(shù)有利于那些用男性工程師簡歷中諸如“執(zhí)行”“捕獲”等常見動詞來描述自己的候選人。

事實(shí)上,亞馬遜的系統(tǒng)通過自學(xué)得出了男性候選人更可取的結(jié)論。系統(tǒng)對包含“女性”這個(gè)詞的簡歷進(jìn)行了處罰,如“女子國際象棋俱樂部隊(duì)長”等。系統(tǒng)還降低了兩所全女子大學(xué)畢業(yè)生的評級。

亞馬遜曾嘗試對程序進(jìn)行更新,力圖使其對特定術(shù)語保持中立。但這并不能保證機(jī)器不會根據(jù)其他方式來對可能具有歧視性的候選人進(jìn)行分類。

性別偏見也不是唯一的問題。支持模型判斷的數(shù)據(jù)也有問題,這意味著不合格的候選人經(jīng)常被推薦到各種工作崗位。亞馬遜最終在去年年初解散了該團(tuán)隊(duì),因?yàn)楦吖軅儗@個(gè)項(xiàng)目已失去信心。

算法公平之路任重道遠(yuǎn)

根據(jù)人才軟件公司“職業(yè)創(chuàng)造者”2017年的一項(xiàng)調(diào)查顯示,約55%的美國人力資源經(jīng)理表示,未來5年內(nèi),人工智能將成為他們工作的常規(guī)部分。

長期以來,雇主一直夢想利用技術(shù)擴(kuò)大招聘網(wǎng)絡(luò),減少對招聘人員主觀意見的依賴。但亞馬遜的失敗案例,為越來越多正在尋求自動化招聘流程的大型公司提供了一個(gè)教訓(xùn)。

卡內(nèi)基梅隆大學(xué)機(jī)器學(xué)習(xí)專家表示,如何確保算法公平、真正可理解和可解釋的道路還相當(dāng)遙遠(yuǎn)。

《麻省理工技術(shù)評論》在此次事件的報(bào)道中指出,我們不能將人工智能視為內(nèi)在的無偏見。在有偏見的數(shù)據(jù)上訓(xùn)練系統(tǒng),意味著算法也會變得有偏見。如果這樣不公平的人工智能招聘計(jì)劃在實(shí)施之前沒有被發(fā)現(xiàn),將使長期存在于商業(yè)中的多樣性問題延續(xù)下去,而不是解決它們。(馮衛(wèi)東)

關(guān)鍵詞:

上一篇:雙創(chuàng)活動周北京會場精彩紛呈

下一篇:小米真的逃離北京了?

責(zé)任編輯:

最近更新

點(diǎn)擊排行
推薦閱讀