人工智能需要由各種各樣的開發(fā)者來創(chuàng)造,以防止產(chǎn)生偏見,但世界經(jīng)濟(jì)論壇(WEF)發(fā)現(xiàn)了一個嚴(yán)重的性別差異。
一段時間以來,STEM職業(yè)中的性別差距一直是個問題,但最終產(chǎn)品往往不太關(guān)心它是由什么性別開發(fā)的。人工智能將無處不在,重要的是它能代表它所服務(wù)的對象。
在本周發(fā)布的一份報告中,世界經(jīng)濟(jì)論壇寫道:
“婦女和男子在這一深刻的經(jīng)濟(jì)和社會變革進(jìn)程中的平等貢獻(xiàn)至關(guān)重要。
社會比以往任何時候都更不能失去一半人類的技能、思想和觀點,以實現(xiàn)管理良好的創(chuàng)新和技術(shù)所能帶來的更繁榮和以人為中心的未來的希望。”
令人震驚的是,世界經(jīng)濟(jì)論壇的報告發(fā)現(xiàn),不到四分之一的行業(yè)職位由女性擔(dān)任。從這個角度來看,人工智能行業(yè)的性別差距大約是其他行業(yè)人才池的三倍。
世界經(jīng)濟(jì)論壇人工智能和機器學(xué)習(xí)主管凱•菲爾斯-巴特菲爾德(Kay Firth-Butterfield)表示:“創(chuàng)造人工智能的人代表整個人口,這一點絕對至關(guān)重要。”
在編碼方面的偏見可能會讓人工智能在某些社會群體中表現(xiàn)得比其他群體更好,這可能會給他們帶來優(yōu)勢。這種偏見很少是有意的,但已經(jīng)在人工智能的發(fā)展中找到了自己的方式。
美國公民自由聯(lián)盟(ACLU)最近對亞馬遜的面部識別技術(shù)進(jìn)行了一次測試,發(fā)現(xiàn)它錯誤地將那些膚色較深的人貼上了罪犯的標(biāo)簽。
同樣,NIST和達(dá)拉斯德克薩斯大學(xué)(University of Texas)的研究人員在2010年進(jìn)行的一項研究發(fā)現(xiàn),在東亞設(shè)計和測試的算法在識別東亞人方面做得更好,而在西方國家設(shè)計的算法在識別白種人方面更準(zhǔn)確。
最近,谷歌在Gmail中發(fā)布了一個預(yù)測文本功能,該算法對使用女性代詞的護(hù)士進(jìn)行了有偏見的假設(shè)。
很明顯,解決性別差距比以往任何時候都更加緊迫。
【來源:千家網(wǎng)】