人工智能需要由各種各樣的開(kāi)發(fā)者來(lái)創(chuàng)造,以防止產(chǎn)生偏見(jiàn),但世界經(jīng)濟(jì)論壇(WEF)發(fā)現(xiàn)了一個(gè)嚴(yán)重的性別差異。
一段時(shí)間以來(lái),STEM職業(yè)中的性別差距一直是個(gè)問(wèn)題,但最終產(chǎn)品往往不太關(guān)心它是由什么性別開(kāi)發(fā)的。人工智能將無(wú)處不在,重要的是它能代表它所服務(wù)的對(duì)象。
在本周發(fā)布的一份報(bào)告中,世界經(jīng)濟(jì)論壇寫(xiě)道:
“婦女和男子在這一深刻的經(jīng)濟(jì)和社會(huì)變革進(jìn)程中的平等貢獻(xiàn)至關(guān)重要。
社會(huì)比以往任何時(shí)候都更不能失去一半人類(lèi)的技能、思想和觀點(diǎn),以實(shí)現(xiàn)管理良好的創(chuàng)新和技術(shù)所能帶來(lái)的更繁榮和以人為中心的未來(lái)的希望。”
令人震驚的是,世界經(jīng)濟(jì)論壇的報(bào)告發(fā)現(xiàn),不到四分之一的行業(yè)職位由女性擔(dān)任。從這個(gè)角度來(lái)看,人工智能行業(yè)的性別差距大約是其他行業(yè)人才池的三倍。
世界經(jīng)濟(jì)論壇人工智能和機(jī)器學(xué)習(xí)主管凱•菲爾斯-巴特菲爾德(Kay Firth-Butterfield)表示:“創(chuàng)造人工智能的人代表整個(gè)人口,這一點(diǎn)絕對(duì)至關(guān)重要。”
在編碼方面的偏見(jiàn)可能會(huì)讓人工智能在某些社會(huì)群體中表現(xiàn)得比其他群體更好,這可能會(huì)給他們帶來(lái)優(yōu)勢(shì)。這種偏見(jiàn)很少是有意的,但已經(jīng)在人工智能的發(fā)展中找到了自己的方式。
美國(guó)公民自由聯(lián)盟(ACLU)最近對(duì)亞馬遜的面部識(shí)別技術(shù)進(jìn)行了一次測(cè)試,發(fā)現(xiàn)它錯(cuò)誤地將那些膚色較深的人貼上了罪犯的標(biāo)簽。
同樣,NIST和達(dá)拉斯德克薩斯大學(xué)(University of Texas)的研究人員在2010年進(jìn)行的一項(xiàng)研究發(fā)現(xiàn),在東亞設(shè)計(jì)和測(cè)試的算法在識(shí)別東亞人方面做得更好,而在西方國(guó)家設(shè)計(jì)的算法在識(shí)別白種人方面更準(zhǔn)確。
最近,谷歌在Gmail中發(fā)布了一個(gè)預(yù)測(cè)文本功能,該算法對(duì)使用女性代詞的護(hù)士進(jìn)行了有偏見(jiàn)的假設(shè)。
很明顯,解決性別差距比以往任何時(shí)候都更加緊迫。
【來(lái)源:千家網(wǎng)】