出處:快科技 作者:雪花
近日,有程序員開(kāi)發(fā)出一款名叫DeepNude的應(yīng)用備受外界關(guān)注,這款應(yīng)用之所以“走紅”是只要給DeepNude一張女性照片,借助神經(jīng)網(wǎng)絡(luò)技術(shù),App可以自動(dòng)“脫掉”女性身上的衣服,顯示出裸體。
如此有爭(zhēng)議的做法,收到了AI人工智能行業(yè)工作者的強(qiáng)烈不滿(mǎn),在大家看來(lái),這與早前的DeepFakes換臉應(yīng)用類(lèi)似,DeepNude同樣打開(kāi)了AI工具的陰暗面,因?yàn)殚_(kāi)發(fā)者很難確保其他人會(huì)恪守道德準(zhǔn)則。
迫于外界的輿論壓力,開(kāi)發(fā)者已經(jīng)關(guān)閉了DeepNude應(yīng)用程序。其在Twitter消息中寫(xiě)到:“我們其實(shí)并不希望以這樣的方式去賺錢(qián)”。
之前,反“色情復(fù)仇”組織Badass的創(chuàng)始人凱特琳·鮑登(Katelyn Bowden)感嘆說(shuō):“真是讓人震驚?,F(xiàn)在每個(gè)人都有可能成為色情報(bào)復(fù)的受害者,即使沒(méi)有拍過(guò)一張裸體照片,也可能會(huì)成為受害者。這樣的技術(shù)根本不應(yīng)該向公眾開(kāi)放。”
而馬里蘭大學(xué)凱里法學(xué)院(University of Maryland Carey School of Law)教授丹尼爾·西龍(Danielle Citron)認(rèn)為,DeepNude無(wú)疑是在侵犯用戶(hù)的性隱私。