現(xiàn)在,隨著人工智能(AI)技術(shù)的發(fā)展,AI在各行各業(yè)都發(fā)揮著強(qiáng)大的作用。最近,據(jù)外媒報(bào)道,AI已經(jīng)能夠撰寫出看似是真新聞的“假新聞”,其在撰寫令人信服的材料方面越做越好,這讓開發(fā)AI的創(chuàng)造者開始思考,是否需要首發(fā)這項(xiàng)技術(shù)。
該公司是埃隆•馬斯克(Elon Musk)旗下的OpenAI,該公司開發(fā)了一種算法,僅需要少數(shù)的幾個單詞,以此為起點(diǎn),就可以根據(jù)任何的話題生成看似可信的“假新聞”。
最初,該技術(shù)是作為一種通用語音設(shè)計(jì)的,能夠回答問題、概括故事和翻譯。但研究人員很快意識到,這項(xiàng)技術(shù)將被用于更險惡的目的,比如大量輸出虛假信息。因此,據(jù)MIT Technology Review報(bào)道,該團(tuán)隊(duì)只計(jì)劃向公眾提供其人工智能的“簡化版”。
幸運(yùn)的是,這項(xiàng)技術(shù)目前還存在一些不足之處,由于該項(xiàng)技術(shù)依靠大數(shù)據(jù),經(jīng)常寫的故事要么是抄襲的,要么缺乏文章深度,僅是表面上有凝聚力,然而,OpenAI公司的Jack Clark警告稱,可能只需要“一兩年”時間,就會出現(xiàn)一個能夠可靠地生成虛假新聞的系統(tǒng),而這種系統(tǒng)需要進(jìn)行徹底的事實(shí)核查才能予以駁斥。
這是核心問題,OpenAI專注于道德的實(shí)現(xiàn),不會故意啟用假新聞,但它只是一個組織。還有一個更大的擔(dān)憂是,不道德、不知情的公司或敵對政府可能開發(fā)出強(qiáng)大的人工智能,大規(guī)模地傳播謊言。社交網(wǎng)絡(luò)在打擊假新聞方面取得了一些成功,但如果機(jī)器生成的錯誤信息泛濫,它們可能會陷入困境。
【來源:千家網(wǎng)】