沒有人真的知道先進(jìn)的機(jī)器學(xué)習(xí)算法是如何工作的,而這恐將成為日后的一大隱憂。
去年,一輛奇怪的無人駕駛汽車出現(xiàn)在新澤西州蒙茅斯縣的道路上。這輛由芯片制造商N(yùn)vidia開發(fā)的實(shí)驗(yàn)車和通用公司、Google和特斯拉所展示的自動(dòng)駕駛汽車有所不同,該車的 AI 技術(shù)能力得到了大幅的提升。其中,最出彩的一點(diǎn)是它沒有遵循由工程師或程序員所提供的指令,與之相反,它完全依賴一種通過觀察人類行為來訓(xùn)練自己如何駕駛的算法。
從技術(shù)上來講,無人駕駛是一項(xiàng)創(chuàng)舉。但令人不安的是人類并不完全清楚汽車是怎么做出決策的。簡(jiǎn)單而言,來自車身上傳感器的信息直接進(jìn)入一個(gè)巨大的人工神經(jīng)網(wǎng)絡(luò),然后這個(gè)神經(jīng)網(wǎng)絡(luò)處理數(shù)據(jù),最后發(fā)出類似轉(zhuǎn)動(dòng)方向盤、踩剎車等命令。
這一結(jié)果似乎與人類駕駛員的動(dòng)作反應(yīng)一樣。然而,如果有一天它做了一些意想不到的事情呢?例如失去控制撞上了一棵樹,或者當(dāng)紅燈亮?xí)r卻猛踩油門。
當(dāng)然,我們現(xiàn)在還很難給出結(jié)論。因?yàn)檫@個(gè)系統(tǒng)太復(fù)雜了,即使是設(shè)計(jì)它的工程師可能也無法分析出它發(fā)出某一指令的原因。當(dāng)然,你也不能強(qiáng)求這個(gè)神經(jīng)網(wǎng)絡(luò)能夠給出它下達(dá)每一個(gè)指令的原因:因?yàn)槟壳盀橹惯€沒有一套能夠讓AI自己解釋自己行為的系統(tǒng)。
不過,Nvidia的這輛車卻說明汽車的底層AI技術(shù)(也就是深度學(xué)習(xí))近年來已經(jīng)被證明是一項(xiàng)非常厲害并且高效的技術(shù),它如今被廣泛應(yīng)用于圖像字幕、語音識(shí)別和語言翻譯等工作?,F(xiàn)在,這項(xiàng)技術(shù)甚至被寄予厚望用于診斷致命的疾病,做出大宗貿(mào)易的決策等事情,徹底改變了各行各業(yè)原本的運(yùn)作方式。
這種翻天覆地般的改變真的會(huì)發(fā)生嗎?不會(huì),或者說不應(yīng)該發(fā)生。除非我們找到方法讓深度學(xué)習(xí)進(jìn)行自我解釋,并且能夠讓它對(duì)它的用戶負(fù)責(zé)。否則我們將很難保證基于深度學(xué)習(xí)的產(chǎn)品永遠(yuǎn)保持一個(gè)穩(wěn)定的狀態(tài),這也就是 Nvidia 的這輛車仍然還是試驗(yàn)品的一個(gè)原因。
一直以來,數(shù)學(xué)模型已被用來幫助確定究竟誰可以被假釋、誰可以被給予貸款以及誰可以被聘用。當(dāng)然前提是你可以接觸到這些數(shù)學(xué)模型,并了解它們的推理原因才行。但是銀行、軍方、雇主和其他人正在將注意力轉(zhuǎn)向更復(fù)雜的機(jī)器學(xué)習(xí),畢竟這樣可以讓他們作出的決策變得更加精準(zhǔn)。
作為機(jī)器學(xué)習(xí)中最普遍采用的方法,深度學(xué)習(xí)代表了一個(gè)完全不同的計(jì)算機(jī)編程方式。麻省理工學(xué)院教授 Tommi Jaakkola 說:“邏輯解釋已經(jīng)是一個(gè)重要的問題,未來只會(huì)變得更加重要。因?yàn)闊o論是投資決策、醫(yī)療決策還是軍事決策,用戶都不希望只依靠‘黑匣子’,而想知道為什么神經(jīng)網(wǎng)絡(luò)會(huì)作出這一決策。”
目前已經(jīng)有一種論點(diǎn):審查人工智能系統(tǒng)如何作出相應(yīng)的決策應(yīng)該是一項(xiàng)基本的法律權(quán)利。從 2018 年夏天開始,歐盟可能要求公司能夠向用戶解釋他們所使用的人工智能作出的決策。
然而,這并不現(xiàn)實(shí),即使是使用深度學(xué)習(xí)來投放廣告或是推薦歌曲那些相對(duì)簡(jiǎn)單的系統(tǒng),對(duì)于我們?nèi)祟悂碚f,其背后的運(yùn)行方式也難以理解。就算是創(chuàng)造出這些系統(tǒng)的程序員也沒辦法完全解釋這些機(jī)器的行為。
那么問題來了,隨著 AI 的進(jìn)步,我們是否可以掌控它的發(fā)展節(jié)奏?但轉(zhuǎn)念一想,人類其實(shí)也不能真正地理解并解釋我們自己的思維過程,可這并不影響我們直觀地信任并觀察對(duì)方。那么,對(duì)于與我們思維方式不同的機(jī)器來說是不是也同樣有這種可能?
歷史上,人類從來沒有創(chuàng)造過一個(gè)連創(chuàng)造者都不能完全理解的機(jī)器。但如今我們卻在與這些難以預(yù)測(cè)的人工智能機(jī)器交流與相處中遇到了問題。這些問題讓我走上了 AI 算法的極具挑戰(zhàn)的前沿研究之路,從 Google 到 Apple 以及其他公司都是這條路的一部分,當(dāng)然也包括當(dāng)今世上偉大的哲學(xué)家們關(guān)于科技倫理的各種會(huì)議。
藝術(shù)家Adam Ferriss使用Google Deep Dream創(chuàng)作的圖像
2015年,紐約西奈山醫(yī)院的一個(gè)研究小組受到啟發(fā),將深度學(xué)習(xí)應(yīng)用于醫(yī)院龐大的患者記錄數(shù)據(jù)庫管理。在該數(shù)據(jù)集中,每個(gè)患者擁有上百個(gè)特征變量,包括醫(yī)療測(cè)試結(jié)果、醫(yī)生訪查等等。被研究人員命名為 Deep Patient 的這個(gè)程序使用來自約70萬個(gè)人的數(shù)據(jù)進(jìn)行訓(xùn)練,在新患者資料上進(jìn)行測(cè)試時(shí),它顯示出極強(qiáng)的疾病預(yù)測(cè)能力。
沒有任何醫(yī)療專家的指導(dǎo),Deep Patient 發(fā)現(xiàn)了隱藏在數(shù)據(jù)中的規(guī)律,這些數(shù)據(jù)規(guī)律顯示出人類會(huì)在什么時(shí)間段會(huì)逐漸得病。該研究小組的負(fù)責(zé)人Joel Dudley表示,目前有很多方法可以根據(jù)患者醫(yī)療數(shù)據(jù)進(jìn)行很準(zhǔn)確疾病預(yù)測(cè)。但他補(bǔ)充說:“相比起來,深度學(xué)習(xí)是一種更好的方法。”
同時(shí),Deep Patient得出的結(jié)論有點(diǎn)令人費(fèi)解——它似乎在預(yù)測(cè)精神分裂癥等精神類疾病上表現(xiàn)尤其出色。眾所周知,處理精神分裂癥對(duì)于醫(yī)生來說是非常困難的,所以 Dudley 很想知道為什么 Deep Patient 在這方便這么厲害,然而至今他也還不知道原因。
對(duì)于它是如何進(jìn)行預(yù)測(cè)的,這個(gè)新工具并沒有表現(xiàn)出任何的技術(shù)原理。如果像 Deep Patient 這樣的工具確實(shí)能幫助到醫(yī)生,那么理想的情況就是給出它預(yù)測(cè)的理由,讓醫(yī)生確信它是準(zhǔn)確的。“我們可以建立這些模型”,Dudley說,“但我們不知道他們是如何運(yùn)作的”。
但人工智能并不是生來就帶有神秘感。從一開始,對(duì)于理解和解釋AI就有兩派說法。一些人認(rèn)為應(yīng)該根據(jù)規(guī)則和邏輯推理的來建造人工智能,這種機(jī)器的內(nèi)部工作原理對(duì)任何關(guān)心它的人都應(yīng)該是透明的。
另一些人認(rèn)為,如果機(jī)器可以從生物學(xué)中獲得靈感,通過觀察和體驗(yàn)學(xué)習(xí),“智能”就會(huì)更容易出現(xiàn)。這意味著程序員不用編寫命令來解決問題,而程序會(huì)根據(jù)示例數(shù)據(jù)和期望輸出生成自己的算法。后來演變成當(dāng)今最強(qiáng)大的AI系統(tǒng),機(jī)器學(xué)習(xí)技術(shù)遵循的是后一條路徑:機(jī)器本質(zhì)上是自己對(duì)自己進(jìn)行編程。
起初,深度學(xué)習(xí)的實(shí)際應(yīng)用是有限的。在20世紀(jì)60年代和70年代,它仍主要局限于相關(guān)領(lǐng)域的邊緣。后來,許多行業(yè)的辦公自動(dòng)化和大數(shù)據(jù)的出現(xiàn)又引起了人們對(duì)它的興趣。這激發(fā)了更強(qiáng)大的機(jī)器學(xué)習(xí)技術(shù)發(fā)展,特別是人工神經(jīng)網(wǎng)絡(luò)。到 20 世紀(jì) 90 年代,神經(jīng)網(wǎng)絡(luò)已經(jīng)可以自動(dòng)將手寫字符轉(zhuǎn)換成數(shù)字化的字符。
但是直到近 10 年,經(jīng)過幾次巧妙的調(diào)整和改進(jìn),深度神經(jīng)網(wǎng)絡(luò)在自動(dòng)感知方面出現(xiàn)了顯著提升。深度學(xué)習(xí)造就了如今紅爆半邊天的AI。它賦予了計(jì)算機(jī)非凡的力量,使得計(jì)算機(jī)可以像人類一樣識(shí)別出我們口中的各種語言。深度學(xué)習(xí)徹底改變了計(jì)算機(jī)視覺,大大提高了機(jī)器翻譯的準(zhǔn)確度。如今它正用于指導(dǎo)醫(yī)藥、金融、制造業(yè)等方方面面的各種關(guān)鍵決策。
藝術(shù)家Adam Ferriss使用谷歌 Deep Dream 創(chuàng)作的圖像
任何機(jī)器學(xué)習(xí)技術(shù)的工作本質(zhì)都比手工編碼系統(tǒng)更不透明,甚至對(duì)計(jì)算機(jī)科學(xué)家來說也是這樣。這并不是說,所有未來的AI技術(shù)也將同樣如此。但是由于它的本質(zhì),深度學(xué)習(xí)就是一個(gè)特別不透明的黑匣子。
你不能只是看一下神經(jīng)網(wǎng)絡(luò)的內(nèi)部就可以知道它是如何工作的。神經(jīng)網(wǎng)絡(luò)是由成千上萬個(gè)神經(jīng)元的構(gòu)成,它們排列成數(shù)十甚至上百個(gè)錯(cuò)綜復(fù)雜的互連層。第一層中的神經(jīng)元各自接收輸入信號(hào),例如圖像中像素的強(qiáng)度,然后在輸出新信號(hào)之前進(jìn)行計(jì)算。這些輸出在復(fù)雜網(wǎng)絡(luò)中被當(dāng)做輸入傳入下一層中的神經(jīng)元,就這樣一層一層傳遞,直到產(chǎn)生總體輸出。
此外,還有一個(gè)被稱為“反向傳播”的過程,這是一種通過反饋調(diào)整單個(gè)神經(jīng)元,使得網(wǎng)絡(luò)可以產(chǎn)生期望輸出的算法。
深度神經(jīng)網(wǎng)絡(luò)中的許多層可以識(shí)別出不同抽象層次的特征。舉例來說,在一個(gè)識(shí)別狗狗的系統(tǒng)中,較低的幾層通常識(shí)別出簡(jiǎn)單的特征,例如輪廓或顏色;更高的層可以識(shí)別更復(fù)雜的特質(zhì),例如毛皮或眼睛;輸出層將其全部標(biāo)識(shí)為狗。簡(jiǎn)單來講,同樣的方法可以有不同的應(yīng)用:自然語言處理或是自動(dòng)駕駛。
現(xiàn)在研究人員已經(jīng)使用各種巧妙的策略來更詳細(xì)地解釋這樣的系統(tǒng)內(nèi)部到底是怎么運(yùn)作的。2015 年,Google的研究人員修改了基于深度學(xué)習(xí)的圖像識(shí)別算法,使它根據(jù)這些每層學(xué)習(xí)到的特征生成原始輸入圖片,而不是把識(shí)別到的物體在圖片中標(biāo)注出來。通過運(yùn)行這樣的逆向算法,他們發(fā)現(xiàn)了程序用來識(shí)別的特征,比如鳥和建筑物。
由一個(gè)名為 Deep Dream 的程序產(chǎn)生的圖像顯示,由云和植物等特征生成的原始圖片竟然是一些奇形怪狀像外星生物的動(dòng)物,森林和山脈的特征最終生成的是幻像塔。這些圖像證明,深度學(xué)習(xí)不一定是完全不可解釋的。
研究人員透露,這個(gè)算法主要?dú)w功于熟悉的視覺特征,例如鳥的喙和羽毛。但是,這些圖像也暗示了人類與機(jī)器學(xué)習(xí)的不同之處,因?yàn)樯疃葘W(xué)習(xí)可以注意到一些我們?nèi)祟惾菀缀雎缘奶卣鳌oogle 研究人員指出,當(dāng)這個(gè)算法生成啞鈴的圖像時(shí),它也同時(shí)生成了一個(gè)舉著它的人類手臂。顯然機(jī)器得出了一個(gè)結(jié)論:手臂是這個(gè)啞鈴的一部分。
神經(jīng)科學(xué)和認(rèn)知科學(xué)的思想使得研究 AI 內(nèi)部運(yùn)作原理取得了進(jìn)一步的進(jìn)展。由懷俄明大學(xué)助理教授 Jeff Clune 領(lǐng)導(dǎo)的一個(gè)團(tuán)隊(duì),采用等同于光學(xué)幻覺的 AI 來測(cè)試深度神經(jīng)網(wǎng)絡(luò)。在 2015 年,Clune的小組展示了某些圖像可以愚弄一個(gè)神經(jīng)網(wǎng)絡(luò),讓它感知到了實(shí)際不存在的東西,因?yàn)檫@些圖像利用了系統(tǒng)搜索的低級(jí)模式。
Clune的合作者之一,Jason Yosinski也制作了一個(gè)工具:類似一枚插在大腦中的探針。這個(gè)工具的目標(biāo)對(duì)象是網(wǎng)絡(luò)中間任何一個(gè)神經(jīng)元,找到使它激活最顯著的那幅圖像。最終顯示的這幅圖像是抽象的(想象一幅印象派的畫作),這也突出了機(jī)器感知能力的神秘性質(zhì)。
早期人造神經(jīng)網(wǎng)絡(luò)
我們需要特別地關(guān)注 AI 的思維模式,然而目前并沒有一個(gè)簡(jiǎn)單的解決方案。深度神經(jīng)網(wǎng)絡(luò)中計(jì)算的相互作用對(duì)于更高層次的模式識(shí)別和復(fù)雜的決策是至關(guān)重要的,但是這些復(fù)雜的計(jì)算正是我們理解它的困難之處。“如果你有一個(gè)非常小的神經(jīng)網(wǎng)絡(luò),你也許可以理解它”,Jaakkola說。“但是,一旦它變得非常大,它每層有數(shù)千個(gè)神經(jīng)元,然后一共有數(shù)百層,那么這樣的神經(jīng)網(wǎng)絡(luò)是完全無法理解的。”
在 Jaakkola 辦公室旁邊的是麻省理工學(xué)院教授 Regina Barzilay,她決心將機(jī)器學(xué)習(xí)應(yīng)用到醫(yī)學(xué)場(chǎng)景。幾年前,在43歲時(shí)她被診斷患有乳腺癌。診斷本身讓她非常震驚,但是令Barzilay同樣感到失望的是,前瞻性的統(tǒng)計(jì)學(xué)和機(jī)器學(xué)習(xí)方法沒有被用來幫助腫瘤研究和指導(dǎo)病人進(jìn)行治療。
她說,AI 具有巨大的醫(yī)學(xué)革命潛力,但要實(shí)現(xiàn)這一潛力則需要除了醫(yī)療記錄以外更多的數(shù)據(jù)。她設(shè)法使用更多的原始數(shù)據(jù),但圖像數(shù)據(jù)、病理數(shù)據(jù)以及其他各種信息目前并不容易搞到。
去年完成癌癥治療后,Barzilay和她的學(xué)生開始與馬薩諸塞州總醫(yī)院的醫(yī)生合作開發(fā)出一個(gè)數(shù)據(jù)挖掘系統(tǒng),通過分析患者的病理報(bào)告來確定研究人員想要研究的特定臨床特征。然而,Barzilay心里明白,這個(gè)系統(tǒng)需要解釋它的推理過程。
所以,她與Jaakkola和一名學(xué)生增加了一個(gè)步驟:系統(tǒng)提取并標(biāo)注出一個(gè)文本片段,這個(gè)文本片段代表著機(jī)器挖掘出的一種模式。
Barzilay和她的學(xué)生們也在開發(fā)一種能夠在乳房X光照片圖像中發(fā)現(xiàn)乳腺癌早期癥狀的深度學(xué)習(xí)算法,并且給予這個(gè)系統(tǒng)一些“解釋其如何推理”的能力。“人類真的需要和機(jī)器不斷地合作”,Barzilay說。
美國(guó)軍方向使用機(jī)器學(xué)習(xí)的項(xiàng)目投資了數(shù)十億美金,這些項(xiàng)目包括為車輛和飛行器導(dǎo)航、確定攻擊目標(biāo)并幫助分析人員篩選大量情報(bào)數(shù)據(jù)。然而,這些項(xiàng)目所用到的機(jī)器學(xué)習(xí)同樣不能解釋作出決策的推理過程,美國(guó)國(guó)防部已將機(jī)器學(xué)習(xí)的不可解釋性定性為“關(guān)鍵的絆腳石”。
國(guó)防高級(jí)研究計(jì)劃署(DARPA)的項(xiàng)目經(jīng)理 David Gunning 正在監(jiān)督一個(gè)名為“可解釋的人工智能”計(jì)劃。作為這個(gè)部門的資深工程師,Gunning曾經(jīng)監(jiān)督過一個(gè) DARPA 項(xiàng)目,而這個(gè)項(xiàng)目最終創(chuàng)造了Siri。
Gunning表示,自動(dòng)化決策正在進(jìn)入各種軍事領(lǐng)域。情報(bào)分析員正在測(cè)試一個(gè)機(jī)器學(xué)習(xí)項(xiàng)目,作為識(shí)別與分析大量監(jiān)控?cái)?shù)據(jù)的模式。軍方也正在開發(fā)與測(cè)試許多無人駕駛的地面車輛和飛機(jī)。然而,士兵們可能會(huì)對(duì)機(jī)器人坦克感到不太舒服,因?yàn)檫@些機(jī)器人坦克并不能向士兵們解釋自己的作戰(zhàn)行為,分析人士也不愿意在沒有推理過程的情況下采取行動(dòng)。
“這些機(jī)器學(xué)習(xí)系統(tǒng)的性質(zhì)通常會(huì)產(chǎn)生大量的虛假警報(bào),所以 Intel 的分析師真的需要作出額外的努力,來幫助人們理解這些機(jī)器的決策是如何作出的。”Gunning說。
今年 3 月,DARPA 為 Gunning 的這個(gè)“可解釋的人工智能”計(jì)劃挑選了 13 個(gè)來自學(xué)術(shù)界和行業(yè)的項(xiàng)目。這些項(xiàng)目中的一些人可以在華盛頓大學(xué)教授Carlos Guestrin領(lǐng)導(dǎo)下繼續(xù)開展工作。
Adam Ferriss受啟發(fā)后的作品
Guestrin教授和他的同事們?yōu)闄C(jī)器學(xué)習(xí)系統(tǒng)研發(fā)了一種能夠解釋其決策的算法。在這種方法下,計(jì)算機(jī)會(huì)自動(dòng)從數(shù)據(jù)集中找到幾個(gè)示例并簡(jiǎn)短地解釋它們。例如,篩選電子郵件中來自恐怖分子的郵件。這個(gè)系統(tǒng)可能會(huì)在其訓(xùn)練和決策過程中使用數(shù)百萬條消息。但是運(yùn)用華盛頓大學(xué)團(tuán)隊(duì)的方法,它可以高亮顯示某條電子郵件中的某些關(guān)鍵字。
Guestrin團(tuán)隊(duì)還設(shè)計(jì)了一套圖像識(shí)別系統(tǒng),其可以高亮顯示出原始圖像中對(duì)神經(jīng)網(wǎng)絡(luò)最后做決策時(shí)影響最大的部分。
然而,這種方法的一個(gè)缺點(diǎn)是神經(jīng)網(wǎng)絡(luò)所提供的解釋將始終是簡(jiǎn)化的,這意味著一些重要的信息可能會(huì)丟失。“我們還沒有實(shí)現(xiàn)完整的目標(biāo),也就是 AI 可以與人類進(jìn)行交流,并且能夠解釋它的決策行為”,Guestrin說,“我們距離真正能夠完全解釋AI還有一段很長(zhǎng)的路要走”。
目前,“AI的可解釋性”問題并非只存在于高風(fēng)險(xiǎn)的情景(像癌癥診斷或是軍事演習(xí))。如果日后AI成為我們?nèi)粘I钪忻懿豢煞值囊徊糠?,那么了解它的決策原因也將是至關(guān)重要的。領(lǐng)導(dǎo)蘋果Siri團(tuán)隊(duì)的Tom Gruber說,可解釋性是他的團(tuán)隊(duì)的一個(gè)關(guān)鍵考慮因素,因?yàn)樗噲D使Siri成為一個(gè)更聰明,更有能力的虛擬助手。
Gruber 沒有討論 Siri 未來的具體計(jì)劃,但是我們可以很容易想像,如果用戶收到 Siri 的餐廳推薦,用戶想知道為什么 Siri 這么推薦。Apple 的 AI 研究總監(jiān)和卡內(nèi)基梅隆大學(xué)的副教授Ruslan Salakhutdinov認(rèn)為,AI的可解釋性是人與智能機(jī)器關(guān)系發(fā)展的核心,可解釋性將會(huì)帶來信任。
其實(shí),很多的人類行為也是不能夠被詳細(xì)解釋的,因此我們更不能期望AI可以解釋它所做的一切。懷俄明大學(xué)的Clune教授說:“即使有人可以給你一個(gè)合理的解釋(對(duì)于他或她的行為),這個(gè)解釋也可能是不完整的,對(duì)于AI同樣如此。它的智力本質(zhì)和人類相似,只有其中的一部分才能被理性地解釋。另一部分只是本能反應(yīng),或者是潛意識(shí)。”
如果是這樣,那么在某些階段我們可能要么簡(jiǎn)單地信任 AI 的判斷,要么就不使用它。同樣這一判斷將必須納入社會(huì)情報(bào)。正如社會(huì)的建立與運(yùn)行是基于對(duì)人類行為的規(guī)范束縛,今后的AI系統(tǒng)需要尊重和符合我們的社會(huì)規(guī)范。如果我們要?jiǎng)?chuàng)造機(jī)器人坦克和其他殺戮機(jī)器,那么它們所做的決策應(yīng)該與我們的道德判斷相一致。
為了探索這些形而上學(xué)的概念,DT君的美國(guó)同事 Will Knight 去了塔夫茨大學(xué),與著名哲學(xué)家和認(rèn)知科學(xué)家 Daniel Dennett 會(huì)面,他主要研究意識(shí)和心靈。
Daniel Dennett 最新的一本書《從細(xì)菌到巴赫》(From Bacteria to Bach and Back)表明,智力進(jìn)化的一個(gè)本質(zhì)特征是進(jìn)化到一個(gè)系統(tǒng),這個(gè)系統(tǒng)中即使創(chuàng)造者都無法解釋它某些行為的原因。Dennett 表示:“我們做事情一定要保持明智,我們對(duì)人工智能有什么標(biāo)準(zhǔn)?對(duì)我們?nèi)祟愖约河质鞘裁礃?biāo)準(zhǔn)?”
同時(shí),他還有一個(gè)關(guān)于追求 AI 可解釋性的警告。他說:“我認(rèn)為,如果我們要使用 AI 技術(shù)并依靠它們,那么我們還是要盡可能地理解AI作出決策的原因和過程。”但由于可能沒有完美的答案,我們則應(yīng)該像人類對(duì)彼此那樣謹(jǐn)慎來對(duì)待AI——無論機(jī)器看起來有多聰明。
“如果在解釋 AI 的行為上,AI自己都不如我們解釋得好的話,那就不要信任它了。”
來源:DeepTech深科技