在 2017 年的 I/O 大會(huì)上,Google 發(fā)布了一款能識(shí)人又能識(shí)物的新產(chǎn)品:
你只需要對(duì)著別人的名片一掃,所有信息就能存進(jìn)通訊錄;
你只需要對(duì)著景物一掃,就能獲得當(dāng)前景物的所有信息;
當(dāng)你在游覽時(shí),它還能擔(dān)當(dāng)你的隨身翻譯、導(dǎo)游 ……
更重要的是,這款產(chǎn)品打破了智能手機(jī)的檔次局限,無論是高端旗艦還是低端入門,只要搭載的是智能系統(tǒng),任何手機(jī)都能用得上它。
這個(gè)在當(dāng)時(shí)有著神仙功能的新品,就是我們?cè)谕髢赡?I/O 活動(dòng)上都能看到的「Google Lens」,如今這個(gè)產(chǎn)品經(jīng)過兩年的發(fā)展,它已經(jīng)成為識(shí)物工具中的佼佼者。
而隨著今年 Google 在這款工具里加入 AR 和朗讀功能后,有著 124 年歷史的笛洋美術(shù)館(de Young museum)也在近日宣布,將全面支持游客用 Google Lens 游覽展館。
這也是世界上第一家支持 Google Lens 的美術(shù)館 / 博物館。
▲ 圖片來自:Artnews
在笛洋美術(shù)館內(nèi),游客可以通過 Google Lens 對(duì)展品進(jìn)行識(shí)別,系統(tǒng)在進(jìn)行識(shí)別后會(huì)推送當(dāng)前作品的作者、歷史等相關(guān)信息,用戶可以在館內(nèi)通過這個(gè)功能自由獲取想了解的內(nèi)容。
而且更有意思的是,除了對(duì)作品進(jìn)行識(shí)別外,游客還可以通過 Google Lens 對(duì)特定物品進(jìn)行識(shí)別,識(shí)別成功后系統(tǒng)會(huì)播放作品相關(guān)的 AR 圖像或視頻內(nèi)容。
通過這種方式,用戶能獲得面前這幅作品以外的信息,譬如讓作者在視頻中介紹當(dāng)前作品的創(chuàng)作經(jīng)歷等,讓游客通過具象且優(yōu)雅的方式獲得知識(shí)內(nèi)容,就像和藝術(shù)家面對(duì)面交流一樣。
不過,AI 識(shí)物能在未來取代傳統(tǒng)人力向?qū)С蔀橛慰瞳@得新知識(shí)的主要途徑嗎?我認(rèn)為這個(gè)想法是不錯(cuò),但現(xiàn)在說似乎還有點(diǎn)早。
強(qiáng)大的 AI 人工智能讓 Google Lens 成為了當(dāng)今世界上數(shù)一數(shù)二的識(shí)圖工具,越來越多的應(yīng)用途徑,也讓這款工具走出實(shí)驗(yàn)室和 PPT,成為用戶了解新事物的另一種途徑。
▲ 圖片來自:9to5Google
但這種機(jī)械式的向?qū)苋〈肆Τ蔀槲磥碛斡[的發(fā)展主流嗎?我認(rèn)為說「取代」那這話可能說得有點(diǎn)早了,而且在短期內(nèi),AI 向?qū)Р粫?huì)取代人工成為主流。
首先我不否認(rèn) AI 的兩個(gè)優(yōu)勢(shì):全天候運(yùn)作和可延展性。
相比于人工向?qū)В珹I 能 24 小時(shí)全天候工作,同時(shí)通過自學(xué)習(xí)能力,AI 能在執(zhí)行任務(wù)的過程中不斷學(xué)習(xí)。而且在網(wǎng)絡(luò)的幫助下,AI 并不是一個(gè)大腦在學(xué)習(xí),而是服務(wù)器主腦和終端「大腦」們的信息互通,從而組成一張存儲(chǔ)特征的智能網(wǎng)絡(luò)。
從表象來說,比如我用手機(jī)對(duì)著我面前的杯子進(jìn)行掃描,系統(tǒng)會(huì)記錄物體的特征信息,當(dāng)其他用戶掃面類似的物體時(shí),AI 會(huì)進(jìn)行特征識(shí)別和結(jié)果篩選,快速得出識(shí)別結(jié)果。或者當(dāng)我第一次掃描這個(gè)物體時(shí),AI 會(huì)先記錄特征,當(dāng)我第二次掃描時(shí),AI 會(huì)繼續(xù)增加特征點(diǎn),從而全局提升識(shí)別的速度和準(zhǔn)確率。
神經(jīng)網(wǎng)絡(luò)的自學(xué)習(xí)能力能讓 AI 的識(shí)別效率接近人腦,甚至有著不受情緒和精神的影響,它可能還會(huì)超越人腦,但是能得出準(zhǔn)確無誤的結(jié)果,前提是需要大量訓(xùn)練。
AI 能在短時(shí)間內(nèi)得出識(shí)別結(jié)果,實(shí)際上有賴于研發(fā)團(tuán)隊(duì)在功能推出前的各種訓(xùn)練工作。譬如在 Google 的 TensorFlow API 中,他們會(huì)通過 COCO 數(shù)據(jù)庫的 90 大類、共 30 萬張圖像對(duì) AI 進(jìn)行識(shí)別訓(xùn)練,繼而通過圖像去提升 AI 的識(shí)別能力。但即便有著大量的訓(xùn)練信息作為基礎(chǔ),AI 也并非天下無敵。
The Verge 在近日的《人工智能難以識(shí)別低收入地區(qū)的日用品》這篇文章中,就對(duì) AI 識(shí)別的基礎(chǔ)進(jìn)行探討,并給出了「AI 訓(xùn)練不平衡」的觀點(diǎn)。
研究人員發(fā)現(xiàn),物體識(shí)別算法在識(shí)別月收入 50 美元的家庭物品時(shí),結(jié)果的誤差大約會(huì)比超過 3500 美元的物品增加 10%。而且不同地區(qū)物品的準(zhǔn)確率也差異甚大,比如算法在識(shí)別美國物品方面會(huì)比索馬里和布基納法索的物品提升 15%~20% 的準(zhǔn)確率。
另外這篇文章有意思的論點(diǎn)在于,由于 AI 識(shí)物在訓(xùn)練時(shí)大多都是在發(fā)達(dá)地區(qū)訓(xùn)練,因此對(duì)于非發(fā)達(dá)地區(qū)的物品,AI 識(shí)物會(huì)出現(xiàn)識(shí)別失效的情況,這種不平衡的現(xiàn)象很可能會(huì)影響未來自動(dòng)駕駛在非發(fā)達(dá)地區(qū)的發(fā)展,因?yàn)樽詣?dòng)駕駛需要依賴傳感器和 AI 識(shí)別。
▲ 同一個(gè) Soap(肥皂),不同的結(jié)果 . 圖片來自:The Verge
所以盡管 AI 在某些方面比人類表現(xiàn)出色,但前提需要大量的數(shù)據(jù)支撐,對(duì)于存在變量的物品,人腦在學(xué)習(xí)和處理上則會(huì)比 AI 優(yōu)秀。面對(duì)博物館固定的展品,AI 能帶來低成本、快捷的體驗(yàn),但應(yīng)對(duì)互動(dòng)和數(shù)據(jù)庫沒有的物品,人力向?qū)匀徽加幸欢▋?yōu)勢(shì)。
不過 AI 要取代人力,真正要克服的不是知識(shí)量,而是交互情感。
AI 識(shí)物能提供詳細(xì)的知識(shí)傳播,但卻不具備人類最可貴的互動(dòng)交流。雖然 AI 識(shí)物方便參觀者通過手機(jī)查看當(dāng)前展品的詳細(xì)信息,但這只是機(jī)械性地獲得千篇一律的內(nèi)容,而并非是人與人交流。這種區(qū)別就像網(wǎng)上授課和面對(duì)面課堂,獲得的信息是不變的,但若是要提問詳情中沒有的知識(shí),誰能解答呢?
當(dāng)然,面對(duì)情感這個(gè)大問題,不少廠商也正通過語音優(yōu)化讓 AI 貼近人類發(fā)聲,比如 Google Duplex 在語音中加入了仿人類的語氣和停頓,「唔」、「哦」這些助詞讓 AI 說出的話更像是個(gè)真人而并不是機(jī)器人;蘋果也在 iOS 13 通過 TTS 對(duì) Siri 進(jìn)行多語音拼合優(yōu)化,讓 Siri 的發(fā)音更加自然。
▲ Google Assistant 有特別的發(fā)音技巧
總體而言,雖然目前 AI 有著強(qiáng)大的學(xué)習(xí)能力和識(shí)別效率,但作為知識(shí)的提供途徑,AI 當(dāng)下仍處于輔助為主的發(fā)展階段,擁有情感和交互的人力依然占有主流優(yōu)勢(shì)。
不過不可否的是,在互聯(lián)網(wǎng)技術(shù)推動(dòng)下,AI 已經(jīng)踏上了高速路,越來越貼近真實(shí)人類,盡管目前我們還在為「人工智能」和「人工智障」而辯論 ,但是讓 AI 在若干年后給我們提供新知識(shí),并非不可能。
【來源:愛范兒】