在 2017 年的 I/O 大會上,Google 發(fā)布了一款能識人又能識物的新產(chǎn)品:
你只需要對著別人的名片一掃,所有信息就能存進(jìn)通訊錄;
你只需要對著景物一掃,就能獲得當(dāng)前景物的所有信息;
當(dāng)你在游覽時,它還能擔(dān)當(dāng)你的隨身翻譯、導(dǎo)游 ……
更重要的是,這款產(chǎn)品打破了智能手機(jī)的檔次局限,無論是高端旗艦還是低端入門,只要搭載的是智能系統(tǒng),任何手機(jī)都能用得上它。
這個在當(dāng)時有著神仙功能的新品,就是我們在往后兩年 I/O 活動上都能看到的「Google Lens」,如今這個產(chǎn)品經(jīng)過兩年的發(fā)展,它已經(jīng)成為識物工具中的佼佼者。
而隨著今年 Google 在這款工具里加入 AR 和朗讀功能后,有著 124 年歷史的笛洋美術(shù)館(de Young museum)也在近日宣布,將全面支持游客用 Google Lens 游覽展館。
這也是世界上第一家支持 Google Lens 的美術(shù)館 / 博物館。
▲ 圖片來自:Artnews
在笛洋美術(shù)館內(nèi),游客可以通過 Google Lens 對展品進(jìn)行識別,系統(tǒng)在進(jìn)行識別后會推送當(dāng)前作品的作者、歷史等相關(guān)信息,用戶可以在館內(nèi)通過這個功能自由獲取想了解的內(nèi)容。
而且更有意思的是,除了對作品進(jìn)行識別外,游客還可以通過 Google Lens 對特定物品進(jìn)行識別,識別成功后系統(tǒng)會播放作品相關(guān)的 AR 圖像或視頻內(nèi)容。
通過這種方式,用戶能獲得面前這幅作品以外的信息,譬如讓作者在視頻中介紹當(dāng)前作品的創(chuàng)作經(jīng)歷等,讓游客通過具象且優(yōu)雅的方式獲得知識內(nèi)容,就像和藝術(shù)家面對面交流一樣。
不過,AI 識物能在未來取代傳統(tǒng)人力向?qū)С蔀橛慰瞳@得新知識的主要途徑嗎?我認(rèn)為這個想法是不錯,但現(xiàn)在說似乎還有點早。
強(qiáng)大的 AI 人工智能讓 Google Lens 成為了當(dāng)今世界上數(shù)一數(shù)二的識圖工具,越來越多的應(yīng)用途徑,也讓這款工具走出實驗室和 PPT,成為用戶了解新事物的另一種途徑。
▲ 圖片來自:9to5Google
但這種機(jī)械式的向?qū)苋〈肆Τ蔀槲磥碛斡[的發(fā)展主流嗎?我認(rèn)為說「取代」那這話可能說得有點早了,而且在短期內(nèi),AI 向?qū)Р粫〈斯こ蔀橹髁鳌?/p>
首先我不否認(rèn) AI 的兩個優(yōu)勢:全天候運作和可延展性。
相比于人工向?qū)?,AI 能 24 小時全天候工作,同時通過自學(xué)習(xí)能力,AI 能在執(zhí)行任務(wù)的過程中不斷學(xué)習(xí)。而且在網(wǎng)絡(luò)的幫助下,AI 并不是一個大腦在學(xué)習(xí),而是服務(wù)器主腦和終端「大腦」們的信息互通,從而組成一張存儲特征的智能網(wǎng)絡(luò)。
從表象來說,比如我用手機(jī)對著我面前的杯子進(jìn)行掃描,系統(tǒng)會記錄物體的特征信息,當(dāng)其他用戶掃面類似的物體時,AI 會進(jìn)行特征識別和結(jié)果篩選,快速得出識別結(jié)果?;蛘弋?dāng)我第一次掃描這個物體時,AI 會先記錄特征,當(dāng)我第二次掃描時,AI 會繼續(xù)增加特征點,從而全局提升識別的速度和準(zhǔn)確率。
神經(jīng)網(wǎng)絡(luò)的自學(xué)習(xí)能力能讓 AI 的識別效率接近人腦,甚至有著不受情緒和精神的影響,它可能還會超越人腦,但是能得出準(zhǔn)確無誤的結(jié)果,前提是需要大量訓(xùn)練。
AI 能在短時間內(nèi)得出識別結(jié)果,實際上有賴于研發(fā)團(tuán)隊在功能推出前的各種訓(xùn)練工作。譬如在 Google 的 TensorFlow API 中,他們會通過 COCO 數(shù)據(jù)庫的 90 大類、共 30 萬張圖像對 AI 進(jìn)行識別訓(xùn)練,繼而通過圖像去提升 AI 的識別能力。但即便有著大量的訓(xùn)練信息作為基礎(chǔ),AI 也并非天下無敵。
The Verge 在近日的《人工智能難以識別低收入地區(qū)的日用品》這篇文章中,就對 AI 識別的基礎(chǔ)進(jìn)行探討,并給出了「AI 訓(xùn)練不平衡」的觀點。
研究人員發(fā)現(xiàn),物體識別算法在識別月收入 50 美元的家庭物品時,結(jié)果的誤差大約會比超過 3500 美元的物品增加 10%。而且不同地區(qū)物品的準(zhǔn)確率也差異甚大,比如算法在識別美國物品方面會比索馬里和布基納法索的物品提升 15%~20% 的準(zhǔn)確率。
另外這篇文章有意思的論點在于,由于 AI 識物在訓(xùn)練時大多都是在發(fā)達(dá)地區(qū)訓(xùn)練,因此對于非發(fā)達(dá)地區(qū)的物品,AI 識物會出現(xiàn)識別失效的情況,這種不平衡的現(xiàn)象很可能會影響未來自動駕駛在非發(fā)達(dá)地區(qū)的發(fā)展,因為自動駕駛需要依賴傳感器和 AI 識別。
▲ 同一個 Soap(肥皂),不同的結(jié)果 . 圖片來自:The Verge
所以盡管 AI 在某些方面比人類表現(xiàn)出色,但前提需要大量的數(shù)據(jù)支撐,對于存在變量的物品,人腦在學(xué)習(xí)和處理上則會比 AI 優(yōu)秀。面對博物館固定的展品,AI 能帶來低成本、快捷的體驗,但應(yīng)對互動和數(shù)據(jù)庫沒有的物品,人力向?qū)匀徽加幸欢▋?yōu)勢。
不過 AI 要取代人力,真正要克服的不是知識量,而是交互情感。
AI 識物能提供詳細(xì)的知識傳播,但卻不具備人類最可貴的互動交流。雖然 AI 識物方便參觀者通過手機(jī)查看當(dāng)前展品的詳細(xì)信息,但這只是機(jī)械性地獲得千篇一律的內(nèi)容,而并非是人與人交流。這種區(qū)別就像網(wǎng)上授課和面對面課堂,獲得的信息是不變的,但若是要提問詳情中沒有的知識,誰能解答呢?
當(dāng)然,面對情感這個大問題,不少廠商也正通過語音優(yōu)化讓 AI 貼近人類發(fā)聲,比如 Google Duplex 在語音中加入了仿人類的語氣和停頓,「唔」、「哦」這些助詞讓 AI 說出的話更像是個真人而并不是機(jī)器人;蘋果也在 iOS 13 通過 TTS 對 Siri 進(jìn)行多語音拼合優(yōu)化,讓 Siri 的發(fā)音更加自然。
▲ Google Assistant 有特別的發(fā)音技巧
總體而言,雖然目前 AI 有著強(qiáng)大的學(xué)習(xí)能力和識別效率,但作為知識的提供途徑,AI 當(dāng)下仍處于輔助為主的發(fā)展階段,擁有情感和交互的人力依然占有主流優(yōu)勢。
不過不可否的是,在互聯(lián)網(wǎng)技術(shù)推動下,AI 已經(jīng)踏上了高速路,越來越貼近真實人類,盡管目前我們還在為「人工智能」和「人工智障」而辯論 ,但是讓 AI 在若干年后給我們提供新知識,并非不可能。
【來源:愛范兒】