快手宿華:我們7年累計50億條視頻,靠 AI 提升長尾用戶的幸福感水煮娛
快手創(chuàng)始人兼CEO 宿華
上周,快手上的視頻總數已經超過了50億,如何讓這50億視頻與觀看視頻的用戶進行匹配是一個前所未有的挑戰(zhàn)。在過去,業(yè)內常規(guī)的做法是運營好長尾曲線中頭部的“爆款”視頻,但快手表示,希望尾部視頻同樣能被感興趣的人觀看。
在上周日,2018年中國圖靈大會上,快手創(chuàng)始人兼CEO宿華出席,發(fā)表了以“AI 如何提升幸福感”的主題演講,分享了快手在人工智能最新的探索與應用。
大約12年前,宿華加入了谷歌,開始接觸、學習和應用機器學習技術。在谷歌,他一直在研究如何嘗試利用AI和機器學習,解決信息匹配和信息分發(fā)的問題。
宿華認為,之前的視頻平臺不是那么需要 AI,是因為視頻的數量沒有達到一個量級。如果每年只新增兩百部電影、三百部電視劇,可以通過人工標注的方式把它分析和理解的特別清楚。但是,假如每天新增千萬級的視頻,面對50億的生活片段,是不可能去依靠人工編輯和傳統(tǒng)的媒體板塊去分發(fā),也無法照顧到長尾的用戶。
在宿華看來,“記錄”本身是能夠提升幸福感的。每個人心中都有一個渴望——看見別人和被別人看見。幸福感需要讓我們每一個人都可以看見,被這個世界發(fā)現(xiàn),能夠讓自己的情緒情感被別人知道,被人感知,被別人看到和理解。
他表示,快手最想做的事情,是要構建一整套的以 AI 技術為核心的基礎設施,能夠用科技的力量提升每一個人獨特的幸福感,能夠讓每一個人更多更好的感受這個世界,也能夠更好的被這個世界所感受到。
當要照顧每一個人的需求,尤其是長尾用戶的需求時,就需要依靠人工智能。快手將 AI 主要應用在四個環(huán)節(jié):內容生產,內容理解,用戶理解和視頻分發(fā)。
今年4、5月份,快手上線了一個魔法表情、肢體識別舞蹈游戲以及 AR 模型特效。這些特效背后,涵蓋了人臉關鍵點、背景分割、人體姿態(tài)估計、視覺慣性里程計等人工智能技術。為了支撐這些技術,快手自主研發(fā)了 3D 引擎及 YCNN 深度學習推理引擎。即便使用低配置的手機,算法與模型依然可以高效快速運轉,讓更多用戶的記錄過程體驗更加豐富有趣的玩法。
快手會通過大數據去理解每一位用戶的興趣偏好,同時,得益于快手是一個分享社區(qū),快手的用戶理解不僅基于內容,還基于行為數據。每天有上億的用戶在進行“數據標注”,包括點擊點贊、關注轉發(fā)、播放時長、用戶關系等,交織成了網狀的關系,幫助快手來更好的理解用戶,除了用戶興趣偏好,更理解用戶潛在的興趣,幫助用戶挖掘探索更大的未知領域。
在未來,快手還將探索 AI 諸多方向,例如,通過多模態(tài)信息融合的視頻理解器能夠像人類一樣理解一個視頻,理解人類復雜的情緒。
“如何把用戶的行為數據和內容清晰組合在一起,特別是把內容里面的視覺,加上時間軸以后進行連續(xù)的視頻分析,再加上深度的分析,用戶的行為分析,整個多模的集成組合在一起,也是一個非常有意思的課題。”宿華說。(本文首發(fā)鈦媒體,作者/李程程)
以下是宿華的演講全文,略經鈦媒體編輯:
大概12年前,我剛加入谷歌,開始接觸、學習和應用機器學習的技術,主要為解決搜索引擎當中的一些問題,學了很多前人的推導公式,學了很多的模型、思想。后來我思考,AI應該用來解決什么樣的問題,不是數學上的問題,而是說為社會、為人類應該解決什么問題?
想了很長時間,有了一個答案。在這些年實踐的領域中,我想明白了,不管我們做什么樣的技術,最后都應該用于提升人類的幸福感,或者是做到幸福感的改善。AI當然是當下最火最熱的技術,下面我給大家分享的就是,我這些年是怎樣去用AI解決幸福感的問題。
“記錄”可以提升幸福感
首先,我們發(fā)現(xiàn)“記錄”是可以提升人們幸福感的。因為每一份記錄都有兩類人:一個是記錄的產生者、記錄者,一個是記錄的觀察者。
對于觀察者來講,通過別人的記錄可以看到更廣闊的世界。在城市里可以看到鄉(xiāng)村農產品生產,在鄉(xiāng)村里可以看到國外的世界,土耳其的熱氣球。非洲的小孩可以和中國人交朋友,在日本的留學生可以和自己在中國的家人、朋友交流。
我們想每個人心中都有一個渴望,一個是看見別人,一個是被別人看見。我們希望自己的狀態(tài),自己的情感,自己的靈感,能夠被更多的人看見,被更多的人理解。我想,記錄是其中最關鍵的一環(huán),是能夠使得每個人幸福感都得到提升的可能的方案。
快手是2011年成立的,我們干了7年的時間,一路上經歷了非常多的挑戰(zhàn),經歷了日活在1億量的網絡社區(qū)。我們怎么做的呢?
我們在用科技的力量去提升每一個人的幸福感。我們在嘗試讓每一個人都能夠記錄自己的生活狀態(tài),每個人都有機會留下自己的記錄呈現(xiàn)給這個世界,每個人都能夠讓世界發(fā)現(xiàn)自己,每個人都能夠因此消減一點點的孤獨感,提升一點點的幸福感,從而能夠提升整個社會幸福感的總和。
我們在這條路上已經走了七年的時間,直到上周,我們大概累計有50億條視頻。50億條視頻是什么概念?
這里面是快手用戶,平均每天能夠產生一千萬到兩千萬條視頻。中國有兩千多個縣,我們能夠拍到每個縣,在座的各位你們的家鄉(xiāng)每個縣都能夠看到數千條量級的視頻。用戶在任何時刻打開快手,都可以看到任何一個地方。這50億條視頻,幾乎都不重復。并非某些視頻的庫雖然很大,但是大體是同一個電影、或者綜藝的剪輯。在快手產生的、留下來的50億條視頻,都是生活中活生生的、新鮮的生活狀態(tài),形形色色的人,形形色色的事。
AI 如何理解長尾用戶生活片段
我們剛才講,其實幸福感需要讓我們每一個人都可以看見,被這個世界發(fā)現(xiàn),能夠讓自己的情緒情感被別人知道,被人感知,被別人看到,被別人理解。但是,50億的量級是非常龐大的量級,我們過去的視頻平臺,庫里每天新增的視頻從來沒有突破過千萬量級的,這在歷史上都是沒有過的。
所以在座的這些內容、這些視頻,和那些觀察者之間匹配的時候,實際上以前說照顧好頭部就可以了,可是面對50億的生活片段,我們怎么把長尾的用戶照顧好,真的能夠讓每一個人都得到一些關注,每個人都消減自己的孤獨感,這實際上是非常艱難的課題。
我在十幾年前,在谷歌的時候就研究這個問題,我們做很好的匹配,做很好的信息的分發(fā)。實際上我們整體是在用AI,用機器學習的技術在嘗試去解決。
歷史上的其他的視頻平臺不是那么需要,特別是每個視頻數量沒有那么多的時候。如果每年只新增兩百部電影,三百部電視劇。每一個電影、每一個電視劇,或者每一個綜藝節(jié)目,我們都可以用人工標注的方式把它分析、理解的特別清楚。但是,每天新增千萬量級視頻,不可能找人標出來,也不能找編輯去像傳統(tǒng)的媒體按板塊分發(fā)。我們想要去照顧長尾用戶、想要去照顧每一個人,這樣的平臺,我們更加無法挑選那些頭部的,極少數的熱的視頻給大家看。
那么我們的解決方法是什么?是用AI,應用在四個環(huán)節(jié)。第一個環(huán)節(jié)內容的生產,是記錄的產生環(huán)境。第二個環(huán)節(jié),如何讓這些人去理解視頻。
我是80后。80后從小就喊理解萬歲,我相信理解也是機器今天能夠做的一個主要的方向之一。讓機器像我們人類一樣能夠理解這個世界,能夠理解每一個人,讓機器理解每一個生活的片斷,這也是快手公司在做的事情。
基于這樣的理解,我們后面才會有整個很好的分發(fā),有一個更好的平臺去照顧到每一個人。我們理解每一段視頻,每一個視頻片斷,我們要理解每一個用戶的偏好,理解每一個用戶潛在的偏好,最后才能做一個很好的分發(fā)視頻。
第一個模塊在記錄,今年4月份、5月份快手上線的一個魔法表情,能夠快速模擬一個人,從年輕到老去的過程。第二個是整體的姿態(tài)檢測,里面還有AR的玩法,實際上他背后是基于我們自己研發(fā)的一套3D系統(tǒng)的AR系統(tǒng),我們YCNN的深度學習系統(tǒng),這個深度學習系統(tǒng)它的核心優(yōu)勢就是能夠在非常低端的手機上,跟我們一起實現(xiàn)跨平臺,不止在安卓、iPhone上運行的效率提高,同時能夠把模型做得非常小,速度做得非??臁W钪匾氖亲隽朔浅6嗟囊曨l中的記錄的玩法,解決人體姿態(tài)識別的問題,人臉關鍵點檢索問題,視覺慣性里程計,還有手勢識別。
讓機器理解這些視頻是什么內容,當一個生活的片斷上傳過來以后,我們立即會將一系列的信息拿掉,比如檢測有幾個人,進一步需要檢測是男人還是女人,是老人還是小孩,是中國人還是外國人,能夠把之間的關系理解,就變得越來越難。
我們除了跟人有關的識別,還做了大量圖像方面的,有場景的識別,是在會場還是在操場,是在家里或辦公室,我們做了很多的場景識別。更進一步、更難一點的,在做飯、做菜,還是在釣魚,各方面場景的場所,還有他正在做的事,是在賽車,還是在大馬路上騎自行車,還是卡車、轎車,有更多的更高級的識別。當然我們還做了顏值識別,比較好玩,目前線上還沒有這個應用。
這其中還有和語音有關的理解,就是我們經常發(fā)現(xiàn)一個視頻,他里面很多信息是包含在音頻里面,特別是傳遞情緒,人類的很多情緒是在聲音里面,再轉化為語速、語調起伏,或者他用得配樂,就是音樂本身的情感屬性,我們做了大量的音樂的結構化的理解。
我們最高的并發(fā)大概是20萬,在快速的語言里面,有幾十萬的并發(fā)的、實時的語音識別的需求,我們到現(xiàn)在為止,還是僅用自己自研的,因為20萬的并發(fā)率,對機器的要求特別高,找第三方的話,不愿意投入機器。
另外,快速的語音識別還有一個難點,我們的場景是生活場景,它不是收音干凈的。在生活中可能有兩個人在說話,可能有汽車在叫,可能在操場里面,或者在教室,整個是一個復雜的場景,這里面我們怎樣能夠做到最好的,速度要最快的語音識別,幾十萬部的并發(fā)識別,對我們來說也是一個非常大的挑戰(zhàn)。
從全球板塊來講,我們會接受一定程度上的識別率的下降,但是要讓性能和讓場景的適應性更好,這是快手目前面臨的問題之一。在底層,我們有自己研發(fā)的,一個大規(guī)模并行的機器學習的平臺,是做模擬訓練和推理,也包括做一些數據的標注。
當然對快手來講,我們做視頻內容的理解,很大程度上得益于我們是一個社區(qū),社區(qū)里面每天有上億的人在幫我們標注,他們的點擊點贊行為,他們的關注行為,他們的轉發(fā)行為,他們的播放時長,他們人和人之間相互的關系,網狀的關系,就在幫助我們更好的理解用戶。我們不是純粹從內容出發(fā)的,我們還有行為數據。
但是,如何把用戶的行為數據和內容清晰組合在一起,特別是把內容里面的視覺加上時間軸以后進行連續(xù)的視頻分析,再加上深度的分析,再加上用戶的行為分析,整個多模的集成組合在一起,也是一個非常有意思的課題。
AI 如何探索社區(qū)用戶的興趣邊界
第三個部分是理解用戶,當然這里面的用戶并不是內容的記錄者,是指看內容,當你拿出你的手機,打開一個APP的時候,我們希望幫助你發(fā)現(xiàn)這個世界,這時候對平臺來講,我們需要理解你的興趣偏好,更主要的我們還需要理解你潛在的興趣,就是你過去還沒有探索過,但是你可能會喜歡的方向和領域把它挖掘出來,才能幫你探索更大的未知領域。
在快手,我們也是得益于我們做的是一個社區(qū),舉個例子,其實在日常生活中,我們怎么去擴展自己的興趣偏好,一個是隨機的,不小心看到的、很好玩的。比如我當年為什么會選擇做AI,真的是不小心碰到了有一個團隊在做機器學習的應用,我跟他們聊了以后很感興趣,從此走上了這個路,這是一個非常隨機的狀態(tài)。
還有一個做法是問朋友,比如在你的朋友圈里面,或者你的室友、你的同學,到處說我昨天打了棒球,很好玩,你要不要一起來玩一下,我剛學了一個C++語言不錯,要不要一起來學一起,朋友告訴你,幫助你擴展你的興趣偏好。
在快手我們利用類似的邏輯去做,就是在一個大的社區(qū)里面,總有那么一些人跟你很相似,但又不完全一樣,跟你相似又關注他們喜歡的東西,他們喜歡的那些跟你偏好不一樣的東西,你極大的可能會喜歡,我們嘗試去擴展興趣的時候,去理解一個用戶群偏好的時候,我們會應用到里面,盡心去做,這樣可以幫助每一個人,你不是一個人在探索,是有社區(qū)里面成千上萬的人跟你相似又不同的人在探索,同時你幫助其他一些跟你相似而不同的人去探索,這樣我們可以更好的理解一個人的潛力。
接下來就是視頻分發(fā),我們的記錄能夠更好的產生,在內容、視頻、生活片斷中會最好的理解,在用戶的偏好,潛在的興趣,能夠可以更好的挖掘的基礎之上,我們才能做一個更好的分發(fā)系統(tǒng)。這個分發(fā)系統(tǒng)可以真正照顧長尾,能夠讓更多的人找到自己喜歡的人,找到喜歡自己的人,能夠讓更多的人被看見,讓我們看見更大的世界。
我們現(xiàn)在已經進化到的用實時的方法做整個的日志系統(tǒng),可能有同行知道,早年我們都是用一些偏Linux的方法去做,到現(xiàn)在線上已經能夠實時的運行深度學習的方法,并且還不是一個模型,可能是一個層疊的組合的復雜的模型。但是,事實上能夠做到標值的響定,用戶的每次行為,事實上在一秒鐘以后,就能夠反應到視頻中去,能夠給用戶更好、更準、更廣闊的世界,等待用戶去發(fā)現(xiàn)。
未來我們還有很多想要研究的方向,這里面列了其中一些,我自己最感興趣的是多模態(tài)信息融合的視頻理解,我覺得總有一天我們的機器能夠像人類一樣理解一個視頻。我自己有一次看到一個特別有意思的視頻,那個視頻很短,是一個男生和一個女生走在一起,擁抱,然后分開??吹侥莻€視頻的時候,我是能夠理解他們是一對情侶,他們應該是最后一個擁抱,不清楚什么原因分開了。
我當時就想說,是不是機器有一天也能夠理解到這一層,我在理解這個視頻的時候,我發(fā)現(xiàn)有兩個人,我發(fā)現(xiàn)他們擁抱了之后,發(fā)出的聲音是包含了非常悲傷的情緒,他們分開的時候又很決絕,我們就得到了這樣一個結論。也許有一天我們做的人工智能系統(tǒng),能夠像我一樣,像人類一樣去理解生活中的片斷,能夠更好的理解人類的情緒、情感,甚至是靈感。我很期待那一天的到來。
對快手來講,我們是要構建一整套的以AI技術為核心的基礎設施,能夠用科技的力量提升每一個人獨特的幸福感覺,能夠讓每一個人更多更好的感受這個世界,也能夠更好的被這個世界所感受到,這是快手最想做的事情。
謝謝大家。
作者:李程程
1.砍柴網遵循行業(yè)規(guī)范,任何轉載的稿件都會明確標注作者和來源;2.砍柴網的原創(chuàng)文章,請轉載時務必注明文章作者和"來源:砍柴網",不尊重原創(chuàng)的行為砍柴網或將追究責任;3.作者投稿可能會經砍柴網編輯修改或補充。

- 《偶像練習生》走紅,蔡徐坤和范丞丞的“媽媽”們是一群什么樣的
- 慢綜藝“相親相愛”,《向往的生活》模式能走多遠?
- 劣跡藝人真的涼了嗎?曾紅極一時的天佑、PG One如今怎么樣?
- 抖音的敵人不是快手,音樂玩家不可小覷
- 看超級網綜《明星大偵探》如何打造估值上億的超級IP
- 《復聯(lián)3》內地票房破17億,打造票房爆款的決定因素到底是啥?
- 虎牙直播引發(fā)行業(yè)狂歡,老牌直播巨頭被嚴重低估?
- 虎牙捕“蟬”,斗魚在后,游戲直播迎來資本收割季
- 《創(chuàng)造101》掀女團熱潮 下一個女團偶像能被“創(chuàng)造”嗎?
- 投入上億元、僅5%的盈利,地方為何建設影視城熱情十年不減?