OPPO的安第斯雲,背後是什麼?

OPPO的安第斯雲,背後是什麼?

文章來源:極客公園作者:張鵬題圖:視覺中國

過去一年,OPPO 改換了一副新面目示人。

早期 OPPO 做產品,是以“腳踏實地”著稱的。他們更關注功能如何具體地落實到使用者需求。比如“充電五分鐘,通話兩小時”,“多倍潛望長焦”,就連他們探索卷軸屏等概念產品,都顯得特別接地氣。 但近一年,OPPO 接連發布了幾項有點“抽象”的技術,從一年前的馬里亞納自研晶片,到夏天的潘塔納爾,在剛剛結束的 OPPO INNODAY 上,OPPO 又推出了一項新概念——安第斯智慧雲。 作為手機廠商,OPPO 早就在做雲服務。這並非行業焦點,而各家的雲服務在功能上都大同小異。畢竟也不存在競爭,使用者用哪家的手機,就要用誰的雲。 但這一次,OPPO 似乎在做一個大動作:從馬里亞納晶片、到潘塔納爾智慧跨端系統,再到安第斯智慧雲,OPPO 將三者並稱為“三大核心技術”,其戰略上賦予的關鍵性不言而喻。

OPPO的安第斯雲,背後是什麼?

看起來,OPPO 正計劃佈局一個完全不同的“雲系統”。我們不妨分析下它因何而來,又將意味著什麼?

雲服務的興起

要研究一個全新的雲服務,我們就不得不回顧“個人雲”的發展歷史。

個人雲服務進入主流視野,可以追溯到 Dropbox 的興起。它是第一代“雲盤”的成功典範,自2008年上線後,僅7個月時間,Dropbox 就吸引了100萬用戶,這個速度甚至比 Facebook 的初期增長還要更快。一年後,這個數字變成了1000萬。

但就在Dropbox飛奔的同時,智慧手機也迅速普及,手機廠商開始入局。2011年,蘋果推出 iCloud,次年,谷歌推出 Google Drive。 智慧手機廠商、系統商的入局,給雲儲存帶來了一項殺手級應用:儲存使用者智慧手機上生成的資料。從照片、通訊錄,到日曆、郵件、應用資料。這一變化將雲服務的使用者面,一下拓寬到了億級、十億級。

但很長一段時間裡,雲服務的本質,都只是“雲儲存”而已。甚至直到今天,使用者用得最多的雲服務,依然是手機資料的備份和恢復。

這一背景下,使用者也開始討論,雲真的可靠嗎?真的有必要且無可替代嗎?部分“硬核玩家”一直在嘗試用本地的雲儲存,也就是 NAS,來管理自己的資料。這部分資料安全原教旨主義者認為,只有把資料放在自己的硬碟上,才是100% 安全的。 直到2015年,Google Photos 的誕生,徹底改變了“雲服務”的本質。 自創業以來,谷歌提供給使用者的“雲服務”,一直偏向於“應用”而不是“儲存”。比如郵箱、日曆、雲文件,只不過它們的本質依然是儲存,使用者有將一切資料匯入本地的選擇。 但 Google Photos 不一樣,它是真正完全基於“雲端算力”的應用。谷歌用雲端算力、AI 能力,對資料進行了深度挖掘,提供了更好的呈現方式。比如 Google Photos 可以識別使用者照片裡的人,透過一張照片裡的人臉,就可以輕鬆找到同一個人的全部照片;又比如使用者可以透過自然語言,對圖片進行檢索,搜尋“西瓜”、“度假”、“新年”等照片。這都是傳統雲服務完全不具備的能力。 自此,個人雲服務悄悄發生了一次質變。因為使用者如果將照片存在本地或 Dropbox 等雲盤上,就無法實現相應的 AI 功能。所以,當我看到 OPPO 說要打造一個新的“智慧雲”,第一反應就是它要朝著應用化、服務化的方向加速發展。 事實確實如此,安第斯智慧雲規劃的六大能力,除了傳統的儲存、機器學習之外,還包括雲端實時渲染、智慧對話、硬體模擬等能力。雲端實時渲染解決的,是端側算力不足時在端雲之間實現超低時延的渲染;智慧對話可以實現多場景下的人機互動,理解使用者意圖,主動推薦服務;硬體模擬包括晶片模擬、手機模擬。其中手機模擬是指透過手機虛擬化幫助開發者遠端開發與測試。

OPPO的安第斯雲,背後是什麼?

這些計劃都充滿雄心,也值得使用者期待。 現在,讓我們把視線放回歷史。谷歌釋出 Google Photos 之後,“照片搜尋”已經成了大部分手機標配的功能,這背後又有另一段故事,另一條關鍵技術路線。

“終端計算”的崛起和侷限

面對谷歌的全新雲相簿,蘋果第一個作出了應對。

2016年,在 iOS 10 上,蘋果首次推出“照片搜尋”功能,顯然是在對標 Google Photos。 與 Google Photos 不同的是,蘋果的相簿並不利用雲端算力對照片進行分析,而是用手機自身的 NPU(神經網路處理器),來實現 AI 學習、識別。 蘋果之所以把一切放到本地執行,一方面是強調自己保護隱私,另一方面也能提升服務的可靠性,在網路環境不好的時候也能供使用者使用。 這開啟了手機 NPU 普及,以及之後“軍備競賽”的時代。到今天,每家手機廠商在釋出新產品時,都會把 NPU 效能當作一個重要模組來闡釋。“機器學習”在手機上的應用場景逐漸變得越來越廣泛:從語音識別、影象識別處理、影像最佳化,甚至可以對遊戲進行“插幀”,最佳化流暢度。

OPPO的安第斯雲,背後是什麼?

但 NPU 也並非事事完美。首先,它的效能依然有侷限,NPU 模組的算力再強,在模型處理能力上,也無法與谷歌雲端 AI 的能力相媲美。 其次,它依然會佔用相當多的系統資源,今天很多 iPhone 使用者都發現,新手機拿到手之後前幾天,恢復資料後,掉電會特別快。這背後就是手機一直在跑它的 NPU 模型,對相簿等資料進行識別、目錄重建,也常會帶來一些異常發熱的問題。 最後,NPU 模型跑在本地,但云端的資料卻橫跨不同終端。所以類似蘋果這樣的廠商,就必須為旗下每款硬體都配備同等算力的 NPU,否則就會出現手機上能實現的功能,平板、電腦等裝置因為效能不足,無法實現的問題。 一個最近的例子就非常典型:蘋果新推出了 Apple Music 的K歌功能,這個功能是利用本地的 NPU,對歌曲的人聲部分進行分析、消音。有大量老舊裝置,因為 NPU 算力不足,無法體驗這一功能。而這個應用是典型的,本應透過雲端算力來解決的場景,因為它不涉及任何隱私問題,處理一次推送給手機即可。輿論認為這是蘋果的一次“秀肌肉”,但它確實影響了老使用者的體驗。 從這個邏輯,就不難理解為什麼 OPPO 要從“影像功能”入手,自研馬里亞納晶片。照片,可能是手機隱私保護級別最高的功能之一,且對實時性的要求極高。使用者按下快門,當然希望馬上看到經過處理、最佳化的影象。這一點 Google Photo 的體驗就相對差一點,很多時候照片拍攝完成、上傳之後,要到第二天甚至之後,才能看到經雲端 AI 最佳化的效果。 無論如何,最後的結局是,谷歌、蘋果兩家巨頭,選擇了兩種不同的路線。兩種路線在資料處理,呈現上,分別有不同優勢,很難說誰“選對了”。 理解了這兩種路線,再回頭看 OPPO 提出的“端雲協同”,就會容易理解很多。 “端雲協同”的未來

顯然,“端雲協同”的目標,是同時吸取雲端和終端計算的優勢。 在需要快速反應,處理敏感資料時,利用終端算力更快、更實時、無需“線上”的特性;在分析、訓練大量非敏感資料時,則發揮雲端省資源、算力強的特性,在雲端後臺實現,提升服務能力。 理想狀況下,“端雲協同”還將有一個關鍵優勢,就是能讓不同終端,具備統一的體驗。這件事不一定要發生在網際網路的雲端,而是也可以發生在本地區域網內。 比如當用戶用耳機喚醒語音助手時,耳機的算力顯然不足以對語音進行識別。它就可以把識別任務傳送到手機等其他裝置,進行處理。透過這種方式,也能極大提升電視、手錶等算力相對較弱裝置的體驗。 優勢顯而易見,但這件事也一定不簡單。蘋果、谷歌,兩家頂級巨頭都各自只做好了一件,OPPO 又要如何同時探索自研晶片、跨端系統、智慧雲三個方向呢? 答案依然要到 OPPO 的歷史裡去找。回顧國產智慧手機市場的發展歷程,不難發現,國內使用者對雲應用的認知、接受度相對要低一些。同時,OPPO 也很難在一夜之間擁有比肩蘋果的晶片自研能力。 你會發現,這應該是 OPPO 在自我審視,觀察市場,分析使用者後,做出的謹慎選擇。 現在,馬里亞納自研晶片已經是 OPPO 手機裡關鍵的 AI 晶片,核心差異與優勢在於 NPU,也就是 AI 算力,為終端效能與更廣闊的應用前景打下堅實基礎;潘塔納爾則是不同裝置作業系統之上的共用“中介軟體”,讓資料、服務,能夠在不同終端間流轉,實現真正的以人為中心而非以裝置為中心;最後,安第斯智慧雲將那些重算力、大資料的任務拿到雲端,成為多裝置共享的“智慧大腦”。 對 OPPO 來說,選擇這個目標本身,基本上就是選擇了一條漫漫長路。因為同時涉及三個核心技術的發展和協同,挑戰是相當之大。

不過我問了問 OPPO,據說陳明永在戰略上是把決心和耐心都準備好了,“在晶片研發上不要寄希望於奇蹟”,他曾經明確表達了這個觀點。 其實所謂做“難而正確的事情”,首先是要找到正確的事情。這樣,即便要“滾石上山”,也是有意義的艱難。

特別策劃