透過一段歷史,來回答我們為什么需要手機AI
現在,越來越多的廠商和開發者正在加入手機AI這一領域,越來越多的用戶也在關注手機AI。那我們為什么需要手機AI?到底期待什么樣的AI體驗?
我們已經討論過很多有關手機AI的問題,半年過去,我們很高興看到越來越多的廠商和開發者加入這個大命題,越來越多的消費者開始關注AI。同時,移動AI的相關平臺、解決方案和黑科技也在開枝散葉。
智能手機的歷史上,曾經出現過很多令人激動的時刻。而AI的加入,顯然正在醞釀下一個。
要知道,手機AI的出現和發展,并不僅僅完成了手機某部分的進化。
在芯片、算法、開發平臺,以及硬件、軟件、傳感設備等要素的協同進化下,我們接下來很可能見證一場,人與移動設備共存方式的長久改變。從攝影、游戲、翻譯這樣的手機固有功能,到旅行、商務、家庭這些與每個人密不可分的生活方式,都可能被手機AI帶來的沖擊所改變。
然而,在對未來滿懷好奇的時候,手機AI的相關賽道也開始出現擁堵,甚至混亂。很多“AI擦邊球”開始出現,劣幣效應若隱若現,也不免讓心底泛起憂慮。
于是我們似乎應該來回答一個問題:到底我們為什么需要手機AI?手機AI又有哪些必要條件?
想要回答它,讓我們回到那久遠的過去——幾個月之前。
“史”前時代:手機開始嘗試人工智能,以及遇到的問題
雖然手機AI,這件事大舉躍入公共視野,僅僅是幾個月之前的事。但恐怕我們想要搞明白這次相遇,還要再把時間倒回去一點,也不多,七十年吧。
自1951年,會議確定了AI概念開始,學術界對人工智能運算的期許,始終都可以總結成三件事:像人類一樣對話;用如同人類的眼鏡識別萬物;如人類一樣推理和思考。
為了這三個目標,計算機科學和數學界努力了幾十年。發明了從邏輯到專家系統,再到機器學習的各種解決方案。
有意思的是,在智能手機徹底占領人類生活方式之后,這三個“小目標”剛好能滿足手機下一步進化的需求——對話操作??梢缘窒|屏操作中的不便、機器視覺技術,可以讓手機的拍照、視頻和圖像處理更多元。而基于多元數據的機器學習,可以讓手機開始理解用戶的習慣和需求。
從這個邏輯上看,智能手機的下一步幾乎肯定是AI。但怎么跨入AI的大門,對于手機產業來說卻并不是那么容易解決的問題。
其實早在移動AI芯片出現之前,各種手機探索AI的方式已經陸續誕生,或許這個可以稱為手機AI的“史前時代”。
比如說:蘋果手機一度以語音助手Siri掀起了浪潮,而Siri的不斷進化,基本是靠AI的語音交互和語義理解能力來實現的。最早的Siri是個問答模板,而AI的加入讓ta不斷變得“聰明”起來。
再比如:蘋果手機,很早開始探索的圖片識別和標簽分類,也是利用了AI的圖像理解技術來實現。
在語音和圖像之外,AI理解用戶這件事也被嘗試了出來。
2016年,榮耀發布了榮耀magic,首次探索了利用AI技術,主動理解用戶信息,提供主動服務。
除此之外,AI還隱藏在手機的更多角落。比如:很多雙攝解決方案中,都需要用AI的空間算法來優化拍照效果。
但以上這些探索,卻不約而同遇到了問題:AI的神經網絡和卷積運算模式,不同于傳統的運算和圖像處理任務。用CPU+GPU的傳統移動運算模式來處理比較吃力,還要大量耗能。
就像上文所說蘋果的圖像分類,由于讓手機識別圖像的運算非常緩慢,必須要依托云計算來完成,所以蘋果選擇在夜晚進行分類處理。對于用戶來說,這種隔一天才能完成的運算當然體驗很差。
AI很好,但運行AI很慢很耗電,在2017年之前差不多是手機產業的共識。
那么,解決方案是什么呢?
萌芽紀元:從AI芯片開始一切
差不多所有技術發展史上,關鍵節點的技術突破,都會成為撬動整個行業的“勝負手”。燃油機之于輪船、汽車;交流電之于照明和電器設備,莫不如是。
對于手機AI來說,既然CPU、GPU來承擔復雜的AI計算任務不靠譜。那解決方案,當然是單獨做一個基于深度學習和神經網絡的AI專項處理單元。
其實類似的云計算芯片解決方案已經很多,但在2017年年中的時候,外界還是普遍不看好這類技術可以在移動終端實現。
清楚記得去年7月,一位同行還跟我抬杠。他言之鑿鑿地告訴我,以他報道芯片十年的經驗,AI移動芯片五年內都不可能出現。
好吧,最后打臉的不是我。
去年9月2日,華為率先發布了世界首款搭載AI任務專項處理能力的移動芯片——麒麟970,它的最大特點顯然在于它在CPU、GPU兩個通用處理單元之外,加入了AI處理單元NPU(Neural?network?Processing Unit,神經網絡單元)。
由于利用了深度學習處理技術,NPU可以比其他處理模式,更快地處理卷積、遷移等深度學習任務,也就可以達成更快的AI任務處理能力。
9月13日,蘋果在發布iPhone X時發布了A11芯片。
A11集成了一個專用于處理AI任務的運算單元“神經網絡引擎(Neural Engine)”,開啟了iPhone的AI之路。
隨后到了10月,華為發布了搭載麒麟970的旗艦機——華為mate10,在攝影、圖片識別和用戶服務幾個層面展開了AI攻勢;而榮耀也緊隨其后,發布了搭載麒麟970的V10;剛剛發布的華為P20也以此為基礎,創造了DxO攝像頭評測的分數新高。
目前來看,華為、榮耀、蘋果的主流旗艦產品,在今年都會搭載AI專用芯片,并以此作為產品功能創新的基礎,應該已經沒什么疑問。
此外,谷歌在pixel2中,使用了在攝像頭區域安裝專用圖像處,處理單元ImageProcessing Unit(IPU)的解決方案;三星則希望以新的語音交互功能,帶來AI體驗。
整個移動AI賽道開始變得多元,但有一個共識,似乎已經在這場比賽初期就達成了——專用的處理能力,是AI體驗的基礎。
創生期的共識:AI為什么需要終端計算?
無論是華為、蘋果還是谷歌,似乎都在一開始就認定了,先有AI處理單元,而后有AI體驗。
這到底是什么道理?直到現在,很多手機評測和分析還是沒有搞清。
讓我們舉個例子:應該很多人都用過拍照識花功能,春天是個踏青的季節,這功能在今天可謂正當其時。但不妨回想一下,這個很有代表性的AI體驗,其實反應非常慢。各種識花軟件都要等上一會,假如網絡不好還要等更久。
這就是因為圖像識別消耗算力較大,還要到云端進行數據庫匹配,最終導致體驗并不是瞬時的。
其實,用CPU和GPU也都能處理AI任務,就像單CPU也能處理圖像任務一樣,問題是缺乏針對性算力,會導致能耗過高和大量延遲。
假如是識花倒也還好,畢竟這么雅致的事值得等上一等,但假如是直播中進行AI優化與識別,高延遲加高耗電不就太過分了?
這就是通過AI處理單元,在終端完成AI任務處理的第一個原因:提高處理速度,達成實時化,低耗能,并能夠處理復雜的AI任務。
另一方面,最近Facebook的數據泄露事件,鬧得沸沸揚揚。而此前谷歌、蘋果也都有關于數據庫泄露的問題出現。
在AI時代,用戶把聲音、圖像和視頻上傳給系統,完成識別與優化已經成為必然。但上傳到云端,把自己的數據交給一個遠在天邊的服務器,似乎有些不妥。
拍個花花草草當然還好了,但如果是自己與家人的照片和視頻,冒著隨時可能泄露的風險,上傳到云端進行AI處理,估計很多用戶都會選擇放棄。
這就是手機必須搭載AI處理單元的第二個原因:終端處理,保證安全。
當然,云端訓練機器,終端機器服務用戶的“云端一體化”思路是更加合理的。但終端AI處理能力,是整個AI服務閉環中不可或缺,但也是最難攻克的一環。
除了上述兩點之外,近半年的手機AI創生史中,還有一件事是值得大家思考的。
那就是我們到底期待什么樣的AI體驗?
再舉個例子:在去年華為Mate10發布了場景化拍照模式之后,今天小米mix2S也發布了宣傳話術都近乎一樣的功能。
相信不久的將來,還會看到更多場景識別拍照,最終這將成為今年主流機型的標配。
但AI真的只能如此雷同嗎?
回想一下喬布斯帶給智能手機的創意,最大的突破在于引入了APP模式,讓各種各樣的功能和體驗進入到同一部手機里。而AI原本應該是更多元化,更多想象力的技術邏輯,怎么竟然變成了“天下是一家,抄我再抄他”?
開發一種AI算法很容易(模仿就更容易),讓各種各樣的AI功能百花齊放卻有點難。
而這就是AI需要在終端完成計算的第三個原因:通過硬件提供通用AI加速能力,引進開發生態。
試想一下,假如手機AI算力支持,也不提供開放接口,只是自己搞了一些簡單AI功能。那一個開發者即使想出來特別牛的AI創意,基本也于事無補。
是拿少數幾個AI功能,賭消費者能否買賬,還是拿千萬開發者的創意能力,去賭AI生態的開花結果,顯然并不是特別難的選擇題。
所以,整個手機AI的從無到有,從蠻荒生長到萌芽勃發,基本可以看做是一個問題和一個回答:我們到底如何AI?
答案是:走最困難的路,搭建從芯片到平臺,再到生態的邏輯閉環。
畢竟AI不是魔法,不能從空中結出果子。
作者:腦極體,微信公眾號:腦極體
本文由 @腦極體 原創發布于人人都是產品經理。未經許可,禁止轉載
題圖來自 Unsplash ,基于 CC0 協議
- 目前還沒評論,等你發揮!