時下產(chǎn)品經(jīng)理入行AI的技術(shù)分解
本文著重講解:AI的技術(shù)范圍?時下有哪些落地的AI技術(shù)?各自的優(yōu)缺點是什么?產(chǎn)品經(jīng)理視角應(yīng)該知道的技術(shù)和切入的角度?
隨著大數(shù)據(jù)的累積,AI迅猛發(fā)展,希望了解AI的人,期待從事AI產(chǎn)品經(jīng)理工作的人也越來越多。
但是擺在希望從事AI產(chǎn)品經(jīng)理工作的人面前的第一件事是:AI的技術(shù)范圍?時下有哪些落地的AI技術(shù)?各自的優(yōu)缺點是什么?產(chǎn)品經(jīng)理視角應(yīng)該知道的技術(shù)和切入的角度?
本篇重點解答以上問題。
一、產(chǎn)品經(jīng)理對AI技術(shù)理解
AI的發(fā)展已有近七十年的歷史,AI在技術(shù)實現(xiàn)上可歸類為六種途徑,即符號主義、連接主義、學習主義、行為主義、進化主義和群體主義。
六種途徑并非涇渭分明,它們只是從不同的角度提出了解決方案,如學習主義就用到了人工神經(jīng)網(wǎng)絡(luò)來實現(xiàn)。產(chǎn)品經(jīng)理理解的AI應(yīng)該是廣義范疇。
目前今日頭條估值高達350億美金,今日頭條系產(chǎn)品的快速發(fā)展主要特征是對AI和機器學習的應(yīng)用。
時下流行的機器學習以及深度學習算法,實際上是符號主義、連接主義以及行為主義理論的進一步拓展。
對于機器學習的理解,筆者認為:產(chǎn)品經(jīng)理可以從三個問題入手——即機器學什么、機器怎么學、機器做什么?
首先,機器學習需要學習的內(nèi)容是能夠表征此項任務(wù)的函數(shù),即能夠?qū)崿F(xiàn)人們需要的輸入和輸出的映射關(guān)系。從信息論的角度來看,其學習的目標是確定兩個狀態(tài)空間內(nèi)所有可能取值之間的關(guān)系,使得熵盡可能最低。熵越低信息越有序。
其次,機器怎么學。要實現(xiàn)學習目標,就要教給機器一套評判的方法,而不同于告訴機器每個具體步驟如何操作的傳統(tǒng)方法,這需要對機器描述過程演進為對機器描述結(jié)果。
從數(shù)學角度來看,就是為機器定義一個合適的損失函數(shù),能夠合理量化真實結(jié)果和訓練結(jié)果的誤差,并將之反饋給機器繼續(xù)作迭代訓練。
最后,機器學習究竟要做什么,其實主要做三件事——即分類(Classification)、回歸(Regression)和聚類(Clustering)。其中分類和回歸屬于監(jiān)督學習的范疇,而聚類則屬于非監(jiān)督學習的范疇。
目前多數(shù)人工智能落地應(yīng)用的背后,都是通過對現(xiàn)實問題抽象成相應(yīng)的數(shù)學模型,分解為這三類基本任務(wù)的有機組合,并對其進行建模求解的過程。
機器學習的產(chǎn)品過程演示:
二、時下AI熱點算法分類
這里,我們首先討論當前的三大最常見的機器學習任務(wù)及其常用算法。
1. 回歸
回歸是一種用于連續(xù)型數(shù)值變量預測和建模的監(jiān)督學習算法,回歸任務(wù)的特征是具有數(shù)值型目標變量的標注數(shù)據(jù)集。
回歸算法有很多種,其中最為常用的算法主要有四種:
- 是(正則化)線性回歸,它最簡的形式是用一個連續(xù)的超平面來擬合數(shù)據(jù)集;
- 是回歸樹(集成方法),該方法又稱為決策樹,通過將數(shù)據(jù)集重復分割成不同的分支來最大化每次分離的信息增益,從而讓回歸樹很自然地學到非線性關(guān)系,集成方法包括隨機森林(RF)或梯度提升樹(GBM);
- 是最鄰近算法;
- 是深度學習。
2. 分類
分類算法用于分類變量建模及預測的監(jiān)督學習算法,許多回歸算法都有其對應(yīng)的分類形式,分類算法往往適用于類別(或其可能性)的預測,而非數(shù)值。
其中最為常用的算法主要有五種:
- (正則化)邏輯回歸:邏輯回歸通過邏輯函數(shù)將預測映射到0到1的區(qū)間,因此預測值可被視為某一類別的概率。
- 分類樹(集成方法):對應(yīng)于回歸樹的分類算法是分類樹。通常,它們都是指決策樹,更為嚴謹?shù)恼f法是“分類回歸樹”——也就是非常有名的CART算法。
- 支持向量機:支持向量機使用一個名為核函數(shù)的技巧,來將非線性問題變換為線性問題,其本質(zhì)是計算兩個觀測數(shù)據(jù)的距離。支持向量機算法所尋找的是能夠最大化樣本間隔的決策邊界,因此又被稱為大間距分類器。
- 樸素貝葉斯:基于條件概率和計數(shù)的簡單算法,其本質(zhì)是一個概率表,通過訓練數(shù)據(jù)來更新其中的概率。它預測新觀察值的過程,就是根據(jù)樣本的特征值在概率表中來尋找最為可能的類別。被稱為“樸素”的原因是其核心的特征條件獨立性假設(shè)(例如:每一項輸入特征都相互獨立)在現(xiàn)實中幾乎是不成立的。
- 深度學習方法。
3. 聚類
聚類算法基于數(shù)據(jù)內(nèi)部結(jié)構(gòu)來尋找樣本自然族群(集群)的無監(jiān)督學習任務(wù),使用案例包括用戶畫像、電商物品聚類、社交網(wǎng)絡(luò)分析等。
用戶電商物品需求聚類分析圖:
其中最為常用的算法主要有四種:
- K均值:基于樣本點間的幾何距離來度量聚類的通用目的算法。由于集群圍繞在聚類中心,結(jié)果會接近于球狀并具有相似的大小。
- 仿射傳播:基于兩個樣本點之間的圖形距離來確定集群,其結(jié)果傾向于更小且大小不等的集群。
- 分層/層次:主要完成層次聚類的目標。
- DBSCAN:基于密度的聚類算法,它將樣本點的密集區(qū)域組成集群;其最新進展是HDBSCAN,它允許集群的密度可變。
在機器學習領(lǐng)域內(nèi),兩個最為重要的概念是維度及特征選取。其中“維(Dimensionality)”通常指數(shù)據(jù)集中的特征數(shù)量(即輸入變量的個數(shù)),而特征選取是從你的數(shù)據(jù)集中過濾掉不相關(guān)或冗余的特征。
特征選?。‵eature Selection)主要包括四種方法:
- 方差閾值:摒棄掉觀測樣本那些觀測值改變較小的特征——即它們的方差小于某個設(shè)定的閾值,這樣的特征價值極小。
- 相關(guān)性閾值:去掉那些高度相關(guān)的特征(這些特征的特征值變化與其他特征非常相似),它們提供的是冗余信息。
- 遺傳算法:可用于不同任務(wù)的一大類算法的統(tǒng)稱。它們受進化生物學與自然選擇的啟發(fā),結(jié)合變異與交叉,在解空間內(nèi)進行高效的遍歷搜索。
- 逐步搜索:逐步搜索是一個基于序列式搜索的監(jiān)督式特征選取算法,它有兩種形式:前向搜索和反向搜索。
特征選取與特征提取不同,其關(guān)鍵區(qū)別在于:特征選取是從原特征集中選取一個子特征集,而特征提取則是在原特征集的基礎(chǔ)上重新構(gòu)造出一些(一個或多個)全新的特征。
特征提?。‵eature Extraction)主要用來創(chuàng)造一個新的、較小的特征集,但仍能保留絕大部分有用的信息。
主要包括三種方法:
(1)主成分分析:非監(jiān)督式算法,它用來創(chuàng)造原始特征的線性組合。新創(chuàng)造出來的特征他們之間都是正交的,也就是沒有關(guān)聯(lián)性。
具體來說,這些新特征是按它們本身變化程度的大小來進行排列的。第一個主成分代表了你的數(shù)據(jù)集中變化最為劇烈的特征,第二個主成分代表了變化程度排在第二位的特征,以此類推。
(2)線性判別分析:監(jiān)督式學習方式,它必須使用有標記的數(shù)據(jù)集。
(3)自編碼機:人工神經(jīng)網(wǎng)絡(luò),它是用來重新構(gòu)建原始輸入的,關(guān)鍵是在隱含層搭建比輸入層和輸出層更少數(shù)量的神經(jīng)元。這樣,隱含層就會不斷學習如何用更少的特征來表征原始圖像。
機器學習還包括密度估計(Density Estimation)和異常檢測(Abnormal Detection)的任務(wù),在此略過。總的來說歸類機器學習算法一向都非常棘手,由于其背后實現(xiàn)原理、數(shù)學原理等存在差異,其分類標準存在多個維度,而常見的分類標準主要包括:生成/判別、參數(shù)/非參數(shù)、監(jiān)督/非監(jiān)督等。
三、深度學習大熱的背后力量
筆者認為:時下深度學習大熱,是因為DL(DeepLearning)在機器學習算法中主要有以下三點。
1. 深度學習與傳統(tǒng)產(chǎn)品之間的區(qū)別
傳統(tǒng)產(chǎn)品在語音識別、物體識別方面無法有效展開應(yīng)用,其重要原因之一就是:這類算法無法使用語音及圖像的高維度數(shù)據(jù)(High-dimensional Data)在高維空間學習復雜的函數(shù),這類高維空間通常也意味著對算力的極大消耗,即使算力極為豐富的現(xiàn)階段也無法有效滿足其算力需求。
因此,深度學習方法應(yīng)運而生。傳統(tǒng)產(chǎn)品算法所面臨的問題被稱作維度詛咒(Curse of Dimensionality),高維度數(shù)據(jù)的參數(shù)設(shè)置需求隨著變量的增加呈指數(shù)型增長,對計算能力提出了極大挑戰(zhàn),近乎無法完成。
而深度學習采用多層調(diào)參,層層收斂的方式,將參數(shù)數(shù)量始終控制在一個較為合理的水平,使得原本不可計算的模型可運算了。
其理解如圖所示:
2. 深度神經(jīng)網(wǎng)絡(luò)具有完備性
從理論上來說,深度神經(jīng)網(wǎng)絡(luò)可以表征任何函數(shù),因此深度神經(jīng)網(wǎng)絡(luò)可以通過不同的參數(shù)及網(wǎng)絡(luò)結(jié)構(gòu),對任意函數(shù)進行擬合,排除了其無法學習到復雜函數(shù)的可能性。
3. 深度學習的特征選取完備
深度學習具有自動學習特征的能力,這也是深度學習又叫無監(jiān)督特征學習(Unsupervised Feature Learning)的原因。從深度學習模型中選擇某一神經(jīng)層的特征后,就可以用來進行最終目標模型的訓練,而不需要人為參與特征選取。
四、產(chǎn)品經(jīng)理應(yīng)該了解的深度學習算法應(yīng)用
首先:算法
AI算法從專家系統(tǒng)至特征工程到深度學習這個過程中,人工參與在逐漸減少,而機器工作在逐漸增加,深度學習算法主要包括兩個方面。
(1)卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)
卷積神經(jīng)網(wǎng)絡(luò)是近年發(fā)展起來,并引起廣泛重視的一種高效識別方法。時下CNN已經(jīng)成為眾多科學領(lǐng)域的研究熱點之一。
K.Fukushima在1980年提出的新識別機是卷積神經(jīng)網(wǎng)絡(luò)的第一個實現(xiàn)網(wǎng)絡(luò),隨后,具有代表性的研究成果是Alexander和Taylor提出的“改進認知機”,該方法綜合了各種改進方法的優(yōu)點并避免了耗時的誤差反向傳播。
一般CNN的基本結(jié)構(gòu)包括兩層:
1)特征提取層:每個神經(jīng)元的輸入與前一層的局部接受域相連,并提取該局部的特征。一旦該局部特征被提取后,它與其它特征間的位置關(guān)系也隨之確定下來。
2)特征映射層:網(wǎng)絡(luò)的每個計算層由多個特征映射組成,每個特征映射是一個平面,平面上所有神經(jīng)元的權(quán)值相等。特征映射結(jié)構(gòu)采用sigmoid函數(shù)作為卷積網(wǎng)絡(luò)的激活函數(shù),使得特征映射具有位移不變性。
此外,由于一個映射面上的神經(jīng)元共享權(quán)值,因而減少了網(wǎng)絡(luò)自由參數(shù)的個數(shù)。卷積神經(jīng)網(wǎng)絡(luò)中的每一個卷積層都緊跟著一個用來求局部平均與二次提取的計算層,這種特有的兩次特征提取結(jié)構(gòu)減小了特征分辨率。
CNN主要用來識別位移、縮放及其他形式扭曲不變性的二維圖形。由于CNN的特征檢測層通過訓練數(shù)據(jù)進行學習,所以在使用CNN時,避免了顯示的特征抽取,而隱式地從訓練數(shù)據(jù)中進行學習。
再者由于同一特征映射面上的神經(jīng)元權(quán)值相同,所以網(wǎng)絡(luò)可以并行學習,這也是卷積網(wǎng)絡(luò)相對于神經(jīng)元彼此相連網(wǎng)絡(luò)的一大優(yōu)勢。
卷積神經(jīng)網(wǎng)絡(luò)以其局部權(quán)值共享的特殊結(jié)構(gòu),在語音識別和圖像處理方面有著獨特的優(yōu)越性,其布局更接近于實際的生物神經(jīng)網(wǎng)絡(luò)。權(quán)值共享降低了網(wǎng)絡(luò)的復雜性,特別是多維輸入向量的圖像,可以直接輸入網(wǎng)絡(luò)這一特點,避免了特征提取和分類過程中數(shù)據(jù)重建的復雜度。
(2)遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)
在實際應(yīng)用中,我們會遇到很多的多序列形數(shù)據(jù),如:自然語言處理問題中的單詞、語音處理中每幀的聲音信號、每天股票價格的時間序列數(shù)據(jù)等。
以某自然語言處理公司產(chǎn)品為例:
為了建模序列問題,RNN引入了隱狀h(hidden state)的概念。一個RNN網(wǎng)絡(luò)中可以存在一個或多個隱狀態(tài),計算時每一步使用的參數(shù)都是一樣的,即每個步驟的參數(shù)都是共享的,這是RNN的重要特點之一。
同時需要注意的是:RNN網(wǎng)絡(luò)的輸入和輸出序列必須是等長的。由于這個限制的存在,經(jīng)典RNN的試用范圍比較小,但也有一些問題適合經(jīng)典的RNN結(jié)構(gòu)建模,如:計算視頻中每一幀的分類標簽。
因為要對每一幀進行機選,一次輸入和輸出序列等長,又如:輸入為字符,輸出為下一個字符的概率,著名的用于生成文章、詩歌甚至是代碼的Char RNN(The Unreasonable Effectiveness of Recurrent Neural Networks)就是一個很好的例子。
當我們要處理的問題輸入是一個序列,輸出是一個單獨的值而不是序列的時候,需要對RNN網(wǎng)絡(luò)中最后一個h進行輸出變化即可完成,這種結(jié)構(gòu)通常用來處理序列分類問題。
如:輸入一段文字判別它所屬的類別;輸入一個句子判斷其情感傾向;輸入一段視頻并判斷它的類別等等。對于輸入不是序列而輸出為序列的情況,只需要在序列開始時進行輸入計算或把輸入信息作為每個階段的輸入即可。
這種網(wǎng)絡(luò)結(jié)構(gòu)可以處理的問題包括兩方面:
- 一是從圖像生成文字,此時輸入的是圖像的特征,而輸出的序列是一段句子;
- 二是從類別生成語音或音樂等。
RNN最重要的一個變種是N輸入M輸出,這種結(jié)構(gòu)又叫做Encoder-Decoder模型,也可稱之為Seq2Seq模型。實際生產(chǎn)生活中我們遇到的大部分問題序列都是不等長的,如:機器翻譯中源語言和目標語言中的句子往往沒有相同的長度。
為此Encoder-Decoder結(jié)構(gòu)會先將輸入數(shù)據(jù)編碼成一個上下文向量C,得到C的方式有多種,最簡單的方法就是把Encoder的最后一個隱狀態(tài)賦值給C,還可以對最后的隱狀態(tài)做一個變換得到C,也可以對所有的隱狀態(tài)做變換。
在得到C后,就用另一個RNN網(wǎng)絡(luò)對其解碼,這部分RNN網(wǎng)絡(luò)被稱為Decoder,具體做法就是將C當做之前的初始狀態(tài)輸入到Decoder網(wǎng)絡(luò)中。
由于這種Encoder-Decoder結(jié)構(gòu)不限制輸入和輸出的序列長度,因此應(yīng)用范圍廣泛,常見應(yīng)用包括:
- 機器翻譯:Encoder-Decoder的最經(jīng)典應(yīng)用是在機器翻譯領(lǐng)域最先提出的;
- 文本摘要:輸入是一段文本序列,輸出是這段文本序列的摘要序列;
- 閱讀理解:將輸入的文章和問題分別編碼,再對其進行解碼得到問題的答案;
- 語音識別:輸入是語音信號序列,輸出是文字序列。
在Encoder-Decoder結(jié)構(gòu)中,Encoder把所有的輸入序列都編碼成一個統(tǒng)一的語義特征C再解碼。因此,C中必須包含原始序列中的所有信息,它的長度就成了限制模型性能的瓶頸。
如:機器翻譯問題,當需要翻譯的句子較長時,一個C可能存不下那么多信息,就會造成翻譯精度的下降。而Attention機制通過在每個時間輸入不同的C來解決這個問題,每一個C會自動去選取與當前所要輸出的結(jié)果最合適的上下文信息。
其次:深度學習(DL)有其不足之處
以上從一名入行AI產(chǎn)品經(jīng)理的視角,簡要介紹了深度學習CNN及RNN兩類網(wǎng)絡(luò)的基本原理及應(yīng)用場景,雖然其在多種識別、感知任務(wù)中表現(xiàn)優(yōu)異。
但筆者實踐中發(fā)現(xiàn)DL也存在著以下三方面的不足:
(1)數(shù)據(jù)基礎(chǔ)問題:我們在實際生產(chǎn)生活中所收集到的數(shù)據(jù)往往都是小數(shù)據(jù),而不是大數(shù)據(jù)。比如說:我們手機上的個人數(shù)據(jù),在教育、醫(yī)療、基因的檢測與實驗、學生測驗、客服問答上的數(shù)據(jù),都是小數(shù)據(jù)。
所以只有實現(xiàn)從大數(shù)據(jù)向小數(shù)據(jù)遷移的通用模型,才能真正幫助更多的領(lǐng)域用上人工智能,這是人工智能的普及性問題,但基于大數(shù)據(jù)迭代的深度學習模型無法勝任小數(shù)據(jù)場景業(yè)務(wù)。
例如:當筆者在給AI+領(lǐng)域做AI賦能產(chǎn)品咨詢設(shè)計的時候,搭建的Call out機器人構(gòu)建完Fintech領(lǐng)域,這個架構(gòu)的知識庫到互聯(lián)網(wǎng)教育領(lǐng)域需要重新搭建。
(2)模型可靠性問題:深度學習模型非常脆弱,稍加移動、離開現(xiàn)有的場景數(shù)據(jù),它的效果就會降低,因此深度學習模型的可靠性是一個重要問題。
對機器學習來說,由于訓練數(shù)據(jù)和實際應(yīng)用數(shù)據(jù)存在區(qū)別,訓練出來的模型被用于處理它沒有見過的數(shù)據(jù)時,效果就會大打折扣。而緩解這一問題的辦法,正是遷移學習,它能把可靠性提升一個臺階。
(3)應(yīng)用上的問題:特別是機器學習模型在應(yīng)用個性化方面的問題。比如:在手機上,在推薦信息、服務(wù)的時候,它要適用于個人的行為。
因為任何個人的數(shù)據(jù)都是小數(shù)據(jù),個性化的問題就是如何把云端的通用模型適配到終端的小數(shù)據(jù)上,讓它也能工作。這就是遷移學習比較適合的事情,幫助機器學習從云端往移動端遷移。
例如:Siri是一款云端通用型軟體機器人,但是Siri并不能完全基于筆者本人的工作、生活提供工作生活的個性化建議,這里需要解決的問題是——如何把云端大數(shù)據(jù)情況下的場景,切換到個性化的本地落地產(chǎn)品。
五、AI技術(shù)產(chǎn)品經(jīng)理落地的角度
AI領(lǐng)域的機器學習、深度學習技術(shù)是一個無線逼近的極限。產(chǎn)品經(jīng)理時下了解AI技術(shù)以后,一個關(guān)鍵責任是落地產(chǎn)品,時下切入AI產(chǎn)品的重點角度是如何在AI技術(shù)本身隨著算法完善、數(shù)據(jù)豐富、算力增長進行中,交付符合用戶心理預期的產(chǎn)品。
這里不僅僅是AI技術(shù)問題,更是產(chǎn)品經(jīng)理捕捉人性的能力。
產(chǎn)品經(jīng)理入行AI產(chǎn)品經(jīng)理,需要提升自己的兩個能力:
- 一個是對AI技術(shù)的認知能力;
- 一個是捕捉人性甄別需求的能力。
認知技術(shù)能力,決定產(chǎn)品經(jīng)理能不能利用技術(shù)的無線逼近;判斷需求能力,決定產(chǎn)品經(jīng)理能否在時下的AI技術(shù)水平下交互符合用戶人性的產(chǎn)品。
這種能力需要我們持續(xù)學習,畢竟一款產(chǎn)品的成功是一家企業(yè)成功的代表!
如果你想系統(tǒng)化入門AI產(chǎn)品經(jīng)理,掌握AI產(chǎn)品經(jīng)理的落地工作方法,戳這里>http://996.pm/7bjab
#專欄作家#
連詩路,公眾號:LineLian。人人都是產(chǎn)品經(jīng)理專欄作家,《產(chǎn)品進化論:AI+時代產(chǎn)品經(jīng)理的思維方法》一書作者,前阿里產(chǎn)品專家,希望與創(chuàng)業(yè)者多多交流。
本文原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自PEXELS,基于CC0協(xié)議
AI產(chǎn)品經(jīng)理和數(shù)據(jù)科學家底層技術(shù)是一樣的~
沒有做過技術(shù)的產(chǎn)品經(jīng)理,還真不一定能看懂里面的專業(yè)術(shù)語和計算邏輯。
剛剛好接到一個機器人自動應(yīng)答系統(tǒng)的研究,試下從這些方面入手
你微信多少一起研究