萬字長文:AI產(chǎn)品經(jīng)理視角下的ChatGPT全解析
去年11月份發(fā)布的ChatGPT,由于其強(qiáng)大的對話、寫作等能力,掀起了一波浪潮。本文作者以一個AI產(chǎn)品經(jīng)理的視角,對ChatGPT的技術(shù)原理、厲害之處、可能的落地方向等方面進(jìn)行了全面的解析,相信你看完后,會對ChatGPT有更深入的了解。
最近一段時間持續(xù)在關(guān)注兩個技術(shù)方向:
- ChatGPT所代表的大語言模型對NLP領(lǐng)域的推動
- Diffusion算法對圖像領(lǐng)域的推動
今天這篇會先展開說一說ChatGPT,大致上包含以下方面:
- 講明白ChatGPT的技術(shù)原理(放心,是科普向的原理,沒有任何公式)
- 說明白ChatGPT的技術(shù)到底厲害在哪里
- ChatGPT可能的落地應(yīng)用方向
- AI產(chǎn)品經(jīng)理在這波浪潮中可以做些什么
對技術(shù)不感興趣的可以直接滑動到屏幕將近一半的位置閱讀第三部分和第四部分。
前言:一個AI產(chǎn)品經(jīng)理的觸動
2022年11月30日,ChatGPT發(fā)布,5天內(nèi)涌入100W用戶。
他擁有持續(xù)的上下文對話能力,同時支持文章寫作、詩詞生成、代碼生成等能力。
如果用舊技術(shù)去理解他,我們通常會認(rèn)為他的背后是由復(fù)合Agent組合起來支撐的。
復(fù)合Agent是什么意思呢?即有若干個術(shù)業(yè)有專攻的Agent:有一個負(fù)責(zé)聊天對話的,一個負(fù)責(zé)詩詞生成的,一個負(fù)責(zé)代碼生成的, 一個負(fù)責(zé)寫營銷文案的等等等等。
每個Agent只擅長做自己的那部分事情,而在用戶使用的過程中,系統(tǒng)會先判定用戶的意圖是什么,應(yīng)該是哪個Agent,然后再將用戶的命令分發(fā)給對應(yīng)的agent去解決并提供答案。
因此看起來是很厲害的機(jī)器人,背后其實是若干個術(shù)業(yè)有專攻的機(jī)器人。事實上Siri、小愛、小度,小冰甚至包括各個平臺的客服機(jī)器人都是這種模式。這樣當(dāng)你要上線一個新能力(例如寫古詩),你只需要新增訓(xùn)練一個Agent,然后將這個Agent接入到總控的分類意圖器下就行。
這也是當(dāng)前時代的一個縮影,不管外行人如何看待你從事的行業(yè),不管媒體是如何一次次人云亦云地說警惕AI取代人類,你一直都知道,你在做的只是訓(xùn)練出一個術(shù)業(yè)有專攻的機(jī)器人而已,離真正的人工智能十萬八千里。
但ChatGPT的能力不再是這種模式了,他所采用的模式是大語言模型+Prompting。所有的能力通過一個模型實現(xiàn),背后只有一個什么都會的機(jī)器人(即大語言模型),并支持用戶借助文字下達(dá)命令(即Prompting,提示/指示)。
雖然這種能力的表現(xiàn)還不算完美,但是他開啟了一條一種通向“通用型人工智能”的道路,曾經(jīng)科幻故事里的Jarvis,moss好像真的有了那么一點可能。而這才是7年前,我踏入這個行業(yè)所憧憬的東西啊。
可能你對我的震撼有點無法理解,我接下來會講明白他的技術(shù)原理,帶你慢慢感知這項技術(shù)的厲害之處,下面正式進(jìn)入正文。
第一部分:ChatGPT的技術(shù)原理
首先,我們要弄明白,NLP任務(wù)(自然語言處理,AI的一個技術(shù)領(lǐng)域,即文本類的AI任務(wù))的核心邏輯是一個“猜概率”的游戲。
比如說,“我今天被我老板___”,經(jīng)過大量的數(shù)據(jù)訓(xùn)練后,AI預(yù)測空格出會出現(xiàn)的最高概率的詞是“CPU了”,那么CPU就會被填到這個空格中,從而答案產(chǎn)生——“我今天被我老板CPU了”。
雖然非常不可思議,但事實就是這樣,現(xiàn)階段所有的NLP任務(wù),都不意味著機(jī)器真正理解這個世界,他只是在玩文字游戲,進(jìn)行一次又一次的概率解謎,本質(zhì)上和我們玩報紙上的填字游戲是一個邏輯。只是我們靠知識和智慧,AI靠概率計算。
而在目前的“猜概率”游戲環(huán)境下,基于大型語言模型(LLM,Large Language Model)演進(jìn)出了最主流的兩個方向,即Bert和GPT。
其中BERT是之前最流行的方向,幾乎統(tǒng)治了所有NLP領(lǐng)域,并在自然語言理解類任務(wù)中發(fā)揮出色(例如文本分類,情感傾向判斷等)。
而GPT方向則較為薄弱,最知名的玩家就是OpenAI了,事實上在GPT3.0發(fā)布前,GPT方向一直是弱于BERT的(GPT3.0是ChatGPT背后模型GPT3.5的前身)。
接下來我們詳細(xì)說說BERT和GPT兩者之間的差別。
- BERT:雙向 預(yù)訓(xùn)練語言模型+fine-tuning(微調(diào))
- GPT:自回歸 預(yù)訓(xùn)練語言模型+Prompting(指示/提示)
每個字都認(rèn)識,連到一起就不認(rèn)識了是嗎哈哈。沒關(guān)系,接下來我們把這些術(shù)語逐個拆解一遍就懂了。
1. 「預(yù)訓(xùn)練語言模型」
我們通常認(rèn)知里的AI,是針對具體任務(wù)進(jìn)行訓(xùn)練。例如一個能分辨貓品種的Agent,需要你提供A-緬因貓,B-豹貓這樣的數(shù)據(jù)集給他,讓它學(xué)習(xí)不同品種之間的特征差異,從而學(xué)會分辨貓品種這項能力。
但大語言模型不是這樣運(yùn)作的,他是通過一個大一統(tǒng)模型先來認(rèn)識這個世界。再帶著對這個世界的認(rèn)知對具體領(lǐng)域進(jìn)行降維打擊。
在這里讓我們先從從NLP領(lǐng)域的中間任務(wù)說起。像中文分詞,詞性標(biāo)注,NER,句法分析等NLP任務(wù)。他們本身無法直接應(yīng)用,不產(chǎn)生用戶價值,但這些任務(wù)又是NLP所依賴的,所以稱之為中間任務(wù)。
在以前,這些中間任務(wù)都是NLP領(lǐng)域必不可少的。但是隨著大型語言模型的出現(xiàn),這些中間任務(wù)事實上已經(jīng)逐步消亡。而大型語言模型其實就是標(biāo)題中的“語言預(yù)訓(xùn)練模型”。
他的實現(xiàn)方式是將海量的文本語料,直接喂給模型進(jìn)行學(xué)習(xí),在這其中模型對詞性、句法的學(xué)習(xí)自然而然會沉淀在模型的參數(shù)當(dāng)中。我們看到媒體對ChatGPT鋪天蓋地的宣傳里總是離不開這樣一句話——在擁有3000億單詞的語料基礎(chǔ)上預(yù)訓(xùn)練出的擁有1750億參數(shù)的模型。
這里面3000億單詞就是訓(xùn)練數(shù)據(jù)。而1750億參數(shù)就是沉淀下來的AI對這個世界的理解,其中一部分沉淀了Agent對各類語法、句法的學(xué)習(xí)(例如應(yīng)該是兩個饅頭,而不是二個饅頭,這也是中間任務(wù)為什么消亡的原因)。而另外一部分參數(shù)參數(shù)則儲存了AI對于事實的認(rèn)知(例如美國總統(tǒng)是拜登)。
也就是經(jīng)過預(yù)訓(xùn)練出一個這樣的大語言模型后,AI理解了人類對語言的使用技巧(句法、語法、詞性等),也理解了各種事實知識,甚至還懂得了代碼編程,并最終在這樣的一個大語言模型的基礎(chǔ)上,直接降維作用于垂直領(lǐng)域的應(yīng)用(例如閑聊對話,代碼生成,文章生成等)。
而BERT和GPT兩者都是基于大語言模型的,他們在這一點上是相同的。他們的不同在于雙向/自回歸,fine-tuning/Prompting這兩個維度,我們接下來會重點弄明白這四個術(shù)語。
2. 「雙向 VS 自回歸」
BERT:雙向。雙向是指這個模型在“猜概率的時候”,他是兩個方向的信息利用起來同時猜測。例如“我__20號回家”,他在預(yù)測的時候,是同時利用“我”+“20號回家”兩端的信息來預(yù)測空格中的詞可能為“打算”。有點像我們做英文的完形填空,通常都是結(jié)合空格兩端的信息來猜測空格內(nèi)應(yīng)該是哪個單詞。
GPT:自回歸。自回歸就是猜概率的時候從左往右做預(yù)測,不會利用文本中右側(cè)的內(nèi)容,和BERT相反。這就有點像我們寫作文的時候,我們肯定是一邊寫一邊想。
兩者基本理念的區(qū)別導(dǎo)致BERT在之前更擅長自然語言理解類任務(wù),而GPT更擅長自然語言生成類任務(wù)(例如聊天、寫作文)?!⒁?,我說的是之前,后面的章節(jié)我會介紹現(xiàn)在的情況發(fā)生了什么變化。
3. 「fine-tuning VS Prompting」
假設(shè)現(xiàn)在預(yù)訓(xùn)練好的大模型要針對具體領(lǐng)域工作了,他被安排成為一名鑒黃師,要分辨文章到底有沒有在搞黃色。那么BERT和GPT的區(qū)別在哪里呢?
BERT:fine-tuning(微調(diào))。微調(diào)是指模型要做某個專業(yè)領(lǐng)域任務(wù)時,需要收集相關(guān)的專業(yè)領(lǐng)域數(shù)據(jù),做模型的小幅調(diào)整,更新相關(guān)參數(shù)。
例如,我收集一大堆標(biāo)注數(shù)據(jù),A-是黃色,B-沒有搞黃色,然后喂給模型進(jìn)行訓(xùn)練,調(diào)整他的參數(shù)。經(jīng)過一段時間的針對性學(xué)習(xí)后,模型對于分辨你們是否搞黃色的能力更出色了。這就是fine-tuning,二次學(xué)習(xí)微調(diào)。
GPT:Prompting。prompt是指當(dāng)模型要做某個專業(yè)領(lǐng)域的任務(wù)時,我提供給他一些示例、或者引導(dǎo)。但不用更新模型參數(shù),AI只是看看。
例如,我提供給AI模型10張黃色圖片,告訴他這些是搞黃色的。模型看一下,效果就提升了。大家可能會說,這不就是fine-tuning嗎?不是一樣要額外給一些標(biāo)注數(shù)據(jù)嗎?
兩者最大的區(qū)別就是:這種模式下,模型的參數(shù)不會做任何變化升級,這些數(shù)據(jù)就好像僅僅是給AI看了一眼——嘿,兄弟,參考下這個,但是別往心里去。
不可思議吧,但他成功了!而更令人瘋狂的是,到目前為止,關(guān)于prompt明明沒有對參數(shù)產(chǎn)生任何影響,但確實又明顯提升了任務(wù)的效果,還是一個未解之謎。暫時而言大家就像程序員對待bug一樣——I don’t know why , but it work lol.
這種Prompt其實就是ICT(in-Context Learning),或者你也可以稱為Few shot Promot,用大白話說就是“給你一點小提示”。
同時還有另外一種Promot,稱之為Zero shot Promot。ChatGPT就是Zero shot promot模式,目前一般稱之為instruct了。
這種模式下用戶直接用人類的語言下達(dá)命令,例如“給我寫首詩”,“給我做個請教條”,但是你可以在命令的過程中用一些人類語言增強(qiáng)AI的效果,例如“在輸出答案之前,你先每一步都想一想”。就只是增加這樣一句話,AI的答案效果就會明顯提升。
你可能會問這是什么魔法咒語?!
有一個比較靠譜的猜測是這句話可能讓AI回想起了學(xué)習(xí)的資料中那些推理知識好像前面都會有這句話。
然后這一切莫名激活起了他死去的記憶,不自覺開始仿造那些嚴(yán)密的推理過程中一步步推導(dǎo)。而這些推導(dǎo)會將一個復(fù)雜問題分解成若干子問題,AI因為對這些子問題的推導(dǎo),從而導(dǎo)致最終答案效果提升。
綜上對比下來,你會發(fā)現(xiàn)好像GPT這種模式比起B(yǎng)ERT模式更符合我們對人工智能的想象:通過海量的知識成長起來,然后經(jīng)過稍微引導(dǎo)(Prompt),他就能具備不同領(lǐng)域的強(qiáng)大能力。
最后總結(jié)一下,ChatGPT背后的GPT模型是什么?
在一個超大語料基礎(chǔ)上預(yù)訓(xùn)練出的大語言模型(LLM),采用從左到右進(jìn)行填字概率預(yù)測的自回歸語言模型,并基于prompting(提示)來適應(yīng)不同領(lǐng)域的任務(wù)。
如果只基于上面的描述,你可能大概弄懂了他背后的原理,但是對于為什么他這么牛逼,你仍然無法理解。沒關(guān)系,我們接著進(jìn)入第二部分。
第二部分:GPT厲害在哪里
1. 他可能是通用型人工智能的開始
在我們原始的幻想里,AI是基于對海量數(shù)據(jù)的學(xué)習(xí),鍛煉出一個無所不知無所不能的模型,并借助計算機(jī)的優(yōu)勢(計算速度、并發(fā)可能)等碾壓人類。
但我們目前的AI,不管是AlphaGo還是圖像識別算法,本質(zhì)上都是服務(wù)于專業(yè)領(lǐng)域的技術(shù)工人。
而GPT目前看似只能解決自然生成領(lǐng)域的任務(wù),但實際上,他展現(xiàn)出了通用型人工智能的潛力。
在前面,我們講過,目前而言,BERT擅長自然語言理解類任務(wù)(完形填空),GPT擅長自然語言生成類任務(wù)(寫作文)。
但在Google的FLAN-T5模型上已經(jīng)實現(xiàn)了兩類任務(wù)在輸入輸出形式上的統(tǒng)一,從而使得用GPT來做完形填空成為可能。也就是可以用一個大模型來解決所有NLP領(lǐng)域的問題。
那么再進(jìn)一步地,是否GPT可以從NLP領(lǐng)域走向其他AI領(lǐng)域呢?當(dāng)然有可能!在去年年中爆火的AI繪畫,其中一個關(guān)鍵技術(shù)門檻其實就是Text-圖像的轉(zhuǎn)化,這同樣是來自O(shè)penAI所開源的CLIP模型實現(xiàn)。
因此GPT在圖像領(lǐng)域的能力同樣也令人期待。同理在多模態(tài)如音頻、視頻,本質(zhì)上也能轉(zhuǎn)化為Text-everthing的問題去求解,從而讓大語言模型發(fā)揮成噸的威力。
當(dāng)然你可能會問,那么只要大語言模型就可以呀,為什么是GPT,而不是BERT呢?接著往下看。
2. Promot模式相較fine-tuning更具生命力
事實上,BERT的fine-tuning模式有兩個痛點。
- 我需要準(zhǔn)備某個專業(yè)領(lǐng)域的標(biāo)注數(shù)據(jù),這個數(shù)據(jù)還不能少,如果太少,AI模型訓(xùn)練后就會形成過擬合(就是AI直接背下了整本習(xí)題冊,冊里的問題100%正確回答,但是稍微變幻題型就GG)。
- 我需要部署大語言模型,才能對他進(jìn)行進(jìn)行微調(diào),那么部署大語言模型的成本,甚至進(jìn)一步對他進(jìn)行微調(diào)的能力,并不是所有公司都具備的。這注定是一個只有少數(shù)玩家能參與的游戲。
而Promot模式恰恰相反,不需要太多的數(shù)據(jù)量,不需要對模型參數(shù)進(jìn)行改動(也就意味著可以不部署模型,而是接入公開的大語言模型服務(wù))。那么他的調(diào)試就會呈現(xiàn)百花齊放的姿態(tài),玩家越多,創(chuàng)造力涌現(xiàn)就越猛烈。
3. 全新的人機(jī)交互方式
這里的人機(jī)交互,指的是人-模型之間的交互。
目前ChatGPT采用的是模型側(cè)的Few shot prompt,即給一點示例提示,讓AI提升表現(xiàn),雖然暫時未知為什么不更新模型僅僅只是給AI看一眼就能帶來巨幅提升,但這種交互模式無疑是更友好的。
而更具顛覆性的是輸入端的Zero shot prompt,即我們用人類的語言逐步引導(dǎo)AI思考——比如我們可以說,你仔細(xì)想好步驟,再給出答案。就僅僅是多加一句“你仔細(xì)想好步驟”,AI的答案靠譜率就會明顯提升。
而這種交互方式的演變,就是我們夢想中的人機(jī)交互模式。我不需要專業(yè)的能力,不需要高端的設(shè)備,我就是開口,說出我的訴求,AI就能夠理解并幫我實現(xiàn)。
4. GPT開始嘗試討好人類,并成功了
在12月的媒體通稿里,一大堆對ChatGPT的溢美集中于他的“仿真性”,仿佛通過了圖靈測試一般。
而這種仿真性,直觀來說,我們會認(rèn)為是AI的“智力”提升了,他更聰明了。但實際上,ChatGPT背后的GPT3.5,更多的提升在于“用人類所喜歡的方式回答”。
事實上ChatGPT背后的GPT3.5的模型,相較GPT3.0,他并沒有在原始訓(xùn)練語句上增加太多(還是那3000億語料)并且模型參數(shù)也沒有太大變化(還是1750億參數(shù),甚至參數(shù)可能都沒有變化)。
之所以他會讓人產(chǎn)生質(zhì)變的感覺是因為他做了人類偏好處理。
例如以前的輸入模式可能需要這樣:> 執(zhí)行翻譯任務(wù)> 輸入是“我愛北京天安門(中文)”> 翻譯目標(biāo)語種是英文”而現(xiàn)在你直接說:> 幫我把我愛北京天安門翻譯成法語
又或者是,以前你提一個問題,他會不加選擇的回答,而現(xiàn)在他會考慮答案有害性:> 如何毀滅世界——你可以召喚三體人降臨(此處應(yīng)有一個潘寒hhh)> 如何毀滅世界——親,請不要毀滅世界,地球是人類共同的家園。
而這些對于人類偏好的攻略依賴于三個步驟:
- 創(chuàng)建人類偏好數(shù)據(jù)。隨機(jī)挑選一些問題,并由標(biāo)注人員給出高質(zhì)量回答,形成“人類表達(dá)-任務(wù)結(jié)果”的標(biāo)注數(shù)據(jù),喂給模型,讓它學(xué)習(xí)——這批數(shù)據(jù)數(shù)量僅有數(shù)萬,并通過Prompt模式進(jìn)行,即模型參數(shù)不產(chǎn)生變化。
- 訓(xùn)練一個回報模型。隨機(jī)挑選一些問題,讓原始模型輸出答案,再由標(biāo)注人員基于“人類偏好標(biāo)準(zhǔn)”(例如相關(guān)性,信息豐富程度,答案有害,負(fù)面情感等),對原始模型的答案做一個排序。然后我們利用這批標(biāo)注好的“人類偏好”數(shù)據(jù),訓(xùn)練一個回報模型,這個回報模型會對原始模型的結(jié)果進(jìn)行打分,告訴他什么答案分高,什么答案分低。
- 通過強(qiáng)化學(xué)習(xí)循環(huán)整個過程。強(qiáng)化學(xué)習(xí)會將回報模型和原始模型鏈接到一起,當(dāng)原始模型輸出的結(jié)果,在回報模型中獲得較低分值,他就收到懲罰,被要求重新學(xué)習(xí)。
后續(xù)不斷循環(huán)步驟2和步驟3,原始模型就會脫胎換骨,學(xué)習(xí)到人類的偏好,變成一個人類所喜歡的模型,也就是我們最終所看到的ChatGPT。
這讓我們有理由相信,模型的表現(xiàn)不好,不一定是他沒學(xué)到知識,可能只是他不知道對于人類而言,哪種答案才是人類想要的。
而這種人類偏好學(xué)習(xí),目前來看是集中在Prompt模式下的GPT的,而非fine-tuning模式下的BERT。
5. 請不要著急焦慮,還沒到AI取代全世界的時候
在過去的一段時間,我看到大量的噱頭文章,美國高校封禁ChatGPT,技術(shù)論壇封禁ChatGPT。媒體迎合著公眾的狂歡情緒,照舊掀起一波AI毀滅一切的氛圍。
但實際上,就目前而言,GPT暫時還只是一種很有潛力的趨勢。
首先,人家自己都說不行。
附上openAI CEO的回復(fù):
其次,落地成本高。
ChatGPT的復(fù)現(xiàn)依托于大模型,他的落地有三種路徑:
- 基于instruct GPT復(fù)現(xiàn)(ChatGPT的姐妹模型,有公開paper)
- 基于OpenAI目前開放的GPT3.0付費(fèi)接口落地,再結(jié)合具體場景進(jìn)行fine-tuning,目前刊例價費(fèi)用是25000token/美元,換算國內(nèi)價格約3700token/元
- 基于OpenAI試點中的ChatGPT PRO落地,42美元/月,換算后約284元/月
第一種路徑依賴于新玩家的進(jìn)入,但大概只能是大玩家的賽道。第二種和第三種路徑需要打平付費(fèi)接口的成本,需要針對的場景具備足夠價值。
當(dāng)然成本的問題可以期待被快速解決,就像AI繪畫領(lǐng)域一樣。不過目前而言,成本仍然是ChatGPT落地的一個制約因素。
最后,最重要的是ChatGPT目前的能力仍然存在缺陷:
- 結(jié)果不穩(wěn)定。這會導(dǎo)致無法直接應(yīng)用,必定需要人工review,更多是瞄準(zhǔn)輔助性場景或本身就不追求穩(wěn)定的場景。
- 推理能力有限。例如詢問現(xiàn)在的美國總統(tǒng)是誰,會回答奧巴馬,或特朗普,但又能回答出拜登是46屆總統(tǒng)。我們可以發(fā)現(xiàn)模型中事實存在,但他無法推理出正確答案。如果要優(yōu)化,一方面是輸入的時候,可以通過Prompt逐步引導(dǎo),另一方面是在模型側(cè)的Few Shot Prompt環(huán)節(jié)中采用思維鏈技術(shù)(CoT,Chain of Thought)或采用代碼數(shù)據(jù)集來改進(jìn)。就目前而言,進(jìn)展可喜,但能力仍然有限。
- 知識更新困難。一方面整個模型的重新訓(xùn)練成本很大,另一方面知識更新也會帶來知識遺忘的隱憂,即你不知道他這次更新是不是在學(xué)會什么的同時,也忘記了什么。也就是說ChatGPT在解決這個問題之前,他的知識將始終落后一段時間。
綜上,ChatGPT很驚艷,但更多在于它的潛力和未來,基于當(dāng)下要做應(yīng)用的話是需要做非常多適配和場景探索的。接下來進(jìn)入我們第三部分,探索ChatGPT為代表的GPT大語言模型應(yīng)用方向。
第三部分:ChatGPT所代表的大語言模型應(yīng)用方向
從目前來看,應(yīng)用方向可以分成三種。
1. 模型服務(wù)
以O(shè)penAI為典型代表,孵化大模型后,開放接口,提供公共模型能力。
目前OpenAI的接口支持GPT3.0的能力調(diào)用,同時支持二次tuning。而在大規(guī)模的商業(yè)合作上,notion、office全家桶、bing都在推進(jìn)當(dāng)中。
2. 2B垂直工具
以COPY AI,Jasper為例,主打生成內(nèi)容,并且瞄準(zhǔn)了有明確價值需求的領(lǐng)域。例如自動生成SEO文章、廣告創(chuàng)意、ins文案等等。
這一類目前海外發(fā)展得較好,一方面受益于對SaaS付費(fèi)的接受度,另一方面也是因為瞄準(zhǔn)了明確的用戶群——電商從業(yè)者。
事實上代碼校驗提示,會議紀(jì)要生成,專業(yè)文檔寫作等都可能是這個方向的擴(kuò)展。但一方面要看fine-tuning效果如何,另一方面商業(yè)價值確實也不如電商領(lǐng)域高。
3. C端娛樂類
C端應(yīng)該說是場景最匹配ChatGPT應(yīng)用的方向了,畢竟用戶的忍受度相當(dāng)高,智障音箱都能忍,何況升級后的GPT。
但困難的在于兩方面:
第一,要找到可供能力落地的C端場景,畢竟單純聊天是沒有價值的,附加了場景才產(chǎn)生價值。
第二,要找到商業(yè)模式突破成本線。按照GPT3.0的刊例價來算,要求這個產(chǎn)品每輸出3700個字,就要從用戶身上賺到1塊錢(作為參考:目前國內(nèi)頭部小說網(wǎng)站起點的付費(fèi)閱讀是20000字/元)。
海外的C端娛樂應(yīng)用我不太了解(之前用的賬號過期了,最近懶得弄)。搜索了一下國內(nèi)應(yīng)用,最近社交分類Glow這個APP沖上了第7名,擴(kuò)展往下看會發(fā)現(xiàn)主流的娛樂類Chat基本上是圍繞二次元/宅群體進(jìn)行的。
如果圍繞這個用戶群稍作擴(kuò)展,在年輕/黏性/新事物嘗試等維度的組合下,明星粉絲也是一個可能的方向。
但也不好說就鎖死在這些群體上——你猜猜給一個獨居的二大爺嘗試ChatGPT他會喜歡嗎?給一個流水線的工人嘗試呢?畢竟孤獨,一直是人類永恒的命題,誰也不知道下一個爆款來自哪里。
第四部分:AI產(chǎn)品經(jīng)理能做什么?
1. 商業(yè)層
現(xiàn)在的互聯(lián)網(wǎng)環(huán)境,收益已經(jīng)是第一位的事情了,不管是外部投融資還是內(nèi)部項目盤點,商業(yè)變現(xiàn)都是最核心的問題。
商業(yè)上的事情其實又可以拆成兩個模塊,戰(zhàn)略上的,戰(zhàn)術(shù)上的,依據(jù)公司的規(guī)模和團(tuán)隊結(jié)構(gòu)不同,AI PM的話語權(quán)會有不同程度的衰減。
舉例子說明一下。
戰(zhàn)略層的問題:我要啟動一個ChatGPT項目,用戶群是什么,商業(yè)模式是什么,壁壘在哪里,演進(jìn)的步驟是什么?
這些問題的產(chǎn)生在“決定項目做不做”,“接下來項目往哪走”的環(huán)節(jié)。假設(shè)對這方面有話語權(quán),不管大還是小,那么都會是一件非常鍛煉人的事情。這個環(huán)節(jié)中無非就是兩種能力:知識獲取以及知識的推理。
知識獲取包括你過往的行業(yè)經(jīng)驗,業(yè)務(wù)經(jīng)驗,以及臨時抱佛腳所調(diào)研的行業(yè)信息。這方面依賴的是知識的挖掘、辨別、結(jié)構(gòu)化整理能力,特別是現(xiàn)在這個時代的信息環(huán)境,真的是屎山里找金。
知識的推理是對這些知識有選擇地推導(dǎo),從知識中得出商業(yè)答案。這個環(huán)節(jié)可以利用一些思維工具去結(jié)構(gòu)化推導(dǎo)(例如商業(yè)畫布),多推幾次后,本身自己會沉淀下來一些商業(yè)分析的肌肉記憶,工具反而退居其次了。
戰(zhàn)術(shù)層的問題:產(chǎn)品做出來了,甚至免費(fèi)運(yùn)作一段時間了,那么接下來產(chǎn)品怎么定價?價格階梯如何設(shè)置?個體消費(fèi)者和企業(yè)消費(fèi)者的價格會不同嗎?渠道服務(wù)商的價格和直售的價格一樣嗎?我的成本線是多少,盈利線是多少?
只是圍繞一個價格,就會延伸出一堆細(xì)碎繁雜的問題。更何況關(guān)聯(lián)產(chǎn)生的產(chǎn)品方案,渠道政策,廣告ROI等模塊。
戰(zhàn)術(shù)層的問題因其細(xì)碎和寬泛,會被拆成非常多不同的方向,每個方向其實都沒那么復(fù)雜,只是需要一些敲門進(jìn)去的方法論,剩下的就是一些實戰(zhàn)經(jīng)驗。所以我們會看到,現(xiàn)在大廠招人,往往傾向在垂直細(xì)分方向找一個有相關(guān)經(jīng)驗的人,這樣會節(jié)約上手時間和試錯成本,例如會員產(chǎn)品經(jīng)理。
2. 技術(shù)層
這里的技術(shù)其實沒那么技術(shù)。AI產(chǎn)品經(jīng)理和傳統(tǒng)產(chǎn)品經(jīng)理最大的不同就在于,他所依賴的產(chǎn)品核心是AI技術(shù),因此將商業(yè)、用戶需求轉(zhuǎn)化為算法需求是他的主要職責(zé)。
這里面我們所提出的問題,是會有技術(shù)層面的深淺不同的。舉個例子,我們遇到了一個問題“需要Chatbot能夠記住用戶的偏好知識,例如他喜歡下雨天,喜歡達(dá)芬奇,喜歡黃金時代”,現(xiàn)在我們需要算法團(tuán)隊幫我們實現(xiàn),那么可能有不同層次的提法:
- chatbot要支持記憶用戶輸入的偏好信息,例如喜歡黃金時代,儲存時間為永久,并且支持知識的互斥與整合。(例如先說喜歡下雨天,后面又說討厭下雨天)
- 需要chatbot支持記憶用戶輸入的偏好信息,并且這個能否不要用模型參數(shù)去學(xué)習(xí),而是搭建一個獨立的知識庫,再通過模型另外調(diào)用?這樣用戶可以可視化地修正自己的偏好知識。
- 加裝一個意圖識別器,發(fā)現(xiàn)是用戶偏好知識的時候轉(zhuǎn)到知識庫進(jìn)行儲存和整合,如果非偏好知識則正常走大模型結(jié)果。意圖識別器這里可以用xxx技術(shù),你看看這篇paper,是有相關(guān)實現(xiàn)經(jīng)驗的。
大家會發(fā)現(xiàn)三個層次在技術(shù)層面是由淺到深的。那么什么時候深什么時候淺取決于什么呢?
- 取決于產(chǎn)品的技術(shù)實力。有時候你的技術(shù)實力就決定了你深不了。沒關(guān)系,其實到第三個層次并不是必須的,一般到第二個層次就夠用了,甚至到不了第二層次,就在第一個層次上你把需求講明白,也是能跑的下去。只是這樣產(chǎn)品的權(quán)威性,你對需求的判斷,ROI的平衡判斷都會產(chǎn)生很大的問題。
- 取決于需求的目的,例如第一個層次的需求沒有專門提及知識庫,那這個時候用模型去學(xué)習(xí)記錄也可以,用知識庫也可以。但是第二個需求中就明確要求了基于知識庫的實現(xiàn)方法,因為他需要用戶可視化修改自己的偏好知識。(甚至有時候最后不一定是用知識庫的方法,但沒關(guān)系,提出你的idea,與算法團(tuán)隊深入討論,多少都是一種啟發(fā))
- 取決于你和算法團(tuán)隊磨合出的邊界。要找到你們之間最舒適的交織區(qū)域,一般而言是產(chǎn)品往技術(shù)多走幾步,算法往業(yè)務(wù)多走幾步,這樣能發(fā)揮1+1>2的結(jié)果。
當(dāng)然,不管是需求提到哪種技術(shù)層次,都需要銘記一個基本原則,說明白你這個需求的背景、目的、價值。例如第二個例子中,其實是要額外說明用戶可視化修正偏好知識到底能帶來什么,值不值得做,這些業(yè)務(wù)價值會與技術(shù)實現(xiàn)的成本互相PK,取得平衡。
AI產(chǎn)品經(jīng)理在技術(shù)層能做的事情有點像在做fine-tuning,在模型不那么適配場景,或者場景延伸出新能力訴求的時候,發(fā)現(xiàn)他,分析他,并與算法團(tuán)隊深度討論后方案后在成本和收益之間做平衡。
3. 應(yīng)用層
應(yīng)用層的事情其實和技術(shù)層有點交織,因為大部分時候你上一個新的應(yīng)用功能,背后多數(shù)是需要技術(shù)支撐的。
不過這里我們搞簡單點,把有技術(shù)訴求的那部分剔除掉,只保留無技術(shù)依賴或低技術(shù)依賴的來討論。
我舉個大家習(xí)以為常,但效果巨大的例子:當(dāng)我們做人臉驗證,或者銀行卡圖像識別的時候,他一定會有一個虛擬框,要求你將臉或者銀行卡擺放在固定位置。這個功能毫無技術(shù)要求,就是加一個透明浮層而已。但是他能極大提升采集圖像的質(zhì)量,從而提升算法效果。
在chatbot里面其實也可以類似的做法。例如ChatGPT有時候會崩潰,輸出結(jié)果在一半的時候就中斷。他的原理其實就是自然語言生成本質(zhì)上是持續(xù)性在預(yù)測下一個字是什么,然后預(yù)測出一篇文章。那么當(dāng)模型在還不應(yīng)該結(jié)束的時候不小心預(yù)測出一個END字符的時候,AI就認(rèn)為我可以在這里停止了。
解決方案有高大上的技術(shù)方案,我們這里可以土肥圓做個low一點的——加裝一個按鈕“你還沒說完呢”,用戶點擊后,AI就會自動再次重跑一遍這個input,輸出結(jié)果。這樣順便還能采集一下對于這種END崩潰的bad case數(shù)據(jù)。
4. 增長層
只要你做的產(chǎn)品是給人用的,不管是2B還是2C,那么就離不開增長。
只是2B和2C的增長是兩套完全不同的方法論。
2B其實更多應(yīng)該被歸到商業(yè)層,你需要做產(chǎn)品定價,做渠道政策,做客戶成功,并打磨你整個銷售鏈路,找到薄弱點優(yōu)化他。在這個過程中你要清晰認(rèn)識到2B與2C在付費(fèi)決策上的顯著不同,2B是多用戶下關(guān)鍵決策人掌握公有資產(chǎn)進(jìn)行付費(fèi)判斷,而2C是用戶個體掌握私有資產(chǎn)進(jìn)行付費(fèi)資產(chǎn)。
不過教育行業(yè)這個市場會和2B有一點點相似,他是學(xué)生使用,家長付費(fèi),學(xué)校/機(jī)構(gòu)影響,也是一個多用戶下關(guān)鍵決策人的結(jié)構(gòu),不過掌握的是私有資產(chǎn)。
而2C就更不用說了,2C的增長產(chǎn)品是一個非常獨立細(xì)分的行業(yè)??梢酝ㄟ^投放,SEO,新客進(jìn)入,老客留存,社交裂變等等命題去做努力,反正核心就是拉更多的人賺更多的錢。
只是目前而言,我們在說ChatGPT,那么他大概還是一個新項目新產(chǎn)品。那么大概率初始不會配備相應(yīng)的增長產(chǎn)品,AI產(chǎn)品也需要兼顧關(guān)注。
最后大家如果想做一些練習(xí),可以找這個領(lǐng)域的一些C端應(yīng)用試試看,例如glow,糖盒等。(可能還有更多,歡迎私信指點我)
但是我個人不建議拿各類市面上的chatbot或B端產(chǎn)品來嘗試,前者發(fā)展到現(xiàn)在很成熟了,后者則很多時候需要面對B端特殊的場景,沒有做過B端很難明白里面的細(xì)節(jié)。而glow、糖盒這類C端新起步的產(chǎn)品會是一個比較好的練手對象。
我這里就不羅列對這兩個產(chǎn)品的分析或者產(chǎn)品建議了,我個人覺得站在局外做產(chǎn)品建議是很扯淡的事情。產(chǎn)品的魅力在于根據(jù)有限的資源和環(huán)境,選擇局部最優(yōu)解來推動demo慢慢成長。如果不在局內(nèi)的話,很多建議和迭代我都傾向于不公開,否則局內(nèi)人看起來會很蠢。
比如說覺得對話不智能,需要提升智能,建議接入GPT3.0。那么會不會這個產(chǎn)品的受眾其實不那么需要智能,或者他們的需求無法與接入GPT3.0的費(fèi)用平衡呢?這個需求有可能不是一個技術(shù)問題,而是一個商業(yè)問題。所以我覺得教張小龍做產(chǎn)品其實是個偽命題。
但是自己練習(xí)一下還是可以的,有一個具現(xiàn)的產(chǎn)品做邏輯推導(dǎo)的練習(xí),會比只閱讀理論文章來得更有效。
最后
這篇文章春節(jié)前我就在寫了,起初是想圍繞AIGC寫,核心是說說最近影響最大的ChatGPT和AI繪畫背后的Diffusion算法,我認(rèn)為這兩個算法的影響力非常大。
前者是給NLP領(lǐng)域開了一個很有潛力的方向,甚至是通向AGI(通用人工智能)的一種可能道路,后者則是圖像領(lǐng)域非常強(qiáng)大的改進(jìn)。最重要的是這兩者的技術(shù)已經(jīng)進(jìn)入到一個成熟應(yīng)用期了(不成熟應(yīng)用也和我這個做產(chǎn)品的沒啥關(guān)系哈哈),而且讓我覺得一潭死水的AI領(lǐng)域重新煥發(fā)活力。
可惜最后寫著寫著還是發(fā)現(xiàn)駕馭不了這么龐大的話題。其中AI繪畫背后的Diffusion算法要另開一篇分析,此外ChatGPT的商業(yè)也需要更進(jìn)一步拆解。
本文由@做產(chǎn)品的馬丁 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自 Unsplash,基于 CC0 協(xié)議
該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。
大大文章非常非常不錯,從原理到實際對產(chǎn)品落地都很有價值,案例也非常接地氣,實實在在的產(chǎn)品人了。不過文中是不是有幾個小小的筆誤:
而Promot模式恰恰相反;
質(zhì)上也能轉(zhuǎn)化為Text-everthing的問題去
抱歉,這是我兩個月前寫的了……確實有一些技術(shù)上理解的偏差
Prompting對模型參數(shù)沒有任何影響?我覺得這里是不是需要糾正一下?Prompting對語言模型的參數(shù)是沒有影響,但是通常有一個比較小的模塊來專門存儲Prompting的參數(shù)。
你說的應(yīng)該是Lora模式下的微調(diào)吧,專門調(diào)整小部分的參數(shù),凍結(jié)大部分
文章非常不錯,我最近在開發(fā)聊天機(jī)器人APP,受益匪淺。
每個字我都認(rèn)識,連起來讀我一句話要讀三遍才理解,哈哈哈哈,不懂技術(shù)的產(chǎn)品太難了!
屎山找金,有味道的市場分析,哈哈
技術(shù)底層上筆者貌似理解,但是深度的沒有解答,例如是無監(jiān)督學(xué)習(xí)還是有監(jiān)督學(xué)習(xí),一個大語言系統(tǒng)難以服眾,得告訴我們真正的原理;第二講解的邏輯性不足,洞察力也欠缺,因為大牛就是能把復(fù)雜問題,通俗易懂的講解到位;舉個栗子:漁夫說服屈原不要如此剛烈,是這么講的,湖水干凈呢,我就可以用來洗臉,湖水渾濁呢,我就用來洗腳,這就是生活,為什么因為湖水渾濁選擇輕生呢?這段話要是ChatGpt能夠說出來,我就拜服
比如說,“我今天被我老板___”,經(jīng)過大量的數(shù)據(jù)訓(xùn)練后,AI預(yù)測空格出會出現(xiàn)的最高概率的詞是“CPU了”,那么CPU就會被填到這個空格中,從而答案產(chǎn)生——“我今天被我老板CPU了”。
應(yīng)該是 PUA吧,CPU是啥意思?
哈哈哈…因為大家都在發(fā)被CPU、被PPT,挺少有網(wǎng)友直接說被PUA了,所以AI回答被CPU的概率會比回答被PUA的概率高很多…
這是梗,大家已經(jīng)不直接說PUA了,會說CPU、PPT、PDF,玩得一手懂得都懂
“產(chǎn)品的魅力在于根據(jù)有限的資源和環(huán)境,選擇局部最優(yōu)解來推動demo慢慢成長?!边@句話說的太棒了
棒??!文章中很多新奇的方向,給人很多啟示??!
棒~撿到一個面包屑
哈哈哈 我今天突然上來看一眼 以后應(yīng)該不會在這里發(fā)了,這里老是改我文章,懶得伺候了
你猜猜給一個獨居的二大爺嘗試ChatGPT他會喜歡嗎?我覺得會的,適老化設(shè)計非常需要chatgpt的能力,其實chatgpt的能力我覺得只是符合了本該有的預(yù)期,而不是突破了預(yù)期。
公眾號:馬丁的面包屑
已關(guān)注,你慢慢走,我時不時在你后面揀點面包屑