投身LLM(大型語言模型),要從本質(zhì)上想明白3個問題

2 評論 12518 瀏覽 27 收藏 40 分鐘

由于人工智能的快速發(fā)展,許多人終于開始理解和接受這個事實:AI 離我們并不遙遠,它正在改變我們的世界。作者在看LLM(大型語言模型)的機會時,深度思考了3個問題:LLM下一個發(fā)展未來是什么、哪些落地方向更有前景、我們要做些什么準備。希望能夠給各位帶來啟發(fā)。

最近我自己在看LLM的機會,也和創(chuàng)業(yè)者、投資人、從業(yè)者進行非常多的交流。大家普遍的感覺是“我知道他很好,但我應該怎么做?”。在被OpenAI拖著狂奔的過程中,涌現(xiàn)出了很多機會,大家都處于一種興奮而迷茫的狀態(tài)。

特別在OpenAI聯(lián)手微軟依次打翻文本應用(Jasper/Grammarly),辦公軟件(微軟 Copilot),開發(fā)框架(OpenAI插件之于langchain),低代碼(今天剛出的新聞)后,這種迷茫更進一步疊加了對中心化LLM巨頭鯨魚翻身的恐懼。

在深度思考后,我總結(jié)出這三個問題,并從底層本質(zhì)進行了回答。他將會是我接下來看LLM機會的核心框架,希望對你有所幫助。歡迎點贊,轉(zhuǎn)發(fā),再看。

  1. LLM下一個發(fā)展未來是什么
  2. 哪些落地方向更有前景
  3. 我們要做些什么準備

01 LLM下一個發(fā)展未來是什么

我在2月26日、3月2日分別做過LLM的未來預判,正確率幾近100%,其中一篇是:重磅:盤點7大方向,誰將誕生ChatGPT領域的尤里卡時刻(七個方向僅有一個未被兌獎)

思考框架

但有一位朋友問了我一個印象很深刻的問題,“你是怎么做出這些預判的呢?”。這就是知其然和知其所以然的區(qū)別了,當時我回答不上來,現(xiàn)在我有了思考后的初步框架,與各位分享:

  1. 現(xiàn)在存在哪些問題需要解決
  2. 做哪些嘗試可以帶來更大的空間(當然也帶來更多的待解決問題)
  3. 這些方向技術上是否可行
  4. 4. 這些方向的商業(yè)價值是否值得投入去改變

由此,我將LLM的未來分為兩類:現(xiàn)狀修復,開拓增量。同時施加技術和商業(yè)的雙重判斷進行校準。

表層知識

現(xiàn)狀修復

No.1 居高不下的推理成本

目前表現(xiàn)最優(yōu)的OpenAI GPT-3 Davanci 價格是0.02美元/1Ktoken(大約3800漢字/元),特化微調(diào)后的GPT-3.5 turbo價格是0.002美元/1Ktoken(38000漢字/元)。同期國內(nèi)的百度文心一言據(jù)說API價格是0.12元/1Ktoken,比Davanci版本略微便宜一點。

列舉這么多數(shù)據(jù),是為了直觀告訴大家現(xiàn)在的推理成本到底有多貴,只有少數(shù)業(yè)務能夠滿足到這個價格/成本的剪刀差。

基于這個問題,可以延伸出若干個子方向:

開源平替小模型,例如Meta開源的LLama及延伸出Alpaca-lora,ColossalChat等等,通過針對性微調(diào),在更小參數(shù)量級(10B或100B)級別上對齊千億參數(shù)的效果。

上下文壓縮,通過文件分塊后語義檢索,或者長文分段摘要在合并等方式縮減上下文長度。例如ChatPDF,乃至bing(雖然他沒公開,但我猜是)。

LLM本身的優(yōu)化,例如英偉達在芯片層的工作,以及算法、模型結(jié)構(gòu)、任務調(diào)度方面的優(yōu)化。

可謂是八仙過海,各顯神通,大語言核心廠家在做優(yōu)化的同時,小玩家也通過各種手段拼命壓縮成本。要讓LLM進一步踏入千家萬戶,迎來像AI繪畫側(cè)SD算法那種爆發(fā),推理成本一定是最重要的第一個方向。

并且他也一定能快速被解決,不管從LLM本身出發(fā),還是上下文壓縮的技術迭進,還是開源平替小模型,他的各項技術前景都是現(xiàn)實的。所以如果4月1號OpenAI又宣布降價,別驚訝,常規(guī)操作。

No.2 垂直適配難題

目前要微調(diào)一些專用于垂直領域的LLM,會面臨若干問題:

頭部大模型價格高昂:OpenAI的Davanci基本模型調(diào)用價格為0.02美元/1Ktoken,但微調(diào)后模型的使用價格變成了0.12美元/1Ktoken,翻了6倍。

而事實上,基于Lora機制(凍結(jié)大部分模型參數(shù),僅微調(diào)調(diào)整少量參數(shù))實現(xiàn)的微調(diào)新模型,他的成本不可能翻6倍之多。我懷疑OpenAI在通過這種極其高昂的定價策略,逼迫使用者進行低階模型的微調(diào)(在次一級模型上微調(diào)后,盡管價格仍然翻6倍,但只是上一級模型價格的60%),從而獲得低階模型微調(diào)適配的珍貴數(shù)據(jù)。所以OpenAI下調(diào)微調(diào)模型價格的空間理論上是存在的。

而現(xiàn)在開源平替模型的出現(xiàn)可能沖擊OpenAI的這種策略,他的微調(diào)價格可能會產(chǎn)生相應調(diào)整,并可能也開放自己的小模型平替。但這種情況其實和Google推出LLM一樣,是自己在刨自己的根,非常難做出決定。

另一方面,微調(diào)的任務能力有限,目前常見的微調(diào)主要為通用領域,例如更好的營銷文案寫作,更友好/更專業(yè)/更嚴肅的回答方式,針對性的文本提取,情緒分類等傳統(tǒng)NLP任務。真正迫切的知識更新效果很差的,即讓LLM專門記住我這批專業(yè)數(shù)據(jù),并老實回答,這也是為什么ChatGPT到現(xiàn)在還是只有21年以前記憶的原因之一。

No.3 上下文中注意力失控

在這里要簡單科普一下上下文和注意力是什么。大家會看到GPT的原始版本是2K左右的token上下文支持,GPT-3時代變成4K,GPT-4時代變成8K和32K。

那么為什么上下文會是一個要逐步被解決的問題呢?因為他的本質(zhì)是,當你輸入一個超長上下文(包括你的指示、你的補充知識、你的示例等),LLM需要對你的上下文進行全面的理解,用到一個叫“注意力”的技術去計算每個字與字之間的關系,甚至這種關系產(chǎn)生在你輸入的第一個字和你回答的最后一個字之間也存在。

當LLM生成回答的時候,他會基于注意力權重來計算本次應該生成哪個字來形成答案。而這個注意力權重他是要對所有你輸入的上下文文本進行計算的,文本越多,他的計算資源要求就越多(這也是為什么OpenAI以token計費,并且輸入的文本也要錢)。

大概了解上下文和注意力后,我們回歸這個問題——那么當我計算了所有的注意力后,哪些注意力是更重要的呢?

這就是所謂注意力失控,或者說根本就不給我控。通俗來說,如果我希望你記得某個關鍵信息,我會把那個字體標紅、放大10倍。

而在LLM的技術中,其實也有類似手段。在GPT-3.5 turbo API(即CHatGPT這個版本)中,他們定義了一個叫System的字段,可以看為是允許開發(fā)者自行定義最關鍵的注意力點。但實踐中,system中的內(nèi)容總是被遺忘,并且僅有一個字段來承載也不夠適配業(yè)務中的豐富需求。

所以,可控,可配,可調(diào)的自定義注意力,是一個非常關鍵的優(yōu)化點,可能在后續(xù)版本出現(xiàn)。

No.4 安全性補足

我寫這篇文章的時候,馬斯克發(fā)起的公開信已經(jīng)有1000個人聯(lián)署了,大概內(nèi)容就是“AI很可怕,在找到約束方法前,你們(OpenAI)不準再迭代拉!”。

在LLM安全方面,其實OpenAI建立了第一套標準,主要分為兩個方面:

幻覺,即不要回答你不知道的東西,不知為不知是智也。

有毒,不要種族歧視,不要性別歧視,不要地域歧視,不要引導做負面事情,陽光向上保持健康做個好AI等等。

在他們的公開論文中,GPT-4在2022年8月已就位,拖到23年3月才發(fā)布,全是為了解決上述的安全問題。

我對這個方向的看法是:翻版的西方環(huán)保問題。

他是不是問題?是的。為什么大家要說這個問題?有真正的擔憂,也有利益上的訴求。他真的會被執(zhí)行嗎?領先者用它敲打追隨者,追隨者用它聲討領先者,雙方肯定會揮舞大棒打成一團(我原本以為還要再等一段時間)。

他稍微與環(huán)保問題不一樣的地方是:環(huán)保不存在技術實現(xiàn)問題,更多是利益的糾纏。而LLM的幻覺和有毒性,真的沒辦法完全解決,這一點的判斷我完全站在楊老板這邊。

有一個有趣的公司,Anthropic,成員來自OpenAI中脫離而出的創(chuàng)業(yè)者。一開始被Google投資了,和OpenAI一起上線了Poe應用做對比,效果實差。而且他的金主Google也發(fā)力自己搞了,整個情況風雨交加。但是他找到了一條合適的路子,站在了LLM安全這個領域,并推出所謂的RLAIF(人類反饋約束安全變成AI反饋約束安全)。

如果讓我說,這就是時代的風口,環(huán)保問題解決不了,但是環(huán)保會撐起來一個龐大市場,并誕生如同環(huán)保少女這樣的頂流。

No.5 可解釋

這是我在7大方向文章中唯一不被現(xiàn)實兌獎的預測。但我仍然認為這是一個很重要的方向,解釋性在所有決策類業(yè)務上都是非常重要的。

我最近幾年沒在做AI,做的是搜索推薦,你可以把這個搜索推薦也看成某種意義上的AI決策(AI決定什么東西到你面前)。而這個領域中,越是高行動成本的,就越需要可解釋性和信息背書。

例如推薦你看某個短視頻,你的成本幾乎沒有,不準的代價是手指劃走;推薦你看某個電影,你的成本是幾十塊+現(xiàn)場觀影的兩小時,不準則收獲壞心情;推薦你買金融產(chǎn)品,你的成本是一堆錢,不準則失去這筆錢。

你會發(fā)現(xiàn),越是高行動成本的事情,你越需要推薦的解釋理由以及更豐富的信息背書(影評,導演,精彩片段等等)。LLM也是這樣的,他如果要進一步發(fā)展,就一定需要更深入地介入人類生活,更進一步地去接管,輔助高行動成本的事情,在這個過程中缺乏解釋性是一個超級大的問題。

從純粹LLM技術本身,我不看好他被解決——神經(jīng)網(wǎng)絡的可解釋性都是一個超級古老的大難題,更何況LLM這種集大成技術的可解釋性。但通過Cot,產(chǎn)品設計,信源定位等方式總是能部分緩解的,這也可能成為未來所有LLM設計必涉及的一個范式。

No.6 本質(zhì)學習

這個觀念來自下面這篇文章,是OpenAI技術人員分享的的LLM迭進理念https://mp.weixin.qq.com/s/hQmvltuMlClBonM6UJmtLg

文章中OpenAI的人員認為LLM的正確做法是:“明確 AGI 基礎模型的目標(任務)并搜集盡可能多的有效數(shù)據(jù),然后使用所有可能的無損壓縮方式,從而得到對任務方法的最小描述長度?!蔽业睦斫饩褪菍W習本質(zhì),而不是學習表層知識。

整個思路有點像我本文的分享框架,比起給你表層知識,不如給你獲得、分析這個知識的思考框架,用哲學上的話來說,就是先驗勝于后驗。例如我知道特朗普是美國總統(tǒng),不如我理解總統(tǒng)、美國這些概念,進而再通過Bing獲取信息來整合。

這也是我認為OpenAI放棄進一步堆疊知識,而借由外部工具(計算器,wiki,Bing)來提升能力的原因。他并不是對現(xiàn)實妥協(xié)了,而是始終在堅持他心中的最優(yōu)策略,就像這幾年他一直堅持GPT方向一樣。

但可惜的是,即使他發(fā)現(xiàn)了一些新知識,大概也不會發(fā)paper了。

No.7 業(yè)務安全

這個部分邏輯很簡單,排除成本問題,很多企業(yè)還面臨數(shù)據(jù)安全問題。并且這種安全問題可能到了云端私有化也解決不了的程度。

因此OpenAI下一個重點一定會包括與Azure一起推進的云端私有化開放,但與此同時大量的小模型廠家(基于開源模型改一改自研的那些)也一定會迎來屬于他們的機會。

這個真的很簡單,我不多說什么了,只是這個事實確實還未完全發(fā)生,勉強算是預測,所以我放上來寫一下。

No.8 降低門檻

門檻的一部分來自成本,在第一個章節(jié)已經(jīng)講過了。

門檻的第二部分來自各種開發(fā)框架,例如langchain或者Colossal-AI,支持開發(fā)者更便捷的實現(xiàn)應用。

門檻的第三部分我不太確定,有點懷疑是低代碼+AI繪畫+開發(fā)框架串起來的APP工作流。即未來每個人都能極低成本實現(xiàn)自己的APP。

這部分OpenAI有可能會親自下場,特別是門檻三種人人都是產(chǎn)品經(jīng)理,人人都能構(gòu)建自己APP的這個事情,具有非常大的意義。

開拓增量

No.1 理解(多模態(tài))

在微軟的KOSMOS-1論文中(即我發(fā)現(xiàn)多模態(tài)未來的那篇),他舉的例子可不止圖像理解,還在旁邊放了音頻、視頻,這也是大家目前很容易預見的。

但我再補充另一部分細小的信源:陀螺儀,觸碰(屏幕),溫度,紅外線,光照,濕度等等。

這些概念其實和圖像、音頻、視頻不太一樣,他們本身不具備豐富的人類信息,并且通常以清晰明了的數(shù)據(jù)格式存在(例如溫度=17°C)。在LLM落地到手機這類新的終端后,他將遠不止獲取到圖像、音頻、視頻這樣的信息,還包括N多人類傳統(tǒng)用于刻畫客觀環(huán)境的量化信息。

我反而很期待針對這些細小信源的應用,因為他們的信息結(jié)構(gòu)很簡單,基本都是代碼常見格式,是現(xiàn)有能力能夠快速兼容的,比起音頻、視頻要做的語義融入簡單太多。

另外有一個超級遙遠的未來(我覺得很遙遠…說不定過幾天又開發(fā)布會了),目前自動駕駛側(cè)某種意義上是對真實世界的建模,那么如果真實3D世界能夠被LLM理解,那么整個世界會向LLM進一步揭開了面紗。

No.2 干預

理解的下一步是行動。

首先,ChatGPT插件某種程度上就是一種干預行動,只是受限于安全風險,OpenAI做了控制,將所有步驟停留在產(chǎn)生影響的前一步(訂機票,最后訂那一步你自己做)。

其次,今日消息(28號),OpenAI投資了挪威機器人公司1X;并且之前他在機械手臂方面也是有相關技術積累的(Dactyl系列)。

但LLM的行動要解決和他現(xiàn)在的安全性問題是存在極大沖突的。在前面可解釋性部分提過,AI僅僅輔助我們決策,我們都有那么高的要求,更何況他現(xiàn)在要直接干預世界?

這個部分,我在短期內(nèi)是不抱期待的,我認為技術上的安全的問題很難解決。畢竟誰也不想被剃頭機器人真的把頭剃掉吧。

No.3 多端融合

微軟目前的所有嘗試,都是在圍繞PC落地:bing,office全家桶,GitHub。所以在這個烽火連三月,爆發(fā)出的殺手級產(chǎn)品基本上是生產(chǎn)力方向的應用。

剩余的終端如手機,VR,耳機,音箱等等,其實還處在緩慢的適應期。

一個原因是頭部終端廠家沒完全放棄,想自己搞搞看看能不能突破,另一方面是他們可能獲得信息時間較晚,微軟的整個動手準備可能從去年8月就開始嘗試了,而大部分終端廠家可能等到11月30日ChatGPT發(fā)布才反應過來。

這個趨勢,大家也形成共識了,我不談他的邏輯了,重點說說這個方向要注意的地方:

1.要去看更多的信息輸入,例如我前面講到的,PC所不具備的陀螺儀,溫濕度,觸碰等等

2. 要去看設備特性的差異,例如手機的LBS和PC的LBS本質(zhì)上是兩個東西,手機上的圖像輸入和PC的圖像輸入也是兩個東西。手機更具備時空跟隨屬性,和固定的PC不相同,不能簡單用PC側(cè)的認知去看待新的設備端口。

3. 去看低成本的終端方案,單機跑的小模型(效果差),能不能在終端跑通垂類應用?

4. 要去看全新的交互范式,CUI+GUI的最終答案是什么,不要被目前的對話框限制住,要知道當初移動時代開端的時候,每個APP都長得和PC端一模一樣。

No.4 被綁住翅膀的插件

ChatGPT插件發(fā)布后,我沒有寫文章,因為沒有想象中那么驚喜。

從目前來看,他更接近Alexa Echo的 Skill Store而不是蘋果的Apple Store。

這兩者的區(qū)別在于,蘋果本身的特性(移動,陀螺儀,觸碰,實時LBS等)給眾多基于他的APP提供了廣闊的創(chuàng)造性,而Skill Store提供的特性有限,并且因為輸入輸出單一(語音),產(chǎn)生了非常大的限制(所以后面又加了屏幕)。

要更進一步發(fā)展,一方面GPT-4的圖像模態(tài)需要開放,另一方面ChatGPT要落到更多的應用端,從端上獲得更豐富的信息輸入,并掌握更多的輸出手段。

插件市場一定要用這種思維去看,LLM是核心能力,但這個核心能力也受限于端的輸入(信息獲?。┖洼敵觯ń换ナ侄危?,所以關鍵不是現(xiàn)在插件能做什么,而是未來插件能做什么。

02 哪些落地方向更有前景

思考框架

這次是我自己問自己:“你分析的依據(jù)是什么?你為什么認為這個好,那個差?”,下面與你分享我的框架:

1. 這次技術與以往的根本性差異是什么?

就像插件部分對音箱、手機、PC的分析一樣,我們先看清楚技術帶來的本質(zhì)的變化:

  • 第一,更成熟的CUI,可以讓LLM幫你做任何事情,基本如臂指使(做不做得到,做不做的對兩說)。
  • 第二,強大的理解能力,不僅限于文字,同時包括圖像、音頻、視頻、3D
  • 第三,強大的生成能力,不僅限于內(nèi)容生成,也包括代碼(應用),數(shù)據(jù)(標注數(shù)據(jù))
  • 第四,一定的推理能力,能夠進行基本邏輯的推理,例如先干什么在干什么最后干什么,能夠幫助你把一些事情串起來(我說的不是做數(shù)學題哈哈,不是那種推理)。
  • 第五,人機信任,人類以往對AI都是惡意接觸,即我不相信你是個人,并且會做各種極端測試,那么新技術帶來的信任(或者說局部信任)將是一個本質(zhì)變化。

2. 你正在看的這個方向是存量還是增量?

存量市場指這個市場以前就存在,例如客服,教育,游戲,通常來說存量市場的壁壘在于資深的業(yè)務邏輯,同時已經(jīng)擁有非常多的資深玩家。當新技術到來時,舊玩家會紛紛擁抱,進入新一輪內(nèi)卷,直到卷完后再次形成動態(tài)平衡。

在存量市場中,新玩家純靠LLM技術幾乎難以突破(特別是這種技術某種意義上非常平等,應用門檻很低)。

同時存量市場本身服務于某些市場需求,這些市場需求是否會因為新技術帶來的體驗提升,進一步擴大便捷,推動增量產(chǎn)生也是不一定的(要分行業(yè)去看,甚至要分具體應用去看)。

增量市場指這個市場以前或許存在,但相關技術不達標,所以整個市場一片藍海,沒有強有力的老玩家,大家眾生平等各憑本事。

請注意,不是說增量一定就比存量好,存量才是當前世界的絕大多數(shù),并且AI對每個存量市場的破壞式更新和增量帶動也都不一樣。

3. 你正在看的這個方向會被巨頭顛覆嗎?

  • 第一,這個方向在不在巨頭們的主賽道上,這個大家懂的都懂
  • 第二,觀察OpenAI的未來發(fā)展方向,至少目前小模型,開發(fā)框架,整合工作流等都需要警惕OpenAI下場

最后,我分享一個可怕的猜測:GPT-X的迭代節(jié)奏是什么?

  • A階段,我提供一個1.0模型,給2B客戶或2C用戶使用,我需要從中收集的是“在當前1.0版本能力范圍內(nèi)”,你們做了怎樣的微調(diào),怎樣的Prompt來令LLM達成你們想要的業(yè)務效果。
  • B階段,使用收集到的Prompt或微調(diào)數(shù)據(jù)進行人工校正,標注,形成SFT監(jiān)督數(shù)據(jù)集,重新走RLHF模式,獲得2.0模型
  • C階段,開放2.0模型,干翻一堆舊的延伸應用——以前需要額外優(yōu)化的場景,現(xiàn)在通用的LLM能力已經(jīng)能夠支持了。然后基于2.0版本,再次收集“在2.0版本能力范圍內(nèi)”,你們做了怎樣的微調(diào),怎樣的Prompt來令LLM達成你想要的業(yè)務效果

……將以上過程無限循環(huán)。

這個猜測你可以結(jié)合回顧我前面的“本質(zhì)學習”章節(jié),和OpenAI的理念是相符的。他們從始至終,要做到的事情,就不是鍛煉LLM對于表層知識的理解(例如特朗普是誰),而是要鍛煉LLM的思考框架。而Prompt指令中凝練了人類對任務的表達和要求,是這個階段中最有價值的數(shù)據(jù)。

當我們還在感嘆中文世界的語料數(shù)據(jù)(例如paper、文章)等不如英文世界時,OpenAI眼中的高質(zhì)量數(shù)據(jù)可能已經(jīng)從事實數(shù)據(jù)變?yōu)橹噶顢?shù)據(jù)了。

4. 他的技術前置成立嗎?他的商業(yè)潛力有足夠空間嗎?

這部分我沒啥好說的,純看你的技術理解和商業(yè)判斷…這不是在一篇小文章里能說明白說完的事情。

表層知識

No.1 情感方向

情感方向是我目前看到唯一一個純粹的增量市場,在過去技術的限制使這個方向的發(fā)展十分微弱。在LLM出現(xiàn)后,他的技術前提已經(jīng)使得這個市場成為可能。

但是情感方向存在三個問題:

  • 第一,留存問題。近乎所有這類型的應用都會發(fā)現(xiàn),長期留存的用戶少之又少,短期興奮嘗試占據(jù)了大部分比例。這個問題要解決全看對用戶的需求捕捉靈敏度,只能通過核心故事,功能設計,玩法設計來解決。
  • 第二,信任問題。在近期,人類的觀念仍未改變,對初次接觸的AI充滿惡意。在惡意前置的情況下,用戶會格外挑剔。這個問題也不好解決,只能等待新技術帶來的思潮轉(zhuǎn)變。
  • 第三,時長與精力問題。投注感情是一件看似不需要體力實則非常耗費精力的事情,用戶在此類產(chǎn)品上消費的時間越多,會越覺疲憊,對產(chǎn)品的離心力會更大。一個好的解決方式是構(gòu)建心流,但難度很大。而反面則是用戶本身就難以有足夠理由在這個APP上提供足夠的時長。

No.2 新的范式

新的技術發(fā)展總會帶來新的范式,例如PC時代表格工具對傳統(tǒng)表格的降維打擊(不僅僅是表格,更是查詢、加工)。而Notion更進一步,試圖推進All-in-one,形成Word、Excel等多種格式的統(tǒng)一,讓創(chuàng)作者專注表達想法,而Notion負責輸出時的多樣化演繹。

那么Notion,或者說現(xiàn)在的Notion AI 就是最終的形式嗎?或者說像Office Copilot那樣快捷實現(xiàn)多種文件的互相轉(zhuǎn)換和便捷操作是最終的形式嗎?

會不會有一種新的文件格式“.ai”,只需要你寫好你的大綱論點,就可以在演示過程中實時自由延伸(擴寫),并變換多種展示方式(從導圖到PPT,又在局部變成可交互表格)?

我也無從得知,這種空想也沒有意義,需要許許多多細微的創(chuàng)新堆疊起來才能成為新時代的標準范式。

事實上,新技術出現(xiàn)初期,人類的想象力總會被約束在舊的思維框架中而不自知。例如《Power and Prediction》這本書中的例子,當電力出現(xiàn)時,要用它取代工廠中蒸汽機。

僅僅只是替換就可以嗎?蒸汽是有管道鏈接到各個機器的,而電力只需要一根電線。蒸汽是必須常開的,而電力卻可以即時開關。蒸汽動力舉例衰減嚴重,所以他需要在工廠中間,而電力卻不用。所有這些本質(zhì)不同最終催生了對工業(yè)生產(chǎn)在技術,工具,管理等多維度的深刻改變。

因此,我不相信目前簡單在舊模式上疊加的創(chuàng)作,生產(chǎn)提效就是終局范式,更不要說生活范式由于更娛樂化的手機、VR、音箱等端還未完全落地,更是起步初期。

在這樣一個時期,誰先打磨出新的文件格式,先打磨出新的范式(創(chuàng)作/工作/生活),誰就有可能吃到最好的機會。——但是感覺巨頭們絕不會放過這個場景。

No.3 AI化浪潮中的機會

AI化是浪潮,那么幫助他人跟上浪潮的過程就會產(chǎn)生機會。這個他人,又可以分為2C和2B。

但不管2C2B,我們都可以把他們粗略地分為三類:

1. 賺信息差的錢

  • 2C:教畫畫,教注冊,教寫作,教分銷,10天漲粉30000,批量起號日賺5000。
  • 2B:每月20美元,幫助你開掉數(shù)據(jù)分析人員,5000元快速接入CHatGPT進直播間/小程序/公眾號

2. 賺工具+AI差價的錢

  • 2C:ChatPDF,ChatPaper,或其他任何工作、娛樂價值的AI應用
  • 2B:SaaS服務疊加AI,有些觀點認為LLM會摧毀大部分SaaS,我的觀點恰恰相反。LLM能夠提升SaaS的能力上限,并降低他的適配成本,從而推動SaaS繁榮。

3. 賺自主訓練模型的錢

  • 2C:單機版LLM,劣化但能用
  • 2B:私有化部署,或MaaS但相比巨頭LLM更低價

No.4 勞動力遷移中的機會

農(nóng)業(yè)革命后,單位農(nóng)業(yè)生產(chǎn)力溢出,導致農(nóng)民流向了工業(yè)。工業(yè)革命后期,溢出勞動力流向了第三產(chǎn)業(yè)。那么現(xiàn)在,因為AI溢出的勞動力(并且較為優(yōu)質(zhì)),他們會流向哪里?

是附生在新AI的周邊服務上,還是流向內(nèi)容產(chǎn)業(yè)(我們的內(nèi)容供給到極限了嗎?),還是像有的朋友所說,回流到第一第二產(chǎn)業(yè)?

這種勞動力遷移中,一定會伴隨著相應的機會出現(xiàn)。機會在哪里,我看不出來。但一個好的方法是觀察美國,他們的勞動力市場更敏銳,他們的資本家也更冷酷,整個遷移方向有可能在美國先表現(xiàn)出來。

No.5 人文思潮的變化

生產(chǎn)力的變化也會帶來人文思潮的變化,例如工業(yè)革命抹除了男性和女性的體力差距,并使女性具備經(jīng)濟獨立,從而推動人格獨立。再例如移動時代的碎片化特性使得短平快的奶頭樂內(nèi)容逐步取代長篇深度內(nèi)容。

那么LLM技術會帶來什么?一個猜想是前面提及的“信任感”,人類可能在未來逐步更相信AI,不再具備初次使用時的惡意。另一個極端則是對“AI危機”的警惕抗拒,例如今天馬斯克發(fā)起的聯(lián)名信其實就借用了這樣的焦慮。

但是否還有其他更深遠的影響呢?例如AI內(nèi)容提效后,進一步推動創(chuàng)作者的兩級分化:99.9%的好作者,和0.1%的超級好作者?例如AIGC飛速爆發(fā)后,對機器推薦的信任轉(zhuǎn)向真實KOL的信任(人肉信息過濾器)?

不過人文思潮的變化更多影響通常集中在內(nèi)容行業(yè),或者說創(chuàng)作者領域,我能想到的就是趕緊開個反AI的號,從今天開始立人設。

No.6 能不能更具體點

看到這里你可能會有些失望,你說得這些似乎都很寬泛,有沒有更實在具體一點的干貨。

首先,如果你自己沒有任何方向上的思考判斷(并且是結(jié)合你自己過往經(jīng)驗的),我奉勸不要下場,任何只消化表層知識而不建立自身框架的行為都是雁過無痕的,就像收藏=已讀一樣。

其次,如果你真的要…看我的分析庫鏈接吧,里面有69個方向(在這個大章節(jié)的開頭),但是這個庫我后面的更新頻率會越來越低,因為他對我的價值越來越低了。我已經(jīng)過了看遍青山的階段。

03 我們要做些什么準備

思考框架

我們要去判斷這次技術浪潮帶來的改變,基于變化決定我們要做什么準備

  1. 生產(chǎn)力的飛躍,帶來生產(chǎn)效率的提升,重復性工作消亡,并產(chǎn)生更廣闊的生產(chǎn)范圍
  2. 生產(chǎn)力飛躍帶來的認知錯亂,觀念建立就被打破,認知共識后就被拋棄
  3. 生產(chǎn)力與生產(chǎn)關系不適配時產(chǎn)生的陣痛,包括勞動力市場、人文思潮、經(jīng)濟變化

表層知識

1. 擁抱UGA元年

在這里,讓我創(chuàng)造一個詞語:UGA,User Generated application,區(qū)別于UGC。

現(xiàn)在越來越多的趨勢表明,LLM的輻射范圍不僅僅局限在內(nèi)容創(chuàng)作領域,更包括應用創(chuàng)作領域,OpenAI接口的易用性,Github Copilot、Microsoft Power platform的發(fā)布都證明這一點。

以下是一個APP搭建過程中的一些必要勞動:

  • 原型圖/設計稿/宣傳畫:AI繪畫工具搞定
  • 后端/算法/前端:開源框架/Github Cpilot/Microsoft Power platform搞定
  • 數(shù)據(jù):LLM生成搞定
  • 運營:好吧好像暫時還得我自己來

所以你需要做的第一件事是,開始你的創(chuàng)意,并用各種工具努力去把它做出來,不要管他多丑陋、多無聊,開始才是最重要的。

2. 找本質(zhì),先驗勝于后驗

在LLM盛行的未來,表層知識的價值會越來越低,有史可證:

在沒有搜索引擎的時候,我們會記錄所有知識,有了搜索引擎后,知識隨用隨取。

而LLM時代,他比搜索引擎更進一步,能夠幫我們更高效,更匹配地找到所需知識。

那么當LLM落地到手機端甚至VR端的未來,你不僅在電腦面前無所不知,而是隨時隨地無所不知了。

在這種情況下,你最稀缺的能力就是更本質(zhì),更先驗的底層思考框架,就像OpenAI的他們的目標一樣——始終找到更優(yōu)雅的理解這個世界的方式。

3. 保持好奇心,但做好信息管理

飛速變化的世界,會有非常多的信息涌進來,在這方面,我以個人的經(jīng)驗給一些建議:

  • 第一,挑選你的信源。這里要注意你的信源是跟隨你的成長而變化的,有些作者在你初期會覺得很有幫助,但隨著你的自我迭代,他們理應是從信源被移出的——這就是你已經(jīng)平視甚至俯視他了。永遠不要覺得“萬一他發(fā)了一些有用的怎么辦?”,注意力是非常珍貴的,果斷、勇敢下手干掉!移出關注,不看朋友圈,取消訂閱!
  • 第二,做高效飛速的閱讀。我的閱讀習慣是,先從頂部到尾部快速瀏覽一遍,根據(jù)標題或關鍵字判斷內(nèi)容質(zhì)量,然后再判斷是否值得深入閱讀。所以英文世界其實對我很不友好,我不是不能讀英文,但是我的語言水平?jīng)]有到一目十行的地步……這個時候就用一些語言翻譯工具吧。從這個角度來說——文字,其實也是視覺模態(tài)。
  • 第三,做有輸入的閱讀。我現(xiàn)在基本不在移動端閱讀,移動端用來做過濾篩選,我會通過第二點中的方法判斷信息質(zhì)量,然后轉(zhuǎn)發(fā)到稍后閱讀。當天在PC端進行掃貨,然后轉(zhuǎn)譯摘要,記錄到flomo中。如果讀過而不提取精華,那么本質(zhì)和收藏是沒有區(qū)別的。

投身LLM,要從本質(zhì)上想明白的三個問題:未來是什么,哪些機會更好,我們要怎么準備

4.擁抱不可控性

很多人問我,AI產(chǎn)品經(jīng)理有別于其他行業(yè)產(chǎn)品的本質(zhì)區(qū)別是什么。

我的觀點發(fā)表在AIGC之我見 Vol.12,到目前都沒有變過:“技術理解,商業(yè)判斷,產(chǎn)品設計這些都是產(chǎn)品的基本功,不會因為他是AI產(chǎn)品就有本質(zhì)上的區(qū)別。AI產(chǎn)品經(jīng)理最大的本質(zhì)區(qū)別在于對不可控性的控制,他手里的工具在技術、市場、效果等各方面都呈現(xiàn)出極大的不可控性,而產(chǎn)品經(jīng)理最核心的能力就是控制它,在起伏的海浪中尋找One piece”

現(xiàn)在將這句話送給讀到這里的各位,現(xiàn)在這不僅是AI產(chǎn)品經(jīng)理的核心能力了,也是這場時代風暴下所有人應當共有的能力。

本文由@馬丁的面包屑 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自 Unsplash,基于 CC0 協(xié)議

該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務。

更多精彩內(nèi)容,請關注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 寫得不錯

    來自廣東 回復
  2. 大佬方便的話加個微信18357040465一起交流溝通,我是全棧工程師,一直在關注LLM領域的創(chuàng)業(yè)機會

    來自浙江 回復