ChatGPT的創(chuàng)業(yè)機(jī)會(huì)

4 評論 4592 瀏覽 46 收藏 28 分鐘

2023年9月9—10日,人人都是產(chǎn)品經(jīng)理聯(lián)合騰訊大講堂舉辦的【2023產(chǎn)品經(jīng)理大會(huì)(北京站)】完美落幕。宜創(chuàng)科技CEO宜博老師為我們帶來《ChatGPT的創(chuàng)業(yè)機(jī)會(huì)》為題的分享,本文為演講內(nèi)容實(shí)錄。目前大會(huì)回放已上架,戳此購買,即可收看回放:https://996.pm/7gX2B

今天和大家分享的內(nèi)容為《ChatGPT的創(chuàng)業(yè)機(jī)會(huì)》,將和大家分享大模型應(yīng)用的真實(shí)案例,同時(shí)會(huì)理清背后的技術(shù)脈絡(luò)和行業(yè)現(xiàn)狀,最后分享一些自己對當(dāng)前創(chuàng)業(yè)機(jī)會(huì)的想法。

一、介紹N個(gè)AI真實(shí)開發(fā)案例

我們在過去兩個(gè)月里做了20多個(gè)AI案例,每一個(gè)都是真實(shí)案例。大家總覺得大語言模型有幻覺,其實(shí)這是大語言模型AI預(yù)測算法的本質(zhì)。但是怎么找到某些場景,即用大語言模型,又要實(shí)現(xiàn)100%準(zhǔn)確的效果,是每個(gè)創(chuàng)業(yè)者都可以思考的方向。

1. 某行業(yè)領(lǐng)域服務(wù)機(jī)器人場景及落地

這個(gè)例子,是農(nóng)業(yè)企業(yè)做的生成豬飼料配比的服務(wù)機(jī)器人,通過對話,給養(yǎng)殖戶提供豬飼料配方,準(zhǔn)確率可以達(dá)到100%。

第一步,通過多輪對話從養(yǎng)殖戶那里獲得豬的信息,例如豬的品種、豬有多重等。第二步,拿著這些信息去后臺(tái)查詢這種豬需要的營養(yǎng)量。最后,通過算法計(jì)算,獲得準(zhǔn)確的豬飼料配方,返回給養(yǎng)殖戶。同時(shí),我們還做了多意圖識(shí)別,如果想詢問某個(gè)產(chǎn)品的營養(yǎng)含量、產(chǎn)品價(jià)格,結(jié)果都能實(shí)現(xiàn)。

這個(gè)案例解決了一個(gè)行業(yè)難題。一直以來,我們都在朝著精細(xì)化養(yǎng)殖的方向努力,但是養(yǎng)殖戶沒有能力從大量的資料中查閱中得知豬飼料配比,這個(gè)項(xiàng)目就解決了這個(gè)問題。這個(gè)項(xiàng)目獲得了農(nóng)業(yè)部會(huì)議上四個(gè)院士的高度贊賞。

2. 某銀行需求及落地案例

第二個(gè)案例來自上市銀行。每次上市公司年報(bào)分析出來,大家都會(huì)問很多問題。一家商業(yè)銀行提供了他們最常被問到的150個(gè)問題和回答。每一個(gè)問題里都包含著很多行業(yè)的“黑話” ,比如對公貸款、零售貸款等。而這些概念背后對應(yīng)了很多指標(biāo),比如增長率、收入比等,指標(biāo)要轉(zhuǎn)換成公式,公式結(jié)果要整理成報(bào)告。

在此之前,其實(shí)已有其他金融大語言模型公司嘗試做了一下,但出來的數(shù)據(jù)都不能保證正確率,開始我們采用了大模型結(jié)合向量搜索的方式嘗試,也不能保證100%準(zhǔn)確。后來我們用大模型加工作流的方式解決了這個(gè)問題。

第一步,把數(shù)據(jù)抽取出來存到數(shù)據(jù)庫里。第二步,用大模型做分詞,也就是從用戶輸入問題的內(nèi)容里提取出各種指標(biāo)。第三步,查詢指標(biāo)和指標(biāo)公式,讓大模型融合生成數(shù)據(jù)庫查詢,生成準(zhǔn)確的計(jì)算結(jié)果。

最后,將準(zhǔn)確的計(jì)算結(jié)果再次輸入大模型,做一輪知識(shí)融合,可以轉(zhuǎn)化API為領(lǐng)域機(jī)器人進(jìn)行全域問題查詢,實(shí)現(xiàn)100%數(shù)據(jù)準(zhǔn)確。

3. 某KMS機(jī)器人集成飛書釘釘場景

第三個(gè)案例,來自于醫(yī)院醫(yī)療設(shè)備的維護(hù)廠商。原本的維護(hù)方式存在文檔繁多、格式復(fù)雜、需要實(shí)時(shí)翻譯、需要定位圖文結(jié)果二次校驗(yàn)等問題。而我們的案例很好地解決了KMS知識(shí)庫交互復(fù)雜的問題。

我們將各種格式、各種模態(tài)、各種語言的文檔都傳入向量數(shù)據(jù)庫里,通過配置流程的方式形成。在使用過程中,機(jī)器人會(huì)先用多輪對話的方式,獲得當(dāng)前故障的多級錯(cuò)誤碼等信息。回復(fù)的結(jié)果通過圖文等形式展示,自動(dòng)翻譯,并索引原文位置。

4. 某代碼生成需求及落地

這個(gè)案例的需求來自于國內(nèi)一個(gè)API廠商。針對一句話描述,生成一個(gè)代碼片段,直接嵌入使用。

5. 工作流自動(dòng)代碼生成案例及介紹

通過自然語言描述一個(gè)工作流步驟,生成一個(gè)工作流,并可以馬上執(zhí)行。

6. ChatBI 人工智能報(bào)表場景及落地

ChatBI,是用自然語言生成報(bào)表,特別受到運(yùn)營同學(xué)、產(chǎn)品同學(xué)以及老板的喜歡。因?yàn)槔习蹇吹降膫鹘y(tǒng)報(bào)表內(nèi)容很有限,如果想看到額外維度的報(bào)表,所花費(fèi)的時(shí)間可能要等產(chǎn)品技術(shù)同學(xué)做幾天甚至一個(gè)禮拜,現(xiàn)在則一句話就能快速看到報(bào)表結(jié)果。

7. 電子郵箱AI助手:一句話整理電子發(fā)票并發(fā)送給財(cái)務(wù)報(bào)銷

借助電子郵箱AI助手,你可以輸入一句話對郵箱郵件做處理,可以做電子發(fā)票的附件整理,也可以做多輪對話,比如對和某一個(gè)客戶之間的關(guān)系做分析和總結(jié);電子郵箱AI助手甚至可以幫忙生成郵件話術(shù)。

二、了解GPT時(shí)代的底層邏輯

在了解完落地的案例之后,給大家介紹一下GPT時(shí)代背后的底層邏輯。

1. 什么是參數(shù)與向量

在傳統(tǒng)IT系統(tǒng)里關(guān)鍵詞搜索“狗”這個(gè)關(guān)鍵詞,是搜索不到“金毛”這個(gè)詞的。但在向量時(shí)代,“金毛”這個(gè)詞有一個(gè)特征值是“類型”,“金毛”的類型是狗,所以當(dāng)你搜索“狗”,便能夠查到“金毛”對應(yīng)的內(nèi)容。

又比如,想找長毛的大型犬。由于向量數(shù)據(jù)庫里記錄了各種狗的毛長特征值、體型特征值,所以你可以搜索到結(jié)果。如下圖所示,這就構(gòu)成一個(gè)二維的特征空間,特征分別是毛長、體型,這里每一個(gè)特征值就對應(yīng)是大模型一個(gè)參數(shù)。

現(xiàn)在“金毛”這個(gè)詞在 GPT-3 里有 1750 億個(gè)參數(shù),也就是有 1750 億個(gè)特征值。這個(gè)值是通過知識(shí)大量的文本關(guān)聯(lián)和訓(xùn)練、神經(jīng)網(wǎng)絡(luò)多層的訓(xùn)練來得到的。GPT-4 共有 1.8 萬億個(gè)參數(shù),GPT-5 號(hào)稱有 100 萬億個(gè)參數(shù),也就是說,一個(gè)詞在 GPT-5 里未來會(huì)有 100 萬億個(gè)特征值。

2. 大模型訓(xùn)練的三要素:數(shù)據(jù)集數(shù)量、訓(xùn)練強(qiáng)度、參數(shù)

大模型訓(xùn)練有三個(gè)要素。第一個(gè)要素是數(shù)據(jù)量,比如 GPT-3 有 45 個(gè) TB 的數(shù)據(jù)集容量,也可以用tokens表示,比如 GPT-4 在約 13 萬億 tokens 上訓(xùn)練。第二個(gè)要素是訓(xùn)練強(qiáng)度,Train FLOPs,比如是 5E 的 24 次方。第三個(gè)要素是參數(shù)值,比如 13B,175B 等等。

人的大腦大概有 150 億個(gè)神經(jīng)元,有大概 100 萬億的神經(jīng)突觸。人的神經(jīng)突觸對應(yīng)的就是參數(shù)量,可以想見,GPT-5 的參數(shù)量將會(huì)和人的大腦的參數(shù)量基本一致。而現(xiàn)在 GPT-4 只有 1. 8 萬億,可以想象一下,明年的這個(gè)時(shí)候,我們世界又會(huì)來迎來一個(gè)很大的變化,因?yàn)?GPT-5 誕生了。

3. 大模型應(yīng)用兩種開發(fā)方式

大模型的開發(fā)模式有兩種。

第一種叫做 pre-training + fine tuning + Prompt Engineer。

通俗的理解是,pre-training,即通識(shí)教育,相當(dāng)于現(xiàn)在有一個(gè)孩子,你要教他認(rèn)字、學(xué)算數(shù)、做推理。這個(gè)步驟產(chǎn)生的是基礎(chǔ)大模型。

第二個(gè)部分叫微調(diào)(Fine tuning),微調(diào)其實(shí)相當(dāng)于大學(xué)的專業(yè)課,比如你是學(xué)法律的,你會(huì)接觸一些法律的條款、法律名詞;你是學(xué)計(jì)算機(jī)的,就會(huì)知道什么叫計(jì)算機(jī)語言。

第三個(gè)部分,是職業(yè)訓(xùn)練。假設(shè)一個(gè)法律學(xué)生大學(xué)畢業(yè)了,這個(gè)時(shí)候,他是不能直接去打官司的,他必須要經(jīng)過職業(yè)訓(xùn)練,才能保證專業(yè)度。什么叫專業(yè)度?就是準(zhǔn)確率。這個(gè)時(shí)候,AI應(yīng)用的準(zhǔn)確率要達(dá)到商用級別,也就是超過人的準(zhǔn)確率,所以這需要 prompt engineer,這就是 PE 的重要性。

第二種開發(fā)模式,其實(shí)是可以繞過fine tuning去做PE,而后落地一個(gè)AI APP。有一個(gè)好的基礎(chǔ)大模型,加上一個(gè)好的PE,就能做出一個(gè)好的應(yīng)用。

4. 人機(jī)協(xié)同三種模式

人機(jī)協(xié)同三種模式。第一種叫AI Embedded模式,在某一個(gè)環(huán)節(jié)里去調(diào)用大模型。第二種叫AI Copilot模式,每個(gè)環(huán)節(jié)都可以跟大模型進(jìn)行交互。第三種是AI Agent模式,任務(wù)交給大模型,大模型即可自行計(jì)劃、分解和自動(dòng)執(zhí)行。

5. 現(xiàn)在預(yù)訓(xùn)練,微調(diào)一個(gè)大模型需要多少成本

3 月份的時(shí)候,訓(xùn)練一個(gè)GPT-3. 5大概需要 1200 萬美金。但是最近英偉達(dá)新發(fā)布的數(shù)據(jù),HGX A100 用 4000 個(gè)GPU,在4天里訓(xùn)練出 175B 的大模型;如果用 HGX H100 的話,則只需要一天,其效率比 HGX A100 了四倍,成本降低了十倍以上。所以未來訓(xùn)練模型的成本會(huì)越來越低,而模型會(huì)變得越來越大?,F(xiàn)在大家自己做一個(gè) 6B 的小模型,或許人民幣幾百萬即可搞定,而這放在 3 月份的時(shí)間節(jié)點(diǎn),只會(huì)讓人覺得不可思議。

6. ChatGPT的歷史

ChatGPT 的發(fā)布引爆了時(shí)代,而背后可以歸溯到 GPT-3,GPT-3是一個(gè)重要節(jié)點(diǎn),因?yàn)镚PT-3出現(xiàn)了涌現(xiàn)能力,比如上下文學(xué)習(xí)。Codex 涌現(xiàn)出一個(gè)能力叫 COT思維鏈,隨后InstructGPT有了人類反饋學(xué)習(xí),接著再有ChatGPT、GPT-4 等。

AGI 是 General AI 通用人工智能 ,如何理解 AGI 的核心?我打個(gè)比方,AGI 就像會(huì)72變的孫悟空。以前牛魔王需要訓(xùn)練很多妖精去組成一個(gè)軍隊(duì),一個(gè)蛇精需要修煉300 年,一個(gè)熊精需要修煉500年。而現(xiàn)在有個(gè)基礎(chǔ)大模型,它會(huì)72變,拔一把猴毛,吹一口Prompt,就可以幻化出天兵天將,這就是通用大模型。

7. 涌現(xiàn)

GPT-3 開始發(fā)現(xiàn)有涌現(xiàn)能力,這區(qū)別于以往人類歷史上的所有模型,涌現(xiàn)里有很重要的一個(gè)能力,叫“知識(shí)推理”,涌現(xiàn)是指系統(tǒng)的數(shù)量變化導(dǎo)致行為的質(zhì)量變化,像計(jì)算、翻譯、上下文學(xué)習(xí)、思維鏈等,都是涌現(xiàn)能力。

沒有涌現(xiàn)能力的大模型都是復(fù)讀機(jī)。若要有涌現(xiàn)能力,參數(shù)值的數(shù)量是必要非充分條件,比如上下文學(xué)習(xí)能力,沒有100b的參數(shù)值,是不可能出現(xiàn)涌現(xiàn)的。但是你的模型有了100B的參數(shù),卻不一定能有上下文學(xué)習(xí)涌現(xiàn)出來。

GPT-4擁有了更多的涌現(xiàn)能力,它能做情緒感知,能讀懂幽默,看懂人類的笑話,能在沒訓(xùn)練過的情況下,用圖形畫出一個(gè)獨(dú)角獸。這就是GPT-4涌現(xiàn)出的能力,包括音樂、代碼、數(shù)學(xué)、具身交互、解釋行為、情緒感知等。

8. 大模型奇點(diǎn)

西方宗教里,亞當(dāng)夏娃偷吃了“知識(shí)之果”,開始學(xué)會(huì)知識(shí)推理,進(jìn)而學(xué)會(huì)萬事萬物。我們現(xiàn)在創(chuàng)造的大模型,它具備了知識(shí)推理能力,相當(dāng)于已經(jīng)“偷吃”了知識(shí)之果,未來可能我們?nèi)祟惸芸刂拼竽P偷闹皇O掳坞娫?,這也是不少西方人對其感到恐懼的原因。

在陸奇的觀點(diǎn)里,人類掌控環(huán)境通過三個(gè)步驟,感知、思考、實(shí)現(xiàn)。對應(yīng)信息、模型、行動(dòng)。信息化就是信息由系統(tǒng)實(shí)現(xiàn),模型和行動(dòng)還由人來實(shí)現(xiàn),數(shù)字化就是信息和模型都由系統(tǒng)來實(shí)現(xiàn),行動(dòng)由人來實(shí)現(xiàn),比如抖音里你看什么內(nèi)容已經(jīng)不是人決定的,是模型,你只有決定看不看、看多久、劃不劃走的決定權(quán)。而智能化時(shí)代,我們進(jìn)入了全新的范式拐點(diǎn),信息、模型、行動(dòng)都由系統(tǒng)來實(shí)現(xiàn)了。

所以未來十年,最重要的能力是學(xué)習(xí)使用大模型。

三、熟悉LLM時(shí)代Prompt Engineer開發(fā)范式

第一層:簡單Prompt的例子

即編寫一個(gè)提示詞(Prompt)去調(diào)用大模型,這是最簡單的形式,這里就不多贅述了。

第二層:Plugin

也就是用大模型插件(Plugin)去調(diào)各種API。

第三層:Prompt Engineering Workflow + OpenAI API

基于提示詞工程的工作流(workflow)編排。上文提到的AI應(yīng)用就是基于工作流實(shí)現(xiàn)的。以ChatBI為例,通過編排工作流,定義如何獲取數(shù)據(jù)庫結(jié)構(gòu)、如何寫Prompt、如何調(diào)大模型,實(shí)現(xiàn)全部自動(dòng)化。只需要輸入一句話,就能沿著工作流自動(dòng)執(zhí)行,輸出結(jié)果。

第四層:VectorDB集成

VectorDB包含著數(shù)據(jù)的特征值,現(xiàn)在最好的AI應(yīng)用落地方案就是VectorDB,包括做知識(shí)庫、做客服機(jī)器人,這些都是VectorDB的應(yīng)用。

第五層:AI Agents

現(xiàn)在這個(gè)概念特別火,最重要的邏輯就是讓大模型自己做遞歸。AI自己對任務(wù)進(jìn)行拆解,再進(jìn)一步遞歸、繼續(xù)拆解,直到有一步,AI可以將這個(gè)任務(wù)執(zhí)行,最后再將任務(wù)合并起來,往前遞歸回來,合并為一個(gè)工程。這就是Agent的原理。

第六層:領(lǐng)域模型Domain Model

專業(yè)模型為什么重要?大參數(shù)的基礎(chǔ)模型的訓(xùn)練和推理成本是非常高的,而專業(yè)模型速度快、成本低、準(zhǔn)確率高,因?yàn)槟阌行袠I(yè)的高質(zhì)量數(shù)據(jù),所以準(zhǔn)確率高;進(jìn)而可以形成數(shù)據(jù)飛輪,形成自己的競爭優(yōu)勢。

未來這個(gè)世界一定會(huì)由幾家大模型公司,再加上每家公司都得有自己的小模型,如果你的公司沒有小模型,那么你的公司將沒有存在價(jià)值。

四、可視化LLMOps助力AI創(chuàng)業(yè)10倍降本

1. 中國大模型時(shí)代痛點(diǎn):應(yīng)用層與模型層存在巨大的中間層鴻溝

現(xiàn)在的大模型時(shí)代存在很大的問題——不能用、不會(huì)用、用不起、不好用。

這也是我們做開發(fā)范式中間層框架的原因。我們做了500+機(jī)器人模板市場,模板下載開箱即用,也對接各類國內(nèi)外大模型API,支持私有部署各類開源大模型,同時(shí)用戶可以定制Prompt Chain開發(fā),三步可視化配置,相當(dāng)于做了一個(gè)無代碼版的 LangChain。

可以這么理解,產(chǎn)品經(jīng)理可以在不需要任何編程的情況下把流程 workflow 搭建出來,搭建出來之后,產(chǎn)品經(jīng)理可以把系統(tǒng)再集成到任何一個(gè)產(chǎn)品里。

我們也用 API 的方式將它集成在了各個(gè) IM 里,在 IM 里加一個(gè)機(jī)器人,即可以變成一個(gè)新的小程序或者APP。所以在不需要算法工程師、不需要前后端工程師的情況下,我們可以在很短的時(shí)間內(nèi)開發(fā)想要的 AI 應(yīng)用。

我們想幫助企業(yè)構(gòu)建數(shù)據(jù)飛輪。當(dāng)有越多數(shù)據(jù)時(shí),結(jié)果就會(huì)越準(zhǔn)確;當(dāng)結(jié)果越準(zhǔn)確,就會(huì)有越多客戶選擇使用;當(dāng)有越多客戶使用,我們就可以積累更多的高質(zhì)量問答數(shù)據(jù)。這些問答數(shù)據(jù)一定要保存好,這是你未來的立命之本。

2. 向量處理全流程可視化

怎么處理向量?一般分這幾步——知識(shí)庫文件云盤管理、選擇切割方式及模型、可視化管理存儲(chǔ)和管理CRUD 向量數(shù)據(jù)庫、可視化追蹤TopK Fact 搜索結(jié)果、可視化對接大模型知識(shí)融合生成結(jié)果報(bào)表和自主定義文檔架構(gòu)循環(huán)遍歷生成專業(yè)文檔。

五、 AI First第一性特性挖掘創(chuàng)業(yè)機(jī)會(huì)

AI First就是AI的第一性原理。在移動(dòng)時(shí)代,08 年、10 年出現(xiàn) iPhone 和安卓的時(shí)候,你有想過 Mobile first誕生了什么應(yīng)用嗎?當(dāng)時(shí)是無法想象的。類比到今天也是如此,今天ChatGPT誕生了 ,你同樣無法想象 5 – 10 年之后,這個(gè)世界會(huì)被 AI 改變成什么樣子。

什么叫 AI first?AI 的第一性原理特性又是什么?我給大家總結(jié)了 5 條。

1. 對話文本

第一,泛化的文本對話能力;在此之前,所有的AI沒有辦法做角色扮演,也沒有辦法用一個(gè)AI去生成多種文檔,不能做到既生成文本、又生成代碼。

2. 向量處理(非結(jié)構(gòu)化文本數(shù)據(jù))

第二,向量處理;以前我們只能一一搜索,現(xiàn)在可以特征搜索。以前你需要將文檔打標(biāo)簽結(jié)構(gòu)化,現(xiàn)在只需要上傳并切割存儲(chǔ)就可以使用了。

3. 數(shù)據(jù)分析(非結(jié)構(gòu)化數(shù)據(jù)、歸因分析、算法分析)

第三,非監(jiān)督的數(shù)據(jù)處理;以前的數(shù)據(jù)處理需要人去將數(shù)據(jù)歸因出來、算法歸因出來才能做處理?,F(xiàn)在有了大模型,可以自動(dòng)根據(jù)數(shù)據(jù)得到數(shù)據(jù)建?;蛘咭?guī)則,進(jìn)而自動(dòng)開發(fā)出來軟件,也可以直接對數(shù)據(jù)做歸因分析。

4. 知識(shí)推理(具身智能)

第四,知識(shí)推理,也就是能夠?qū)⒅悄艽罱榭尚袆?dòng)的系統(tǒng)。我們可以看李飛飛老師在論文中舉的例子。

我們可以對機(jī)器人說一句話,比如把垃圾放到藍(lán)色的盒子里,把面包放到烤面包機(jī)里,或者打開維生素瓶子,這些語句機(jī)器人都能識(shí)別并執(zhí)行。比如詢問兩塊磚塊哪個(gè)更重,它會(huì)自己去進(jìn)行規(guī)劃,搭建一個(gè)臺(tái)子,看看哪個(gè)磚塊滑得更遠(yuǎn);又或者我想把抽屜打開一半,機(jī)器人會(huì)把抽屜先全部拉開,測量到全距離后,再計(jì)算一半的距離,然后再把它合上一半距離。

5. AI Agent

第五,AI Agent。你可以用AI幻化為多個(gè)智能體,甚至能讓AI討論出一個(gè)具體的方案。

六 、如何迎接這一次創(chuàng)業(yè)浪潮

最后聊聊我個(gè)人對這次的創(chuàng)業(yè)浪潮的理解。

觀點(diǎn)1:未來的創(chuàng)業(yè)機(jī)會(huì)在中間層

首先,未來創(chuàng)業(yè)機(jī)會(huì)一定在中間層。美國已經(jīng)沒有大模型的機(jī)會(huì)了,國內(nèi)可能還有,但是機(jī)會(huì)也已經(jīng)不多。

為什么不在應(yīng)用層?因?yàn)閼?yīng)用層特別薄,只剩下 Chat UI 了,不需要你再去做設(shè)計(jì)界面等復(fù)雜的東西,它只有一個(gè) Chat UI。但 UI 背后的部分是需要大家好好去設(shè)計(jì)的。

另外,應(yīng)用層不是指應(yīng)用本身,現(xiàn)在能實(shí)現(xiàn)端到端的應(yīng)用應(yīng)該是我們創(chuàng)業(yè)最大的方向。

觀點(diǎn)2:Chat+是一種新的計(jì)算平臺(tái)革命,所有行業(yè)都適合被改造一遍,也會(huì)誕生新的硬件平臺(tái)

第二,我們會(huì)有一個(gè)新的硬件平臺(tái),可能是耳機(jī)、眼鏡等,然后這類硬件平臺(tái)可以用來替代手機(jī)。很快在未來,我們就能看到。

觀點(diǎn)3:大機(jī)器人時(shí)代的來臨

第三,大機(jī)器人時(shí)代來臨,或許LLM+成為機(jī)器人會(huì)從功能性進(jìn)化到智能的底層OS。通用機(jī)器人加上通用大模型,可能徹底地改變?nèi)祟惖纳a(chǎn)力方式。我在3月份曾經(jīng)預(yù)測過,特斯拉推出了通用人形機(jī)器人,一定會(huì)自己做一個(gè)通用大模型。果不其然成立了x.ai。

此外,在未來,什么領(lǐng)域不會(huì)被GPT-X折疊?個(gè)人覺得首先,非虛擬的;其次,擁有私有數(shù)據(jù)和隱私數(shù)據(jù)的;再者,會(huì)念Prompt咒語的;最后,一定要有自己的專業(yè)/領(lǐng)域模型。

我們常常聽到這類表述,人間一天, AI一年。創(chuàng)業(yè)者到底要怎么做,是我們亟需思考的問題。

2011年我曾經(jīng)畫過這張圖預(yù)測,每個(gè)象限里會(huì)都會(huì)誕生偉大的公司,人找數(shù)據(jù)誕生了谷歌和百度,人找人誕生了 Facebook 和微信,數(shù)據(jù)找人也一定會(huì)誕生,只是那個(gè)時(shí)候不知道什么,現(xiàn)在來看就是字節(jié)跳動(dòng)的推薦算法。今天看到的,數(shù)據(jù)找數(shù)據(jù),其實(shí)就是大模型。

這里再分享幾個(gè)Sam Altman的觀點(diǎn)。

“一個(gè)全新的摩爾定律可能很快就會(huì)出現(xiàn),即宇宙中的智能數(shù)量每18個(gè)月翻一番;”

因?yàn)锳I被應(yīng)用于勞動(dòng)力中,“住房、教育、食物、衣服等,每兩年就便宜一半。”

正如黑格爾所說,“人類都是帶著恐懼和希望共同走進(jìn)未來。”希望大家活在當(dāng)下,做自己能做的事情。悲觀者永遠(yuǎn)正確,樂觀者永遠(yuǎn)前行。

大會(huì)直播回放

目前大會(huì)回放已上架,戳此購買,即可收看回放:https://996.pm/7gX2B

本文為【2023年產(chǎn)品經(jīng)理大會(huì)(北京站)】 現(xiàn)場分享整理內(nèi)容,由人人都是產(chǎn)品經(jīng)理智囊團(tuán)@左遷 整理發(fā)布。未經(jīng)許可,禁止轉(zhuǎn)載,謝謝合作。

題圖來自大會(huì)現(xiàn)場

該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺(tái)僅提供信息存儲(chǔ)空間服務(wù)。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號(hào)或下載App
評論
評論請登錄
  1. 文章寫的很全面,這里提一個(gè)可能存在的刊誤:““金毛”這個(gè)詞在 GPT-3 里有 1750 億個(gè)參數(shù),也就是有 1750 億個(gè)特征值?!?,單個(gè)詞不可能有1750億個(gè)特征,transformer貌似最大是512維

    來自北京 回復(fù)
  2. 文章寫的很全面,這里提一個(gè)可能存在的刊誤:““金毛”這個(gè)詞在 GPT-3 里有 1750 億個(gè)參數(shù),也就是有 1750 億個(gè)特征值?!?,單個(gè)詞不可能有1750億個(gè)特征,transformer貌似最大是512維

    來自北京 回復(fù)
  3. 悲觀者永遠(yuǎn)正確,樂觀者永遠(yuǎn)前行。

    來自北京 回復(fù)
  4. 數(shù)據(jù)找數(shù)據(jù)??

    來自廣東 回復(fù)