用好AI的第一性原理,就是把人腦當成一種大模型!

0 評論 300 瀏覽 0 收藏 12 分鐘

在當今數字化時代,人工智能尤其是大語言模型的應用日益廣泛。本文深入探討了如何將人腦的思考模式與大語言模型的運作機制相結合,以更高效地利用這一強大的技術工具。

人腦,是一個復雜且高度優化的“大模型”。

很多朋友問我,怎樣才能用好大模型?我說你把人腦也當做一種大模型(雖然大模型本身就是在模仿人腦的運作原理),平時你是如何記憶、理解、思考和輸出的,那你就會對大模型的運作機制了如指掌。

我把大語言模型當成我的外掛系統:

一是它的無限知識庫,基于它數據庫的無限性,彌補我知識獲取的有限性。

二是它的超強計算力,調動各個板塊知識的算力無限性,解決我精力有限的問題。

*這里講的大模型專指使用大量文本數據訓練的大語言模型(LLM,Large Language Model)。

大腦是有保護機制的,一旦用腦過度超出負荷,就會開始頭疼宕機。

有了大語言模型,就像是鋼鐵俠有了賈維斯??苹闷倪壿嬙谟趶拈L期角度,預測未來人的可能性,以及人與科技的關系。

人的天花板不是AI的天花板,AI的天花板更不是人的天花板,雙方配合才能突破天花板。

很多人把智庫系統當成搜索工具,當大模型當成小助手,這樣的話可就真的大材小用了。

一個懂行業、懂領域、懂大語言模型的人,如果再利用好大語言模型這個全球級知識庫和超級計算機運算能力,可想而知天花板有多高。

我們完全可以踩在巨人的肩上,拾級而上。

大模型是我的庫,是我的外掛超級算力系統,是我隨意可以克隆出來的巨擘,細分領域專家。只要我跟大佬的能力越近,我的行業理解越深,領域研究越深,執行能力越強,我就可以在這個基礎上做指數級增長。

大語言模型涉及神經科學、數學、計算機科學、數據科學、語言學等等,這是它存在的底色。

大語言模型的本質并非文字本身,要把文字理解成特定的程序代碼。你每次的問問題,都是一次敲代碼。它每次的答復你,也是基于對于代碼的理解。

字詞就是一個個代碼,關系也是一段代碼,而非像人的神經元理解一樣,可以做到直接調取它的語義。你可以把提示詞、知識庫、訓練當成是代碼,而非文案的邏輯。

接下來我嘗試用通俗的大白話進行理解,希望對你有用。

一、知識庫準備階段

大語言模型的知識庫基于機器掃描和處理,人腦的知識庫基于過往工作和生活的日積月累。

1. 收集信息

大語言模型相當于是一個超級知識庫,把所有公開半公開在書籍、論文、期刊、文章、網頁都掃描了一遍。

在量的層面直接吊打人腦,但人腦掌握了核心的非公開資料,一是本身存在于腦子里,二是這些資料本身未公開出來。人腦是定制化的,是更深度的,是非范式的。

2. 存儲信息

大語言模型記住并非是語言文字本身,而是將文字(字詞為字段)轉換成一個個對應的數字代碼(數學的邏輯),并通過計算這些向量之間的距離來衡量語義的相似性(你可以理解為大語言模型里的知識就像無數個小格子,通過數學和概率的邏輯來調動這些小格子,以及它們的排列組合,連貫起來)。

這里要注意,它是基于龐大數據庫都認可的普適性語義理解和常規式邏輯關系。

這種存儲方式首先解決了成本和效率的問題,更少的存儲空間和更少的并行算力調取成本,使得模型可以存儲足夠的信息量和快速檢索和處理大量文本數據。

當然,這種記憶方式決定了很難像單個人具備的關聯性和情境性,你可以把人工比喻成更專業的小模型和在這個小模型里更強的算力運轉。在大模型的概率統計生成之上,帶有了自己的經驗和情感,而這兩個恰恰是更高維的信息庫。

人對信息寬度記憶有限,但對記憶的豐富度更強,加入了感官理解。

因為每次學習都會用過往的框架進行理解,調動的不是單向的,還有實踐過程中得到的,這些是基于定制化的,沒有反映到公開的文本環境中,而是存儲在自己的大腦。

人腦是面和體的吸收,而非線性,是高維多模態,還通過圖像、聲音甚至肢體語言形成認知。人腦是不斷在迭代的,人腦的智能化是用神經元,其實是更高級的,當然,這得是一個“思考”的人。因為思考的過程,也是訓練的過程,也是迭代的邏輯。

如果把人腦和大語言模型的優勢結合起來,配合起來,可想天花板有多高。

人不是簡單地存儲數據、單純調用里面的小格子。神經元存儲的邏輯在于,建立了一套更高維更立體的關系,這里面是加入了我們的理解。加入了我們的記憶(和消化),這些記憶是高度情境化,是強大關聯性性的,可以靈活地將不同類型的記憶串聯起來。

二、理解輸入階段

當你提問時,大語言模型會先分拆問題,將你的問題拆解成一個字詞(字段),并提取上下文信息(狹義上是對話窗口,廣義上是智能體的提示詞和知識庫),以此來識別你想要的答案。

1. 接收信息

比如你問“什么是人工智能?”,它其實是不能直接理解這句話的意思,因為它存儲的邏輯是用數字向量的形式,而非像人一樣一步到位理解語義。

于是它把你的問題分解成最小理解單元,“什么”+“是”+“人工智能”+“?”。

每個最小理解單元,甚至包括標點符號,都會被轉換成一個個數字代碼。你可以理解成這是它才能處理的格式。

所以我們的問題一定要足夠簡單,能刪的部分全部都要刪,保留最核心的字段。

2. 理解信息

接下來它的注意力機制就會啟動,就是找到你這句話的關鍵詞,也就是它理解的最重要的數字代碼。

在這個問題中顯然核心詞是“人工智能”,大模型會給到這個詞更高的權重,以此來回答針對性的問題。

同時它還會關注周邊的影響代碼,“什么”表示疑問,“是”表示定義問題。

大語言模型記住的語言模型,是字詞句之間的遠近關系,從而決定了輸出的概率。

三、思考處理階段

先是信息搜索,在知識庫的一個個小格子之中找到和“人工智能”相關的信息。

然后是信息關聯,將掃描過不同來源的信息做關聯,類似與東拼西湊排列組合。

最后是信息組織,根據你問問題的方式,來決定自己的表達方式,確?;卮鸬慕Y構和邏輯是你想要的。

大語言模型的思考處理是依托于普適化的模式識別和概率推理。

人腦的思考一方面是自己過往形成雙重決策系統,一是理性邏輯系統,二是感性的直覺經驗系統。當然,這套系統不同人千差萬別,上限很高,下限也很低。

四、輸出回答

這是模仿人腦組織語言表達的過程。在輸出回答層面,主要分為五大要點:定輸出框架、定專業程度、定詳細程度、定表達風格、連貫性表達。

1. 定輸出框架

即使你就是簡單問“什么是人工智能?”大模型也可能會做延展,不僅講它的定義,還有技術構成、發展階段 、應用領域、挑戰與風險等。

因為在它的思考過程中,后面幾個部分和定義這個格子關系很近,需要對這幾個部分做產出,才能更全面理解定義。

但人腦就不一樣,很清晰你知道你具體要的是什么,你就是簡單要一個定義,我根本不需要進行贅述,如果你要問其他的,我才會回答。因為我知道你的語義意圖,也就是更理解人本身。

2. 定專業程度

即使同樣的觀點,也有不同的內容輸出形式。根據你的場景,看你需要小白級、入門級,還是專業級的回答。

這個時候對方調動的就是它另外的小格子,確定用什么樣的方式能讓你更理解。

3. 定詳細程度

你可以明確告訴大語言模型的詳細程度,是細化還是詳述,還可以具體到多少個字、字數區間、多少字以上。

4. 定表達風格

就像寫文章一樣,不同的文章有不同的寫作風格。是專業級還是大白話,是客觀還是主觀。

5. 連貫性表達

最后,模型會檢查自己的回答,確?;卮鸬倪壿嬓院驼w性,做到重點突出、前呼后應、層次分明,讓人聽得明白。如果不連貫,哪怕每句話都沒問題,但結合起來就會顯得非常亂。

總結

開始很重要,重要的是先開始。只有在高強度使用的過程中,才能找到更多的可能性。

用好AI 的本質是理解人,當你把人腦看作大模型,并不斷反思自身學習與思考的方式時,便能更好地運用 AI。

本文由人人都是產品經理作者【藏鋒】,微信公眾號:【策略人藏鋒】,原創/授權 發布于人人都是產品經理,未經許可,禁止轉載。

題圖來自Unsplash,基于 CC0 協議。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!