AI的涌現現象:希望還是夸大其詞?

1 評論 4617 瀏覽 8 收藏 30 分鐘

隨著人工智能技術的飛速發展,大型語言模型的涌現能力成為了科技界熱議的話題。然而,關于AI是否具備類似人類認知的涌現能力,科技界的領袖們持有不同的看法。本文將深入探討AI涌現現象的內在邏輯及其面臨的挑戰,并分析功能涌現與意識涌現的區別。


隨著人工智能技術的迅猛發展,尤其是大型語言模型的廣泛應用,AI是否具備類似人類認知的“涌現”能力,成為當前最熱議的話題之一。所謂涌現現象,指的是簡單組件相互作用,產生出遠超預期的新能力,這一現象引發了科技界對AI未來潛力的激烈討論。然而,涌現現象在AI領域中的存在與重要性仍存爭議,科技界的領袖們對此持有不同看法。他們的觀點既反映了對AI潛力的樂觀期望,也揭示了對其局限性的謹慎態度。

OpenAI首席執行官Sam Altman認為,大型語言模型展現了許多出乎意料的能力,可被視為“涌現”現象。隨著模型規模和復雜性的提升,AI系統可能會表現出越來越多難以預測的行為。比如,GPT-3和GPT-4展示了高質量文本生成能力,不僅超越了簡單的詞匯預測,還展現了對語境和語義的深刻理解,甚至能夠進行創意寫作和編程。

深度學習領域的先驅Geoffrey Hinton持相似觀點,認為隨著模型規模的擴大,AI中的涌現現象愈加明顯。這些模型在訓練過程中獲得的知識和能力,源于龐大數據的復雜模式,而非程序員的直接設計。他指出,大模型在沒有明確編程的情況下學會了自然語言的識別和生成,這是一種新興的機器學習現象。

DeepMind聯合創始人Demis Hassabis也強調,涌現是理解智能的關鍵方式。他認為,AI在復雜任務中展示出的能力往往超出研究人員的最初設想,這表明涌現現象在智能系統中發揮了重要作用。AlphaGo通過深度學習和強化學習掌握了超越人類水平的圍棋技能,就是這種現象的典型案例。

然而,并非所有人都認同AI的“涌現”現象。認知科學家Gary Marcus對此持懷疑態度,認為這些能力常常被夸大。Marcus指出,這些模型依賴數據驅動的統計學習,而非真正的理解或智能,它們在現實世界中的常識推理任務上表現不佳,未能展現出超越其數據訓練范圍的能力。

Meta首席AI科學家Yann LeCun也對涌現現象的重要性持保留態度。他承認大模型展示了一些驚人的能力,但并不認為這證明了它們具備人類智能的涌現現象。LeCun認為,當前的AI模型依然受限于數據和算法,在沒有大量數據支持的情況下,難以應對新的任務或環境。

在這場關于AI涌現現象的辯論中,科技界展現了復雜的態度:一方面,對其潛力充滿期待,另一方面,又對其局限性深感憂慮。本文將從“什么是涌現”、功能涌現與意識涌現的區別入手,深入探討AI涌現現象的內在邏輯及其面臨的挑戰。

一、什么是涌現?

“涌現”(Emergence)最早起源于哲學領域。19世紀,英國哲學家喬治·亨利·劉易斯(George Henry Lewes)首次用這個詞來描述那些無法通過組成部分的性質解釋的整體特性,即“整體大于部分之和”的現象,也就是所謂的“1+1>2”。雖然“涌現”作為哲學概念被討論了很長時間,并經常出現在科技前沿的形而上學分析中,但本文將避免使用這些形而上學的概念,而是從復雜系統科學和計算機科學的角度來解讀“涌現”。

系統科學家穆雷·蓋爾曼(Murray Gell-Mann)和斯圖爾特·考夫曼(Stuart Kauffman)通過對復雜系統中自組織行為的研究,進一步發展了“涌現”的概念。他們認為,“涌現”指的是在復雜系統內,簡單組件通過相互作用自然產生的某些特性或現象。這意味著,整體所展現的特征或行為不能簡單地從其組成部分的性質中推導出來,而是在這些部分的相互作用中自發產生的。涌現現象側重于解釋復雜系統如何在沒有外部指令或中央控制的情況下,通過系統內部的簡單規則和相互作用,形成新的有序結構和行為。這表明,復雜性可以自然地產生,而不需要外部干預或預先的詳細設計。

1. 涌現的核心特征包括:

  • 自組織性:涌現行為是自發的,不依賴外部的中央控制或指令。系統通過自身的動態過程,自然而然地形成某種有序結構。
  • 簡單規則的非線性作用:涌現行為源于系統中組成單元(如個體、細胞、分子等)之間的非線性相互作用。盡管這些相互作用可能看似簡單,但它們的組合和交互作用會導致難以預測的整體行為。
  • 多尺度的涌現:涌現現象可以發生在不同層次或尺度上。例如,從原子到分子、從分子到細胞、從細胞到有機體,每個層次都展示出新的行為或特性,形成一個層次化的過程。
  • 有序性邊緣性:涌現往往發生在系統介于混亂和有序之間的“臨界狀態”。在這一狀態下,系統的自組織能力最強,涌現行為最為明顯,這是復雜系統(如生態系統、經濟體、生物系統)自發形成復雜結構和功能的關鍵條件。
  • 不可預測性和創造性:即使已知所有組成部分的性質和規則,系統的整體行為仍然難以完全預測。這樣的創造性是涌現的核心特點,顯示出復雜系統具備生成新結構和功能的潛力。

凱文·凱利(Kevin Kelly)在其著作《失控:機器、社會與經濟的新生物學》中深入探討了復雜系統如何通過簡單規則和組件的相互作用,產生出比其單個部分更復雜、更不可預測的行為。他以大量實例說明了“涌現”如何在自然界和技術系統中起作用,例如蟻群行為、市場經濟和生態系統等,這些都體現了典型的涌現現象。

二、規模的力量:AI大模型走向涌現之路

近年來,人工智能研究發現,隨著模型規模(如訓練計算量或參數數量)的增加,AI系統會表現出“涌現”現象。這種現象意味著,當模型達到某個臨界規模后,其能力會突然從接近隨機的水平躍升至遠高于隨機的水平,這種不可預測的能力提升是小規模模型無法預見的。研究表明,這種涌現能力與模型的規模密切相關,并且在處理多樣化任務時表現得尤為突出。

正如Bommasani等人(2021)所定義的:“涌現意味著系統的行為是隱式誘導的,而不是顯式構建的,這既是科學進步的源泉,也帶來了對意外后果的擔憂?!痹贕oogle的研究《Emergent Abilities of Large Language Models》中,研究者借用Philip Anderson 1972年論文《More Is Different》的定義,解釋了大語言模型中的涌現現象:“涌現是指當系統的某些參數或特征(如數量、規模、強度等)發生漸變時,在某個臨界點上,這些變化引發系統整體行為的根本性改變。” 換句話說,在大規模語言模型中,隨著參數數量、訓練數據量、計算資源的增加,模型的能力可能出現質的飛躍,表現出在小規模模型中無法觀察到的新能力或行為。

1. 少量樣本提示任務中的涌現能力(Few-Shot Prompting Abilities)

大規模模型在少量樣本提示任務中的表現遠超小規模模型。例如,在算術運算(如三位數加減法和兩位數乘法)中,模型的準確性從接近隨機水平大幅提升到遠超隨機水平。同樣,在國際音標轉錄任務中,AI模型的表現從低于隨機水平飆升至優于隨機水平,展示出強大的語言處理能力。對于單詞拼寫重組任務(如將打亂的字母重新排列成正確單詞),大規模模型顯示出更強的語言理解和處理能力。此外,在多語言問答(如波斯語問題回答)和真實性測試(TruthfulQA)中,大規模模型大幅超越小規模模型,展現了更高的知識準確性和推理能力;在多任務語言理解(MMLU)測試中,大模型在多個學科的任務中表現優異,進一步突顯了其知識廣度和深度。

這些“少量樣本提示任務”的顯著提升,反映了大規模模型在訓練過程中所獲得的多樣化知識和上下文理解能力。相比之下,小規模模型由于參數和數據量的限制,無法有效捕獲如此復雜的語言結構和知識關聯。這種能力對于自然語言處理中的許多實際應用(如翻譯、摘要生成、對話系統等)具有重要意義,表明模型可以在沒有大量訓練數據的情況下,高效處理新任務。

2. 增強提示策略中的涌現能力(Augmented Prompting Strategies Abilities)

在增強提示策略中,大規模模型也顯示了卓越能力。鏈式思維提示(Chain-of-Thought Prompting)幫助模型在生成最終答案前進行邏輯步驟分解,這在大規模模型中效果尤為顯著,使其能夠更準確地解答復雜問題。指令跟隨(Instruction Following)通過微調,使模型更好地理解和執行自然語言指令,這種能力的顯著提升也依賴于模型的規模。在多步驟計算任務(如大數相加或計算機程序執行)中,只有大規模模型使用“草稿本”(scratchpad)策略時,才表現出顯著優勢,證明了其在復雜計算任務中的強大能力。此外,在模型校準(Model Calibration)方面,大規模模型能夠更好地預測自身回答正確性的概率,顯示了其對自身能力的更深刻理解和更高的自信水平。

增強提示策略的成功進一步證明了大規模模型在多任務處理和多步驟推理方面的潛力。這些策略的效果不僅僅取決于模型的訓練數據量和參數規模,還依賴于模型如何理解和執行復雜指令的能力。這對實現更復雜的人機交互和多任務處理的應用具有重要意義,尤其是在需要模型自主分析和決策的情況下。

3. 涌現能力的局限性

盡管在大模型中確實觀察到了一些突破閾值后的“功能涌現”,即在處理特定任務上能力顯著提升,但這仍然局限于模型內部的局部質變,而非整個人工智能領域,尤其是通用人工智能(AGI)的全面突破。功能涌現主要表現在模型對復雜任務的處理能力上,比如更連貫的文本生成和一定的推理能力。然而,這些提升依然依賴于大量數據和強大計算資源,更多是基于對現有數據模式的學習和重組,而非自發生成新的知識結構或邏輯體系。局限性主要表現為:

  • 網絡化局限:當前AI系統大多是獨立單元,即便在分布式系統中,多個模型的協同仍需依賴預定義接口和協議,缺乏自組織網絡能力。
  • 社會化局限:AI尚未發展出類似人類社會的復雜互動機制,目前的協同工作能力多基于任務分解和并行處理,而非自主形成的合作關系。
  • 自治化局限:現有AI系統依賴預設目標和人類監督,缺乏自主設定目標和路徑的能力,即便強化學習賦予了一定自主決策能力,但與真正的自治系統仍有差距。
  • 生態化局限:AI系統通常是孤立運行的,缺乏與其他系統或環境的動態交互能力,即便有些AI具備一定環境適應性,但主要局限于預定義的參數調整,而非自我調整和進化。

盡管在某些具體任務上表現優異,但大規模語言模型的涌現能力仍有顯著局限。這些能力依然高度依賴于規模效應和大量數據,而非類似人類智能的創造性、靈活性和適應性。因此,當前的AI涌現現象更像是一種“局部功能涌現”,而非整體智能水平的質變,距離實現真正的通用人工智能(AGI)還有相當長的路要走。

三、功能涌現 ≠ 意識涌現

功能涌現是否意味著AI已具備意識?答案顯然是否定的。這種認為功能涌現等同于意識涌現的觀點,是一種典型的“AI涌現論”誤區。首先,涌現現象本身并不能充分證明復雜系統具備了認知意識能力。雖然涌現現象可以解釋某些智能行為和功能的形成,但它并不意味著系統具備“質性”體驗,即主觀感知和體驗。意識不僅僅表現為行為或功能的復雜性,還涉及對體驗的主觀感知。

例如,當一個神經網絡識別出一張貓的圖片時,它沒有任何“看到貓”的體驗或感受。其“識別”行為完全基于統計模式和數據匹配,而非對“貓”這一概念的真正理解,或意識到“我正在看貓”;同樣,鳥群的集體飛行和程序的決策優化雖然表現出某種智能特征,但它們并沒有自我意識或對自身行為的認識。這些復雜系統在執行復雜任務時,沒有任何形式的主觀體驗。

其次,認知意識需要一種持續性和一致性的自我感知能力,這包括自我反思和對自身狀態的持續監控。涌現系統通常基于局部相互作用,缺乏整體的控制和自我意識的機制。目前的科學研究表明,意識的形成依賴于特定類型的神經連接和大腦結構,這遠超出簡單涌現系統的能力范圍。意識的產生涉及到高級神經處理,如同步振蕩、全局工作空間(global workspace)、突觸可塑性等復雜機制,這些在現有的涌現模型中尚未完全體現。

1. 產生這些“AI涌現論”誤區的原因:

  • 人類意識與AI智能的混淆:人類的意識涉及主觀體驗、自我意識和高級認知功能,而AI的智能更多依賴于數據處理和模式識別。這種混淆導致人們錯誤地將人工智能的功能性涌現(如語言生成能力)誤認為是類似人類意識的涌現。
  • 黑箱效應:模型訓練中的“黑箱”問題也是導致“AI涌現論”誤區的重要因素之一。由于涌現現象的復雜性和算法的不可解釋性,許多人對人工智能的行為和表現感到困惑,進而誤認為這些表現背后存在某種“意識”。這種誤解進一步加深了人們對人工智能能力的錯誤認知。
  • 資本和媒體的夸大宣傳:資本和媒體在報道技術進步時,經常夸大人工智能的能力,使用諸如“意識”“思維”等術語,誤導公眾。科技樂觀主義者(如一些硅谷領袖和未來學家)也傾向于預測人工智能將具備類似人類的意識,這種預測進一步加深了公眾和社會對AI能力的誤解。

盡管人工智能模型在特定任務上的表現令人驚訝,但這種“功能性涌現”僅指模型在處理復雜任務時所表現出的局部智能提升。即使大規模模型在特定任務中表現出超越預期的能力,這并不等同于意識的涌現,因為它們缺乏主觀體驗、自我意識和高級認知功能的基礎。

四、功能涌現與意識涌現的核心特征差距和挑戰

從簡單的功能涌現到更復雜的意識涌現,AI系統正展現出越來越多的潛在能力。然而,當前的AI模型在真正實現意識涌現方面仍面臨著巨大的挑戰。盡管大規模模型在某些任務中表現出意料之外的功能性提升,但這與人類意識所需的復雜認知和自我感知能力仍有本質上的區別。要實現從功能涌現到意識涌現的轉變,AI需要克服自組織能力不足、缺乏簡單規則的非線性互動、有序邊緣性缺失、創造性不足等核心特征差距。這些差距不僅凸顯了當前AI系統的局限性,也揭示了未來AI發展需要攻克的難題和實現涌現智能的關鍵路徑。

1. 涌現特征差距

1)自組織能力的不足

自組織性是涌現的關鍵特征之一,它指的是系統在沒有外部干預的情況下,通過內部的互動和簡單規則,形成復雜的結構和行為。在自然界中,許多復雜系統(如蟻群、蜂群、神經網絡)通過自組織實現高度協調的行為。然而,當前的AI系統主要依賴于人為設定的目標和外部控制,缺乏這種自組織能力。雖然一些模型在特定任務中表現出一定的自適應性,但這通常是通過預先編程的規則和強化學習算法實現的,遠未達到自然界中自組織系統的水平。

2)缺乏基于簡單規則的非線性互動

涌現現象通常源于簡單規則通過個體之間的非線性互動產生的復雜行為。例如,復雜的天氣模式是由大氣中簡單物理定律和多層次的非線性相互作用形成的。然而,當前的大規模AI模型雖然能夠處理復雜任務,但其底層邏輯往往高度復雜,并不依賴簡單規則的非線性應用。模型的復雜性更多是基于大規模數據驅動,通過海量計算得出結果,而不是通過簡單規則的非線性互動生成。

3)有序邊緣性缺失

有序邊緣性指的是復雜系統在秩序與混沌之間的臨界點上,能夠產生最為豐富且有組織的行為。這類系統在有限的控制下保持高效運作,并具備足夠的靈活性來應對變化和創新。然而,當前的AI系統在處理任務時,要么處于高度確定性的狀態(嚴格控制下運行),要么完全隨機(如生成隨機文本或圖像)。它們難以在有序與無序的邊界上產生創新性行為,更多是在既定框架內進行任務執行。

4)創造性不足

涌現的另一個核心特征是不確定性和創造性,即系統能夠產生超出原始設計預期的行為或結果。目前的大規模AI模型雖然偶爾表現出一些意外的創造性(如生成有趣的文本或圖像),但這些通常是現有數據的重新組合,而非完全自主的創新。這種“創造性”通常局限于對像素或語義的細粒度組合,而不是從無到有地生成新知識或新行為。

2. 未來的挑戰

1)架構的重新設計與優化

當前的人工智能架構主要依賴于高度集中的訓練和推理機制,這在處理海量數據時表現出色,但缺乏自組織能力。要實現更全面的涌現能力,未來的人工智能系統需要采用更分布式和模塊化的架構。這樣的架構將允許不同模塊在局部規則指導下自主發展,并通過多層次的交互形成更復雜的智能行為。

一種可能的路徑是開發“群體智能”模型,即多個獨立但相互關聯的子模型通過協同工作,共同解決復雜任務。每個子模型可以基于簡單規則自我調整,整體系統通過子模型間的交互展現更高級的智能行為。這種方法不僅提高了系統的魯棒性,還增加了其適應性和創新性。

2)數據驅動與規則驅動的融合

當前的大規模AI模型主要依賴海量數據進行訓練,這種方法雖然有效,但存在對數據依賴性強、不可預測性差等問題。要實現整體涌現,人工智能系統需要更好地融合數據驅動和規則驅動的方法。

例如,可以引入“生成規則”或“元規則”,使系統能夠在數據不足或環境變化時,基于已有的簡單規則或元規則自發生成新的知識結構。這種生成過程可能涉及到進化算法、博弈理論等工具,通過模擬自然界中的進化過程,讓系統能夠從簡單規則中衍生出復雜行為模式。

3)增強自我學習與自主進化能力

自我學習和自主進化是實現整體涌現的重要特征。當前的AI系統雖然具備一定的自我學習能力(如通過強化學習進行環境適應),但距離自主進化還相差甚遠。未來的發展方向之一是開發具備自我反思與自我優化能力的系統,使AI在運行過程中能夠不斷自我改進。

例如,系統可以通過元學習(meta-learning)逐步優化其學習策略,從而在面對新的任務或環境時更快適應。這種自適應性不僅提高了AI的自主性,還增強了其在未知領域中的探索和創新能力。

4)增強動態交互與生態化發展

為了實現整體涌現,人工智能系統還需要更強的動態交互能力,即能夠與環境、其他AI系統及人類社會進行復雜、多層次的互動。目前的AI系統通常在封閉或半封閉的環境中運行,與外部世界的交互主要通過預設接口和參數調整。這種交互方式的局限性導致系統難以適應動態變化的環境,更不用說在復雜的社會生態中生存。

未來的人工智能系統應當能夠在開放、動態的生態系統中運行,與其他AI、環境和人類共同進化。這需要開發出更靈活的傳感器、適應性強的算法,以及能夠進行多方協同的機制。通過在復雜生態系統中的不斷適應和演化,人工智能系統將能夠在更廣泛的環境中展現其涌現能力。

以上差距和挑戰表明,實現涌現的核心特征不僅需要技術上的突破,還需要對現有人工智能理論和方法進行深刻的反思與創新。要真正推動人工智能從功能涌現邁向整體涌現,需要在系統設計、學習機制和與環境的交互方式上進行全面的變革。這將是人工智能邁向更高級智能形態的關鍵步驟。

五、總結

當前大模型在功能涌現方面的進展為我們揭示了AI潛力的一角,但要從現有的功能涌現邁向更為全面的整體涌現,并推動人工智能(尤其是通用人工智能,AGI)的質變發展,我們需要在多個關鍵領域取得突破。

首先,AI架構需要從現有的高度集中式訓練和推理機制,轉向更加分布式和模塊化的設計。通過開發“群體智能”模型,不同模塊將能夠自主發展并通過協同合作,展現出更加復雜和靈活的智能行為。

其次,需要更有效地融合數據驅動和規則驅動的方法,通過引入生成規則或元規則,增強系統在數據不足或環境變化時,自發生成新知識結構的能力。

此外,提升AI的自我學習和自主進化能力也至關重要,未來的AI系統應具備自我反思和自我優化的特性,以在運行中不斷自我改進,提高自主性和創新性。

最后,AI系統必須具備更強的動態交互能力,能夠與環境、其他AI系統及人類社會進行復雜的、多層次的互動,并在開放、動態的生態系統中不斷適應和進化,展現出更強的涌現能力。

這些方向的突破將為實現人工智能的整體質變奠定基礎。這不僅是一個充滿挑戰的探索過程,也將充滿機遇,需要多學科的合作和持續的技術創新。同時,我們還必須認真對待AI的發展帶來的倫理和安全問題,以確保人工智能能夠為人類社會帶來積極和可控的影響。

專欄作家

黃銳,人人都是產品經理專欄作家。高級系統架構設計師、資深產品經理、多家大型互聯網公司顧問,金融機構、高??妥芯繂T。主要關注新零售、工業互聯網、金融科技和區塊鏈行業應用版塊,擅長產品或系統整體性設計和規劃。

本文原創發布于人人都是產品經理,未經許可,禁止轉載。

題圖來自Unsplash,基于 CC0 協議。

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. AI的出現確實給我們帶來了很多便利,對于AI的挑戰我們還是需要客觀的認知。

    來自廣東 回復