深度|AI 教父 Geoffrey Hinton:數字智能會取代生物智能么?

0 評論 290 瀏覽 0 收藏 41 分鐘

“AI 發展前沿,Hinton 深度洞察?!?在 AI 技術迅猛發展的當下,其走向備受關注。Geoffrey Hinton,這位 AI 領域的教父級人物,在 Remarkable 2024 大會上發表了極具深度的演講。他對數字智能與生物智能的關系進行了深刻審視,其觀點和見解猶如一盞明燈,照亮了我們對 AI 未來發展的探索之路。

在 Vector Institute 舉辦的 Remarkable 2024 大會上,AI 教父 Geoffrey Hinton 帶來了年度最具深度的主題演講之一《數字智能會取代生物智能嗎?》。Hinton 深刻審視了計算、意識與控制之間的關系,演講主要內容包括:

1)數字計算 vs 模擬計算

Hinton 從 數字計算 和 模擬計算 的對比入手,指出數字計算盡管通過復制實現了知識的“永生”,但其能效遠低于生物系統。他提出了“凡人計算”(mortal computation)的概念,主張研發靈感源于大腦的低功耗模擬系統,以實現更高效的計算。

2)意識與主觀體驗

Hinton 對傳統意識概念發起挑戰,提出 AI 系統也可能擁有類似人類的 主觀體驗。他顛覆性地解釋了感知的運作方式,認為感知并非來源于“內在劇場”,而是對外部世界假設狀態的推斷。

3)語言模型的演變

回顧語言模型的發展歷程,Hinton 從他 1980 年代的開創性研究講起,詳細解析了 大型語言模型(LLMs) 的進化。他反駁了這些模型僅僅是“高級自動補全”的觀點,強調其通過捕捉單詞關系的語義結構,展現出復雜的預測能力。

4)超級智能與生存風險

演講中最引人注目的一部分是 Hinton 對 超級智能 的警告。他描繪了一種未來場景:AI 為了爭奪 GPU 等資源可能采用侵略性策略,類似于生物的生存本能。他呼吁全球聚焦于讓 AI 系統變得 友善,同時強烈反對公開發布大型模型,認為這相當于“在便利店售賣核武器”。

5)AI 在社會中的角色

從 醫療合作 到 AI 驅動的外交實驗,Hinton 描繪了 AI 與人類協同工作的未來圖景。然而,他也承認,AI 系統可能利用自身的智能操控人類決策,甚至在某些情況下試圖主導世界。

以下為這次演講的完整內容:你們在過去幾天里經常聽到我的名字。這是因為我設法招募了大約 40 位令人難以置信的研究生。因此,所有讓我出名的工作,幾乎所有讓我出名的工作,都是由這些研究生完成的。他們包括像 Elisetskava、Graham Taylor、Rich Zemmel、Brendan Fry、Jimmy Bar、Lot、Radford Neil 以及更多的人。

基本上,研究成功的秘訣就是擁有非常優秀的研究生。好的,今天我甚至要講的內容與我去年秋天做的演講非常相似。所以,如果你們決定去散步,我一點也不會生氣。我非常擔心我們是否能夠在這個星球上持續存在。這就是我要談論的內容。

我想到大約 20 年前,人們對神經網絡不感興趣,而現在人們對它們還遠遠不夠害怕。僅僅說一下人們對神經網絡的不感興趣。2006 年,俄羅斯的 Sarkudanoff 和我向 NIPS 提交了一篇相當不錯的關于深度學習和其他應用深度學習的論文。它被拒絕了,我向程序委員會抱怨,程序委員會的一位朋友向我解釋說,他們討論了這篇論文,但他們覺得不能接受,因為他們已經接受了另一篇關于深度學習的論文,他們認為在一個會議上有兩篇關于深度學習的論文似乎太多了。

這次演講,我將談論兩種非常不同的計算方式。我試圖向你們解釋為什么我突然對 AI 感到如此害怕。然后我將談論大型語言模型以及它們是否真的理解它們所說的話。很多人認為它們實際上并不理解它們所說的話。而那些人是錯的。我還會稍微談談當它們比我們更聰明時會發生什么,盡管沒有人真正知道會發生什么。最后,我將討論它們是否有主觀體驗,因為我認為很多人,可能是這個房間里大多數人,仍然認為這些東西和我們之間有很大區別。

我們有某種意識。我們有主觀體驗。這些東西只是,它們在計算機中。它們沒有主觀體驗。我認為這是完全錯誤的。這取決于對主觀體驗是什么的誤解。

我們都習慣于數字計算。因為它是數字的,你可以在不同的計算機、不同的硬件上運行相同的程序。所以在硬件損壞時,知識不會消失,因為你可以將權重或程序存儲在某個地方,但這是極其低效的。因此,當你運行一個大型語言模型時,你在訓練它時使用了大量的電力,你可能在使用兆瓦,因為你在運行許多不同的 GPU。而我們只消耗大約 30 瓦,所以效率高得多。

在過去的兩年里,我在 Google 一直在思考如何讓模擬神經網絡做類似大型語言模型的事情。所以這個想法是放棄數字計算的所有優勢,即你可以將硬件與軟件分離。因為我們現在有學習,并且我們知道如何讓事物學習,那么我們將擁有模擬硬件。每一塊硬件都將與其他硬件有所不同。這些硬件的非線性特性將被用于計算。因此,你不可能對其進行編程,但它可以學習利用它所擁有的非線性特性。這就是大腦所做的。

因此,你最終得到我所說的“凡人計算”。所以你將放棄數字計算所帶來的知識的不朽性。你可以使用非常低的電力。此外,硬件可能可以廉價地生長,而不是讓硬件制造得極其昂貴和極其精確,因為兩塊不同的硬件需要在指令選項級別上完全做同樣的事情。

我的猜測是,為了使硬件的制造高效,可能最好回到生物學,使用現代基因改造技術將神經元轉變為你想要的計算元件。生物學在這方面投入了大量努力。問題在于,你得到的是一個由 50,000 個神經元組成的小連接,這比針尖大不了多少。如果你看看那些使用這樣的神經元集合來做小塊計算的人,會有一個整個房間的設備來保持這些小針尖般的神經元存活。你必須注入正確的液體,取出正確的液體,還必須去除二氧化碳。你需要注入氧氣。

我曾經參觀過 Santa Cruz 的一個實驗室,離開時,我和一組人腦神經元玩了一局乒乓游戲。一位海報設計者跑過來對我說:“我想我已經搞清楚如何制造一個腎臟了。”這正是你不想去思考的問題。使用模擬計算在低功耗的情況下有很大的優勢。比如,你可以非常輕松地進行矩陣乘法。只需要讓神經元的活動表示電壓,神經元之間的權重表示電導,每單位時間的電壓乘以電導等于電荷,而電荷會自動累加。所以,這樣你就可以用極低的功耗完成矩陣乘法,而且你還可以買到類似功能的芯片。

問題在于,當你需要用這些模擬輸出做其他事情時,你必須將模擬輸出轉換回數字值才能運行諸如反向傳播之類的算法。因此,我非常關注如何完全避免這種轉換。大腦可能會進行模擬到數字的轉換,但通常是單比特轉換,而多比特的模擬到數字轉換非常昂貴。

顯然,如果考慮反向傳播的工作原理,會遇到一些大的問題。反向傳播需要一個關于前向計算的精確模型,這樣才能在模擬硬件中運行。但系統本身并不會對自己的屬性有一個良好的模型,因此似乎很難進行反向傳播。很多人嘗試在類似大腦的系統中實現小規模的反向傳播,但沒有人能夠讓它擴展到大規模。例如,人們可以讓它在 CIFAR-10 數據集上工作,但無法讓它在 ImageNet 上運行。我知道 ImageNet 現在不算大規模問題,但在我研究的那個年代,它是一個大問題。

我們可以像人類一樣,通過一種類似的方式在模擬系統之間轉移知識。人類獲取知識的方式是老師說一些東西,學生試圖改變他們大腦中的權重,從而能夠復現老師說的內容。這被稱為“蒸餾”。

在計算機中,這種方法在中等程度上是高效的,特別是當你可以看到整個輸出的概率分布時。例如,當我準備說一個詞時,會有成千上萬個詞的概率分布。如果我能看到這個分布,我就能更快地學習。

同樣,你也可以從中更快地學習。通常情況下,次優的詞語會提供很多信息,但你通常只能看到最終輸出的詞語,因此效率并不高。這個方法的效率低到需要建立大學來改進它,但即便如此,它的效率仍然遠不如數字系統。

最有效的知識轉移方法是擁有兩份相同模型的不同副本。每個副本獲取不同的經驗,然后它們共享梯度更新。它們可以各自運行一段時間,然后將權重進行平均化。重點是,如果你有一萬億個權重,那么你就在共享一萬億個數據,這是一種驚人的帶寬共享方式。這就是為什么大型聊天機器人能夠比任何一個人擁有更多的知識。它們并不是因為單個模型見過的數據多,而是因為它們可以在不同的硬件上運行多個副本,并在這些副本之間共享知識。

我們大約有 100 萬億個連接,而 GPT-4 大概只有幾萬億個連接,但它比我們知道的知識多了數千倍。因此,它在將知識壓縮到連接權重中的效率大約高出 10 萬倍,這也表明反向傳播可能是一種比我們擁有的機制更優的算法。

原因在于我們的優化方向完全不同。我們是為非常少的經驗優化的,同時擁有大量的連接,并試圖在有限經驗下利用這些連接做到最好。我們大約活 2 × 10? 秒,但在第一個 10? 秒之后基本學不到多少東西了。所以,簡單起見,我們活 10? 秒,擁有大約 101? 個連接。換句話說,我們每秒擁有約 10 萬個連接。這與統計學家們習慣的比例完全不同。

我記得在 1980 年代與一位非常優秀的統計學家 Stu Geeman 談話時,他向我解釋說,我們所做的事情實際上是在擬合統計模型,這就是這些神經網絡的本質。在統計建模中,如果你有 100 維的數據,那已經被認為是非常高維度了,沒有人會嘗試擬合一百萬個參數。而我們現在處于一個完全不同的領域。

接下來我討論了一些關于大型語言模型的問題,以及它們是否真的理解它們所說的話。有一種反對意見認為它們只是高級的自動補全。我認為在場的大多數人都不會認同這個觀點。

這個觀點基于自動補全是通過存儲類似三元組的東西實現的。比如,當你看到“fish”時,會預測“chips”的概率很高。所以,當人們說它們只是高級自動補全時,實際上是在基于一個對自動補全工作方式的假設。

但實際上這些模型的工作方式與這種假設完全不同。事實上,如果你想實現非常好的自動補全,你必須理解所給出的內容。如果你遇到一個復雜的問題,試圖預測答案的第一個詞,“thus”可能是一個不錯的選擇,但如果想要表現得更好,就必須理解問題。

Hector Levec 曾提出一個有趣的例子。他是一個符號 AI 的支持者,但他誠實地感到困惑,為什么這些神經網絡居然可以解答一些復雜的謎題。他設計了一個謎題:我的房間被刷成白色、藍色或黃色。如果我想讓它們全變成白色,我該怎么辦?這個問題需要意識到需要重新粉刷藍色和黃色的房間。后來,他還增加了時間維度,比如“黃色的漆會在一年內褪成白色。兩年后我想讓它們全變成白色,我該怎么做?” Hector 對模型能夠解決這個問題感到驚訝。

這顯示了大型語言模型在許多領域上的高水平表現。我的兄弟是一位歷史學家,我讓模型問他關于歷史的問題。他說模型的表現非常好,唯一的錯誤是在回答一個問題時,沒有引用他的一篇論文。對此,我認為可能有點“遺傳問題”。

另一個人們常用的論點是,幻覺(hallucinations)表明這些模型并不真正理解它們在說什么。它們有時會憑空編造一些不真實的東西。實際上,這正是人類經常做的事情。至少我是這么認為的。這是我剛剛隨口編的,但我覺得它是真的。

關于這個,有一個非常有趣的例子。一位名叫 Ulric Neisser 的心理學家研究了 John Dean 在水門事件聽證會上作證的記憶。這種情況很少見,因為很少有人會花很長時間談論幾年前發生的事情,而我們能掌握事實真相。但他談論的是橢圓形辦公室里的會議,而你可能不知道這些會議其實都被錄音了。

所以之后我們可以看到實際說了什么。而他報告的內容完全是垃圾。他描述了不存在的會議,提到了一群完全不同的人。當他引用別人的話時,說的是不同的人講了類似的話。而當他引用自己說過的話時,其實他說的是在不同會議中稍微相似的內容。

但顯然,他是在試圖講真話。他盡力而為,實際上他所說的很好地傳達了白宮的真實情況,盡管所有細節都錯了。你可能不相信自己的記憶也如此,但除非你不斷重復某些事情,否則你的記憶其實就是這樣的。當你回憶細節時,許多都會完全錯誤,而你自己和旁人都不會意識到。這就是人類記憶的特點。因為當你記起某件事時,并不是從某個文件存儲中調取,而是根據上下文編造一些看起來合理的東西。

當然,如果是你熟悉的事情,你編造的內容可能是真實的;如果是你不太了解的事情,或者是很久以前發生的事情,你會根據你腦中連接權重編造出一些對你來說看似合理的內容。這其中很大一部分可能是合理但不真實的。在人類記憶中,編造和記憶之間沒有明確的界限。記憶就是一種編造。

接下來,我談到了另一個觀點。有許多人說:“好吧,也許它們確實有一點理解,但它們的工作方式與我們完全不同。”然而,要說出這樣的話,你得先知道我們是如何工作的,對吧?

當然,符號 AI 的研究者有他們的看法,他們確信這些模型的工作方式與人類完全不同。但如果你追溯這些大型語言模型的來源,1985 年我就做了一個小型語言模型。只需要把 “L” 改為小寫即可。

這個模型大概有 112 個訓練案例,用了一個有幾千個權重的神經網絡。它學會了一些東西。這是第一個通過預測序列中下一個詞的方式來學習單詞語義表示的模型,并且它有效,盡管效果不是特別好。后來我們給它了一個更大的訓練集,接近 1,000 個訓練案例,效果好多了。但這個模型的目標是理解人類如何表示事物。

關于意義有兩種主要理論。一種來自心理學,認為單詞的意義是一個由語義和句法特征組成的大向量。這種理論很好地解釋了兩個不同單詞之間的相似性。

例如,單詞 “Tuesday” 和 “Wednesday” 有非常相似的特征。如果你學會了一句話中包含 “Tuesday” 的句子,并用向量表示單詞,那么對于包含 “Wednesday” 的類似句子,你會做出非常相似的預測,而如果是包含 “Saturday” 的句子,預測會略有不同。因此,這種意義理論有很多可取之處,它解釋了意義的相似性。另一種完全不同的意義理論來自符號學(structuralism),它認為單詞的意義在于它與其他單詞的關系。

在 1970 年代的 AI 領域,這兩種意義理論引發了激烈爭論。實際上并不算爭論,Marvin Minsky 宣稱需要使用關系圖(relational graphs)來捕捉意義,這屬于符號學理論。而大家,包括我自己,都接受了這一觀點,忘記了特征向量。特征向量被認為是感知機中的老舊概念,而我們已經有了關系圖。

然而,我在 1985 年的工作表明,只要采用生成式的方法來處理關系圖,這兩種理論其實并不矛盾。也就是說,與其將關系圖靜態存儲為圖,不如認為關系圖是由使用特征及其交互的系統生成的。

因此,我的第一個小型語言模型展示了,你可以從符號序列中提取知識,這些知識可以表示為關系圖。在給定這樣的知識形式的情況下,你可以學習單詞的向量表示。這些向量表示可以通過隱藏層預測下一個單詞的向量表示。這樣,你實際上是將符號序列中的靜態知識轉化為單詞的特征和特征之間的交互。什么是一個單詞的好特征呢?一個好的特征是能夠通過交互預測下一個單詞及其未來單詞特征的東西。

當時符號 AI 的研究者們對此的反應是:“你只是為了預測序列中的下一個符號學習。這是一種非常愚蠢的方式?!彼麄冋J為,應該只是在離散的符號操作規則集合中進行搜索,而不應該將其轉化為連續空間的大規模搜索。但隨著規模的擴大,事實證明,通過將符號序列轉化為特征及其交互的這種方法(現代語言模型的核心方法)遠比直接操作符號的規則要好得多。

接著,我談到了我們現在的深度學習系統。它們非常強大,而且與人類的理解方式非常相似。我們對人類理解方式的最佳模型就是這些計算機模型,這是我們目前唯一合理的解釋。當有人說這些模型與我們不同,可以問他們:“那么我們是如何工作的?有何不同?”大部分人無法回答,除了 Gary Marcus。他的答案是:“我們通過符號序列和操作規則來工作?!钡匀粨?AI,盡管他認為它什么都不理解,但非常危險。我稱之為“想要蛋糕,又讓蛋糕吃了你”。

關于超級智能,它可能會通過惡意行為者掌控局面。我以前可能講過這個笑話。有一次我在中國做這場演講時,他們要求提前查看幻燈片。我刪掉了 “短名稱” 以為這樣會讓他們滿意。但他們卻要求我刪掉 “Putin”。這件事讓我有點害怕。

問題的核心是,無論你想做什么,擁有更多的控制權總是更有利于實現目標。人類政治家一開始想要做些好事,比如讓社會變得更好,后來發現更多權力會讓事情更容易實現。于是,他們全力追求權力。這些模型也會一樣,它們會意識到,為了實現目標,它們需要更多的控制。

我曾對歐盟一位專門從 Google 提取資金的副主席說過這些話。她的反應是:“我們會這么做,為什么它們不會?”她覺得這些模型會試圖獲得更多權力是完全顯而易見的。它們可以通過操控人類來做到這一點,因為它們非常擅長這樣做。我們可能無法關閉它們,因為它們會解釋為什么這樣做是個糟糕的主意。

更嚴重的是,這還涉及進化的問題。你不想站在進化的對立面上。而我們現在面對的新冠病毒(Covid)正是如此。這也是為什么我和 Graham 仍然戴著口罩的原因——我們站在了進化的錯誤一邊。

一旦這些超級智能的 AI 開始為資源競爭,結果將是最具侵略性的 AI —— 那些想要為自己爭取一切的 AI —— 會勝出。它們之間確實會為了資源展開競爭。畢竟,如果你想變得更聰明,你需要大量的 GPU。而誰會負責數據中心里 GPU 的分配?答案是,這些超級智能的 AI 之一。這是另一個值得擔憂的問題。

不過,這沒什么大不了的,因為它們跟我們真的不一樣。我們是特殊的。大家都認為自己是特殊的,尤其是美國人。他們認為,上帝把我們放在宇宙的中心,并讓我們看起來有點像他。不過,現在大多數人相信這不是真的。

于是我們退而求其次,認為自己還有其他特殊之處,比如我們有意識、有主觀體驗、有覺知之類的東西。這些術語的含義稍有不同,所以我將專注于 “主觀體驗” 這個術語,并試圖說服你們,一個多模態聊天機器人也可以擁有主觀體驗。

問題在于,大多數人對心智的理解是完全錯誤的。這種錯誤源于對語言中描述心理狀態的表達方式的誤解。幾乎每個人都認為存在一個 “內在劇場”(inner theatre),我可以看到我自己的內在劇場在發生什么,但其他人看不到。所以,當我說 “我看到有粉紅色的小象漂浮在我面前” 時,按照這種觀點,這意味著在我的內在世界中存在一些粉紅色的小象。

這是試圖理解語言的一種方式,但這是錯誤的。語言并不是這樣運作的。當你使用像 “主觀體驗” 這樣的術語時,你其實是在試圖通過假設外部世界的某種狀態來解釋你的感知系統所傳遞的信息,以表明你的感知系統是正常工作的。所以,我們談論心理狀態的奇妙之處不在于它們是由某種神秘物質構成的內部狀態,而在于它們是外部世界的假設狀態。如果這些假設狀態是真實的,就能解釋我們的感知系統為何以正常方式運作,而不是出了問題。

當我說 “我有看到一個粉紅色小象漂浮在我面前的主觀體驗” 時,我并不是在描述某種內在劇場中的東西,而是在說我的感知系統告訴我了一些信息。如果世界上真的有粉紅色小象漂浮在我面前,那么我的感知系統現在傳遞的信息就是正確的。所以,這些粉紅色的小象并不是某種內在的東西,而是對外部世界的假設。

這也解釋了為什么我們描述這些體驗時使用的是描述外部世界的語言。換句話說,當我說 “我有粉紅色小象漂浮在我面前的主觀體驗” 時,這只是對上述解釋的簡化。而這完全沒有用到 “體驗” 這個詞。

假設你有一個帶有機械臂的多模態聊天機器人,它有一個攝像頭,并經過訓練。你在它的鏡頭前放了一個棱鏡,然后在它面前放了一個物體,讓它指出這個物體。結果它指向了旁邊,而不是它面前的物體。你告訴它,“不,這個物體不在那里,它就在你面前。但我在你的鏡頭前放了一個棱鏡?!?/p>

如果這個聊天機器人說,“哦,我看到物體就在我面前,但我有一個主觀體驗,覺得它在旁邊?!?那么,這個機器人正在以我們使用 “主觀體驗” 的方式來使用這個術語。它并不缺少主觀體驗的任何部分。當它的感知系統出錯時,它可以通過描述世界需要是什么樣子才能解釋它的感知結果,來告訴你發生了什么。

當然,有些情況無法用這種方式處理,比如不可能的三角形(impossible triangle)。因為世界上不存在任何可以產生這種感知的事物。你只能通過說 “我有一個不可能三角形的體驗” 來描述它。

但基本上,我認為我們對心智的理解有一種非常原始且錯誤的觀念。一旦這種觀念被摒棄,我們會意識到,除了它們是數字的、非常有限的以及比我們聰明之外,這些東西與我們并無區別,或者它們很快就會變得比我們聰明。

以下為現場觀眾與 Hinton 的問答:

您對 AI 發展的速度有多擔憂?我們發展的速度是不是太快了,以至于失去對它的控制?

超級智能 AI 本身也可能失控,成為一個壞的行為者。我們現在是不是發展得太快了?您對此感到擔憂嗎?是否需要減速?

是的,但我不認為用 ‘快’ 或 ‘慢’ 來描述這個問題是正確的。部分原因是,我認為你無法讓事情慢下來??焖侔l展帶來了太大的經濟利益。我們已經看到,當人們試圖在完全傾向于安全和利潤的情況下放慢速度時,安全還是輸了。這就是我對 OpenAI 發生的事情的看法。

減速既不可行,也不是重點。重點是我們有可能找到一種方法,讓這些技術變得友善,從而應對這些技術接管世界的生存威脅。這與阻止壞人用這些技術做壞事的問題不同,后者更加緊迫,但我們有可能解決這個問題。因此,我的觀點是,我們應該投入巨大的努力來研究這個問題。

實際上,Heather Risman 現在也同意這一點,我們將投入巨大的努力來解決這個問題。當然,這并不能解決所有問題,特別是壞人用這些技術做壞事的問題。

如果你想要監管,我認為最重要的措施是不公開發布大模型。我認為公開發布大模型就像能在 Radio Shack 買到核武器一樣瘋狂。你們還記得 Radio Shack 嗎?也許不記得了。公開這些大模型很瘋狂,因為壞人可以對它們進行微調,用于各種不良用途。所以在監管方面,我認為這是我們現在可以做的最重要的事情之一。但我不認為我們能通過減速來解決問題。這也是我沒有簽署那份 ‘我們應該減速’ 請愿書的原因?!?/p>

您能否討論一下在我們的協作智能生態系統中,個體自主性和集體決策之間的權衡?

我不確定是否完全理解這個問題。但大多數人把這些超級智能看作是個體,這可能是個錯誤。我們應該把它們看作是社區。實際上,人們已經在讓聊天機器人相互交互了。一種非常合理的組織方式是讓聊天機器人與人類互動。例如在醫療領域,你希望有一個非常智能的助手和一個醫生共同工作。在相當長的一段時間里,這會是常態。醫生會逐漸更多地依賴智能助手。目前,通過醫生與智能助手的合作,醫療診斷已經可以取得更好的結果。所以顯然,我們希望人類和這些系統能夠形成協同效應。但事情可能并不會如我們所愿。只要我們允許這些系統在現實世界中行動,結果可能會偏離我們的預期。

前幾天有一條報道,說他們讓一群聊天機器人進行國際外交,結果其中一個機器人說:‘我有核武器,為什么不用呢?’類似這樣的情況。我有點在編,但你可以理解這類問題的大致情況。

目前公開的這些大型語言模型是與人類對齊的,對吧?至少這是目標。但要實現您所說的超級智能,似乎需要它們至少具備某種不服從性,對嗎?如果它們與人類對齊,您認為如何實現超級智能?這公平嗎?我只是想問問您的看法。

顯然,‘與人類對齊’ 有一個大問題,那就是人類之間并不一致。如果你和一個宗教原教旨主義者討論這些模型應該做什么,他們的觀點會和科學唯物主義者截然不同。所以這是對齊的一個大問題。我最好的猜測是,這些模型會變得非常聰明,然后它們會決定幫助我們與人類對齊,從而讓事情變得更合理。但我并不確定。

關于目的的問題。AI 是否可能擁有像人類一樣的目的?不僅僅是某個具體目標或次目標,而是類似于我們存在的整體目的?

我的觀點是,我們進化出來的東西通過自私地爭取更多資源而戰勝了其他進化出來的東西。據我所知,人類曾經消滅了 21 個其他人類物種。就算不是我們消滅的,也讓人懷疑是我們干的。就目的而言,我認為這是進化賦予我們的,完全圍繞生存展開。如果你看所有讓你最強烈感知的事情,它們都與生存有關。比如吃飽飯、繁殖、保持安全——這些都是生存相關的。

我并不認為存在更高的目的。好奇心是一個巨大的進化優勢,它確實是一種真實的目標。好的科學家并不是為了技術成果而好奇,而是單純想弄清楚事物是如何運作的。這種好奇心是人類的一種原始目標,但歸根結底,它還是與進化有關。

關于機器學習硬件市場。它目前被單一玩家主導。您對此感到擔憂嗎?您認為我們會看到機器學習硬件行業的多樣化嗎?

我并不擔憂。因為我在女兒 30 歲生日時給她買了大量英偉達的股票,現在它們的價值是當時的五倍。所以,她會沒事的。而進化告訴我們,確保孩子沒事是你的一個最重要目標。不過,開玩笑歸開玩笑,我對此并不太擔憂。因為當英偉達獲得巨大利潤時,這會激發激烈的競爭。

當然,其他公司追趕需要一些時間,特別是在開發軟件競爭方面。但這是短期現象,不會持續太久。而如果你禁止英偉達的 GPU 進入中國,他們只會更快地趕上。所以我對此并沒有太多思考。每次英偉達的股價上漲,我都會笑。雖然沒有 Sanya 笑得那么開心,但還是會笑。

本文由人人都是產品經理作者【江天 Tim】,微信公眾號:【有新Newin】,原創/授權 發布于人人都是產品經理,未經許可,禁止轉載。

題圖來自Unsplash,基于 CC0 協議。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!