超級AI不會主宰人類,但人工智能必須開源!LeCun最新采訪引全網300萬人圍觀
最近,LeCun最新訪談視頻中談了談自己關于開源AI的看法,他認為未來將出現超越人類智能的人工智能,而開源人工智能不會成為我們的主宰。怎么理解呢?這篇文章里,作者做了梳理與分享,一起來看。
LeCun一段近5分的視頻,引起了全網300+萬人的關注。
視頻中,他再次重提對開源人工智能的幾點看法:
- 未來將出現超越人類智能的人工智能
- 這些人工智能將受到我們的控制
- 它們不會成為我們的主宰,也不會對我們構成威脅
- 它們將成為我們與數字世界互動的中介
- 因此,這些人工智能需要是開放的平臺,這樣每個人都能參與進來,幫助它們學習和優化。
對此,馬斯克表示,我們的數字上帝將以csv文件的形式出現。LeCun回應道,如果它是開源的,無論你選擇什么格式,都會有導入過濾器。
COSS創始人Joseph Jack調侃道,我們能不能直接讓LeCun擔任AI總統,然后就此結束今天的討論。
以下是視頻中,LeCun個人提出的觀點。
一、智能與統治毫無干系,開源是必然
在未來的某個時刻,也許是幾十年后,我們將擁有智能與人類相媲美的AI系統。
因為人類在不同領域有各自的專長,這些AI系統不僅同樣如此,而且在人類擅長的領域中,甚至可能都要比人類聰明。
現在你可能會想,「天吶!這樣的系統會不會掌控世界?」
No!智能與統治之間并沒有必然的聯系。
就拿人類來說,人類中有一部分人有控制欲,但并非人人都有,并且,想要統治的并不是我們當中最聰明的人。
其實,國際政治舞臺上的各種事件都在證明這一點。這背后的原因可能來自自然進化,不夠聰明的人需要依賴他人,因此也會應影響他人,但聰明的人可以獨立生存。
第二個觀點是,我們習慣于比自己更聰明的人一起工作。對于我來說,我曾經領導過的一個研究實驗室,只雇傭比我聰明的人,與聰明的人一起工作的感覺很棒。
我們與未來AI助手的關系,它會在日常生活中幫助我們。
想象一下,未來10-20年,AI助手會在日常生活中幫助我們,而且可能會比我們更聰明。但它們的存在,是為了讓我們更聰明。
我們命令它們,便會聽命于我們。并不是因為它們聰明,就想要統治。
而這種統治欲其實源于,我們是社會性物種的本性。因此,我們需要有能力去影響他人。這也就是統治和服從的來源。
我們是一個有等級秩序的社會性物種,這也是進化論賦予我們的特征,像黑猩猩、狒狒狼等社會性動物一樣。
但即便是猩猩這樣的物種,智力接近人類,卻沒有被賦予控制他人的特征。
因此,控制和智能完全沒有關系。
我們可以設計一個極其智能但不具備統治欲的系統,且非常聰明,也就是說,你給它們一個目標,就能幫你實現。
設定目標由我們人類來做,而這些系統會制定子目標。至于如何做到這一點的技術問題還沒有解決,我們只是在想象未來的事情。
包括我之前談到的「目標驅動的AI」,這只是未來。
想象一下,如果未來我們與數字世界、信息世界所有交互都是通過AI智能體來完成。
這些AI智能體將成為所有人類知識的寶庫,與一個能進行對話和推理的「超級百科」類似,但知識比維基百科更豐富。
這將成為一個像現在的互聯網一樣的公共平臺,它必須是開放的,而不是專有的,因為掌握在少數公司的超級AI將是非常危險的。
如果少數人控制著超級AI,便可以左右每個人的觀點、文化等等。
所以,唯一的解決方案就是開源基礎架構。這也是Meta開源Llama2的原因之一,因其是基礎設施的一部分。
在此之前,Meta還發布了PyTorch,一個構建AI系統的軟件系統,ChatGPT就是基于PyTorch構建的。
因此,這些系統必須是開源的,并且訓練方式也必須是眾包的,以確保它們成為所有人類的知識庫。
這樣,所有人類都可以為其中做貢獻,而不是僅僅貢獻給OpenAI、Meta或其他公司的專有系統。
它必須是開源的,無論聽起來有多危險,但這是未來的必然趨勢。
二、我們需要世界模型
對于超級AI的發展,LeCun一直以來都站在開源隊列中。
就在本月初,他曾號召1700+位人工智能領域的專家和研究人員簽署了一封聯名信,呼吁AI更加開放。
在LeCun看來,當前自回歸模型的能力遠遠不及人類,甚至都不如阿貓阿狗。
當被TED負責人問道,有沒有一個理論能夠證明人類大腦,而不是LLM能夠推理。
LeCun表示,LLM以每個token的固定計算量生成答案。它們沒有辦法投入更多(可能是無限的)「時間和精力」來解決難題。這非常類似于人類快速和潛意識的「系統1」決策過程。
真正的推理和計劃將允許系統搜索解決方案,使用潛在的無限時間。這種迭代推理過程更類似于人類有意識「系統2」。
這就是人類和許多動物在新情況下找到新問題的新解決方案的原因。
一些人工智能系統具有規劃能力,即玩游戲或控制機器人的系統。AlphaGo、AlphaZero、Libratus和Cicero等游戲AI系統具有規劃能力。與動物和人類相比,這些系統的規劃能力仍然相當有限。
為了實現更通用的規劃能力,人工智能系統需要擁有一個「世界模型」,即一個可以預測動作序列后果的子系統:給定時間t的世界狀態,以及我可以采取的想象行動,在時間t+1時世界的合理狀態是什么。通過世界模型,系統可以計劃一系列行動以實現目標。
如何建立和訓練這樣的世界模型仍然是一個懸而未決的問題。更復雜的是如何將一個復雜的目標分解為一系列子目標。
這將實現分層規劃,這是人類和許多動物可以毫不費力地做到的,但仍然完全超出了人工智能系統的能力范圍。
三、網友熱議
馬庫斯看后表示,他的每一句話中非常肯定,給人留下了深刻的印象。但如果他的一些前提(再次)被證明是錯誤的怎么辦?
更多智能并不意味著更多危險。人工智能的威脅取決于編寫損失函數的人是誰。
LeCun的演講金句已被畫出。
參考資料:
https://twitter.com/ylecun/status/1728515719535489484
https://www.youtube.com/watch?v=EGDG3hgPNp8
編輯:編輯部
來源公眾號:新智元(ID:AI_era),“智能+”中國主平臺,致力于推動中國從“互聯網+”邁向“智能+”。
本文由人人都是產品經理合作媒體 @新智元 授權發布,未經許可,禁止轉載。
題圖來自 Unsplash,基于CC0協議。
該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。
- 目前還沒評論,等你發揮!