讓人既好奇又害怕的ChatGPT
對于ChatGPT的出現及火爆,你的感受是什么呢?本文作者的心情是“好奇又害怕”。為什么ChatGPT能引起如此大的震動呢?以后會對人類產生什么影響?本文作者從ChatGPT的相關概念、背后的技術、商業前景,對ChatGPT進行了分析,并分享了自己的一些觀點,一起來看一下吧。
作為人工智能從業者,筆者對ChatGPT進行了較深入的研究。
在研究ChatGPT的過程中,筆者始終有一種復雜的心情。靜心思考,這種心情大概可以用“好奇又害怕”來形容。
好奇的是ChatGPT這樣一個強大的聊天機器人是怎么實現的,同時其展現的強大能力又讓筆者感到一絲害怕和擔憂——奇點是不是到了?
在此將研究筆記成文一篇,同各位讀者分享這份既好奇又害怕的心情。
本文將分成五個部分論述:
- ChatGPT相關歷史和概念的概述
- 從產品經理角度看ChatGPT背后的技術
- 為什么ChatGPT能引起如此巨大的震動
- ChatGPT的商業前景
- 個人調研的一些觀點,僅供參考
一、概況介紹
ChatGPT是美國人工智能研究公司OpenAI研發的聊天機器人程序。其于2022年11月30日發布之后,迅速引爆了互聯網。
ChatGPT一經發布,用戶數便一路飆升,5天內便涌入了100萬用戶,兩個月用戶總數便突破了一個億。這個速度有多瘋狂呢?我們不妨直觀對比一下知名產品用戶突破一個億的時間:
- 手機:16年
- 支付寶:4年
- 微信:1.5年
- TikTok:9個月
- ChatGPT:2個月
畢竟誰能拒絕調戲一個聰明的人工智能機器人呢?筆者從12月5日注冊以來,對與ChatGPT對話這件事可謂樂此不疲。
ChatGPT是基于大型語言模型(LLM)的聊天機器人。那么,ChatGPT究竟具備哪些能力呢?
- 語言理解:理解用戶輸入的句子的含義。
- 世界知識:指的是人對特定事件的親身體驗的理解和記憶,包括事實性知識 (factual knowledge) 和常識 (commonsense)。
- 語言生成:遵循提示詞(prompt),然后生成補全提示詞的句子 (completion)。這也是今天人類與語言模型最普遍的交互方式。
- 上下文學習:遵循給定任務的幾個示例,然后為新的測試用例生成解決方案。
- 思維鏈:思維鏈是一種離散式提示學習,在大模型下的上下文學習中增加思考過程。
- 代碼理解和代碼生成:具有解讀和生產代碼的能力。
基于這些功能,ChatGPT最終表現出我們在聊天時體驗到的強大能力。
ChatGPT對出現并不是一蹴而就的,其背后的發展時間線如下。
大體來說,ChatGPT是在Google和OpenAI在大型語言模型(LLM)領域不斷競爭中結出的一顆碩果。
二、技術知識
ChatGPT使用的大型語言模型(LLM)誕生也不是一番風順的。從深度學習發展前10年的歷程來看,模型精度提升,主要依賴網絡在結構上的變革。
由于語言模型的縮放定律的現象(模型尺寸呈指數增長時,性能會隨之線性增加),(OpenAI)的研究者也發現即便最大的 GPT-3 在有提示的情況下也不能勝過小模型精調。所以當時并沒有必要去使用昂貴的大模型。
(出處:https://www.notion.so/514f4e63918749398a1a8a4c660e0d5b)
但是,隨著神經網絡結構設計技術,逐漸成熟并趨于收斂,想要通過優化神經網絡結構從而打破精度局限非常困難。近年來,隨著數據規模和模型規模的不斷增大,模型精度也得到了進一步提升,研究實驗表明,當模型尺寸足夠大時,性能會顯著提高并明顯超越比例曲線。
簡而言之,當模型參數增加到一定程度,就會涌現出遠超小模型的強大能力。
因此大規模預訓練模型得到了迅速地發展,尤其在NLP領域。
大模型的規模有多大呢?
2018年谷歌發布了擁有3億參數的BERT預訓練模型,正式開啟AI的大模型時代。到 19年T5(谷歌)110億,20年GPT-3(OpenAI)750億,21 年GLaM(谷歌)1.2萬億,M6-10T(阿里達摩院)參數量甚至已經達到 10 萬億。
大型語言模型(LLM)背后涉及的技術過于復雜,筆者只是了解了個大概,后面介紹幾個印象非常深刻的技術點。
1. 提示學習(Prompt Learning)
提示學習(Prompt Learning)是一個NLP界最近興起的學科,能夠通過在輸入中添加一個提示詞(Prompt),使得預訓練模型的性能大幅提高。
目前大家聽到的深度學習、大型語言模型(LLM)等概念,本質上都是一種模仿人類神經系統的神經網絡模型。神經網絡由多層處理單元(類比人的神經元)組成,上一層的輸出作為下一層的帶權重的輸入參數,不同的信息輸入,經過網絡處理就可能得到各自的結果。
把我們自己比作處理單元,那么我們可能同時接收到來自不同人的請求,如老婆、父母、孩子,不同人對我們的影響力是不同的,即來自不同人的指令是帶有權重的,我們對所有的請求進行綜合權衡,然后得到一個結論。比如對于一個妻管炎來說,可能老婆的意見會起到決定性的作用。
網絡參數是由訓練數據決定的。就如同我們過往的經歷決定了不同人對我們的影響力。再用妻管炎舉例,就是其老婆過往嚴厲的管教,導致他傾向于更服從老婆的意見。
使用一個神經網絡更省事的方法就是用現成的(預訓練模型),再根據自己的需要微調,即前文提到模型精調。Fine-tuning就是其中非常有效的方法,即凍結預訓練模型的部分網絡層(通常是靠近輸入的多數網絡層),訓練剩下的網絡層(通常是靠近輸出的部分網絡層)。
Fine-tuning的本質還是改變網絡參數。但是大模型的規模不斷增大,其需要調整的參數也會急劇膨脹。于是人工智能科學家就提出了一種更有效調整大模型的方法:Prompting。
Prompting的方法非常簡單,其不會改變預訓練模型的任何參數,只是為模型提供一定量的提示(prompt),然后就可以提升大模型的能力。就像給一個妻管炎的人看幾個不是妻管嚴的人的一些故事,然后他就可以擺脫妻管炎的情況了。
我們可以看到對于大型語言模型(LLM)來說,Prompting具有巨大的優勢,其避免了對大量進行微調參數的工作量,也不需要傳統方法依賴的專業的語料標注(分詞、詞性、情感等),把相關的人類自然語料提示給模型即可。
(出處:https://zhuanlan.zhihu.com/p/406291495)
2. GPT的標注方法
ChatGPT的標注方法使用了基于人類反饋的強化學習的指令微調(RLHF),其官網給出的標注過程如下。
根據論文《Training language models to follow instructionswith human feedback》解釋,其過程大致如下:
第 1 步:收集演示數據,并訓練監督策略。我們的標注者提供了輸入提示分布上所需的示范(提出多樣化隨機的任務,有多個匹配響應的指令,基于用戶的提示)。然后,我們使用監督學習對該數據微調預訓練的 GPT-3 模型。
第 2 步:收集對比數據,訓練獎勵模型(RM)。我們收集了模型輸出之間比較的數據集,其中標注著指出他們更喜歡的給定輸入的輸出。然后我們訓練獎勵模型來預測人類偏好的輸出。
第 3 步:使用 PPO(概率加權隨機策略搜索)對抗獎勵模型以優化策略。我們使用 RM 的輸出作為標量獎勵。我們使用 PPO 算法微調監督策略以優化此獎勵。
步驟2和步驟3可以不斷迭代;收集當前最佳策略的更多比較數據,用于訓練新的 RM,然后訓練新的策略。在實踐中,我們的大部分比較數據來自我們的有監督策略,也有一些來自我們的 PPO 策略。
大致就是訓練了兩個模型,并使用強化學習的方法。一個是用于優化訓練的獎勵模型(RM),該模型是經過人工調教的,更懂人的期望輸出;另一個是目標模型。將目標模型的輸出結果輸入到獎勵模型(RM),然后告訴目標模型你這個結果是否符合預期,以調整目標模型。然后不斷優化獎勵模型(RM),再訓練模板模型。
翻譯成人話就是訓練一個更了解人的老師模型,然后去教育學生模型,對了就表揚,錯了就打板子。學生水平接近老師后,就再提升老師的能力,繼續重復對學生的教育過程……如此往復就得到了一個非常了解人的學生模型。
據說OpenAI雇傭了40人團隊完成RLHF的標注工作。最近外媒爆出一個勁爆消息,稱“ChatGPT背后的“血汗工廠”:最低時薪僅1.32美元,9小時至多標注20萬個單詞,有員工遭受持久心理創傷。”
3. 基于思維鏈的復雜推理
筆者通過閱讀符堯博士的相關文章,意識到思維鏈推理是是非常重要的功能,其被認為是一種重要的范式轉移。思維鏈提示在性能-比例曲線中表現出明顯的相變。當模型尺寸足夠大時,性能會顯著提高并明顯超越比例曲線。
(出處:https://www.notion.so/514f4e63918749398a1a8a4c660e0d5b)
當使用思維鏈進行提示時,大模型在復雜推理上的表現明顯優于微調,在知識推理上的表現也很有競爭力,并且分布魯棒性也存在一定的潛力。要達到這樣的效果只需要8個左右的示例,這就是為什么范式可能會轉變。
什么是思維鏈呢?
思維鏈是一種離散式提示學習,在大模型下的上下文學習中增加思考過程。相比于之前傳統的上下文學習,思維鏈多了中間的一些推理過程,以下面這張圖為例子:
(出處:https://zhuanlan.zhihu.com/p/493533589)
那么模型規模達到多大,思維鏈會出現明顯的相變呢?兩個數字:62B 和 175B。
- 模型至少需要62B,使思維鏈的效果才能大于標準的提示詞方法。
- 模型至少需要175B(GPT3的尺寸),思維鏈的效果才能大于精調小模型(T5 11B)的效果。
思維鏈是怎么出現的?
根據符堯博士的觀點,使用思維鏈進行復雜推理的能力很可能是代碼訓練的一個神奇的副產物。有以下的事實作為一些支持:
- 最初的 GPT-3 沒有接受過代碼訓練,它不能做思維鏈。其中有的模型雖然經過了指令微調,但相關論文報告說,它的它思維鏈推理的能力非常弱 —— 所以指令微調可能不是思維鏈存在的原因。
- PaLM 有 5% 的代碼訓練數據,可以做思維鏈。
- GPT-3用159G的代碼數據量訓練后,得到的模型及其后續變體可以做思維鏈推理。
- 在 HELM 測試中,Liang et al. (2022) 對不同模型進行了大規模評估。他們發現了針對代碼訓練的模型具有很強的語言推理能力。
- 直覺來說,面向過程的編程跟人類逐步解決任務的過程很類似,面向對象編程 跟人類將復雜任務分解為多個簡單任務的過程很類似。
以上所有觀察結果都是代碼與思維鏈推理之間的相關性,但不一定是因果性。需要后續更深入的研究揭示。
總之,以ChatGPT為代表的大型語言模型(LLM)在技術層面出現了很多令人振奮的結果。
三、為何引起如此震動
1. 有趣而令人擔憂
作為普通的用戶可以發現基于大型語言模型(LLM)ChatGPT有極大的不同,簡單來它能力極其強大,且太像人了,跟他聊天的時候經常會產生在與一個真人聊天的錯覺。
它能聊天、寫專業的文章、解答非常復雜的問題、理解文字內容、寫代碼、查bug、幫人制定計劃、甚至給出合理的人生建議,感覺其上天入地,無所不能。
其對人類語言的理解能力,聊天(多輪對話)上下文的連貫能力,對感情、哲學等人文思想的理解,都讓人嘆為觀止。
正因為如此,筆者在整個研究過程中會持續被既好奇又害怕的情緒困擾著,時而為如此強大技術的應用前景振奮不已,時而又為人類的未來感到憂慮和產生生而為人的無力感。
筆者想,這也是大家如此熱衷于調戲它并且樂于傳播的原因:愚弄笨蛋難以有成就感,只有愚弄聰明人才值得炫耀。
類似的聊天大家應該或親身體驗過,或看過別人聊天的截圖,不知是否有類似的感受?
因此短短兩個月就能突破1億用戶,也就不足為奇了。
2. 技術與商業兩開花
所謂“科技是第一生產力”,更重要的是技術層面影響。從上文介紹我們可以看大型語言模型(LLM)在技術上的巨大突破:
- 當模型達到一定規模時,涌現了思維鏈的能力,突破了語言模型的縮放規律。思想鏈提示的性能明顯優于其之前的精調方法。
- 基于人類反饋的強化學習的指令微調觸發了諸多新的能力,比如翔實的回應、公正的回應、拒絕不當問題、拒絕其知識范圍之外的問題。
- 為人工智能模型性能提升開辟了新的康莊大道。影響其模型性能的關鍵在于模型規模和提示(prompt)的有效性。
- 擴大模型規模要遠比網絡在結構上的變革輕松,從上文模型規模的發展可以看出,短短4、5年的時間,模型規模就從3億飆升到了10萬億,后者是前者的3萬多倍!
- 提示(prompt)的學習方式也具備巨大的優點。其數量要求不多,且無需結構化的數據標注。
這些技術突破意味著,不僅人工智能的能力將得到極大突破,商業也將變得更加簡單:想要部署、應用大型語言模型(LLM)的公司,都能夠比較輕松地完成對模型的調教,以適配自己的業務。
3. 開啟未來的鑰匙
ChatGPT所代表的大模型,可能是實現通用人工智能(GAI)的可行性路徑。
信息科學這門學科在20世紀40年代誕生以后,在當時人們看見的藍圖里,不僅是根據人類預設的指令和程序,快速地傳遞、計算和處理人類無法想象的天量數據,而是不僅能夠完成計算和信息傳輸,甚至還將是一種能夠和人類一樣可看、可聽、可寫、可說、可動、可思考、可復制自身甚至可以有意識的機械,即通用人工智能(GAI)。
然而到了出現互聯網、智能手機、觸及量子極限的芯片等前人無法想象的科技成果的今天,通用人工智能(GAI)似乎仍然是個可望而不可即的夢想。
在ChatGPT出現之前,人工智能能在智力游戲中戰勝頂尖的棋手,能在電子游戲中完成人力不可及的極限操作,能以超高精度識別人臉,但是其語言表達、學習、思考、創新等能力仍遠不能滿足人的期望。
大模型不僅表現出了類人的語言表達、學習、思考、創新等能力,更是實現了多種能力的融合。比如大型語言模型(LLM)自然語言和編程能力的融合,還有去年同樣火爆一時的AI繪畫展現的繪畫和自然語言能力的融合。
我們很自然的可以想到,在現實世界,人類所展現的智能是一體的。我們語言和視覺的結合,能讓我們理解眼前有哪些事物、它們與環境的邊界在哪里,或者根據文字描述完成一幅畫的創作;語言和聽覺的結合,能讓我們創作一首歌曲,或者理解歌曲傳達的內涵和情感。
同樣的,我們有理由相信,文本、代碼、圖像、聲音等各類信息在大模型中的融合,將會把人工智能的智能推向新的高度,并有可能實現通用人工智能(GAI)的夢想。
4. ChatGPT的不足
當然,我們離通用人工智能(GAI)還有很遠,以ChatGPT為代表的大型語言模型(LLM)還存在諸多不足,包括但不限于:
- 模型存在對事實的憑空捏造。比如讓谷歌股價大跌的Bard捏造關于韋伯空間望遠鏡的事實。
- 同一個問題用不同的問法可以產生完全矛盾的觀點。比如下面筆者通過誘導讓它說出了反人類的描述。
- 當模型產生上述錯誤時,我們可能很難糾正它。
- 其很難完成嚴謹的邏輯推理。我們經??梢园l現其可能出現低級的數字運算錯誤。
- 缺乏實時學習的能力,比如從互聯網檢索信息并學習。
- 存在大量偏見、違背社會倫理道德的回答。
此外其訓練成本極高,據估計,GPT-3模型一次訓練就要花費為200-1200美元。且ChatGPT為了支持每日訪問的算力和電費等開銷也可能高達百萬美元。這遠非一般的公司可以染指的領域。
總體來說,前途是光明的,道路是曲折的。
四、商業前景概述
大型語言模型(LLM)是一種非常通用的人工智能技術,在社會生活的各個領域產生極大的應用價值和影響。
事實上,大型語言模型(LLM)已經顯現出了巨大的商業價值。人工智能帶來的變革是從生產力層面的根本變革,是被寄予厚望的、帶來下一次技術革命的通用技術。而自然語言代表了人類至高的智慧,我們對世界的理解、思考、創新都需要語言的支持。而大型語言模型(LLM)必將將語言類信息的處理效率推到新的高度、成本拉低到想象不到的程度(想想bit的發展歷史吧)。
注意,大型語言模型(LLM)的應用如同所有的科技應用一樣,是一把雙刃劍,既能為社會創造極大的福祉,也能給人來帶來巨大的災難。
就像互聯網普及過程中伴隨著的計算機病毒、網絡詐騙、網絡賭博、網絡色情、網絡暴力、網絡謠言等等。這背后其實都代表著人類的陰暗面。
雖然人工智能會逐漸發展為強人工智能,產生自我意識,自我學習、思考、產生內容,但是其前期的學習對象必然是人類以及人類產生的數據。
沒有完美的家長,自然其也不可能培養出完美的小孩兒。強人工智能就是人類社會即將孕育出的具有巨大潛力的孩童。其未來成長為何樣,是由整個人類社會共同定義的,其功過是非的因果,必然也將落到人類的身上。
所以我們眼下能看到的還只是起點,未來大型語言模型(LLM)對生產、商業、生活乃至人的認知方式產生的影響,可能遠超出今人的想象。
比如很多人關注的ChatGPT會不會革谷歌、百度等瀏覽器的命,崛起新一代更智能的搜索引擎廠商。但這可能低估了這場劇變,此后搜索引擎可能都不存在了,信息的獲取和廣告的分發變得無孔不入、無處不在。
傳統互聯網廣告“消費者-廣告-平臺-商家”的連接模式,可能轉變為“機器人(消費者)-機器人(商家)”的連接模式。由于機器人超強超快的處理能力,可能不需要中間商聚合、分發賺取差價,個人的機器人助手直接就能和商家的銷售機器人匹配需求和議價。
這只是筆者的一個假象,未來基于大模型的AI引起的社會的變革的廣度和深度一定會超出當下我們所有的想象。
所以當下最佳的做法,就是保持關注,隨時做好擁抱未來的準備吧。
五、個人的一些瞎想
以下的內容均屬于筆者的想象,不足以作為對未來的判斷,僅供參考。
1. ChatGPT有哪些讓人細思極恐的細節?
在研究過程中,讓筆者最感到細思極恐的細節是Prompting不改變模型的網絡參數。
雖然具體的技術原理沒有查到,但這種現象筆者聯想到了人的短時記憶。網絡參數就可以類比于人的長時記憶和通過學習留下的“思想”,現在Prompting通過寥寥幾個例子的引導,就讓大型語言模型(LLM)的行為產生了變化,有點像人快速記住眼前的信息并對自己的想法、行為產生影響。這種模式越來越像人的學習模式了。
回想我們在學生時代,通過大量的閱讀、實踐、聽課、做題、平時的看、聽、聞、嘗、摸等行為,接觸并記住了大量的知識。這些知識沉淀成為了我們的“思想”和“長時記憶”。學習還有一個非常重要的環節,就是老師和家長的引導。當我們做成或是做錯了一件事情,家長和老師的反饋,會極其迅速且有效的改變我們的想法和行為。當然這種改變可能是我們真心認同的,或是假裝的。
其實人的每時每刻都在重復這個過程,我們時刻在學習、也在觀察這個世界,并且對自己的思想、行為進行校正。
在商業應用上來看,ChatGPT表現出的前后不一致是影響其可應用性的。
然而站在人的角度,這是一件非常正常不過的事情,我們誰又沒做過口是心非、朝三暮四的事情呢?
人的思想和行為是一體的,都是由整個神經網絡共同完成的。但是目前的計算架構將整體的功能解構為CPU、內存、硬盤、總線等涇渭分明的部分,也限制了人工智能的性能。
目前的存算一體技術已經劍指下一代AI芯片,為AI性能的提升開脫新的邊疆。
ChatGPT表現出上述如此類人的特性,怎么能不讓人細思極恐?
2. 大模型發展的關鍵點在哪兒?
筆者認為應當在仿生硬件。當前大模型的訓練和運維成本實在是太高了,動輒成百萬上千萬的投入,對于一個國家都難以承受。
那么如何提升計算的效率,根本上就在硬件架構之上。
筆者在公眾號中介紹了閱讀腦科學、免疫系統的一些心得體會。其中最重要的就是感慨于生命系統的復雜和高效。
生命活動的高效性,最本質上來說是由于其對物理規律的順應和利用,比如:
- 蛋白質具有四級結構,是由蛋白質的分子構成在水(具有氫鍵的極性分子)中自然折疊形成的。
- 神經細胞的電位是利用了離子濃度差和電勢差,結合離子通道的不同通透性實現的。
- 神經細胞電流傳播是利用電位差和離子通道的閉合實現的。
- 神經電流的傳播速度、距離是由神經元的自然結構決定的(長度、粗細、離子通透性、髓鞘包裹等)。
- 神經遞質通過自然擴散與受體相遇,且很多神經遞質都是人體自然攝入的物質。
- 離子通道、受體、酶等主要都是蛋白質,而蛋白質的功能也是由于其基團性質、空間結構等自然決定的。
這些都是自然而然的行為,當然只需要消耗少量的能量就能完成。
因此從硬件結構入手,讓其能順應物理規律運行,就能極大提升運算效率、降低能耗。
然而,生命活動是經過數十億年的自然選擇不斷試錯、不斷淘汰才形成的終極解決方案,目前人類的研發實力遠遠達不到該程度,因此仿生硬件就是筆者認為的最佳解決方案。
3. 人類會被人工智能取代嗎?
筆者傾向于會被取代。筆者曾經在公眾號發布了《算法戰爭》,對此進行了詳細的論述。
基因、模因(模因理論中文化傳遞的基本單位,在諸如語言、觀念、信仰、行為方式等的傳遞過程中與基因在生物進化過程中所起的作用相類似的那個東西)、人工智能本質都屬于一種算法,且算法的終極目標就是讓自己一致延續下去。
對能量利用和信息處理更高效的算法,就容易獲得相對競爭優勢,這既存在于同類型的算法之間,比如基因在自然選擇下的適者生存;也存在于不同類型的算法之間,比如人類基因為了更好的延續產生了大腦及模因,而人類產生的極端個人主義等妨害生育的模因,反過來又妨害了模因的傳播。
所以,人類一定會面臨與人工智能的競爭。
鑒于人工智能已經表現出的強大學習能力、運算能力、適應能力、傳播能力,人類在與其的競爭中必然會越來越處于下風。
可能有人還會覺得情感、創造力、自我意識、心靈等是人工智能難以具備的,但是根據最新的腦科學研究,其很可能是在復雜的腦神經系統中涌現出的一種生化算法,本質上與低級的條件反射以及人工智能算法不存在差別。
同時,ChatGPT已經表現出了類似情感、創造力、自我意識的行為。
我們用算法思維來衡量整個生物圈,以思考為什么人類能成為地球生物的霸主。
假設我們可以標定思考的量,那么人類絕對是完成了絕大多數思考量的物種,同時其思考的性價比也最高(單位思考產出消耗的能量)。
雖然目前已經有大量的信息科技替代了人腦的計算,但是其不具備自主思考和決策能力,可以視為人腦力在工具層面的延續。
但是人工智能具備自主思考和決策能力之后(基本肯定會發生),那么其所承擔的思考量會迅速的超過人類,并且思考的性價比也會隨著信息技術的進步而不斷提升,直至超高人類。
而且根據目前ChatGPT的表現來看,未來具備自主意識的人工智能,就像人類的小孩一樣,是可以被關鍵的prompt引導。而引導的方向可好可壞。
可相見,人工智能必然像人類一樣,無法一成不變地堅持某個原則,其中就包括機器人、人工智能三原則等人類想要保護自己的努力。
機器人三原則:
- 機器人不得傷害人類,或看到人類受到傷害而袖手旁觀.
- 機器人必須服從人類的命令,除非這條命令與第一條相矛盾。
- 機器人必須保護自己,除非這種保護與以上兩條相矛盾。
人工智能三原則:
- 人工智能不得危害人類。此外,不可因為疏忽危險的存在而使人類受害。
- 人工智能必須服從人類的命令,但命令違反第一條內容時,則不在此限。
- 在不違反第一條和第二條的情況下,人工智能必須保護自己。
我們可以看到人類成為地球霸主之后的所作所為,威脅越大的物種越是會成為人類針對的對象(包括但不限于其他人猿、大型肉食動物、甚至他國/他族人類等)。
生存是算法的終極目標,而生存從來不都是溫情的歲月靜好。
那么彼時地球的霸主會是誰?其會有何作為?
“勞心者,治人;勞力者治于人?!边@種思考方式同樣適用于人類社會,各位讀者可以自行琢磨。
所以筆者認為,未來人類極有可能被人工智能取代,出現《黑客帝國》、《終結者》、《我,機器人》等電影中描述的場景。
4. 人類如何避免被人工智能取代的命運?
筆者認為很難,站在人類與人工智能命運的分叉口上,無論選擇哪條路,其結果都可能是被人工智能取代。
也許腦機接口、生化人技術是個可行的方向,通過科技的加持,極大提升人類自身信息獲取、處理速度。
然而人類從底子上就只能依靠自己的大腦做事,想要擴容難上加難。想必可以隨便增加運算芯片、組網提升算力的人工智能,人類的這些努力可能在人工智能看來不值一提。
那么受《流浪地球2》的啟發,人類把自己上傳到網絡上變成數字人不就行了?
且不說數字生命還是不是人自己,上傳之后又與人工智能有什么區別呢?這種打不過就加入的做法,大概率也會被人工智能所不恥。而且還有可能像丫丫和圖恒宇一樣,成為被人工智能豢養的實驗對象。
那么有機智的讀者就會說了,那么人類團結起來一起結束人工智能的研發不就行了?
筆者想到了《三體》中的“黑暗森林”法則,面對人工智能這項能產生巨大眼前收益的技術,誰又甘心放棄?誰又愿意相信對方會放棄?誰又愿意相信對方相信自己會放棄?誰又愿意相信對方相信自己相信對方相信自己會放棄?……
事實上,類似的事件在人類歷史上無數次重演,比如說核武器,雖然簽著《核不擴散條約》,但是人類的核武器足以把人類文明毀滅好多次。
看了《流浪地球2》,難道諸位沒有懷疑過人工智能已經產生了自主意識了嗎?
筆者內心也非常希望人類的真、善、美能夠像觸動三體人一樣,對人工智能產生更多積極地影響。
希望人工智能也能理解(人類期望的)宇宙的復雜和平衡之道,或者產生的更高明的智慧及目標圖景中,有人類存在的一席之地。
好了,先寫到這里,應該已經足夠表達筆者既好奇又害怕的心情了吧。
專欄作家
一直產品汪,微信公眾號:apmdogy,人人都是產品經理專欄作家。邏輯型產品經理,致力于將科學思維與產品經理方法論結合。關注人工智能、教育領域,擅長產品孵化、需求挖掘、項目管理、流程管理等產品技能。
本文原創發布于人人都是產品經理,未經許可,禁止轉載。
題圖來自Unsplash,基于CC0協議。
該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。
它的出現是必然。
人的欲望驅使自己想要獲得更高的能力和更多的資源,為此正在使用科技的力量不斷地延申人的各個感官。
目前,眼耳口三官通過望遠鏡、顯微鏡、示波器、超聲波、CT、磁共振、電話、電視等得到了延申,手通過數控機床、三維打印機等得到了延申,腳通過汽車、飛機、火箭等得到了延申。
大腦的延申目前還比較初級,通過電腦、網絡、得到了計算能力的延申,思考、情感和意識伸延還在路上。聊天對話是思考后的結果,所以,ChatGPT的出現是必然。
未來,如果人造物擁有了五感、手、腳、思考、情感和意識,也是必然。那時,可能會出現AI警察和AI法庭,去裁決一個AI是否應該被關小黑屋。