人是目的,但AI不是
在ChatGPT用“奇點”“拐點”“新紀元”等光環裝點著跟科技革命相關的宏大敘事時,不少人內心生出了些許茫然失措——AI正在蠶食我們的生存意義嗎?不管怎樣,AI的發展,不能被系統所縛,不該被迷障所困,但也不能背離基本原則:人是目的,AI只是工具。
“你是誰,從哪里來,到哪里去”
在“AI的iPhone時刻”已到來的背景下,所謂的人生終極三問,從保安的靈魂追問變為我們的捫心自問,幾乎是必然。
我們究竟要到哪里去?這是我們無法回避的問題。
有人說,包攬今年奧斯克7項大獎的《瞬息全宇宙》,用天馬行空的科幻劇情設定闡明了那個殘酷的現實:生活沒有意義。
那在AI朝著我們使出一招排山倒海的當下,意義感的消失,之于我們恐怕會來得更加強烈——這已構成我們生存危機的原色。
比起人的崗位被替代,不知道人之為人的意義在哪,是更大的危機。
就當下而言,在ChatGPT用“奇點”“拐點”“新紀元”等光環裝點著跟科技革命相關的宏大敘事時,不少人內心就生出了些許茫然失措。
如果說,科技革命映照的是大時代的“大”,那蕓蕓眾生對應的就是個體之“小”,小得如同螻蟻。
在《黑天鵝》里,商業思想家塔勒布說:歷史和社會不是緩慢爬行的,而是在一步步地跳躍,它們從一個斷層躍上另一個斷層……
ChatGPT確實是在推動社會躍上新的“斷層”,實現非線性、跨越式的進化。
可困在“大時代的小人物”身份中的普通人,很難不被跟時代脫節的焦慮席卷和圍困。
在技術變革的巨浪涌來之時,無數人在惶惑于何以自處:被裹進時代洪流的被迫感,“熱鬧都是他們的,我什么都沒有”的疏離感,會啃噬我們許多人的內心。我們會覺得,自己是AI世界的畸零人,AI正蠶食我們生存的意義。
這當然不該導向反技術的新勒德主義,也不該轉化為對強監管的召喚聲量。
但毫無疑問,它是AI技術發展必須正視的社會心理結構。
AI的發展,不能被系統所縛,不該被迷障所困,但也不能背離基本原則:
人是目的,但AI不是——它只能是工具。
01
可以預見,若干年后,當那些“AI原住民”回頭看時,2023年會是個繞不開的里程碑時刻。
ChatGPT問世,直接拉開了科技大爆炸的帷幕。
很多領會了生成式AI威力的人們,腦中沒準會回旋起茨威格的那句話:
“充滿戲劇性和命運攸關的時刻,在個人的一生中和歷史的進程中都是難得的;這種時刻往往只發生在某一天、某一小時甚至某一分鐘,但它們的決定性影響卻跨越時間。”
這不是開始的結束,卻是結束的開始。
隨后的情形是:正當人們過著一切如常的生活之時,很多標志著“未來已來”的科技動向紛至沓來、密集涌現。
就在這些天,AI領域的重磅炸彈被接連引爆:
ChatGPT所屬的OpenAI公司,推出了GPT-4;
百度的類ChatGPT產品文心一言,正式面世;
微軟發布了集成GPT-4大模型的重磅革命性應用Microsoft 365 Copilot;
AI生成圖片工具 Midjourney推出了被視作“開啟視覺革命”的V5模型;
谷歌開放PaLM大模型API后,開放測試自家對話式AI服務Bard;
Adobe推出最新AI模型Firefly;
英偉達投下“核彈顯卡”,可以為ChatGPT運行提速10倍……
這一切,都在不斷重復著一句話:
時間,真的開始了。
當那些科幻片場景抖落那層“科幻感”,以前方高能的真實景象向我們涌來時,你能清晰感知到:
新技術周期與新時間單元已經來了。
大洋彼岸,有AI創業者給出的預判是:未來2到3年的AI,將定義未來20到30年的世界。
循此判斷,AI在2023,就像移動互聯網在2010。
02
技術進步,天然具有道義正當性。
但這類正當性,建立在技術進步增進人類福祉的基礎上,并止于技術進步威脅人類共同利益的地方。
就現在看,ChatGPT的橫空出世,引發了“拜AI教”狂歡的同時,也引爆了“硅基文明PK碳基文明”敘事的流行。
就在前天,“一口老炮”的一番感慨——“咱就是最后一批比硅強的碳”,就引起了許多人的共鳴。
在他看來,地球文明未來的主導者是碳基(人類)還是硅基(機器),還不好說,今天的硅基算力已超越碳基,只是在算法模型上還差一大截而已。
這也許是承自馬斯克的猜想。
馬斯克曾設想,人類就是引出超級數字智能物種的引導程序,整個人類社會是一段非常小的代碼,世界則是一臺計算機,沒有人類計算機就無法啟動,人類的產生就是為了計算機的啟動。
他認為,地球的下一代主人是硅基生命,它不能自我演化,需要人類作為前導才能進化。
而作為超級數字智能物種的AI,就具備科幻大神阿西莫夫假想的“硅基生命形態”。
擱幾年前,我們會覺得,馬斯克這是《終結者》看多了,AI都沒生命何以成精?
可如今,諸如斯坦福大學教授曝光GPT-4的“越獄計劃”和引誘人類提供開發文檔的操作,刷新了我們對AI能力的認知。
這些天,馬斯克的“觀念同路人”越來越多,周鴻祎亦在其列。
他近日接受采訪時就說:
目前ChatGPT還只有大腦,接下來,它可能進化出“眼睛”、“耳朵”、“手”跟“腳”,那時候它就能看懂人類的各種圖像視頻、聽懂各種音頻。
隨著ChatGPT接入互聯網的API,進入萬物互聯的時代,它無疑相當于擁有了手跟腳,間接擁有了操控世界的能力,這時候,它不僅在網頁上可以下單購買機票,可以打車,可以訂購外賣,甚至能夠通過網頁操縱各種物聯網設備。
假如讓ChatGPT不限定輸入的語料,隨意能夠獲取搜索、瀏覽互聯網上的知識,產生了自主意識的GPT,會不會在看完類似《終結者》之類的電影后,產生與人類為敵的想法?
周鴻祎還搬出了進化論:人類從智人發展而來,智人從類人猿發展而來,類人猿之所以能進化為智人,就是因為腦中的神經元網絡發生突變?,F在ChatGPT大語言模型參數達到了1750億,同樣激發了突變,所以就產生了現在的能力。
某種程度上,這是將“超算”定義大幅拓寬了:以往人們普遍認為,超算就是機器算力支撐的,現在人們會發現,人類中的那些“最強大腦”本質上也是“人體超算”。
這樣一來,“硅基/碳基”的分野也就沒那么重要了,重要的是算力差距。
碳基文明時代,價值體現在空間上,從空間上對短缺資源極限控制是關鍵;硅基文明時代,價值是體現在算力資源供給上,從時間維度對概率極限壓制是重點……時下,不少AI信徒正撿起幣圈的讖言。
他們順手一指,前方似乎就立著“硅基文明時代”的入口標牌。
03
世界真的要進入硅基文明時代了嗎?斯蒂芬·霍金的“AI會導致人類族群滅絕”擔憂會變為現實嗎?
在當下,諸如此類的疑問,難免隨之而來。
依我看,無論回答是還是否,在我們有生之年,結果大概率都難以驗證。
比起人被AI奴役或毀滅,眼下更緊迫的,也許是警惕AI被人用來作惡。
厄休拉·M·富蘭克林在《技術的真相》中寫道:技術的發展和運用都是在一個特定的社會、經濟和政治語境中發生的,它從一個社會結構中產生,然后被嫁接在這個結構上。
言下之意就是,技術未必有善惡,但可能被用來作惡,技術無法離地飛升,其用途跟社會深層系統結構緊密綁定。
3月21日,Bellingcat網站創始人艾略特·希金斯用Midjourney V5創作的“特朗普被捕”圖在網上熱傳。這清晰地昭示了生成式AI在制造假新聞上的無限潛力。
▲網上流傳的「特朗普被捕」圖,系AI生成。
那更多的潘多拉魔盒會由此開啟嗎?
這不是杞人之憂。在AI換臉被用來釣魚詐騙、AI探頭將頭探進私人床幃等亂象時有曝光的今天,誰能確保,ChatGPT不會變成CheatGPT,AIGC不會導致信息藻類無限繁殖?
“胡編”更多、迷惑更強、繭房更厚……AI會不會將我們帶向山本耀司所說的“進化悖論”——“由于一切知識都變得唾手可得,反而失卻了很多殫精竭慮、獨立思考的機會”,或是帶進陷阱密布的信息羅網,是個需要思考的問題。
信息膨脹疊加崗位替代,最終勢必會帶來“人”的消逝:“人”的消逝,往往是從意義感消失開始的,意義感消失,往往又是從人們“懷疑人生”開始的。
值得注意的是,不論是馬斯克、比爾·蓋茨,還是OpenAI的CEO薩姆·阿爾特曼、首席技術官米拉·穆拉蒂,都對ChatGPT表示了擔憂。
馬斯克擔心的,依舊是AI威脅人類文明。他將人工智能比作核技術,稱“它有巨大的前景也有巨大的能力,但隨之而來的危險也是巨大的?!闭J為對于未來文明而言,最大的風險之一就是人工智能。
以至于,向來對監管“過敏”的他,不惜呼吁對ChatGPT進行監管。
而鼓吹“GPT模型是40余年來最具革命性的技術進步”的比爾·蓋茨也承認,AI會引發關于勞動力、法律體系、隱私、偏見等一系列尖銳問題,“也會犯事實性錯誤并產生幻覺?!?/p>
阿爾特曼與穆拉蒂也沒有因為ChatGPT是自家的就“隱惡虛美”。
阿爾特曼表示,AI潛在的危險性讓他徹夜難眠,擔心它被壞人所用,被用于虛假信息的大規模傳播,被用于網絡攻擊,希望監管機構和社會各界盡可能地參與ChatGPT的發布和測試。穆拉蒂也直言不諱,ChatGPT可能會編造事實,應受到監管。
這并不能顛覆ChatGPT利多于弊的結論,但不能因此就忽略“弊”的存在。
畢竟,AI之“弊”并非無關緊要,還會越積越多。
04
說這些,不是要否定AI技術大爆發的進步意義,更不是要呼吁監管就位。
歷史學家大衛·克里斯蒂安認為,能量與信息,是人類社會發展的兩個核心元素。從化石能源到算力,從機械到AI,生產材料與工具的演進軌跡,就為其提供了佐證。
著眼長遠,AI爆發是大勢所趨,ChatGPT代表的是未來,它不能被扼殺,也無法被阻擋。
就像我們不可能再回到沒有快遞外賣網約車的時候那樣,我們在將來也很難再回到沒有AI的年代。
回看今天的我們,其實就在扶著現實之墻以期敲開那些未來之門。
而在AI這道墻上,就赫然寫著一行字:算法即魔法,算力即權力。
算法即魔法,已經被快遞外賣網約車服務的精準匹配一再闡釋。
算力即權力,也已被現實印證。
這次英偉達在GTC 2023大會上圍繞AI推出“算力核彈”——全新的H100 NVL GPU,解鎖的是AI 領域核“芯”的基礎設施技術能力,也是AI時代“數字軍火商”的權力。
幾天前,任正非在談到ChatGPT時說,AI服務普及需要5G的連接,AI大規模商用需要管道流量支持,所以華為錨定了要做好5G和底層算力平臺,同樣旨在解鎖未來的某些底層設施主導權。
要知道,AI能力=算法×算力×數據,是AI進化的基本公式。
順著AI墻面看過去,未來的圖景若隱若現:
對大多數企業而言,就算不能All In AI,將來也得AI In All。
在移動互聯網時代,“所有行業值得重做一遍”的說法蔚為風行。到了AI時代,“重做一遍”又可以+10086。
李開復就預言,AI2.0帶來的平臺式機會,將比移動互聯網至少大十倍;AI 2.0智能應用、AI 2.0平臺、AI基礎設施是三大機會窗口。
說完他就發出了江湖召集令,擘畫出了打造AI 2.0全新平臺和AI-first生產力應用的藍圖。
而眼下正為文心一言奔忙的李彥宏,也認定AI連著星辰大海,斷言AI會帶來三大產業機會:從IaaS(基礎設施即服務)變為MaaS(大模型即服務)的新型云計算公司;調用通用大模型能力的行業性解決方案提供商;基于大模型底座進行應用開發的應用服務提供商。
從美團元老王慧文、前京東技術掌門人周伯文、“創業教父”李開復到阿里“框架大神”賈揚清,躬身入局AI的消息,也一再引爆TMT圈。
得AI者得未來,在ChatGPT重塑數字世界信息入口的今天,幾成共識。
當此之時,因為AI的潛在負外部性就去給AI技術發展設置路障,是短視的。
AI技術產品創新必然會帶來“創造性破壞”,我們在享受其“創造”之利時,也該對其“破壞”作用抱有基本的包容。
在AI爆發期,動輒冀望全能式監管來“管一管”,往往只會造成扼殺創新的效果。
即便AI撬動了人與技術的關系之變,那也不是我們醞釀“顱內盧德運動”的理由。
05
說到底,穿梭在國家數字主權、未來科技競爭等宏大敘事中的AI,注定是“大”的。
AI之大,在于原力,在于潛力,也該在于人本價值。
AI的進化,不該是以“人”的消退為前提——就算從產業變革角度看,技術革命不可避免會帶來人工替代,那在“技術-人文”關系平衡上,最起碼不能讓伴生的釣魚、欺詐、監控去劫奪人的權利或損害人的尊嚴。
換句話,再怎么代表了先進生產力,AI都不能“目中無人”。
熊培云老師就在《比Chatgpt的到來可怕的是人的消逝》中寫道:
人不是一堆數據,重要的是人有在場性。它關系到來自我們內心深處的熱情與痛苦以及智慧與經驗。
時至今日,那些熱愛詩歌的人不會認同將人的靈魂縮略為EXCEL里的一個個四邊形,甚至被它們分門別類碼成表格之墻或者陀斯妥耶夫斯基意義上的白色真理之墻。
人有主體性與在場性。AI理應是人的助理,而不是對手;理應成為人向善的Buff,而不是作惡的工具。對應的要求就是,拿捏好AI積極價值與異化作用的平衡。
這不是要訴諸管控之力,而是主張“數字正義”歸位——如果AI算法有弊端有風險,那就用更高階的“算法”來消解,這套“算法”該包裹著以人為本的內核。
法律學者馬長山曾指出,而今,科技向善的基準已不再是以物質分配為核心的物理正義,而是以信息分享/控制為核心的數字正義。這就需要,基于數字生產生活方式和數字行為規律,有效探索并重建數字正義理念、原則、程序等。
在AI時代,“數字正義”也該是AI價值對齊方向。
清華大學教授梁正說,下一代人工智能應該是可解釋的,“現在(AI)最大的問題就是黑箱”。
用破除算法黑箱確保AI可知、可信、可控、可用,讓它沿著科技向善軌道運轉,尤為重要。
而要實現這點,要靠的不是監管“包辦”,而是社會共同參與:應該將AI嵌入到整個社會體系中評估,以體系化思維為AI向善提供解決方案。
回到人跟AI技術的關系層面,單純地要求人們無條件跳進AI筑造的“信息泥沼”中,或是要求AI以回撤姿態去適應人們的刻舟求劍心態,都是欠妥的。
我們要擁抱AI時代,AI也該擁抱人本時代。人文跟技術,該雙向奔赴。
從精神屬性上看,AI應該是人的附屬品,人不該是AI的犧牲品。
原因很簡單:人是目的,AI不是。
《瞬息全宇宙》中,楊紫瓊在穿行于無數個平行宇宙中,為“生活無意義”找到了解藥。
它就是愛。唯有愛,才可以拯救生活的無意義,才是人類最終的歸宿。
AI應該有愛,它該增加而非吞噬人的意義感。
AI的正確打開方式,也只能是“AI不是無情物”,而不是“AI越會,我們越廢”。
作者:佘宗明
來源公眾號:數字力場(ID:shuzilichang),抵抗熵增,打撈有趣。
本文由人人都是產品經理合作媒體 @數字力場 授權發布,未經許可,禁止轉載。
題圖來自Unsplash,基于CC0協議。
該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。
但有一個悖論,根本不能預測在什么時候會出現真正的拐點:人是不是目的,AI才是——人類只能是起源。