為什么全人類都呼吁把通用人工智能“管起來”?

1 評論 3125 瀏覽 5 收藏 13 分鐘

隨著AI模型的不斷發展,大家開始擔憂AI安全問題。本文通過提出為什么要管人工智能這一問題,思考和討論關于管什么,為什么管,怎么管等話題,一起來看看吧。

3月底,馬斯克在內的許多社會名流共同簽署了一份公開信,希望包括OpenAI在內的機構至少把更高能力的AGI研發暫停6個月,從而讓人類社會達成某種基于AGI(通用人工智能)威脅的協議。

這封信雖然文本不長,但是涵蓋了非常廣泛的內容,內含的問題很豐富。

比如,人類該如何算這筆賬——AGI讓信息渠道充斥宣傳甚至謊言;如果是人類本來就喜歡和滿意的工作,是否應該被AI取代?而這些效率提升,是否值得我們冒著“失去對文明控制”的風險?而人類針對AGI的監管體系又應該如何搭設?

這封信最終的結果是引發了硅谷規??涨暗挠^點撕裂的大討論。畢竟如果以GPT3.5進入人類社會視野為起點,對于AGI的發展,人類還有太多的盲點沒有解決、有太多爭議沒有達成共識。但當人類還在爭吵時,AGI已經開始在全球各地制造麻煩了,虛假信息和信息泄露都像是一個讓人不安的龐大黑箱。

因此,最近一段時間以來,包括歐美日韓在內的各個信息發達國家都開始了對大模型監管的討論。而在4月11日,國家互聯網信息辦公室也發布了《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《辦法》)。這份《辦法》的重要意義在于,它可以算是人類社會面對AGI監管中最早的官方文件之一。

而監管視角往往是人們理解AGI中很獨特的一個角度:不同于科學家視角有很多參數上的復雜解釋體系、有諸多復雜的模型框架流派。監管者是社會利益的代言人,也往往是站在社會整體的角度去思考。因此監管者的思路也往往更接近大部分人樸素的直覺。但它同時又代表了核心專家群體的思考,所以它也能部分回應新事物的很多討論。

所以這份《辦法》其實可以成為很多人普通人去理解AGI的一個窗口,他可以幫助我們更好地理解和參與AGI討論。因為AGI既不是天使,也不是魔鬼。而祛魅后的AGI也將成為我們公共生活中的重要部分。

一、“我是誰”:生成式人工智能

如果站在硅谷的角度,AGI約等于大模型。它是通過優化的模型、結構語料庫和龐大的算力組合而成,帶有一點智慧體思想特征的計算機程序?!段募穼@個“新物種”的劃入到了“生成式人工智能”行業,即“基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術?!憋@然這是從AI與社會關系的角度出發。

畢竟AGI未來的技術特征會改變,模型大小會浮動,但它最終要追求與社會之間互動的內核不會變。而無論一個模型封閉開發多久,其最終目的都是要面向社會做內容輸出。這其實是過去輔助決策、檢索、安全、支付等垂直AI與AGI很核心的不同。

而從技術遠景來看,任何有廣泛用戶基礎的“生成式AI”,其大概率都會是有AGI底層能力的產品。而對于普通人來說,AGI(通用人工智能)這個名詞確實也有點太“魅惑”。許多人將AGI與人類智慧相類比,仿佛讓人看到了一張“賽博靈魂”,全然忘了AGI只是有一點智慧的苗頭,未來的發展其實還有巨大的不確定性。

所以與其說我們未來是《西部世界》似的“AGI社會”,不如說我們將迎來一個“生成式人工智能”的世界,這可能更貼近我們這一代人的技術現實。

二、“我屬于誰”:服務提供者

在AGI倫理討論中存在一個經典問題:大模型生成的內容,版權到底是屬于大模型公司、還是屬于辛苦寫prompt(提示詞)的用戶?

《辦法》雖然沒有明確規定版權的歸屬,但在監管上劃出了責任義務,可以供更多人參考。根據《辦法》:“利用生成式人工智能產品提供聊天和文本、圖像、聲音生成等服務的組織和個人(以下稱‘提供者’),包括通過提供可編程接口等方式支持他人自行生成文本、圖像、聲音等,承擔該產品生成內容生產者的責任”。

如果沿用這個思路,負責人其實既不屬于大模型的研發人員、也不屬于用戶,而是屬于連接大模型與用戶之間的服務提供者。當然,在大部分情況下AGI的開發者和API提供者應該是同一個主體。但隨著技術生態的演進,不同層次的主體可能會變得多元化。

明確中間的服務提供者承擔責任,其實也符合“生成式人工智能”的官方定義。同時,這樣的權責劃分其實也倒逼未來上游產業鏈必須達成足夠好的內容互信。

三、AGI的“內容權”:需要標識

與版權問題類似的爭論是:AGI內容是否可以與人類享受的內容“同權”?

《辦法》明確對AGI內容做出了限制,出現在了兩個地方:·“按照《互聯網信息服務深度合成管理規定》對生成的圖片、視頻等內容進行標識”。“提供者應當根據國家網信部門和有關主管部門的要求,提供可以影響用戶信任、選擇的必要信息,包括預訓練和優化訓練數據的來源、規模、類型、質量等描述,人工標注規則,人工標注數據的規模和類型,基礎算法和技術體系等”。

關于AGI內容一直存在爭議。尤其在GPT內測的時候,系統有時候表現得像是一個村口玩手機的大爺。它有時會直接給用戶一些包含價值判斷的觀點,卻沒有足夠說服力的信息佐證。如果《辦法》落地,AGI就會徹底告別“口說無憑”的跑火車式的內容輸出,轉而衍生出一些搜索似的工具屬性。而像過去拿著AI合成作品去美術比賽拿獎的事情,也將徹底變成一段“黑歷史”。

這其實與法律的精神相匹配,AI在內容生成上是絕對的強者,他自然也需要承擔更多的舉證義務。而多模態的內容形態可能存在巨大的內容風險,自然也需要相應的制約機制。相反,如果讓AGI內容與人類內容完全同權,可能會對人類自己的內容生態產生難以評估的影響。

四、“監管生態”:阿西羅馬原則

在開頭針對OpenAI的公開信里有一個小細節,它提出應該有一個審計的生態(ecosystem),而非體系(system)。而公開信也提到了阿西羅馬AI原則(Asilomar AI Principles),即先進AI對人類的影響會是一個文明級的,因此對它的規劃和管理所需要耗費的資源,應該是與其本身耗費的資源相匹配的。

換言之,如果生成式AI會是一個龐大的體系,那么就不能僅僅靠某個環節、某個主體完全實現監管。除了繼續強調既有法律的監管地位外,《辦法》中也強調了對生成式AI的全流程監管。

比如語料庫(“預訓練數據”)必須合法合規、數據標記必須培訓“清晰、具體、可操作的標注規則”、使用場景必須符合規范并承擔相應責任、內容本身需要被標注、用戶使用過程中要有明確的舉報反饋通道等等。

既然AGI會成為龐大的生態底座,那么監管者其實也需要用更多元化的方式去執行監管任務。因此盡管大模型有一定的黑箱屬性,但通過一整套組合拳,也足以倒推技術黑箱后的合規能力,從而達到“開箱”的目的。

而為了進一步明確開發者責任,《辦法》中還加入了這么一條:“對于運行中發現、用戶舉報的不符合本辦法要求的生成內容,除采取內容過濾等措施外,應在3個月內通過模型優化訓練等方式防止再次生成?!睋Q言之,如果監管方只是想用“內容過濾”的手段逃避進一步的模型優化責任,在《辦法》中是違規的——AGI需要一個合規的靈魂而不只是合規的API。

五、“馴火”

有很多人將AGI的發明比作“火”,人類學會了生火、享受火的文明成果,但同時也要花更漫長的時間去“馴火”。

在前面提到的公開信里,提出一個好的AGI應該滿足至少幾個標準,準確、安全、可解釋、透明、魯棒、對齊一致、值得信賴和忠誠的(accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal)。

換言之,AGI絕不能像現在這樣,成為一個玄學般煉丹爐式的黑箱。它應該對人類有更高確定性的利好。所以公開信提出了更多遠景的技術監管設想,比如建立一個龐大算力規模的、專業垂直的監管體系,達成某種底層的代碼公約等等。這些提議是否值得落地,還需要更多的行業討論。

但一個相對具有確定性的事情是:就像人類在“馴火”的過程中才更加了解“火”一樣,人類社會只有不斷與AGI互動、博弈的過程中,或許才可以更加了解AGI。

作者:郭海惟

來源公眾號:硅星人(ID:guixingren123),從科技到文化,從深度到段子,硅星人為你講述關于硅谷的一切。

本文由人人都是產品經理合作媒體 @品玩 授權發布于人人都是產品經理,未經許可,禁止轉載。

題圖來自 Unsplash,基于 CC0 協議。

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 因為人類社會的進步,無法滿足科技的進步。最終導致大量人失業從而引發一系列的問題。再者就是ai如果有自己的思想,處于本能會左右馴化者,這是一件很危險的事情

    來自上海 回復