幻覺即智能:AI落地里順勢與逆勢的分界線
關于AI幻覺的問題,業內不少人都嘗試進行了思考和應對,那么現在,在AI落地的過程中,我們是否需要將幻覺當作前條件和不變量來進行思考?幻覺所帶來的都是壞處嗎?不如來看看本文作者的思考和解讀。
大模型是有幻覺的,其表現很多樣比如與事實沖突,其成因也很多比如缺相關知識或者對齊錯誤,不清楚的點就更多。但和應用相關的最為關鍵的點還不是這些,而是:看起來幻覺是個短期搞不定的事,即使是OpenAI。這就要求在落地的時候把它當前條件和不變量來思考,一旦把它做前條件和不變量,那就會發現像對人類一樣,幻覺也并不全是壞處。
一、順勢的和逆勢的
我們把幻覺對產品有幫助還是對產品有害作為縱軸,再加上出問題的責任作橫軸,形成一個簡單的坐標系,然后再把各種人工智能體放在在這個坐標系上面,那大概是下面這樣:
也許對不同人工智能體所處的位置會有爭議,但幾個極值應該問題不大。
對于元宇宙而言本來就是高級游戲,那人物行為的出格反倒是會激發游戲敘事的多樣性,成為豐富世界內容的一部分養料;對于問診就很麻煩,如果在既有醫療知識框架外發揮,然后病人病情變嚴重了,那就不單有害,后果還很嚴重?,F實空間和問診類似的其實更多,包括客服、稅務咨詢等。
在 尋找智能飛輪:從數據枯竭到多模態再到自生成 里面我們提到過除了AlphaGo還沒人轉起來智能飛輪,又因為飛輪一旦轉起來必然會產生特定領域的神靈,所以關心這個人工智能應用的人都關心到底在那里可能再出下圖這樣的智能飛輪:
這在上面的象限圖上也能找到回答的思路:越偏元宇宙這個方向,越容易些。幻覺可以低責任成本的制造新數據,新數據融入場景,然后反過來就可以作為燃料驅動飛輪。
二、象限中的位置即定位
在象限中的位置對做AI產品落地是非常關鍵的。
這個位置在相當程度上就決定了你的運營成本乃至于跑的快慢。并且它面對的約束非常剛性,不可改變。
通常的理解里,我們都把產品看成一組特性,用能干什么不能干什么,用功能性能參數等表述,高級一點就用審美偏好衍生的就是品牌。但其實不全面,更深一層產品也是一套權責利系統的匯聚點。這在C端產品上體現的沒有B端明顯。
在過去很少被提及,因為經濟體系里只有一種智能體:人。整個經濟體系都按照人、法人來確定的權責利。但現在這套體系其實是碰到了新的挑戰,人工智能體的崛起讓這種權責體系出現了裂痕,并且運轉滯澀。
最簡單的例子是過去經常說的自動駕駛,用戶、廠家、自動駕駛服務提供商之間會產生新的復雜權責利再平衡。(原來事故的責任基本是用戶的,誰開誰負責,用了自動駕駛后就不行)
這會非常麻煩,因為人工智能并非權責利的主體,但似乎又得承擔對應的責任。這就導致潛意識的每家公司都嘗試拿技術來對沖,讓某些壞的事好像可以不發生,但其實這和堂吉訶德戰風車差不多,基本不可能。
而和用戶、甲方權責利的再平衡其實是會像指揮棒一樣決定公司有限資源分配的導向性的。(事實上形成特定位置的一般性社會成本)
投入產出不好,還不得不干的情形,豈不尷尬?
這種尷尬的核心原因就是用技術沒辦法完全對沖掉的權責。
三、對沖不掉的權責
為什么說技術不可能完全對沖掉權責呢?
這固然是因為技術總是有個成熟過程,但很可能更關鍵的原因在于但數字和智能讓問題顯性化的同時,權責被放大了。
面對可以清楚表示的數字結果時每個客戶都會希望無限制的解決問題,而這種限度在過去是被抑制了的。
我們可以拿客服舉個例子:
當雇傭幾千上百的人做客服的時候,服務自身必然有良率問題。但這個時候大家基本能接受一定的錯誤,每個人都知道人會出錯,再加上客服人員還不好找,大家對這個良率就保持了一定的容忍度。假如客服人員服務不好丟失了一單,那最多辭退對應的客服人員或者扣錢。很難向客服追討造成的損失。
當把客服換成人工智能體后,事情還是那個事情,但權責關系就默默的發生了些變化。
即使人工智能體的良率超過了過往的人工,從甲方的角度看,也還會有足夠的動力向提供人工智能體服務的公司追責。而后面的技術公司就得想盡辦法讓人工智能體不出錯。
這就是用技術對沖權責。
本質是用技術解決近乎無限的領域問題。越到后來越變成搗糨糊,因為搞不定。人工智能這行業從智能音箱的喚醒開始就不停的反復這故事。
而實際情況是即使是古老的搜索引擎如果要求不出錯比如某類內容出現一次就滅掉,那谷歌、百度這樣的公司都不知道死多少次了。
但這種權責體系的容忍度其實有非常多的成因,有歷史的文化的商業現實的,十分剛性,不太可能改變。而如果它不能改變,那就并不怎么適合純粹的人工智能體。能想到折中方法就是把人再塞回去,即使這個人什么不干,只做做樣子,那也是他在履行工作職責,人工智能體服務于他,他對所有產出負責。
這樣一來,選擇和定位就很關鍵,因為權責系統本身就是成本、方向和客戶滿意度(“想都是問題,干才是答案”是錯誤的,雷軍說也不行干就完了不對的老話題)。在幻覺本就是智能的一部分的前提下,真跑到權責系統非常沉重的領域,那其實是事倍功半的。
基于這個視角,我們還可以再拔高一點,談一點新技術的應用模型。
四、新技術的應用模型
在探討應用模型的時候我們先回到人類本身。
人類文明的核心子系統:政治經濟文化其實全是先虛后實,實又促虛這么反復倒騰來的。
這些在想象和某種邏輯合理性的基礎上,加上另外一波人找到了想象到物理定律、商業游戲之間的聯系,然后想象就會照進現實。火車、電、汽車、手機等差不多都是這么來到了世界上。
然后我們再截取1912年2月12日,溥儀退位這個時間點回溯,看看想象的作用。
今天對我們影響至深的產品很多其實都是1912年以前發明的,產品上包括蒸汽機、汽車、電、青霉素、電話、攝影機、電池等,人物則包括諾貝爾、愛迪生、特斯拉、福特等。這些產品出世后大致是不順的,比如蒸汽的汽車就經常爆炸、愛迪生曾經主力攻擊交流電危險容易電死人,但相對寬容的環境讓這些產品都存續了下來。
這給我們什么啟示呢?
新技術在一般性社會成本低的地兒開始更合適。權責系統越寬松,試錯成本越低,越有助于新技術驅動的不成熟產品轉起來。
整體一般性社會成本的事很復雜,這里不展開。(就是怎么避免在火車出現的時候,堅信它會破壞風水。)
對于創新主體的個人,顯然的要規避復雜權責系統。
因為技術不成熟如果還要用它來對沖復雜權責的風險,那肯定吃力不討好。
回到人工智能更具體一點會是什么樣呢?
環境本身的寬松與否在這個時間點看著也許不關鍵,復雜權責系統也許還更容易形成現金流。但越往后可能會更關鍵。因為潛在智能飛輪會起作用,所以這就真的是1.01的99次方和0.99的99次方的差別。
凱文凱利在科技想要什么里表達了這樣一個觀點,那怕科技帶來的好處只多余壞處一點點,那隨著它本身的強大,那影響的結果也是非常顯著的。
對人工智能體也是一樣,這一點點差異到后面可能就是智能飛輪轉不轉的起來的差異。
簡單說就是屬于人工智能自身的應用模型是:要找幻覺有益,權責對沖沒那么復雜的領域,然后由內而外的成長,而不是揠苗助長。
(揠苗助長的、盯的越緊的,潛在效果越差)
五、小結
從這個角度看,確實幻覺就是智能,至少是智能飛輪的原動力。很多時候恰恰是幻覺給了我們一種智能的感覺,徹底的去除幻覺還保持智能,就真的是得達成一種超級單一體(克里人的終極智慧),這是很好的理想,但我覺得如果假設人工智能不可能建成完備的世界模型,那去除這種幻覺就是不可能的,所以與其指望用技術解決這問題,就不如根據技術的進展修正應用模型。
專欄作家
琢磨事,微信公眾號:琢磨事,人人都是產品經理專欄作家。聲智科技副總裁。著有《終極復制:人工智能將如何推動社會巨變》、《完美軟件開發:方法與邏輯》、《互聯網+時代的7個引爆點》等書。
本文原創發布于人人都是產品經理。未經許可,禁止轉載。
題圖來自 Unsplash,基于 CC0 協議
該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。
AI錯誤的問題在類安防領域表現的非常明顯,本來需要交警來查闖紅燈,沒人查就沒案件,現在上了AI攝像機,AI識別抓拍闖紅燈,案件數一下暴漲數百倍,其中還有大量誤報,讓交管部門如何處理?
這個問題在垃圾分類領域表現的更為嚴重,我們用AI識別居民亂丟垃圾,一個投放點一天能報出上百個案件,因為環境復雜多變各種誤報都有,更大的問題是誰來處理這些案件呢?社區沒有執法權,城管有權但沒空,就算有權又有空還要考慮社會影響。
所以我的判斷是AI在需要嚴謹區分對錯的領域都不能完全取代人類,因而無法實現真正意義上的效率提升。