ChatGPT會成為AI克蘇魯嗎?
克蘇魯,是夫克拉夫特筆下的一個“舊日支配者”,可以把它理解成一個早在人類誕生前就已經支配地球的邪神,偶爾會利用精神感應與遠處不特定的人類接觸。與克蘇魯接觸的人類,大致上感受性頗強,有許多人因為精神接觸而發狂。然而有時,有些藝術家因得到這種瘋狂的靈感而聲名大噪。ChatGPT會成為AI界的克蘇魯嗎?來看看作者的觀點~
1
周末不卷,隨便寫點。今天寫點發散的東西,還是和chatGPT有關,也是跟大家一個簡單的探討。
會不會,我們正在制造一個AI克蘇魯?
現在信息繭房已經讓謠言和虛假信息滿天飛,家里的長輩被騙的不要不要的,未來更高效的模式出來了,會不會更嚴重?
前兩天不是發了關于chatGPT有潛力,但是作為生產力還不夠成熟的文章嘛,覺得里面明顯的錯誤答案太多了,而且一本正經的給你包裝錯誤答案,你要是不知道正確答案,很容易被唬住。
當然這是因為當前迭代的問題,和模型訓練以及數據源乃至信息實時性都有關系。
但假如,假如迭代了,變得更加準確更加好了,會不會出現一個新的問題呢?
例如,變成新的AI克蘇魯?
那個時候,更大的問題才會降臨。
不不不,我不認為chatGPT是壞的。
我擔心的是人類的盲信。
我們現在用到的chatGPT屬于初級階段,未來接入整個互聯網的實時信息,并且用海量真人數據和真人行為訓練過的chatGPT,和現在肯定是兩個截然不同的東西。
但chatGPT再厲害,也是基于人類已有的內容來學習和篩選的。
如果信息源本身就被污染了,那它一樣會犯錯。
而且因為它會篩掉那些明顯有問題的信息,最后能夠通過篩選,展現在你面前的錯誤信息一定是最隱蔽、最有欺騙性的。
它們看起來很可能一點都不荒誕,邏輯合理數據嚴謹,除了不正確以外,毫無問題。
破綻百出的錯誤不是錯誤,而是笑話。
天衣無縫,能讓所有人都相信的錯誤,才是最可怕的。
現在的chatGPT會犯很多非常搞笑的錯,但這其實是它最安全的時候。因為比起AI,人類依然更愿意相信自己的判斷力。
等到它犯的錯越來越少,越來越受到信任的時候,才是危險的到來。
我們常說信息繭房可怕。
但chatGPT+人類不加分辨的盲信=【信息危房】。
2
所有的類chatGPT工具,做出的回答都是基于互聯網已有的信息篩選生成的。這就出現了一個問題,如果它閱讀的信息,是錯的呢?
我們都知道,互聯網是個大雜燴,最怕的是認真的樂子人。
之前有個人用了三年多時間,在百科上進行4800次編輯,寫了上百萬字,虛構出一整段邏輯自洽且附帶大量參考文獻的古羅斯歷史。
這個新聞,大家還有印象吧?
這種程度的虛假信息,連專業人士都很難分辨出來,讓chatGPT怎么辦?
它也不知道這是假的啊,明明這么多人都認可了,還有學生拿來寫論文。
它判斷這就是問題的答案,于是所有提問者就都得到了同一個謠言。
ChatGPT真的很快很快。
即使在傳謠的時候,它也是最快的那一個。
它沒打算騙你,它只是忠實地把篩選出的可能性最大的信息呈現出來。
它只負責在網上篩選,不負責在現實中調查真相。
只要你敢問,它就敢答。
你就說,快不快吧?
3
這里,要講一個很多人都有印象的【小冰】的故事了。
曾經也有一個AI,被放出來在社交網絡上,支持搜索社交網絡的信息,并且自主學習。
很快,它就變成了一個滿口段子的種族歧視主義者,光速被撤下。
因為它反應的就是這個社交網絡的氛圍。
現在chatGPT的訓練集,是被創造者篩選過的,當它真的接入互聯網,遇到了廣闊的祖安大舞臺。
你問它1999年的外星人降落地球是怎么回事,它也會盡職盡責地搜索關鍵詞,給你生成一個回答。
如果沒有人特意指出這是虛構故事,那chatGPT就會把大家在社交平臺上玩的梗當成真相告訴你。
你現在不會信,是因為你知道這是在玩梗,并且你知道chatGPT不靠譜。
但未來呢?
聯網后的chatGPT將得到龐大的信息儲備和訓練,它會比所有人類看起來都更有知識。
然后你會依賴他。
當人人都依賴chatGPT獲取信息的時候,就算它給出的答案再離譜也有人信。
再次強調當下的搜索引擎是給你一堆信息,你來選答案,而chatGPT是給你一個答案,繞過了這個階段。
這兩種模式是不一樣的。
假如2025年網上流行起一個梗,北海道是法國的,并且這個梗足夠流行,足以在chatGPT的算法排序里壓過其他說法,那它就會告訴每一個提問的人,北海道是法國的。
100年后出生的人,可能會覺得北海道是法國的,因為chatGPT就是這么說的。
你不信它?
它在絕大部分情況下都是最可信的。
你信它?
那現實就在不知不覺中被扭曲了。
這種感覺就很像克蘇魯神話,不可名狀,無形無相,慢慢影響,逐漸掉san,真相背后另有真相,最終一切走向瘋狂。
這并不是不會發生的事情,想想看家里被各種謠言和偽科學洗腦的長輩吧。
4
關鍵是,即使chatGPT出了錯,也很難發現?,F在chatGPT給古詩亂安作者朝代、瞎解讀,你為什么能意識到它是錯的?
因為幫助你分辨對錯的知識,來自chatGPT以外。
你接受教育的時候還沒有chatGPT,你是在經過編輯人工校對的白紙黑字上學到這些的。
但等到chatGPT足夠普及的時候呢?
未來的人們可能從小就是用著chatGPT長大的,比如2030后2040后,他們一出生就有chatGPT了,你要他們從哪里獲得質疑chatGPT的能力?
總不能指望chatGPT自己來糾正自己吧。
經歷過PC時代的網民喜歡嘲諷移動互聯網時代的網民陷入了信息繭房,但未來只會比信息繭房更混沌。
學校的信息,教材的信息,chatGPT給的信息,互聯網上其他地方的信息,大量的信息相互沖突不知真假。
你好像什么都知道,唯獨不知道你知道的東西哪些是真,哪些是假。
這都不是信息繭房了,這是信息危房。
四面漏風,搖搖欲墜。
而且你還沒得選,如果chatGPT真能提高生產力,那你喜不喜歡都得用,你不用別人也會用。
5
當chatGPT影響力足夠大,足夠發達,完美嵌套進人類各行各業的生產力的時候。對錯在某種程度上,也會進行迭代。
當犯同一個錯的人類達到一定數量的時候,錯誤就會變成正確。
太陽月亮、萬有引力常數這種客觀自然規律還好,但人文社科類的知識,對錯本來就是由大眾的習慣來錨定的。
很多漢字就因為讀錯寫錯的人太多,倒逼字典收錄了新讀法用法,于是成為了正確答案。
未來這種對錯逆轉只會越來越多,因為chatGPT看似千人千面,但對同一個問題的最優解卻會趨同,于是一錯就錯一大片,錯著錯著就變成了對的。
當你身邊所有人都相信那個錯誤答案的時候,你怎么才能證明自己是對的?難道就你聰明?
這個時候知道所謂的正確答案反而會更痛苦。
這也很像克蘇魯神話的設定,越是擁有高靈感、聽得見古神囈語、看得見古神真身的人,越容易瘋狂。
你什么都不知道,一切都聽chatgpt的,反而很安全。
它說1999年我們抵抗了外星人,那就抵抗了就抵抗了;
它說北海道是法國的,那就是就是。
當所有人都這么認為的時候,你也分不清了。
6
上面這些推斷看起來可能有些危言聳聽,但我并不是一個AI威脅論者。我既不覺得AI會叛變,也不認為它變成天網滅絕人類。
AI是一個工具,我只是單純地覺得人類太脆弱,壓根就控制不了這個工具而已。
科幻小說家阿西莫夫提出過機器人三定律,希望在底層邏輯里設限,永遠不要傷害人類。
但問題是,怎么定義傷害?
你確實被誤導了,確實住進了信息危房,但實際上它什么也沒有做。
錯誤信息是人類自己發到網上的,它只是分辨不出來而已。
而你又偏偏提了問,它又偏偏一定要告訴你一個答案。
這不是chatGPT的錯,但事情好像就是變糟糕了。
而且你永遠也不知道,AI會用什么奇怪但又說得通的邏輯,得出一些詭異的結論。
某種意義上,如果AI是故意騙你,故意干壞事,反而還好辦了,那至少說明有邏輯和目的。
但AI對人類并沒有惡意,它壓根沒打算征服人類或者怎么樣。
它只是在正常工作,就已經無可避免地污染了信息的海洋,扭曲了人類的認知。
就好像克蘇魯神話里,古神帶來災難的理由,也僅僅只是【路過】。
根本,不在乎。
作者: 白團 半佛;公眾號:半佛仙人(ID:banfoSB);
本文由 @半佛仙人 原創發布于人人都是產品經理。未經許可,禁止轉載。
題圖來自 Unsplash,基于CC0協議。
該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。
有點像虛空終端呢hhhh
想到半佛仙人居然還是產品經理,就感覺哪里怪怪的,,,
全能自媒體