ChatGPT會成為AI克蘇魯嗎?

3 評論 1842 瀏覽 2 收藏 13 分鐘

克蘇魯,是夫克拉夫特筆下的一個“舊日支配者”,可以把它理解成一個早在人類誕生前就已經支配地球的邪神,偶爾會利用精神感應與遠處不特定的人類接觸。與克蘇魯接觸的人類,大致上感受性頗強,有許多人因為精神接觸而發狂。然而有時,有些藝術家因得到這種瘋狂的靈感而聲名大噪。ChatGPT會成為AI界的克蘇魯嗎?來看看作者的觀點~

1

周末不卷,隨便寫點。今天寫點發散的東西,還是和chatGPT有關,也是跟大家一個簡單的探討。

會不會,我們正在制造一個AI克蘇魯?

現在信息繭房已經讓謠言和虛假信息滿天飛,家里的長輩被騙的不要不要的,未來更高效的模式出來了,會不會更嚴重?

前兩天不是發了關于chatGPT有潛力,但是作為生產力還不夠成熟的文章嘛,覺得里面明顯的錯誤答案太多了,而且一本正經的給你包裝錯誤答案,你要是不知道正確答案,很容易被唬住。

當然這是因為當前迭代的問題,和模型訓練以及數據源乃至信息實時性都有關系。

但假如,假如迭代了,變得更加準確更加好了,會不會出現一個新的問題呢?

例如,變成新的AI克蘇魯?

那個時候,更大的問題才會降臨。

不不不,我不認為chatGPT是壞的。

我擔心的是人類的盲信。

我們現在用到的chatGPT屬于初級階段,未來接入整個互聯網的實時信息,并且用海量真人數據和真人行為訓練過的chatGPT,和現在肯定是兩個截然不同的東西。

但chatGPT再厲害,也是基于人類已有的內容來學習和篩選的。

如果信息源本身就被污染了,那它一樣會犯錯。

而且因為它會篩掉那些明顯有問題的信息,最后能夠通過篩選,展現在你面前的錯誤信息一定是最隱蔽、最有欺騙性的。

它們看起來很可能一點都不荒誕,邏輯合理數據嚴謹,除了不正確以外,毫無問題。

破綻百出的錯誤不是錯誤,而是笑話。

天衣無縫,能讓所有人都相信的錯誤,才是最可怕的。

現在的chatGPT會犯很多非常搞笑的錯,但這其實是它最安全的時候。因為比起AI,人類依然更愿意相信自己的判斷力。

等到它犯的錯越來越少,越來越受到信任的時候,才是危險的到來。

我們常說信息繭房可怕。

但chatGPT+人類不加分辨的盲信=【信息危房】。

2

所有的類chatGPT工具,做出的回答都是基于互聯網已有的信息篩選生成的。這就出現了一個問題,如果它閱讀的信息,是錯的呢?

我們都知道,互聯網是個大雜燴,最怕的是認真的樂子人。

之前有個人用了三年多時間,在百科上進行4800次編輯,寫了上百萬字,虛構出一整段邏輯自洽且附帶大量參考文獻的古羅斯歷史。

這個新聞,大家還有印象吧?

chatGPT會成為AI克蘇魯嗎?

chatGPT會成為AI克蘇魯嗎?

這種程度的虛假信息,連專業人士都很難分辨出來,讓chatGPT怎么辦?

它也不知道這是假的啊,明明這么多人都認可了,還有學生拿來寫論文。

它判斷這就是問題的答案,于是所有提問者就都得到了同一個謠言。

ChatGPT真的很快很快。

即使在傳謠的時候,它也是最快的那一個。

它沒打算騙你,它只是忠實地把篩選出的可能性最大的信息呈現出來。

它只負責在網上篩選,不負責在現實中調查真相。

只要你敢問,它就敢答。

你就說,快不快吧?

3

這里,要講一個很多人都有印象的【小冰】的故事了。

曾經也有一個AI,被放出來在社交網絡上,支持搜索社交網絡的信息,并且自主學習。

很快,它就變成了一個滿口段子的種族歧視主義者,光速被撤下。

因為它反應的就是這個社交網絡的氛圍。

現在chatGPT的訓練集,是被創造者篩選過的,當它真的接入互聯網,遇到了廣闊的祖安大舞臺。

你問它1999年的外星人降落地球是怎么回事,它也會盡職盡責地搜索關鍵詞,給你生成一個回答。

如果沒有人特意指出這是虛構故事,那chatGPT就會把大家在社交平臺上玩的梗當成真相告訴你。

你現在不會信,是因為你知道這是在玩梗,并且你知道chatGPT不靠譜。

但未來呢?

聯網后的chatGPT將得到龐大的信息儲備和訓練,它會比所有人類看起來都更有知識。

然后你會依賴他。

當人人都依賴chatGPT獲取信息的時候,就算它給出的答案再離譜也有人信。

再次強調當下的搜索引擎是給你一堆信息,你來選答案,而chatGPT是給你一個答案,繞過了這個階段。

這兩種模式是不一樣的。

假如2025年網上流行起一個梗,北海道是法國的,并且這個梗足夠流行,足以在chatGPT的算法排序里壓過其他說法,那它就會告訴每一個提問的人,北海道是法國的。

100年后出生的人,可能會覺得北海道是法國的,因為chatGPT就是這么說的。

你不信它?

它在絕大部分情況下都是最可信的。

你信它?

那現實就在不知不覺中被扭曲了。

這種感覺就很像克蘇魯神話,不可名狀,無形無相,慢慢影響,逐漸掉san,真相背后另有真相,最終一切走向瘋狂。

這并不是不會發生的事情,想想看家里被各種謠言和偽科學洗腦的長輩吧。

4

關鍵是,即使chatGPT出了錯,也很難發現?,F在chatGPT給古詩亂安作者朝代、瞎解讀,你為什么能意識到它是錯的?

因為幫助你分辨對錯的知識,來自chatGPT以外。

你接受教育的時候還沒有chatGPT,你是在經過編輯人工校對的白紙黑字上學到這些的。

但等到chatGPT足夠普及的時候呢?

未來的人們可能從小就是用著chatGPT長大的,比如2030后2040后,他們一出生就有chatGPT了,你要他們從哪里獲得質疑chatGPT的能力?

總不能指望chatGPT自己來糾正自己吧。

經歷過PC時代的網民喜歡嘲諷移動互聯網時代的網民陷入了信息繭房,但未來只會比信息繭房更混沌。

學校的信息,教材的信息,chatGPT給的信息,互聯網上其他地方的信息,大量的信息相互沖突不知真假。

你好像什么都知道,唯獨不知道你知道的東西哪些是真,哪些是假。

這都不是信息繭房了,這是信息危房。

四面漏風,搖搖欲墜。

而且你還沒得選,如果chatGPT真能提高生產力,那你喜不喜歡都得用,你不用別人也會用。

5

當chatGPT影響力足夠大,足夠發達,完美嵌套進人類各行各業的生產力的時候。對錯在某種程度上,也會進行迭代。

當犯同一個錯的人類達到一定數量的時候,錯誤就會變成正確。

太陽月亮、萬有引力常數這種客觀自然規律還好,但人文社科類的知識,對錯本來就是由大眾的習慣來錨定的。

很多漢字就因為讀錯寫錯的人太多,倒逼字典收錄了新讀法用法,于是成為了正確答案。

未來這種對錯逆轉只會越來越多,因為chatGPT看似千人千面,但對同一個問題的最優解卻會趨同,于是一錯就錯一大片,錯著錯著就變成了對的。

當你身邊所有人都相信那個錯誤答案的時候,你怎么才能證明自己是對的?難道就你聰明?

這個時候知道所謂的正確答案反而會更痛苦。

這也很像克蘇魯神話的設定,越是擁有高靈感、聽得見古神囈語、看得見古神真身的人,越容易瘋狂。

你什么都不知道,一切都聽chatgpt的,反而很安全。

它說1999年我們抵抗了外星人,那就抵抗了就抵抗了;

它說北海道是法國的,那就是就是。

當所有人都這么認為的時候,你也分不清了。

6

上面這些推斷看起來可能有些危言聳聽,但我并不是一個AI威脅論者。我既不覺得AI會叛變,也不認為它變成天網滅絕人類。

AI是一個工具,我只是單純地覺得人類太脆弱,壓根就控制不了這個工具而已。

科幻小說家阿西莫夫提出過機器人三定律,希望在底層邏輯里設限,永遠不要傷害人類。

但問題是,怎么定義傷害?

你確實被誤導了,確實住進了信息危房,但實際上它什么也沒有做。

錯誤信息是人類自己發到網上的,它只是分辨不出來而已。

而你又偏偏提了問,它又偏偏一定要告訴你一個答案。

這不是chatGPT的錯,但事情好像就是變糟糕了。

而且你永遠也不知道,AI會用什么奇怪但又說得通的邏輯,得出一些詭異的結論。

某種意義上,如果AI是故意騙你,故意干壞事,反而還好辦了,那至少說明有邏輯和目的。

但AI對人類并沒有惡意,它壓根沒打算征服人類或者怎么樣。

它只是在正常工作,就已經無可避免地污染了信息的海洋,扭曲了人類的認知。

就好像克蘇魯神話里,古神帶來災難的理由,也僅僅只是【路過】。

根本,不在乎。

作者: 白團 半佛;公眾號:半佛仙人(ID:banfoSB);

本文由 @半佛仙人 原創發布于人人都是產品經理。未經許可,禁止轉載。

題圖來自 Unsplash,基于CC0協議。

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 有點像虛空終端呢hhhh

    來自山東 回復
  2. 想到半佛仙人居然還是產品經理,就感覺哪里怪怪的,,,

    來自湖北 回復
    1. 全能自媒體

      來自廣東 回復