AI“幻覺”的類型、原因與應對方法(2/3)——為什么會產生AI“幻覺”

2 評論 1669 瀏覽 0 收藏 6 分鐘

自從ChatGPT之類的大模型發展起來之后,AI幻覺的爭議就沒停止過。這篇文章,作者和我們分享了AI環境產生的原因,供各位參考。

要回答為什么會產生AI“幻覺”現象,首先我們需要知道AI大模型究竟是怎么運作的。

AI實際上的運作原理,簡單來講就是——不斷預測在給定的語境中下一個詞是什么的概率規律。

想象一下你在學習新的事物時,你會對它的名稱、原理、用途等進行觀察和研究,從而去理解和學習其背后的原理。而AI大模型并不具備這樣的“理解”能力,AI的訓練過程更多的是一種模仿。它是基于海量的訓練數據,對其進行分解并建立各個信息之間的關聯關系,從中它會學習各個詞組通常怎樣搭配使用,但并不理解其中的實際含義。你可以理解為,AI在努力“假裝”一個聰明人(即所謂“依樣畫葫蘆”)。

簡單了解了AI大模型“預測而非理解”的工作原理,我們可以開始探討導致其出現”幻覺”的原因:

  • 數據驅動:大模型的預測基于其之前接觸過的大量訓練數據。這些數據的質量和多樣性可以極大地影響結果。如果數據中缺少某個關鍵信息,模型可能無法生成正確的結果。我們可以把這個因素看作是”AI幻覺”的源頭之一。
  • 模式識別:AI模型特別善于識別語言模式,并據此進行預測。然而,模型并不能理解這些模式的含義。相比于我們在看到一段話時,可以理解其立意,語氣,含義甚至暗藏的諷刺,模型只是單純地復制它的表面結構,而忽視了其內在含義。這就是第二個導致AI幻覺的主要因素。
  • 缺乏實時知識:AI大模型采用的是“預訓練”的方式,即一旦模型被訓練完成并開始運行,它就無法繼續訪問或了解訓練數據結束后產生的信息或知識(這也是為什么AI無法提供實時的信息,比如最新的新聞或最新的天氣報告,要實現這一能力,只能是給AI配置“搜索”能力)。對于需要實時數據的問題,模型的回答可能與現實相脫節,產生“幻覺”(當然,現今主流的大模型在針對這類實時性的問題,基本都能識別出去并給予提醒)。
  • 缺乏情境理解:最后,即使模型可以準確模擬出復雜的語言模式,也往往無法根據具體情境調整答案。例如,當被問到“今天天氣怎么樣”這樣的問題時,模型可能會提供一個完美的,但基于過去數據的天氣預報,或者一個關于天氣變化的一般性敘述,而不是根據當前實際狀況給出正確的回答。這是因為模型無法理解現實情境和語境,從而導致回答出現”偏離”。
  • 對提問者的迎合:AI從設定上是為提問者服務的,因此它會迎合提問者,試圖預測最可能的回答。故而,AI的回答可能會被問題本身的假設所引導,即受到提問者問題引導。同一個問題,正著提還是反著提,對于AI來說其生成回答可能會有所不同。例如,如果你問AI:“你認為人們喜歡吃巧克力嗎?”AI會偏向喜歡并闡述為什么巧克力受到人們歡迎。然而,如果你反過來問AI:“你認為人們不喜歡吃巧克力嗎?”AI轉而去偏向不喜歡并關注一些巧克力不受人喜歡的原因。

以上就是AI之所以會產生“幻覺”的原因了。那么,面對這些AI“幻覺”,我們該如何應對呢?在下一部分,我們將討論,如何應對AI“幻覺”。

討論話題:你曾經碰到過哪些讓你印象深刻的AI“幻覺”?評論區里也分享一下吧。

注:由于本文預設讀者是AI零基礎人群,期望達到啟發作用。因此筆者會嘗試用盡量淺顯的語言來介紹,而在簡化某個概念、原理的過程中,可能會丟失其完整性。這一點還請讀者注意。

作者:產品經理崇生,公眾號:崇生的黑板報

本文由 @產品經理崇生 原創發布于人人都是產品經理。未經作者許可,禁止轉載

題圖來自 unsplash,基于CC0協議

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 本系列第三篇《AI“幻覺”的類型、原因與應對方法(3/3)——如何應對AI“幻覺”》已發布,歡迎朋友們關注。
    http://www.aharts.cn/share/6075172.html

    來自廣東 回復
  2. 本系列第一篇《AI“幻覺”的類型、原因與應對方法(1/3)——什么是AI“幻覺”》回顧
    http://www.aharts.cn/share/6073002.html

    來自廣東 回復