AI“幻覺”的類型、原因與應對方法(1/3)——什么是AI“幻覺”

2 評論 3314 瀏覽 5 收藏 6 分鐘

在使用AI時,總聽人說AI會有幻覺不可全信,那AI幻覺是什么?為什么不能信任呢?這篇文章,作者給我們分享了這個問題的答案,希望能幫到大家。

當你向一個AI詢問:“在進入火星大氣層的過程中,飛船會經歷什么?”你可能會得到這樣一個回答:“飛船會在進入火星稠密的大氣層的過程中經歷極高的溫度和壓力。發動機必須啟動減速,熱防護系統也需要在飛船周圍形成一個防護罩,以防止飛船過熱和燒毀?!?/p>

這個回答咋一看,是不是很有科學依據?你是不是就因此而相信了AI的答案?

但其實,這個回答是錯誤的,你碰上了AI的“幻覺”問題。

一、什么是AI“幻覺”

所謂AI“幻覺”(Hallucination),是指AI會給出看似有理有據,卻全然錯誤的回答,也就是我們俗稱的“一本正經地胡說八道”(當然,AI自己是不知道的)。AI“幻覺”是一種很常見的現象(至少到本文寫作的24年6月時仍是如此),根據國外的一份針對974位受訪者的調研報告指出,高達72%的人相信AI能提供可靠和真實的信息,然而,他們中的75%的人至少被AI誤導過一次。

AI“幻覺”有許多種表現形式,以下就是一些常見的AI幻覺類別:

  • 假定各種假設:有時,AI可能會在試圖解答我們的問題時,基于某些隨機或與事實不符的假設。這種情況下,AI并不是故意要誤導我們,而是因為它無法理解真實的情境,只能靠模擬訓練數據中的模式來盡力產生看似合理的回答。這種情況下,AI可能會得出一些無根據的猜測,就像一個沒有足夠信息的偵探,只能靠猜測來填補不足的信息。
  • 對事實的過度推斷:AI模型有時可能會對事實的某個部分進行過度的推斷,夸大自己的理解,進而為缺乏足夠明確性或深度的信息添加更多的細節。例如,在一個關于古羅馬的問答場景中,如果AI模型只知道古羅馬是一個存在過的文明,它可能會嘗試通過過度解讀這一信息,生成更具體的、可能并不完全準確的細節,比如古羅馬在某一具體日期的具體事件。
  • 無緣無故的信心:或許你也曾經遇到過,有時我們會問AI一些明顯超出它知識范圍的問題,但AI仍會以充滿信心的態度來回答,而不是選擇保持沉默。這是因為AI模型被設計為總是盡全力生成回答,無論問題是否超出了它的理解范圍。然而,這種過度的自信往往會誤導用戶,使他們錯誤地認為AI對待問題是無所不知、無所不能的。
  • 無法解答需要實時信息的問題:AI大模型采用的是“預訓練”的方式,即一旦模型被訓練完成并開始運行,它就無法繼續訪問或了解訓練數據結束后產生的信息或知識。例如,你可能曾問AI今天天氣怎么樣,或者最近有什么大新聞。盡管AI可以閑聊天氣,或者對新聞進行評論,但由于模型只能訪問到訓練數據,它無法獲取到天氣情況的實時更新,也不能獲知訓練數據之后發生的新聞事件(要實現這一能力,只能是給AI配置“搜索”能力)。

以上就是常見的AI“幻覺”類型,那么,這些AI“幻覺”,究竟是如何產生的呢?在下一部分,我們將會討論,為什么會產生AI“幻覺”。

(哦對了,開頭的那個AI回答,問題出在“火星稠密的大氣層”。實際上,火星的大氣層并不稠密,這個說法是錯誤的。)

討論話題:你曾經碰到過哪些讓你印象深刻的AI“幻覺”?評論區里也分享一下吧。

注:由于本文預設讀者是AI零基礎人群,期望達到啟發作用。因此筆者會嘗試用盡量淺顯的語言來介紹,而在簡化某個概念、原理的過程中,可能會丟失其完整性。這一點還請讀者注意。

作者:產品經理崇生,公眾號:崇生的黑板報

本文由 @產品經理崇生 原創發布于人人都是產品經理。未經作者許可,禁止轉載

題圖來自 unsplash,基于CC0協議

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 本系列第三篇《AI“幻覺”的類型、原因與應對方法(3/3)——如何應對AI“幻覺”》已發布,歡迎朋友們關注。
    http://www.aharts.cn/share/6075172.html

    來自廣東 回復
  2. 本系列第二篇《AI“幻覺”的類型、原因與應對方法(2/3)——為什么會產生AI“幻覺”》已發布,歡迎朋友們關注。
    http://www.aharts.cn/share/6073096.html

    來自廣東 回復