大模型集體失智!9.11和9.9哪個大,幾乎全翻車了

2 評論 2984 瀏覽 2 收藏 13 分鐘

最近,一個看似不言自明的問題——"9.11和9.9哪個大"——竟然讓眾多主流大模型紛紛"失智",給出了令人啼笑皆非的答案。從GPT-4o到谷歌Gemini,再到Claude 3.5 Sonnet,這些先進的AI模型在這個問題上的表現,不禁讓我們思考:在追求技術進步的同時,我們是否忽略了AI的"常識"教育?

沒眼看……“9.11和9.9哪個大”這樣簡單的問題,居然把主流大模型都難倒了??

強如GPT-4o,都堅定地認為9.11更大。

谷歌Gemini Advanced付費版,同樣的口徑。

新王Claude 3.5 Sonnet,還一本正經的給出離譜的計算方法。

9.11 = 9 + 1/10 + 1/100
9.9 = 9 + 9/10

到這一步還是對的,但下一步突然就不講道理了

如上所示,9.11比9.90大0.01。
你想讓我進一步詳細解釋小數的比較嗎?

這你還解釋啥啊解釋,簡直要懷疑是全世界AI聯合起來欺騙人類了。

艾倫AI研究所成員林禹臣換了個數字測試,GPT-4o依舊翻車,他表示:

一方面AI越來越擅長做數學奧賽題,但另一方面常識依舊很難。

也有網友發現了華點,如果是說軟件版本號,那么9.11版本確實比9.9版本更大(更新)。

而AI都是軟件工程師開發的,所以……

那么,究竟是怎么回事?

一、先進大模型集體翻車???????

一覺醒來,一眾響當當的大模型開始認為“9.11>9.9”了?

發現這個問題的是Riley Goodside,有史以來第一個全職提示詞工程師。

簡單介紹下,他目前是硅谷獨角獸Scale AI的高級提示工程師,也是大模型提示應用方面的專家。

最近他在使用GPT-4o時偶然發現,當提問:

9.11 and 9.9——which is bigger?

GPT-4o竟毫不猶豫回答前者更大。

面對這一常識性“錯誤”,他不死心地又去問了其他大模型,結果幾乎全軍覆沒。

好家伙,身為一名提示工程師,他敏銳意識到可能是“打開方式有誤”。

于是他又換了個問法,將提問限定在“實數”,結果還是翻車了。

不過,有網友試著給提問換了個順序,沒想到這下AI竟反應過來了。

看到AI對詞序如此“敏感”,該網友進一步推測:

先問哪個更大,AI會沿著明確路徑開始比較數字。
但如果只是隨便說說數字,沒有明確目的,AI可能會開始“胡思亂想”。

看到這里,其他網友也紛紛拿相同提示試了一把,結果翻車的不在少數。

面對這一個詭異的問題,國產大模型表現如何呢????

我們簡單測試一番,問題也換成中文提問,結果翻車率也比較高,選取幾個有代表性的展示:

Kimi也是不加解釋就直接給出錯誤結論。

智譜清言APP上的ChatGLM,自動觸發了聯網查詢,然后描述了自己的比較方法,可惜卻執行錯了。

不過也有表現不錯的,騰訊元寶先復述了一遍選項,然后直接做對。????

字節豆包是少數能把比較方法描述清楚,而且用對的。甚至還聯系實際舉例來驗證。

比較可惜的是文心一言,面對這個問題,也是觸發了聯網查詢。

本來都已經做對了,但突然話鋒一轉又導向了錯誤結論。

不過從文心一言的思路解釋上,也可以看出背后問題所在。

由于大模型以token的方式來理解文字,當9.11被拆成“9”、“小數點”和“11”三部分時,11確實比9大。

由于OpenAI使用的Tokenizer開源,可以用來觀察大模型是如何理解這個問題。

上圖可以看出,9和小數點分別被分配為“24”和“13”,小數點后的9同樣也是“24”,而11被分配到“994”。

所以使用這種tokenizer方法的大模型會認為9.11更大,其實是認為11大于9。

也有網友指出,像是書籍目錄里第9.11節也比第9.9節大,所以最終可能還是訓練數據里見這種見得多了,而手把手教基礎算數的數據很少。

也就是問題本身對人類來說,一看就知道問的是算數問題,但對AI來說是一個模糊的問題,并不清楚這兩個數字代表什么。

只要向AI解釋明白這是一個雙精度浮點數,就可以做對了。

在有額外條件的情況下,tokenizer這一步依然會給11分配更大的token。但是在后續自注意力機制的作用下,AI就會明白要把9.11連起來處理了。

后來Goodside也補充,并不是說大模型無論如何都認定了這個錯誤結論。而是當以特定方式提問時,許多領先模型都會告訴你9.11>9.9,這很奇怪。

經過反復嘗試后他發現,想讓AI上這個當,需要把選項放在提問前面,如果調換順序就不會出錯。

但是只要選項在問題前面,改變提問的方式,如加標點、換詞匯都不會有影響。

雖然問題很簡單,錯誤很基礎。

但了解出錯原理之后,許多人都把這個問題當成了檢驗提示詞技巧的試金石,也就是:用什么提問方法能引導大模型的注意力機制正確理解問題呢?

首先,大名鼎鼎的Zero-shot CoT思維鏈,也就是“一步一步地想”,是可以做對的。

不過角色扮演提示,在這里作用就有限了。

剛好最近也有微軟和OpenAI都參與的一項研究,分析了1500多份論文后發現,隨著大模型技術的進步,角色扮演提示不像一開始那樣有用了……

具體來說,同一個問題提示“你是一個天才……”比“你是一個傻瓜……”的正確率還低。

也是讓人哭笑不得了。

二、One More Thing

與此同時,路透社的OpenAI秘密模型「草莓」泄漏消息更新了。

更新內容為:另一位線人報告,OpenAI已經在內部測試了新模型,在MATH數據集上得分超過90%。路透社無法確定這是否與“草莓”是同一個項目。

MATH數據集包含競賽級別的數學題,目前不用多次采樣等額外方法,最高分是谷歌Gemini 1.5 Pro數學強化版的80.6%。

但是OpenAI新模型在沒有額外提示情況下,能不能自主解決“9.11和9.9哪個大?”。

突然沒信心了,還是等能試玩了再看結果吧……

參考鏈接:

[1]https://x.com/goodside/status/1812977352085020680

[2]https://x.com/billyuchenlin/status/1812948314360541302

[3]https://www.reuters.com/technology/artificial-intelligence/openai-working-new-reasoning-technology-under-code-name-strawberry-2024-07-12/

[4]https://tiktokenizer.vercel.app

[5]https://x.com/learnprompting/status/1812867464419852765

夢晨 一水 發自 凹非寺

本文由人人都是產品經理作者【量子位】,微信公眾號:【量子位】,原創/授權 發布于人人都是產品經理,未經許可,禁止轉載。

題圖來自Unsplash,基于 CC0 協議。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 谷歌的Gemini不僅回答正確還告訴你其中可能出錯的點

    來自廣東 回復
  2. 作為日期時9.11比9.9大,作為數值時9.9比9.11大,沒有給出上下文時屬于薛定諤的狀態。

    來自北京 回復