創造力還是幻想???面對AI幻覺策劃人別慌
近期,小愛同學通過檢索搜索引擎信息生成的答案,抓取了猜想的答案,引發了眾多關注。人工智能有意無意地胡編亂造,被業界稱之為的AI幻覺。作為營銷策劃人,該如何應對這種狀況?
在這個爆料常常被翻轉的年代,辟謠已經將怪不怪,但是小米價格事件的翻轉還是引發眾多關注。近日,一張關于小米汽車車型價格的截圖在網上流傳,流出圖顯示,小米車型售價14.99萬元起,最高續航達到800公里。不過沒多久,小米公關負責人就在微博發文辟謠。
原來這是小愛同學通過檢索搜索引擎信息生成的答案,實際上,此信息是2022年5月自媒體報道的猜想信息,有人提問小愛時,小愛同學抓取了這個猜想的信息而已。
小愛同學作為小米旗下的人工智能助手,其給的答案引發關注也不意外。確實,小愛同學辨別不了信息的真假,是無意為之。不過,這個事件讓小僧想到了人工智能有意為之的胡編亂造現象,這就是被業界稱之為的AI幻覺。
AI也會幻覺?人工智能時代引發生產力解放的狂歡,但在這背后,過度依賴人工智能的危機似乎已經顯現!
一、什么是AI幻覺?
你有沒有遇到過AI工具一本正經胡說八道的情況?
在人工智能領域,AI“幻覺”(hallucinations)通常被定義為“生成的內容與提供的源內容無意義或不可信”。也就是當模型出現“幻覺”時,其輸出的內容、數據可能存在一定的欺騙性,而其所使用的訓練數據并不能證明輸出結果的合理性。
簡單來說就是,AI有時候會生成一些子虛烏有的人或者事,并且保持一貫的自信,這些虛假的信息具有很強的誤導性和欺騙性。
就連 OpenAI 的首席執行官也在 Twitter 上公開表示,“ChatGPT 確實知道很多東西,但危險的是,它在相當大的一部分時間里是自信而錯誤的?!?/p>
不過,幻覺這個詞總給人一種AI具有生命力和思考能力的暗示,正因為如此,隨著這一現象被越來越多的人關注,這個標簽的爭議也越來越大。小僧以為,AI“幻覺”事實上是一種信息的虛構,這種信息的虛構是基于AI模型造成的,而不是AI的主觀思考能力或創造能力。
不管稱呼如何,人工智能這種自我欺騙胡編亂造的現象已經不是個例,在AIGC浪潮之下,AI工具張口就來似乎成為了新時代的新常態。
二、AI張口就來的病
AI這種出現錯誤或者偏差,導致生成不準確、錯誤甚至荒誕結果的現象,可能發生在多個層面上,如文本的胡編亂造、事實的錯誤捏造、無用代碼的生成,甚至給你一個編造的參考文獻等等。
《華盛頓郵報》就報道了一位法律教授發現 ChatGPT 將他列入了一份對某人進行過性騷擾的法律學者名單。還有報道稱ChatGPT 捏造一位澳大利亞市長被判定犯有賄賂罪并被判處監禁!是不是很可怕?隨著AIGC的興起,如果這種AI幻覺不得到有效解決,我們可能被各種捏造的信息裹挾。
三、AI為什么會產生這種幻覺?
正如小僧上文所述,理解大型語言模型(LLMs)的本質可以幫我們找到答案。大型語言模型的設計,是基于語言的“統計概率”,這意味著AI完全沒有“現實世界的經驗”,無法有基于事實真假的判斷。所以AI不知道什么是正確的,什么是不正確的,只能保持與提示詞在統計學上的一致性。
OpenAI的研究人員在報告中寫道:“即使是最先進的人工智能模型也很容易產生謊言,它們在不確定的時刻往往表現出捏造事實的傾向。而這些幻覺在需要多步驟推理的領域尤其嚴重,因為一個邏輯錯誤就足以破壞一個更大的解決方案?!?/p>
不過,從另一個角度來看,這種幻覺恰恰又是AI創造力的表現。因為正是這種創造性回應的能力使AI成為產生新想法或解開思考瓶頸的強大工具,你將其用于腦暴思考、激發靈感時會很有用,但當用作事實參考時就需要謹慎了。
作為營銷人員,在使用這類工具時,還是要保持謹慎樂觀的態度。因為我們從事的大量工作是創造性或者說是創意性的,AI幻覺可以帶來更多靈感和啟發,但是還有很多工作是基于客觀事實的,這就需要進行交叉核實或驗證,而不是完全聽之任之。
由此可見,對于AI工具,在效率層面確實是解放了生產力,但在內容真實性層面,我們在使用時,還是需要有基本的識別能力和判斷能力。說到底,工具永遠是為人所用,而不是完全替代人,是不是感覺到自己的職業穩了?
以上希望能給你啟發。
專欄作家
小僧鯤鯤,微信公眾號:營銷禪修院,人人都是產品經理專欄作家。讓營銷沒有難渡的劫,分享營銷知識、策劃干貨和文案技巧。
本文原創發布于人人都是產品經理。未經許可,禁止轉載。
題圖來自unsplash,基于 CC0 協議。
該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。
- 目前還沒評論,等你發揮!