別煽動焦慮了,GPT-4還取代不了你
近日OpenAI發布的GPT-4讓人們對AI模型的能力有了新的認知,那么在發展迅猛的AI人工智能面前,人類最終是否會被其取代?GPT-4真的可以“無所不能”嗎?本篇文章里,作者便針對GPT-4與其對人類的影響進行了解讀,一起來看。
程序員要被淘汰了,這可能不是危言聳聽。
這個職業原本幾乎是“金飯碗”一樣的存在,技術門檻高、考驗創造力,收入也高。但ChatGPT的問世,改變了這種固有態勢。
最近這兩天,GPT還升級到了第四代——GPT-4。
要知道,上一代ChatGPT已經具有超強的語義理解能力。雖然這種能力僅限于文字處理,但也已經有公司在使用ChatGPT相關技術,替代掉一些初級程序員的工作了。
而GPT-4不光文字理解能力更高,還有超強的圖片理解能力,就連一些互聯網梗圖都能讀懂。
這還不是GPT-4的全部實力。在GPT開發者OpenAI發布的演示視頻中,GPT-4能根據一張非常潦草的demo圖,在10秒之內生成一個網站頁面。
10秒,是人類無論如何都不可能達到的速度,但AI可以。而且才100多天,它就躍進到了這個水平。
下一代GPT又會有多么強大的能力呢?這既讓人期待和興奮,又感覺有點后背發涼。
一、GPT-4,無所不能?
上一代GPT并不是第一代,版本號其實是“3.5”。但因為其文字理解能力比較強,尤其對話交流表現非?!绊樆保圆疟环Q為“ChatGPT”。
比起很多如同“人工智障”的AI助手,ChatGPT給出的回答更像人類,但也不是毫無漏洞。有用戶問過ChatGPT:“林黛玉三打白骨精是怎么回事?”
ChatGPT還真給胡謅出了一段故事,看起來有點像從網友二創作品中提煉出來的劇情。
林黛玉三打白骨精是怎么回事?/知乎答主@連詩璐
但拿同樣的問題去問GPT-4,它會提醒用戶不要混合《紅樓夢》和《西游記》的劇情。
ChatGPT有點像喝醉了在說胡話,而GPT-4保持了清醒。/知乎答主@連詩璐
如果你以為GPT-4的文字理解能力只停留在“語句”的水平,那你就錯了。GPT-4還可以理解“代碼語言”。
在GPT-4的產品視頻中,OpenAI總裁直接把一段1萬字的代碼發給GPT-4,讓它修bug。結果GPT-4只用了幾秒鐘就找到了bug,并且分點給出了解決辦法。換做是程序員去找,絕不可能有這個效率。
這次升級和更新之后,OpenAI還將GPT-4處理文字內容的上限拓展到了2.5萬個字符,這是ChatGPT上限的8倍。這意味著,GPT-4可以處理更大的信息量。
GPT-4更為突出的能力體現在圖片理解方面。
在OpenAI發布的產品視頻中,開發者給GPT-4看了一張“用VGA電腦接口給iPhone充電”的圖片,并問GPT-4“笑點在哪里”,GPT-4在條分縷析之后得出了結論:
“這張圖搞笑的地方在于,它將一個很大并且過時的VGA接口插在一個很小并且現代的智能手機充電口上,這很荒謬。”
GPT-4是懂幽默的。
更重要的是,它還能把對圖片和文字的理解結合起來,同步進行。
比如,給GPT-4一些統計圖表進行分析,GPT-4能高效地得出結論、發現問題,并迅速反饋給使用者。甚至直接把整篇論文截圖上傳給GPT-4,它都能在幾秒之內概括出論文的核心內容來。
將來,大公司的財報、銷售業務數據等內容,即便圖表內容再復雜、內容維度再多、數據量再大,只要不超過2.5萬個字符的限制,GPT-4都能分析得清楚。
如此看來,似乎GPT-4幾乎可以秒殺相當一部分人類了,程序員、金融分析師、數據分析師、音樂創作人(GPT-4可以自己寫歌)都要下崗。
至少,初級程序員會被淘汰。/微博截圖
二、GPT性能躍進,留給人類的機會不多了?
問題來了,GPT-4連代碼里的bug都能自己修,就不怕它自我進化,最后產生自主意識取代人類嗎?
答案是:目前不會,因為GPT-4也不是完美無缺的。
雖然它是多模態模型,目前已經可以處理文字和圖片兩種“模態”,這比ChatGPT只能處理文字的“單模態模型”進步了很多,但也僅限于此。
至少,目前它還分析不了聲音和視頻。后續的版本必然會覆蓋這些“模態”,以增強AI的理解能力。
事實上,對聲音的理解會更加復雜,比如一句話中的語氣、停頓都包含著信息。另外還有非語言類聲音,比如風聲、撞擊聲,以及聲音距離、方位的辨別,都是需要突破的點。而視頻圖像會更復雜,對這些技術的攻堅,勢必要耗時更久。
當然,這也只是時間問題。
目前來看,它還有一個明顯的問題就是,容易產生“AI幻覺”,生成錯誤答案,并出現邏輯錯誤。
所謂“AI幻覺”,是指模型過于自信,生成的內容與提供的源內容無關或不忠實,有時會出現聽起來合理,但不正確或荒謬的答案,比如上文中提及的“林黛玉三打白骨精”問答。
中國信通院云計算與大數據研究所所長何寶宏曾在接受采訪時指出,“ChatGPT的幻覺來自兩個方面,一是訓練數據本身,二是訓練方法。AI是通過海量數據訓練出來的,因此這一缺點也與大數據的問題一樣:數據很精確但錯得離譜”。
如果過于依賴AI,那么由這種幻覺導致的不準確性,顯然會影響一些業務的正常進行。這就意味著,人工必須對其反饋的分析進行復核,這是AI取代不了的職責和必要性。
好在GPT迭代至今,其能力都僅限于被動響應。也就是說,不論是ChatGPT還是GPT-4,它們的信息讀取能力都只是對人類提問的反饋,而不會主動去評判或者分析。
這一點“被動”的屬性很關鍵,一方面能讓AI處于從屬地位,只會被動解決人類提出的問題。這一點,應當成為AI行業不可逾越的紅線,否則就會面臨很多麻煩,比如AI的自我演進,AI的權益和福利問題,AI越過防火墻進行監聽,甚至衍生出黑客行為……
另一方面,這也對人類提出了更高的要求,比如提問能力。
很顯然,GPT-4是根據指令進行分析的,那就是說,只有在指令或提問明確、清晰的情況下,GPT-4才能給出針對性的答案。否則,如果問得很淺,那得到的反饋也只會是和百科一樣的表面回答。
一個會讓人警鈴大作的消息是,著名金融服務公司摩根士丹利已經在實際業務中使用了GPT。
摩根士丹利的工作人員所面對的巨大內容庫,涵蓋了投資策略、市場研究和評論以及分析師見解等長達數十萬頁的內容。這些信息大多以PDF格式分布在內部網站上,需要瀏覽大量信息才能找到特定問題的答案,檢索起來費時費力。
而GPT高效的信息處理能力,讓這部分工作量得到了有效疏解。
但這也意味著,這部分信息處理類的初級崗位將要被淘汰,留下來的人必然要具備更強的洞察力,并且能提出好的問題來引導GPT。
所以,就目前來看,人類還不用為被AI取代而擔心,但絕對不能躺平大意,而是要不斷增強自己的水平,讓AI取代不了自己。
作者:土衛六;編輯:晏非;校對:賴曉妮
來源公眾號:新周刊(ID:new-weekly),一本雜志和一個時代的體溫。
本文由人人都是產品經理合作媒體 @新周刊 授權發布,未經許可,禁止轉載。
題圖來自Unsplash,基于CC0協議
該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。
- 目前還沒評論,等你發揮!