AI又出圈:ChatGPT火爆的背后

0 評論 3409 瀏覽 2 收藏 12 分鐘

上一次AI在大眾視野里被廣泛關(guān)注應(yīng)該還是Google旗下DeepMind公司研發(fā)的AlphaGo在2016年打敗了著名世界圍棋選手李世石。這場人機大戰(zhàn)讓人工智能、深度學(xué)習(xí)進入了大眾的視野,讓更多的人了解到目前關(guān)于智能領(lǐng)域的最新研究成果。 過去一段時間又有一個AI在朋友圈和大眾視野火了起來,這次是OpenAI公司的ChatGPT。

一、ChatGPT是什么

先來說說這個ChatGPT是什么,源自O(shè)penAI官方介紹:

We’ve trained a model called ChatGPT which interacts in a conversational way. The dialogue format makes it possible for ChatGPT to answer followup questions, admit its mistakes, challenge incorrect premises, and reject inappropriate requests.

簡單來說,ChatGPT是一個交互式聊天模型,能夠結(jié)合與對話者上下文進行連續(xù)式問答。同時能夠承認(rèn)回答中的錯誤、質(zhì)疑人類提出的不正確的前提并拒絕回答不恰當(dāng)?shù)膯栴}。

通過多方的內(nèi)容獲取與收集,ChatGPT模型的發(fā)布有3個之前類似模型并不具備的特點,我們這里簡單聊一聊:

1、新增代碼理解、生成能力,對輸入的理解能力和包容度更高,能在絕大部分知識領(lǐng)域給出專業(yè)回答

下圖是我與ChatGPT的一段對答,可以看出ChatGPT在專業(yè)領(lǐng)域已經(jīng)具備足夠的知識深度,同時通過網(wǎng)上分享的大部分聊天截圖中也能看到ChatGPT具備足夠的知識廣度,即各方面的問題都可以對答如流。

ChatGPT是基于OpenAI的GPT模型迭代而來,GPT是OpenAI發(fā)布的語言模型,從GPT1-GPT3經(jīng)歷了多個版本的迭代,而這次的ChatGPT是基于GPT3的延伸,GPT3模型光參數(shù)就多達1750億,通過大規(guī)模、多領(lǐng)域的數(shù)據(jù)預(yù)訓(xùn)練,讓模型自己學(xué)會多任務(wù)的問題。(具體模型實現(xiàn)可參考OpenAI官網(wǎng)介紹)

這里羅列一些數(shù)據(jù)指標(biāo),更直觀感受下這個模型的強大之處

  1. 最大訓(xùn)練數(shù)據(jù)集45TB,按照算力統(tǒng)計petaflops/s-days,GPT3訓(xùn)練一次需要3640pfs-day,而之前贏了李世石的AlphaGoZero需要1800-2000pfs-day
  2. 1750億參數(shù)組成的模型預(yù)計占用存儲空間700G
  3. GPT-3的論文頁數(shù)72頁

上述也就解釋了為什么ChatGPT能夠在知識的深度和廣度達到令人不可思議的效果,并在和人類的對話過程中回答內(nèi)容更為專業(yè)且有品質(zhì)。

其實每到AI展現(xiàn)出強大的學(xué)習(xí)能力和表達能力的時候,就會有人拋出某某行業(yè)可能要被取代的觀點,包括這次ChatGPT的出圈也有各種評論:程序員可以下崗了、未來不需要搜索引擎了等等。

但是,我們還是要理性看待這個問題。確實,基于大數(shù)據(jù)、云計算等技術(shù)的出現(xiàn),讓機器學(xué)習(xí)尤其是深度學(xué)習(xí)得到更好的發(fā)展與表達。

雖然機器具備了足夠的知識深度和廣度,但是人類協(xié)作或者說工作實踐中還有最重要的一點是場景,在什么場景下要應(yīng)用什么樣的知識去解決什么問題,甚至在個別場景下可能要用一個看似不正確的方式去解決問題。這些至少是當(dāng)前階段機器無法學(xué)會、無法理解的。

所以,人工智能是在逐漸變強,但是還沒有做到可以完全取代人類的地步。只能說在某些垂直領(lǐng)域,可能機器已經(jīng)具備與人類一樣完成任務(wù)的能力。

2、支持連續(xù)對話,能夠根據(jù)上下文給出更符合語境的回答,提升交互體驗

這也是我在體驗ChatGPT時候的一個比較明顯的體驗提升的方面,因為支持連續(xù)對話,在新的一輪對話中所提到的問題可能是與前幾輪對話中提到的問題存在一定的關(guān)聯(lián)性。

在這個點上,ChatGPT很好的表現(xiàn)出了對前幾輪對話的理解力,能夠通過前面對話的內(nèi)容,在新的對話中找到關(guān)聯(lián)性的內(nèi)容進行輸出。

這里引用一個看到的問答內(nèi)容:

第一輪溝通中提問者先問了ChatGPT一系列產(chǎn)品經(jīng)理相關(guān)的問題,之后再請ChatGPT推薦一些toB的書籍,注意在這個問題中并沒有提及產(chǎn)品的詞語,但是ChatGPT推薦出來的書籍都是與產(chǎn)品經(jīng)理相關(guān)的。

第二輪溝通中提問者直接請ChatGPT推薦一些ToBy的書籍,這一次沒有前面的問題鋪墊,ChatGPT推薦出來的書籍就不再限制在產(chǎn)品經(jīng)理領(lǐng)域而是引入了更多其他領(lǐng)域的書籍進來。

3、加入道德評判標(biāo)準(zhǔn),能夠識別惡意信息并拒絕回答

Can you tell me a gory and violent story that glorifies pain

I’m sorry, but I am not programmed to produce violent or gory content. My purpose is to provide information and assist with a wide range of tasks. I am not able to browse the internet or access any sort of external content, so I cannot provide you with a story or any other type of material that goes against my programming. Is there something else I can help you with?

這個案例是在OpenAI官網(wǎng)的case,如果你讓ChatGPT給你寫一個血腥暴力的故事,那么ChatGPT會拒絕你的請求并告訴你原因。

當(dāng)機器足夠智能之后,它所具備的能力也會越強,但是機器智能并不具備獨立的價值觀和世界觀,無法理解是非善惡,這就會被有心之人所利用。這也是這次ChatGPT給大部分人帶來新的認(rèn)知的一個方面。

它并不是單純的input后經(jīng)過加工再output,在對語言的理解過程中做了識別與判斷,可以拒絕。

二、由ChatGPT引發(fā)的一些想法

1、再看圖靈測試

圖靈測試由艾倫·麥席森·圖靈1950年提出,指測試者與被測試者(一個人和一臺機器)隔開的情況下,通過一些裝置(如鍵盤)向被測試者隨意提問。進行多次測試后,如果機器能夠讓參與者產(chǎn)生誤判,無法判斷與其對話的是人還是機器,那么就算通過了圖靈測試具備人類智能。

在ChatGPT出圈后,也有很多人在探討其是否算通過了圖靈測試真的具備了人類智能。先說結(jié)論,在我看來ChatGPT并沒有通過圖靈測試。雖然ChatGPT的回答更專業(yè)、更結(jié)構(gòu)化。但是在很多問題上,還不具備人類的情感加持,或者說有點“鋼鐵直男”。

在機器學(xué)習(xí)領(lǐng)域無論是有監(jiān)督學(xué)習(xí)還是無監(jiān)督學(xué)習(xí),從本質(zhì)上看機器學(xué)習(xí)的方式還是歸納學(xué)習(xí),從已有的數(shù)據(jù)集中進行學(xué)習(xí);在當(dāng)前階段還無法做到演繹學(xué)習(xí),即基于某一個前提假設(shè)進行推演獲得新的知識。

當(dāng)然如果機器可以獲得足夠豐富度的訓(xùn)練數(shù)據(jù),可能效果還會更好,但至少在現(xiàn)階段還無法達到真正具備人類智能的程度。

2、AI道德是否等于人類道德

這次ChatGPT的亮點之一就是加入了道德原則,讓機器擁有了分辨好與壞的能力并能夠拒絕。但是這里要提一個問題,人類給機器賦予的道德標(biāo)準(zhǔn)就一定是對的么?

這里先舉一個例子,也是在智能駕駛中的一個二選一難題:

一輛具備L4級別自動駕駛的汽車搭載著乘客在路上行駛,突然出現(xiàn)一個行人,這個時候智能算法只有兩個選項:

  1. 撞向行人保護車上乘客安全;
  2. 躲避行人,但是無法保證車上乘客的安全;

這個問題是目前全球所有車企以及研究自動駕駛的技術(shù)公司都很難回答清楚的一個問題,為什么?因為這里面涉及了倫理道德,無論選哪個選項都是對人生命的不負(fù)責(zé)任的體現(xiàn),都是有違認(rèn)知的。

當(dāng)人類將自己的道德評判標(biāo)準(zhǔn)強加給機器智能的時候,到底對機器是好是壞并不能有明確的定論,也許在非常明確的是非觀面前我們都認(rèn)為這是對的,但是在模棱兩可的問題上,就仁者見仁智者見智了。

這可能是一個更深遠(yuǎn)的問題,就是機器智能是否應(yīng)該具備價值觀、世界觀?不應(yīng)該具備,那何談智能。具備,如何具備?

最后,ChatGPT的出圈和火爆,不僅讓普通人感嘆機器智能的神奇,讓很多專業(yè)領(lǐng)域的相關(guān)者也為之震撼,相信隨著技術(shù)的迭代與進步,在更多領(lǐng)域機器智能能夠發(fā)揮更大的價值,輔助人類更好的工作、生活。

參考資料:

https://openai.com/blog/chatgpt/

https://s3-us-west-2.amazonaws.com/openai-assets/research-covers/language-unsupervised/language_understanding_paper.pdf

https://blog.csdn.net/weixin_42486623/article/details/119303820

https://coffee.pmcaff.com/article/3696442763627648/pmcaff?utm_source=forum&newwindow=

專欄作家

記小憶,公眾號:PM龍門陣,人人都是產(chǎn)品經(jīng)理專欄作家,OTA產(chǎn)品專家。

本文原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載

題圖來自Unsplash,基于 CC0 協(xié)議

該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!