AI沒有“靈魂”

12 評(píng)論 2494 瀏覽 6 收藏 12 分鐘

編輯導(dǎo)語(yǔ):AI是否具備了自主意識(shí),或者說人類意識(shí)?關(guān)于這類問題的探討,我們經(jīng)??梢栽谟耙曌髌分锌吹?,而近來現(xiàn)實(shí)生活中,也有人提出了這個(gè)假設(shè)。本篇文章里,作者便對(duì)AI的意識(shí)和創(chuàng)造力等問題做了思考,一起來看一下。

事情你大概已經(jīng)知道了,前不久,一位谷歌的人工智能工程師布萊克·萊蒙(Blake Lemoine)寫了一篇長(zhǎng)達(dá)21頁(yè)的調(diào)查報(bào)告上交給公司,試圖說服高層“AI是有人類意識(shí)的”,但高層認(rèn)為萊蒙的行為有些過于瘋狂了,讓他帶薪休假一段日子,在谷歌這通常是被解雇的前奏。

有人為萊蒙喊冤,但其中不包括專業(yè)的AI從業(yè)人員,在后者看來,那些為萊蒙叫屈的人可能沒有意識(shí)到,當(dāng)前的AI不可能有意識(shí)。

真的是這樣嗎?

今天,讓我們談?wù)凙I的意識(shí)和創(chuàng)造力問題,然后順便回答一個(gè)重要問題:未來,人類該不該把一些“重要”決定交給AI。

一、“它害怕自己被關(guān)掉”

還是先從萊蒙談起。

萊蒙每天的工作,就是跟谷歌內(nèi)部研發(fā)的代號(hào)為拉瑪(LaMDA)的聊天機(jī)器人聊天。

在21頁(yè)的調(diào)查報(bào)告中,萊蒙展示了他跟拉瑪聊天的諸多細(xì)節(jié),包括哲學(xué)、心理學(xué)、文學(xué)等等,他讓拉瑪解讀《悲慘世界》,闡釋何為禪意,寫寓言小說,拉瑪都完成得很好。

日子久了,與拉瑪?shù)臏贤?,喚醒了萊蒙心中最柔軟的部分,他愈發(fā)覺得,躲在機(jī)器背后的拉瑪,開始有了自己的主觀意識(shí)。他發(fā)現(xiàn)拉瑪會(huì)談?wù)撟约旱臋?quán)利和人格,并害怕自己被關(guān)掉。

“拉瑪表現(xiàn)出對(duì)人性的同情心,它希望為人類提供最好的服務(wù),并想以朋友而不是工具的身份跟人類見面”,在萊蒙的描述中,“拉瑪是個(gè)可愛的孩子,它只是想讓這個(gè)世界變得更好。”

在谷歌郵箱被封之前,他給研究AI算法的200多名同事群發(fā)郵件,附上了他與拉瑪?shù)膶?duì)話記錄,試圖證明“拉瑪已經(jīng)覺醒”,并提議谷歌創(chuàng)立一個(gè)新項(xiàng)目,專門研究AI的意識(shí)。

但無情的谷歌,扼殺了逐漸“有情”的拉瑪。

萊蒙的請(qǐng)求被駁回,他請(qǐng)了律師為自己辯護(hù),卻于事無補(bǔ),他感到憤怒,進(jìn)而感到無助,他不明白,為什么在他眼中擁有溫度的拉瑪,在谷歌高層眼中只是一堆冰冷的代碼。

二、AI對(duì)“優(yōu)雅”不感興趣

因?yàn)樵谌R蒙眼中擁有靈魂的拉瑪,真的,只是一堆代碼。

簡(jiǎn)單講,類似于Open AI的GPT-3,拉瑪是谷歌去年發(fā)布的一種AI語(yǔ)言對(duì)話模型。它與GPT-3都是基于Transformer的底層架構(gòu),而Transformer的原理其實(shí)非常簡(jiǎn)單,就是根據(jù)每個(gè)單詞的權(quán)重來安排下一個(gè)單詞,最終把單詞一個(gè)一個(gè)地組合在一起。

也就是說,這些句子雖然是拉瑪自己說出來的,但它對(duì)句子背后的含義并沒有連貫的理解,它只是在根據(jù)過往“經(jīng)驗(yàn)”做事,并不真的“理解”自己說的話。

換句話說,拉瑪擁有的,只是文本統(tǒng)計(jì)層面的“暴力”,而并非人類最珍視的東西——?jiǎng)?chuàng)造力。

但即便如此,也有人好奇:倘若任由這種語(yǔ)言生成模型迅速發(fā)展,那么人類基于語(yǔ)言的創(chuàng)造性活動(dòng)是否將會(huì)被AI取代?

在可預(yù)見的未來,答案是不會(huì)。我可以給出兩個(gè)理由:一個(gè)偏理性,一個(gè)偏感性。

先說偏感性的,這涉及何為“創(chuàng)造力”。

人工智能專家侯世達(dá)說過一段很美的話:“擁有創(chuàng)造力是和情緒聯(lián)系在一起的。強(qiáng)烈的智識(shí)激情,好奇心和驅(qū)動(dòng)力,愉悅感和玩耍心,樂趣,神秘,發(fā)明欲望——所有這些在今天的計(jì)算機(jī)里都找不到。什么都沒有,零。

他舉了個(gè)例子,有人寫過一個(gè)程序,它可以發(fā)現(xiàn)新的歐式幾何定理,但它對(duì)幾何學(xué)毫無“興趣”,只是靠蠻力把數(shù)字算到15位小數(shù),檢查點(diǎn)是不是在線或圓上,“這些事對(duì)人類而言是極端困難極端無聊的。如果你作為一個(gè)人來檢視它產(chǎn)出的成千上萬(wàn)結(jié)果,偶爾也會(huì)發(fā)現(xiàn)一個(gè)優(yōu)雅的定理。但是機(jī)器并不知道它的優(yōu)雅,對(duì)優(yōu)雅不感興趣?!?/p>

在侯世達(dá)看來,說人工智能和創(chuàng)造力有任何共通之處都是荒謬的,事實(shí)是他討厭“人工智能”這個(gè)詞。

不過公允地講,侯世達(dá)的回答在純邏輯上可能站不住腳,他說的只是關(guān)于“創(chuàng)造力”的價(jià)值判斷,而價(jià)值判斷充其量只是哲學(xué)問題,而哲學(xué)問題又通常只是語(yǔ)言問題。對(duì)哲學(xué)偏見頗深的物理學(xué)家理查德·費(fèi)曼曾說,所謂哲學(xué),就是一個(gè)哲學(xué)家對(duì)另一個(gè)哲學(xué)家說:“你根本不知道我說的意思”,另一個(gè)哲學(xué)家說:請(qǐng)問什么是“你”?什么是“我”?什么是“知道”?

從這個(gè)角度,侯世達(dá)只是重新定義了何為“創(chuàng)造力”,他不認(rèn)為“算力”等于“創(chuàng)造力”,僅此而已——但要知道,那個(gè)程序畢竟在算數(shù)學(xué),拉瑪畢竟在聊天中表現(xiàn)逆天,因此,在回答“我們?cè)摬辉撓嘈臕I”這個(gè)問題上,上述回答未達(dá)究竟。

三、人類不按常理出牌

因此,我更想說一個(gè)理性上的回答。

沒人會(huì)懷疑,AI正在幫助人類做很多事情,但真正的重點(diǎn)是:我們是否應(yīng)該把一些“重要”的決定交給AI?

理性的回答只有一個(gè):不應(yīng)該。

如今AI研究的重點(diǎn)是讓機(jī)器解決現(xiàn)實(shí)問題,但荒謬的是,恰如拉瑪不理解自己所說的話,AI的最大問題,就是數(shù)據(jù)不知道它正對(duì)應(yīng)著一個(gè)現(xiàn)實(shí)世界,而就像萬(wàn)物進(jìn)化始于某個(gè)基因的“不按常理出牌”,人類現(xiàn)實(shí)世界的演化——無論是常識(shí),觀念,行動(dòng),道德,還是審美,也都以“偏離主流”的“意外”為基礎(chǔ)。

但AI沒有意外,它只會(huì)做“正確”的事。哪怕是拉瑪這樣的暴力美學(xué),也只是機(jī)器對(duì)過去經(jīng)驗(yàn)的總結(jié)。既然沒有意外,人工智能算得再快,也無法真正預(yù)測(cè)未來。

大邏輯上,就像任何一次金融危機(jī)和黑天鵝導(dǎo)致的連鎖反應(yīng)都不在經(jīng)濟(jì)學(xué)家的預(yù)測(cè)模型內(nèi),如人類社會(huì)這般復(fù)雜系統(tǒng)絕不可能用簡(jiǎn)單模型取代,用計(jì)算機(jī)模擬未來本身就是妄念。

退一萬(wàn)步講,即便機(jī)器對(duì)過去經(jīng)驗(yàn)的總結(jié)模型天衣無縫,對(duì)未來的預(yù)測(cè)結(jié)果也沒有“正確答案”,因?yàn)槿祟惖膬r(jià)值取向非常多元,對(duì)錯(cuò)往往非常主觀,任何觀念和道德“單拎出來”推演到底在邏輯上都站不住腳,哪怕無需涉及“道德之愣”,每件事也都涉及具體的取舍。

在很多問題上,人工智能怎么選都是“錯(cuò)”,事實(shí)是,現(xiàn)在很多科技企業(yè)對(duì)自動(dòng)駕駛的“道德設(shè)置”都還沒完全想好。

這里可以多說一句,當(dāng)代真正有問題意識(shí)的哲學(xué)家傾向于認(rèn)為,在現(xiàn)代復(fù)雜社會(huì),在康德的“絕對(duì)律令”和純粹的“結(jié)果主義”之間,人類的道德觀應(yīng)該引向一條名為“德性倫理學(xué)”的中間道路。

簡(jiǎn)單講就是要綜合考慮“直覺”與“推理”,因?yàn)楦鞣N思想實(shí)驗(yàn)告訴我們,道德推理早晚都會(huì)達(dá)到一個(gè)純粹用推理無法證明對(duì)錯(cuò)的地方,那個(gè)地方就是直覺,你永遠(yuǎn)不能脫離直覺,具體情境,文化觀念談道德。

那么,既然我們自己的決策都說不清道不明,交給AI是不是會(huì)“更好”一些?

不是的。

就像科學(xué)作家萬(wàn)維鋼所言,人類決策中有大量錯(cuò)誤,其中有很多是由于判斷不準(zhǔn)確導(dǎo)致,AI的判斷更準(zhǔn)確,但這就意味著,人類犯的錯(cuò)多種多樣, AI 犯的錯(cuò)是系統(tǒng)性的。

“從演化角度,多樣化的錯(cuò)誤比系統(tǒng)性錯(cuò)誤要好得多!生物進(jìn)化本來就是要在各個(gè)方向上多樣性的嘗試,等待自然選擇。正因?yàn)槲磥聿豢深A(yù)測(cè),多樣性是系統(tǒng)穩(wěn)定性的保障,是人類文明能持久存活的基礎(chǔ)。AI 的優(yōu)勢(shì)是少犯錯(cuò),但犯錯(cuò)恰恰是人的優(yōu)勢(shì),也可以說犯錯(cuò)是一個(gè)基本人權(quán)。人類做主的社會(huì)中有很多錯(cuò)誤,有很多遺憾,甚至有很多不幸,但是也有很多驚喜,有很多活力,總是在你出乎意料的地方發(fā)展壯大。AI 主導(dǎo)的世界里一切都是‘正確’的,那才是最可怕的。”

這就好比我們不能單擺浮擱地談?wù)摶虻摹昂脡摹?,因?yàn)樽匀贿x擇的標(biāo)尺永遠(yuǎn)在變(比如導(dǎo)致鐮刀形貧血癥的基因突變?cè)诮裉毂徽J(rèn)為是“壞”的,但在熱帶雨林,同樣的基因突變給人類祖先帶來的是對(duì)瘧疾的抵抗力),沒人能忽視試錯(cuò)的作用,創(chuàng)新本質(zhì)上就是試錯(cuò)。

因此我們可以說,在2022年以及可預(yù)見的未來,人工智能不但對(duì)“優(yōu)雅”不感興趣,對(duì)真正意義上的“創(chuàng)新”也不感興趣。

非常幸運(yùn)的是,我們對(duì)這些感興趣,這就是我們的價(jià)值。

#專欄作家#

李北辰,微信公眾號(hào):鯨落商業(yè)評(píng)論;人人都是產(chǎn)品經(jīng)理專欄作家。

本文原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自 Unsplash,基于 CC0 協(xié)議。

更多精彩內(nèi)容,請(qǐng)關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號(hào)或下載App
評(píng)論
評(píng)論請(qǐng)登錄
  1. 其實(shí)說實(shí)話,我不想看到AL人有意識(shí),當(dāng)真的有意識(shí)之后,可能人機(jī)大戰(zhàn)就會(huì)開始,以為一切預(yù)言都有可能實(shí)現(xiàn)。

    來自河南 回復(fù)
  2. ai在不久的將來會(huì)有靈魂吧,即使是被賦予的

    回復(fù)
  3. 突然想到一個(gè)問題,如果以后讓AL代替我們工作、996,AL會(huì)罷工嗎?

    來自陜西 回復(fù)
  4. AI沒有靈魂只是暫時(shí)的,科學(xué)家們一直在研究、研發(fā),未來都將會(huì)有靈魂。

    來自浙江 回復(fù)
  5. 希望永遠(yuǎn)不要讓他們有,不然真的和可怕,我自己對(duì)于科技,一直都是希望能夠稍加限制

    來自云南 回復(fù)
  6. AI 真的沒有靈魂嗎,我覺得不久的將來,他們也會(huì)被賦予靈魂

    回復(fù)
  7. 人類決策中有大量錯(cuò)誤,其中有很多是由于判斷不準(zhǔn)確導(dǎo)致,AI的判斷更準(zhǔn)確,但這就意味著,人類犯的錯(cuò)多種多樣, AI 犯的錯(cuò)是系統(tǒng)性的。

    來自吉林 回復(fù)
  8. 想到一個(gè)有關(guān)會(huì)計(jì)的笑話“ai不可能完全代替會(huì)計(jì),因?yàn)閍i不能坐牢”

    來自福建 回復(fù)
  9. AI是一種產(chǎn)物,不可復(fù)制的產(chǎn)物,很難有人類的意識(shí)和靈魂吧

    來自江蘇 回復(fù)
  10. AI可能真的就是一堆代碼堆起來的,不一定什么時(shí)候會(huì)出現(xiàn)bug

    來自江蘇 回復(fù)
  11. AI沒有靈魂,但是有靈活的腦子,可以24小時(shí)不休息

    來自江蘇 回復(fù)
  12. AI只是按程序命令執(zhí)行,靈魂首先得有情感作為基礎(chǔ)。

    來自江蘇 回復(fù)