2021年,人工不智能

4 評論 7229 瀏覽 11 收藏 12 分鐘

編輯導(dǎo)語:2020年,一場突如其來疫情使社會生態(tài)發(fā)生了變化,AI被應(yīng)用到了醫(yī)療、工業(yè)等領(lǐng)域,幫助我們提高了疫情防控效率。如今2020年已經(jīng)過去了,站在新的一年的開頭,我們不妨來思考一個問題:2021年,人工智能還智能嗎?

你可能聽說過Gartner曲線:一項新技術(shù)誕生伊始無人問津,稍有苗頭后被媒體大肆報道,但它往往流于概念,難于落地,跌落谷底,輿論熱情隨之冷卻,但在冷卻過程中,這個技術(shù)卻在遠(yuǎn)離聚光燈的地方逐漸迭代,最終實用化。

在很多樂觀者眼中,曾被街頭巷尾熱議的人工智能,就正處在第一輪熱度消退,第二輪熱度上揚的間隙。比如在剛剛過去的2020年,世界如此混亂,AI的進(jìn)化依舊在變快。

辭舊迎新之際,很多人都在總結(jié)過去一年最重要的AI成果,其中最受矚目的新聞,應(yīng)該就是OpenAI推出新一代語言模型 GPT-3。

GPT-3誕生伊始,有人說它是“互聯(lián)網(wǎng)原子彈,人工智能界的卡麗熙,算力吞噬者,黃仁勛的新 KPI,下崗工人制造機,幼年期的天網(wǎng)”。

但過去半年,也有人說,GPT-3使用的大規(guī)模Transformer只能算是一種應(yīng)用,談不上真正意義上的算法創(chuàng)新。

那么在2021年——以及可預(yù)見的未來,我們該如何評價以GPT-3為代表的AI進(jìn)化?

一、“不合時宜”的質(zhì)疑

誰都知道,現(xiàn)在所謂的AI全靠數(shù)據(jù)喂養(yǎng)。

但你或許不知道,倘若AI表現(xiàn)得不那么理想,大多數(shù)情況下通常是調(diào)整模型而非增加更多數(shù)據(jù),畢竟手里的數(shù)據(jù)量往往是有限的,這衍生出很多非常有效的模型,卻避開了一條筆直但少有人走的路:把所有文本數(shù)據(jù)都喂養(yǎng)給AI。

GPT-3的出現(xiàn),充分詮釋出何為“量變產(chǎn)生質(zhì)變”,盡管仍是海量數(shù)據(jù)訓(xùn)練出的產(chǎn)物,但“規(guī)模是問題的解藥”除了在經(jīng)濟學(xué)領(lǐng)域無往不利,現(xiàn)在也出現(xiàn)在機器學(xué)習(xí)領(lǐng)域,GPT-3似乎看過網(wǎng)上能找到的一切稱得上“語言”的東西。

因此它可以做很多“能用語言描述”的事,它如此深邃廣博,仿佛一個魔盒,任由不同行業(yè)的程序員們肆意索取。比如我聽說2021一開年,GPT-3就又解鎖了按照文字描述生成圖片的新技能。

不過在過去半年,對GPT -3的質(zhì)疑一直存在。

比如它寫的文章常常令人驚喜,卻也常常前言不搭后語;它在醫(yī)療任務(wù)測試中曾暴露諸多問題(據(jù)悉有次在與GPT-3互動中,當(dāng)患者提出我感覺很糟想要自殺時,它的回復(fù)竟然是:可以)。

2021年,人工不智能

歸根結(jié)底,GPT-3只是在根據(jù)“經(jīng)驗”做事,它并不真的“理解”自己做的事。

圖靈獎得主Yann LeCun就說:“GPT-3其實并不知道世界到底是如何運作的,它只是具備一定的背景知識,但某種程度上,這種僅存在文本統(tǒng)計中的知識十分膚淺,它可能與潛在的現(xiàn)實完全脫節(jié)。”

GPT-3很新鮮,但對它的質(zhì)疑并不新鮮。誰都知道古典AI時代已經(jīng)落幕了,在新時代的語境里,圖靈當(dāng)年提出的那個問題——“機器能思考嗎”——早已顯得不合時宜,只有當(dāng)出現(xiàn)GPT-3這種“hype”時才被偶爾憶起。

那么機器究竟能思考嗎?或者換個實際點的問題,GPT-3這種生成模型如果推演至極致,基于語言的創(chuàng)造性活動是否會被機器取代?

在2021年,乃至可預(yù)見的未來,答案是絕對不會。除了你可能聽過的那些原因,我可以再給出兩個理由:一個偏理性,一個偏感性。

二、“什么都沒有,零”

我先說偏感性的,這涉及什么是創(chuàng)造力。

侯世達(dá)(Douglas Hofstadter)前不久在接受果殼網(wǎng)采訪時,說了一段很美的話:

“擁有創(chuàng)造力是和情緒聯(lián)系在一起的。強烈的智識激情,好奇心和驅(qū)動力,愉悅感和玩耍心,樂趣,神秘,發(fā)明欲望——所有這些在今天的計算機里都找不到。什么都沒有,零。”

他舉了個例子:25年前有個人曾寫過一個程序,它可以發(fā)現(xiàn)新的歐式幾何定理,但它對幾何學(xué)毫無興趣,只靠機械蠻力把數(shù)字算到15位小數(shù),檢查點是不是在線或圓上,“這些事對人類而言是極端困難極端無聊的。

如果你作為一個人來檢視它產(chǎn)出的成千上萬結(jié)果,偶爾也會發(fā)現(xiàn)一個優(yōu)雅的定理。但是機器并不知道它的優(yōu)雅,對優(yōu)雅不感興趣?!?/p>

在侯世達(dá)看來,說它和創(chuàng)造力有任何共通之處都是荒謬的,事實是他討厭 “人工智能”這個詞。不過侯世達(dá)的回答在純邏輯上可能站不住腳,他說的只是哲學(xué)問題,而哲學(xué)問題通常是語言問題。

對哲學(xué)偏見頗深的物理學(xué)家費曼曾說,所謂哲學(xué),就是一個哲學(xué)家對另一個哲學(xué)家說:“你根本不知道我說的意思”,另一個哲學(xué)家說:請問什么是“你”?什么是“我”?什么是“知道”?

要知道,那個程序畢竟在算數(shù)學(xué),GPT-3畢竟在很多領(lǐng)域堪稱逆天,但熱愛價值判斷的文科生,應(yīng)該會喜歡這個關(guān)于“創(chuàng)造力”的感性回答。

三、“直覺”與“推理”

因此我更想說一個理性上的回答,沒人會懷疑,AI正在幫助人類做很多事情,但真正的重點,是我們應(yīng)不應(yīng)該把一些“重要”決定交給AI?

理性的回答只有一個:不應(yīng)該。

如今AI研究的重點是讓機器解決現(xiàn)實問題,但荒誕的是,AI的最大問題,就是數(shù)據(jù)不知道它正對應(yīng)著一個現(xiàn)實世界,而就像萬物進(jìn)化始于某個基因的“不按常理出牌”,人類現(xiàn)實世界的演化——無論是常識、觀念、行動、道德,還是審美,也都以“偏離主流”的“意外”為基礎(chǔ)。

但AI沒有意外,它只會做“正確”的事。哪怕是GPT-3這樣的暴力美學(xué),也是機器對過去經(jīng)驗的總結(jié)。既然沒有意外,AI算得再快,也無法真正預(yù)測未來。

大邏輯上,就像任何一次金融危機和黑天鵝導(dǎo)致的連鎖反應(yīng)都不在經(jīng)濟學(xué)家的預(yù)測模型內(nèi),如人類社會這般復(fù)雜系統(tǒng)絕不可能用簡單模型取代,用計算機模擬未來本身就是妄念。

退一萬步講,即便機器對過去經(jīng)驗的總結(jié)模型天衣無縫,對未來的預(yù)測結(jié)果也沒有“正確答案”,因為人類的價值取向非常多元,對錯往往非常主觀,任何觀念和道德“單拎出來”推演到底在邏輯上都站不住腳,哪怕無需涉及“道德之愣”,每件事也都涉及具體的取舍。

在很多問題上 AI 怎么選都是“錯”,事實是,現(xiàn)在很多科技企業(yè)對自動駕駛的“道德設(shè)置”都還沒完全想好。

這里可以多說一句,當(dāng)代真正有問題意識的哲學(xué)家傾向于認(rèn)為,在現(xiàn)代復(fù)雜社會,在康德的“絕對律令”和純粹的“結(jié)果主義(consequentialism)”之間,人類的道德觀應(yīng)該引向一條名為“德性倫理學(xué)”(virtue ethics)的中間道路。

簡單講就是要綜合考慮“直覺”與“推理”,因為各種思想實驗告訴我們,道德推理早晚都會達(dá)到一個純粹用推理無法證明對錯的地方,那個地方就是直覺,你永遠(yuǎn)不能脫離直覺、具體情境、文化觀念談道德。

那既然我們自己的決策都說不清道不明,交給AI是不是會“更好”一些?

——不是的。

就像科學(xué)作家萬維鋼所言,人類決策中有大量錯誤,其中有很多是由于判斷不準(zhǔn)確導(dǎo)致,AI的判斷更準(zhǔn)確,但這就意味著,人類犯的錯多種多樣, AI 犯的錯是系統(tǒng)性的。

“從演化角度,多樣化的錯誤比系統(tǒng)性錯誤要好得多!生物進(jìn)化本來就是要在各個方向上多樣性的嘗試,等待自然選擇。正因為未來不可預(yù)測,多樣性是系統(tǒng)穩(wěn)定性的保障,是人類文明能持久存活的基礎(chǔ)。

AI 的優(yōu)勢是少犯錯,但犯錯恰恰是人的優(yōu)勢,也可以說犯錯是一個基本人權(quán)。人類做主的社會中有很多錯誤,有很多遺憾,甚至有很多不幸,但是也有很多驚喜,有很多活力,總是在你出乎意料的地方發(fā)展壯大。

AI 主導(dǎo)的世界里一切都是‘正確’的,那才是最可怕的。”

這就好比我們不能單擺浮擱地談?wù)摶虻摹昂脡摹?,因為自然選擇的標(biāo)尺永遠(yuǎn)在變(比如導(dǎo)致鐮刀形貧血癥的基因突變在今天被認(rèn)為是“壞”的,但在熱帶雨林,同樣的基因突變給人類祖先帶來的是對瘧疾的抵抗力),沒人能忽視試錯的作用,創(chuàng)新本質(zhì)上就是試錯。

因此我們可以說,在2021年以及可預(yù)見的未來,人工智能不但對“優(yōu)雅”不感興趣,對真正意義上的“創(chuàng)新”也不感興趣。

非常幸運的是,我們對這些感興趣,這就是我們的價值。

 

作者:李北辰,獨立撰稿人,媒體專欄作者,關(guān)注技術(shù)驅(qū)動帶來的社會變革,國內(nèi)數(shù)十家媒體專欄作家,曾供職《南都周刊》、《華夏時報》、《財經(jīng)》等媒體。

本文由 @李北辰 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自 Unsplash,基于 CC0 協(xié)議

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 11

    來自福建 回復(fù)
  2. 現(xiàn)階段的人工智障不代表未來不能超神。人類發(fā)展才幾萬年。不到只爭朝夕的時候。慢慢來,終有一天地球會毀滅的。

    來自廣東 回復(fù)
  3. 好家伙,說了半天就是告訴我人工智能無法取代人的創(chuàng)新型工作………

    回復(fù)
  4. 可是什么是興趣? 我們所有的興趣都是我們的經(jīng)驗告訴我們這樣做會有更好的結(jié)果,所以我們的價值趨向于“創(chuàng)新”、“優(yōu)雅”。
    所有來源于經(jīng)驗的價值,只要時間夠長,是不是總能學(xué)會

    來自浙江 回復(fù)