當(dāng)人們恐懼人工智能時,內(nèi)心到底在恐懼什么?
人工智能發(fā)展火熱,但隨之而來也是人們恐懼的加深。對于人工智能,人們到底在恐懼些什么?
即便是業(yè)內(nèi)諸多科技大佬、企業(yè)家等不斷重申人工智能并不會給人類發(fā)展帶來威脅與災(zāi)難,并讓人們相信AI的好處會大于弊端。但還是有很多人表現(xiàn)對人工智能的恐懼,而聊到人工智能,人們最為普遍的憂慮以及最為熱門的話題始終是,它是否會造成大規(guī)模失業(yè),是否會搶奪人類的飯碗?甚至,反噬人類?
當(dāng)然,樂觀派會認(rèn)為這種擔(dān)憂是科幻電影看多了。
在最近,有消息稱Facebook在人工智能研究所在對兩個聊天機器人進行對話策略迭代升級時,發(fā)現(xiàn)它們竟自行發(fā)展出了人類無法理解的獨特語言,系統(tǒng)中的聊天機器人開始用自創(chuàng)語言對話,無視程序員下達的指令。而臉書停止了這一項目的研究,原因是“擔(dān)心可能會對這些AI失去控制”。
不過Facebook近日公開回應(yīng)關(guān)閉AI失控語言事件,認(rèn)為一些媒體的報道有失事實,F(xiàn)acebook并沒有關(guān)閉機器人聊天系統(tǒng),而是在使它們變得更加聰明可控。
人類內(nèi)心對人工智能恐懼與懷疑
這是否是Facebook的人工智能系統(tǒng)中的Bug或故障暫未可知,但如果這是謠言,那么這可能就是人類內(nèi)心對人工智能恐懼與懷疑的一個釋放的方式與出口。
特斯拉CEO馬斯克最早在2014年就在麻省理工學(xué)院的一次公開訪談中拋出了AI“威脅論”:“我認(rèn)為我們應(yīng)當(dāng)格外警惕人工智能。如果讓我說人類當(dāng)下面臨最大的威脅是什么,我覺得是人工智能無疑”。物理學(xué)家斯蒂芬·霍金曾經(jīng)表示“人工智能可能自行啟動,以不斷加快的速度重新設(shè)計自己。”
微軟創(chuàng)始人比爾·蓋茨也曾公開表達同樣的憂慮,稱“機器確實可以幫助人類完成很多工作,但當(dāng)機器越發(fā)的智能,它們將會對人類的存在造成威脅”。
亞馬遜CEO貝索斯曾就AI“威脅論”與馬斯克發(fā)生過公開辯論,但后來他同樣認(rèn)為未來的人工智能革命或許的確有一部分超出我們的控制范圍。而谷歌母公司Alphabet執(zhí)行董事長埃里克·施密特認(rèn)為擔(dān)憂人工智能是純屬杞人憂天,是科幻電影看多了。
AI的發(fā)展速度或快于人類學(xué)習(xí)進步的速度
從目前各方大佬的觀點來看,即便是有對人工智能持樂觀派,但或許還是會透露出一些對AI的擔(dān)憂與未來發(fā)展走勢的不確定,科技大佬尚且如此,更遑論普通民眾。可以看出的是,人們在人工智能的發(fā)展速度面前,還是表現(xiàn)出了不自信的一面。
雖然人們懂得,人類本身是在不斷進化,但人工智能也可以,人們對于新事物的學(xué)習(xí)與進步都是一步一個腳印,而學(xué)習(xí)進度的速度相對偏慢,但人工智能的進步速度要遠(yuǎn)超過人類,多年前人們會認(rèn)為AI在圍棋上戰(zhàn)勝人類不太可能,今天已經(jīng)實現(xiàn)了。
而依據(jù)摩爾定律,計算能力每隔一段時間就會翻番,這會驅(qū)使AI設(shè)計變得越來越復(fù)雜、計算機處理器速度越來越快,它們的水平會不斷提高。
況且當(dāng)前的中美科技巨頭,幾乎都在全力押注AI,谷歌、IBM等巨頭相繼開源AI平臺,NVIDIA、英特爾公司深攻AI芯片,谷歌、蘋果在大力收購AI公司,國內(nèi)AT均提出AI發(fā)展戰(zhàn)略,AI的發(fā)展速度未來幾年可能會加快。
在當(dāng)前世界各地,不少中低技工正在不斷被機器人或智能化自動化軟硬件所取代,并且取代率還在不斷上升。
有人說,人類需要學(xué)習(xí)十幾年甚至二十年才能獲得一份體面的工作,而AI呢?開發(fā)一個好的程序大家花幾分鐘下載,甚至不用下載直接API就能用了。
當(dāng)然,AI技術(shù)在不斷地吞噬工作,但也會不斷地創(chuàng)造工作。問題是,創(chuàng)造工作的速度能否趕上它所毀滅的工作的速度?當(dāng)AI的發(fā)展速度快于人類學(xué)習(xí)進步的速度,越來越多的人都會被一種被淘汰的焦慮包圍。
AI未來可能會取代更多的工種,但不再會創(chuàng)造大量的低技術(shù)性崗位
盡管人們總是會拿蒸汽時代工業(yè)革命敲碎舊時代生產(chǎn)力體系,繼而帶來更多的新的工作來類比人工智能時代所帶來的想象空間。但人工智能時代可能與工業(yè)時代有著本質(zhì)的不同。
不同之處在于,比如過去工業(yè)革命革掉工匠們的命,用汽車取代馬車,但這種變革更多是提升工業(yè)化的生產(chǎn)效率,帶來了更多的工種,創(chuàng)造了大量的低技術(shù)性崗位,比如一個失地的農(nóng)民,轉(zhuǎn)型為產(chǎn)業(yè)工人并不困難,因為產(chǎn)業(yè)工人的需求很大,而且培訓(xùn)上崗的技術(shù)難度不大。
但人工智能未來可能會取代更多的工種,但不會創(chuàng)造大量的低技術(shù)性崗位,因為它的本質(zhì)不僅是消滅簡單機械的重復(fù)性勞動,而是能夠自主分析與判斷,與人類的腦力與技術(shù)展開競爭。
即便能創(chuàng)造工作,也是技術(shù)性更高的工作,比如說無人駕駛技術(shù)讓司機的崗位消失,但帶來的卻是軟件工程師、程序員、設(shè)計師等相關(guān)的崗位,這些崗位不是能通過簡單的培訓(xùn)就能夠上崗的。
從另一個角度而言,正如美國學(xué)者約翰.C.黑文斯所言:技術(shù)純熟的工匠與工業(yè)化的流水線上的廉價勞動力對抗,與對自動駕駛汽車在生死關(guān)頭的程序如何編寫的擔(dān)憂本身不可同日而語。
人類如果在越來越多的領(lǐng)域被AI所取代,那么人類的工作將越來越多的聚焦在AI所不能取代的領(lǐng)域,而這些領(lǐng)域也沒有人能夠確保它永遠(yuǎn)不會被取代,正如有人說,我們恐懼的不是人工智能,而是自己的無能。
羅振宇此前在演講中說過一句:“再殘忍的資本家好歹要剝削工人,人工智能時代可能讓人們連這個價值都沒有。”
心理學(xué)上的恐怖谷效應(yīng)
從心理學(xué)上來看的話,恐怖谷理論或許能夠從另一個角度來解釋我們對于AI機器人的恐懼。
“恐怖谷”一詞由日本機器人研究院Ernst Jentsch于1906年的論文《恐怖谷心理學(xué)》中提出,即當(dāng)機器人越來越接近人類的時候,我們對它們的好感會提升,但是當(dāng)機器人非常接近人類的時候,一旦到達某個臨界點,我們的好感就對大幅度降低,甚至開始莫名的厭惡和懼怕。
為什么,因為當(dāng)一個長著人的皮囊,但各項性能都超過人類、甚至克服了衰老與疾病的AI機器,人類的自尊感會被消弭于無形,而在這個時候,人們更擔(dān)心的是人工智能產(chǎn)生獨立意識,然后噬主。
盡管,獨立意識的產(chǎn)生方法現(xiàn)在只有幾個假說而已,但需要思考的是,當(dāng)一個AI的物種在智力、智商與能力等諸多方面均超出人類的時候,它是否還會心甘情愿的接受人類的統(tǒng)治?
只要人類與一個人工智能的系統(tǒng)算法密切結(jié)合工作,那么人工智能可能向人類學(xué)習(xí),繼而實現(xiàn)人物的自動化進程,當(dāng)AI專家不斷將新研究轉(zhuǎn)變?yōu)樗惴ǎ缓蠹尤氍F(xiàn)有系統(tǒng)中,使得AI設(shè)計變得越來越復(fù)雜。
那么它的危險就來自于自我學(xué)習(xí)與進化,發(fā)展演化到一個足夠復(fù)雜的系統(tǒng),人們可能無法關(guān)掉某個本身具有運行指令的系統(tǒng),因為程序正在通過某種邏輯讓自己的效率最大化。
這樣一來,即使出現(xiàn)未知后果的風(fēng)險提高,我們逐漸的無法完全了解這些系統(tǒng)的運作結(jié)果,它們的失靈方式也多種多樣。歷史上大的災(zāi)難往往都由各種各樣的小故障組合而來,這也意味著一種安全與失控的危險。
所謂的恐懼都是源于未知。人工智能的發(fā)展速度太快,而普通人卻對人工智能的操作方式、運作邏輯與程序一無所知,它彷佛一只神秘的黑盒子,人們知道自己未來不可避免的將身處黑箱之中,卻不知道黑箱的邊界。
而人們更擔(dān)心人工智能收集各種數(shù)據(jù),因為驅(qū)動大數(shù)據(jù)經(jīng)濟的AI應(yīng)用程序,是基于人類的興趣、愛好、生活方式等數(shù)據(jù)以及主觀判斷所設(shè)計的系統(tǒng),而這種系統(tǒng)卻比人類更了解自身,這會讓人們的隱私蕩然無存。當(dāng)前已經(jīng)有AI芯片問世,比普通芯片快十倍乃至上百倍。顯然,這開辟了一系列的可能性。
人工智能會剝奪人的幸福感
從另一個層面來看,人工智能還會剝奪人的幸福感。人類需要幸福感與意義,需要薪水,需要人生的意義。而對于大多數(shù)人而言,幸福感與意義一般是由工作所賦予的,另一種就是從幫助他人中建立起來的存在感。因為工作能夠幫助人們建立一種心流與價值意義,讓人們沉浸并找到自身存在的意義。
而人的能力在本質(zhì)上是有限的,當(dāng)然,自動化與AI化將會成為一個趨勢,工作被機器人取代之后,人們會焦慮該找什么樣的工作才不會被取代。
當(dāng)自動化與失業(yè)威脅圍繞,人們可能擔(dān)心無法掙到足夠的前來購買產(chǎn)品與滿足自身的娛樂需求,人們必須思考如何找回被剝奪的存在感、意義與幸福感。當(dāng)AI能夠代替人類來幫助人類,人們就會逐步喪失表達同理心的能力。
按照心理學(xué)的理論,這是更高一級的“自我實現(xiàn)”的需求,它和娛樂一樣是剛需,當(dāng)自我實現(xiàn)的需求被剝奪之后,人們會思考自身存在的意義究竟為何,哲學(xué)家帕斯卡在《沉思錄》所言:面對強大有力的宇宙,人是一根會思考的蘆葦。
當(dāng)人生幸福感被為人工智能剝奪而找不到意義時,就會陷入另一種危機之中——如何定義自己。正如凱文凱利所說:在未來的十年或者是未來一個世紀(jì),我們都將生活在揮之不去的身份危機之中。我們需要人工智能來告訴我們,我們是誰。這同樣讓人們感到恐慌。
AI導(dǎo)致數(shù)據(jù)的轉(zhuǎn)移與權(quán)力的集中:繼而導(dǎo)致資源與利益的重新分配
其次是數(shù)據(jù)。我們知道,數(shù)據(jù)是AI系統(tǒng)的命脈,你需要用數(shù)據(jù)進行訓(xùn)練,需要海量的數(shù)據(jù)與信息來進行推理。比如數(shù)字圖像、數(shù)字記錄,以及工廠的數(shù)據(jù)和跟蹤信息,這些都可以放到系統(tǒng)中進行訓(xùn)練。
而隨著巨頭用戶規(guī)模化擴張,會導(dǎo)致數(shù)據(jù)不斷轉(zhuǎn)移與集中到幾家公司手中,這回導(dǎo)致權(quán)力與資源的轉(zhuǎn)移與重新分配。如果未來強人工智能快速發(fā)展,它對人類的了解會越來越透徹。
有用戶表示,通過識別照片和人臉,F(xiàn)acebook的人臉識別軟件可以區(qū)分出化妝和不化妝時的我,這既有趣又可怕。與此同時,人類在辨認(rèn)人臉時卻常常遇到困難。據(jù)說波士頓的某家公司的AI已經(jīng)通過數(shù)據(jù)的訓(xùn)練非常擅長閱讀人類情緒了。
而根據(jù)人類簡史的作者赫拉利的觀點來看,人工智能技術(shù)的一個潛在結(jié)果是促成數(shù)據(jù)集中到某一個地方,也進而導(dǎo)致權(quán)力的集中。因為說到數(shù)據(jù)算法,你能在一個地方集中的數(shù)據(jù)越多,算法就會越好。因此人工智能技術(shù)革命產(chǎn)生了巨大的,將數(shù)據(jù)集中的動力,也造成了權(quán)力的集中。
也就是說,對于AI科技巨頭來說,它的用戶規(guī)模越來越大,數(shù)據(jù)就會越來越大,這同樣會造成權(quán)力越來越大。換句話說,中美科技巨頭將擁有越來越大的權(quán)利。
但事實上,這也是人類對人工智能恐懼的一方面,因為權(quán)力的轉(zhuǎn)移會導(dǎo)致利益與資源的重新分配。這可能導(dǎo)致它會讓部分人受益,但不會讓更廣泛的普通人受益。
AI技術(shù)未來會不斷突破,但風(fēng)險在于其程序設(shè)定沒有人類的價值觀與道德標(biāo)準(zhǔn)
讓人們更為恐懼的是,社交機器人學(xué)家與人工智能專家正在努力讓人工智能融入人類特征,但人工智能卻沒有人類的價值觀與道德標(biāo)準(zhǔn),人工智能在加速推進,但只要人們沒有從法律層面否決它是否應(yīng)該被開發(fā)出來之前,它都是可以進行開發(fā)的。
這會給谷歌、Facebook、微軟等科技巨頭提供大量的機會,即在道德倫理與法律監(jiān)管真空中進一步發(fā)展人工智能技術(shù)。
但所隱含的弊端是,機器人沒有與生俱來的道德,這原本是需要程序員和各個系統(tǒng)從操作系統(tǒng)開始,逐步落實道德標(biāo)準(zhǔn)。就比如科幻作家艾薩克·阿西莫夫所創(chuàng)造的“機器人三大定律”:機器人不得傷害人類或坐視人類受到傷害、機器人必須服從人類的命令、在不違背第一和第二法則的前提下機器人必須保護自己。
有了這種邏輯與價值觀設(shè)定,人們會相對感到安全,當(dāng)前自動化智能又幾乎沒有相關(guān)的法律規(guī)定,人類價值觀卻并未被編入人工智能的核心,這可能導(dǎo)致它帶來的潛在危害走向失控。說到底,這是人們潛意識里對機器人的不自信,這是一種對它將叛變?nèi)祟愐约叭〈藗兊目只拧?/p>
當(dāng)然,人工智能要發(fā)展到威脅人類這一步還有太長的路要走,甚至在許多人看來,這一天永遠(yuǎn)也不會到來,畢竟現(xiàn)有的人工智能技術(shù)還不成熟,與真正人意義上的智能差的很遠(yuǎn),目前的它被過度解讀和渲染了。
不過,更多的恐懼是來自于未知??植来髱熓返俜?金所說,讓人的心備受恐懼折磨的從來都不是妖魔鬼怪,而是超出認(rèn)知范圍的未知。
盡管我們不必過于擔(dān)心人工智能可能會對人類造成的威脅,但也知道人工智能的發(fā)展是沒有天花板的。
個人層面,正確的做法是正視這個趨勢,并在未來趨勢中去熟悉使用人工智能輔助功能,逐步占得這種技術(shù)進步的紅利,并從中分一杯羹。
在宏觀層面,需要思考和做好AI的安全管控設(shè)計以及預(yù)防的備用方案,來管控好人工智能的安全、風(fēng)險失控、倫理道德以及社會層面等諸多方面的問題,來消除人們的恐慌以及盡量讓弊端與威脅最小化。
#專欄作家#
王新喜,微信公眾號:熱點微評,人人都是產(chǎn)品經(jīng)理專欄作家,互聯(lián)網(wǎng)從業(yè)者,百度百家、艾瑞網(wǎng)專欄作家、虎嗅網(wǎng)、鈦媒體認(rèn)證作者,關(guān)注IT熱點背后的本質(zhì),窺視TMT行業(yè)精髓,分享有價值的觀點。
本文原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載。
人工智能的危險來自于它的自我學(xué)習(xí)與進化的逐步完善,若是它學(xué)會對自身系統(tǒng)的整體性進行反思,人類就沒有什么優(yōu)勢可言了
好像之前那句話,阿爾法狗不是真正輸給了李世石,而是故意輸給了李世石,這種自我意識才是最可怕的