《西部世界》,能給現(xiàn)實世界的人工智能帶來怎樣的啟示
如果你還沒有開始看西部世界第二季,不用擔心,本文不會討論第二季的劇情和新增設定。我們只想順著《西部世界》的方向,去思考一下它對現(xiàn)實中人工智能發(fā)展的意義。
繼2016年,美劇《西部世界》刷爆朋友圈之后,它的第二季已經(jīng)開播并且由騰訊視頻獨家引進。
《西部世界》講述了在一個以美國西部為主題的大型主題公園里,園方使用搭載超高人工智能的仿生人作為服務人員,讓游客進入完全沉浸式的角色扮演體驗的科幻故事。
在第一季中,隨著劇情的展開,西部世界主題公園中的服務機器人開始像每一部賽博朋克作品中的人工智能那樣開始覺醒、逃離、反抗。
憑借簡單設定基礎上復雜的故事線設置和別出心裁的剪輯技巧,《西部世界》劇集在播出后獲得了極高的反響。在豆瓣上,《西部世界》的第一季收獲了14萬余人的評價,評分高達 8.8 分,第二季目前評分 9.2 分。
《西部世界》的導演喬納森·諾蘭表示,這部劇的火熱反應了大眾對人工智能的焦慮與思考。
如果你還沒有開始看西部世界第二季,不用擔心,本文不會討論第二季的劇情和新增設定。我們只想順著《西部世界》的方向,去思考一下它對現(xiàn)實中人工智能發(fā)展的意義。
機器人在短期內(nèi)不會變?yōu)楝F(xiàn)實,但《西部世界》對AI仍有指導意義
《西部世界》中對接待員人格覺醒的定義和對“故事”的定義,都有助于為解決現(xiàn)實中的AI問題提供一些思路。
首先,就是算法的價值觀問題
在談到《西部世界》劇情對這個現(xiàn)實問題的指導意義之前,我們不妨先了解一下《西部世界》世界觀下的算法。
在《西部世界》中,矛盾被描述為人工智能覺醒并形成自我人格的一種關鍵因素,這起源自美國上世紀70年代一種并不主流的心理學理論“二分心智”。
在第一季的結尾,機器人梅芙放棄了坐上火車混入人類世界的自由之路,而選擇了回到主題公園尋找自己的女兒,這是西部世界中機器人算法矛盾性最集中的體現(xiàn)。
《西部世界》的科學顧問、斯坦福大學的一位神經(jīng)學家,大衛(wèi)·伊格爾曼(David Eagleman)在接受《科學》雜志采訪時談到了這個靈感的來源。
“人類總是能在頭腦中聽到很多個聲音,比如我給你一個冰淇淋,一個聲音告訴你‘太好了,我現(xiàn)在就想吃甜食’,另一個聲音告訴你‘不,這會讓你變胖’……這讓我想到了對抗網(wǎng)絡?!?/p>
這與近兩年在推薦算法流行之后開始興起的“算法價值觀”問題交相呼應。
在推薦算法驅動的信息流中,由人工編輯插入強制置頂?shù)膬?nèi)容并不一定能取得最好的效果。
相比之下其它由算法推薦的內(nèi)容更合他們的口味、更具吸引力也更不可抗拒,因此用戶可能會直接忽略那些被強制加入的內(nèi)容。
“二分心智”這一設定給我們的啟示是,也許可以用對抗網(wǎng)絡來解決信息流的價值觀問題。什么是對抗網(wǎng)路呢?以圖片生成技術為例,一個典型的對抗網(wǎng)絡是這樣的:
假設我們有一個圖片生成模型(generator),它的目標是生成一張真實的圖片。與此同時我們有一個圖像判別模型(discriminator),它的目標是能夠正確判別一張圖片是生成出來的還是真實存在的。
那么如果我們把剛才的場景映射成圖片生成模型和判別模型之間的博弈,就變成了如下模式:生成模型生成一些圖片 → 判別模型學習區(qū)分生成的圖片和真實圖片 → 生成模型根據(jù)判別模型改進自己,生成新的圖片 → ····
在推薦算法驅動的信息流中,我們可以假定目前的、基于興趣向讀者生成感興趣內(nèi)容的整個引擎為生成模型,而另外一個用于辨別整個信息流是否呈現(xiàn)正向價值的引擎為判別模型。
通過這樣訓練而成的信息流就會有兩重的內(nèi)在“聲音”,一個聲音說“這個內(nèi)容,讀者會非常喜歡”,另一個則說“不,這是一條謠言會帶來不良的后果”,而兩個聲音最終會形成一個平衡。
第二,是AI道德與倫理問題
從很大程度上,在第一點啟示中,對抗算法只是我們?yōu)樗惴ㄙx予價值觀的其中一個途徑。而《西部世界》中揭示了更多我們應該如何為算法賦予價值觀的指導思想。
在《西部世界》的劇情中,機器人覺醒或者說開始脫離原有軌跡的方法,是讓所有的“心聲”都來自自己而非原本寫好的程序。
這其中蘊含著另一個啟示,即在面對技術帶來的問題時,我們總還是應該用技術的問題去解決。
換句話說,如果AI在提高生產(chǎn)力的同時導致了一個問題,那么我們同樣應該用AI去解決它,而不應將人類和人類倫理擺到它的對立面。
目前,無論是在國內(nèi)還是國外,解決人工智能倫理和價值觀問題上的思路偏向于從算法外部加入人的因素去解決。
無論是騰訊、今日頭條還是外國的Facebook,我們經(jīng)常談到的解決人工智能價值觀問題的方法就是投入更多的審核人員。
這在短期內(nèi)似乎是一個不錯的解決方法,但從長期內(nèi)似乎變成了一場人與AI之間的貓鼠游戲,而正像《西部世界》中描繪的那樣,人工智能比我們更強大、更迅速、學習能力更強,人類并不一定總會贏得戰(zhàn)爭。
為什么人工智能發(fā)展到今天,已經(jīng)可以為我們做出許多決策和參考,卻依然不能很好的發(fā)展出內(nèi)在道德與規(guī)范呢?
大衛(wèi)·伊格爾曼在表示,人工智能在理解道德和法律上存在先天缺陷。
在《西部世界》中所有的招待員被設定為像人類一樣活動。因此他們會吃飯、會睡覺、會喝酒,但無論在《西部世界》還是現(xiàn)實中,機器人本身其實并不需要這些行為,也因此不會衍生出諸如“餐桌禮儀”這樣的道德文化。
《西部世界》中機器人的這些行為源自于他們相信自己是人類并且有一段屬于自己的“背景故事”。
簡單來說,是女主角多洛莉絲的“背景故事”讓她表現(xiàn)的像是一個淑女,讓她喜歡繪畫,能夠發(fā)現(xiàn)一切事物中的美麗。而并非程序員去定義她的每一個具體的愛好。
而一旦“背景故事”改變,多洛莉絲依然擅長繪畫,也能夠理解那些原本美麗的事物,但她不在表現(xiàn)出對這些美好的事物和藹可親。
這與人類不同,在認知理論中認為人類道德同時來源與先驗、后驗和超驗,而目前人工智能學習道德的方法只來自于后驗。
如果未來我們真的發(fā)明出了如《西部世界》那樣的機器人,那么他們可以不眠不休的工作,因此他們將忽視千百年來人類為自己爭取的勞動福利。
甚至更甚——如果他們認可“勞動最光榮”這個道德理念,那么他們可能會認為人類對合理休息的需求是一種懶惰的表現(xiàn)。
回到現(xiàn)實領域,由于大多數(shù)的AI算法都應用于商業(yè)領域,企業(yè)的逐利行為是訓練算法的唯一反饋。而對算法在道德和法律上的要求,往往來自于企業(yè)外部的輿論環(huán)境、社會壓力和司法要求。
這也意味著倫理和道德并沒有像《西部世界》那樣,作為一種先驗知識被直接納入到機器學習的過程之中,而被作為一種針對機器學習成果的事后彌補。
這種以補丁方式為人工智能增加倫理與道德的方法,周期可能是幾個月甚至是幾年。對比人工智能為了達成其固有目的每天都在進行的成千上萬次訓練,在訓練度上是顯然不夠的。
而以人類手工對算法的“道德錯誤”進行糾正的方法,則更是讓人類站在了與機器博弈的立場上,而人類又怎么可能與每日處理PB級數(shù)據(jù)的機器較量呢?
科學家們是怎么想的
關于《西部世界》究竟為我們帶來了什么,其中哪些是真實的問題而哪些又是不切實際的,最終還是要由現(xiàn)實中的學者來評述。
近期,外國媒體CNET在它的一期節(jié)目中,采訪了大量與《西部世界》中所述未來相關學科的大學教授。
在節(jié)目中,由于學科不同這些專家對《西部世界》褒貶不一,但大多數(shù)專家都認為作為一個藝術作品《西部世界》絕對是他們看到的最有意思的作品之一。
比如,杜克大學電子與計算機工程系副教授Kris Hauser說:“從科幻的角度來看,這是一個非常有趣的作品。但我一直在想,如果有一天仿生人真的發(fā)展到這個程度,一個機器人版迪士尼樂園不一定是它最好的應用?!?/p>
昆士蘭大學昆士蘭腦研究所Geoff Goodhill教授和布朗大學計算機科學教授Michael L. Littman則同時表示了“這絕對是一個非常棒的故事,但里面的技術完全不接地氣或是離我們特別遙遠”。
杜克大學機械工程和材料科學助理教授Leila Bridgeman在看完第一季之后表示他對劇集的欣賞來自于令人驚嘆的故事講述技巧和哲學問題的思考,并不來自其中的科技元素。
但是,思考自己的某些研究可能能夠為(未來)構建《西部世界》中的機器人所用,會使工作變得更加有趣。
他談到,上個學期一個他所在的部門的研討會中演講者提到的生物對機器人研發(fā)的啟示就與《西部世界》中的機器人息息相關。
當然,現(xiàn)實中的仿生機器人動作都非常有限,但人類正在構建這種基礎。作為一名控制工程師,他喜歡想象自己的研究會在《西部世界》那樣的機器人之中發(fā)揮作用,這使他有前進的動力。
“我們花費上百年才了解了單一細胞的結構,可能要花上千年以上才能了解人類的大腦。因此,我們未來會在生活中使用機器人,但絕對不是《西部世界》里這種,它完全是一個藝術表演。”南加州大學工程實踐教授Victor S. Adamchik如此評價。
相比之下,社會科學專家似乎更容易被《西部世界》的劇情所誤導,他們思考的是“這種情況如果發(fā)生了怎么辦”。
格里菲斯大學社會技術研究講師David Tuffley表示:“西部世界主題樂園是一個遠離法律與戒律的試驗場,從這里可以窺探人們放縱他們最瘋狂的幻想,沒有人會被定罪,或甚至留下污點。
這絕對會成為高級人工智能的一個用處,像這種超逼真的擬人機器人也是可行的。也許不會太遙遠,十到二十年之后,我們就能在現(xiàn)實世界中看到類似西部世界的產(chǎn)品,盡管細節(jié)可能不同,但《西部世界》里發(fā)生的劇情完全可能復現(xiàn)?!?/p>
RMIT計算機科學與軟件工程副教授Fabio Zambetta也對這一觀點表示了贊同,他認為《西部世界》值得稱道的地方就是略過了無論怎樣解釋都會漏洞百出的技術細節(jié),直接假定這種技術已經(jīng)實現(xiàn)從而可以讓觀眾去探討一旦技術發(fā)展到這種程度之后所產(chǎn)生的問題。
而這種思考也是《西部世界》編劇喬納森·諾蘭希望大家思考的,在接受媒體采訪時,他表達了自己對《西部世界》創(chuàng)作與AI的看法:
“《西部世界》這部作品是一種幻想和比喻,它所描述的(那座公園)并不一定會真的成為現(xiàn)實,但它所表達的問題可以指代任何人工智能,包括目前的人工智能。
事實上,我們已經(jīng)在使用 Siri 和其它語音助手來實現(xiàn)《西部世界》中的一些事情,比如幫你安排日程表、幫你篩選新聞、幫你分析金融數(shù)據(jù),我們不再親力親為并且相信機器不會對我們?nèi)鲋e。
而事實證明,其中的一些人工智能已經(jīng)遇到了麻煩,比如Facebook。我們本應該在問題發(fā)生之前預料到這些問題?!?/p>
與第一季不同,《西部世界》第二季的劇情展現(xiàn)了更多人與機器人,機器人與機器人之間的沖突。
這除了讓劇集本身更加精彩之外,也引發(fā)了人們更深層次的思考和焦慮。
如果你還沒有開始看的話,不妨帶著這些問題一起再次進入西部世界。
作者:王健飛,騰訊研究院研究員
來源:微信公眾號“騰訊研究院(ID:cyberlawrc)”
本文由 @騰訊研究院 授權發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)作者許可,禁止轉載。
題圖來源于網(wǎng)咯
西部一,人制造機器,西部二,機器制造機器。由機器制造的機器人才是正解,并不斷迭代,類似進化。
算法有沒有價值觀而推想到,靈魂有沒有算法?
因為已知,所以無知,探索永無止境! 這才是永恒的真理。