讓AI學(xué)會“發(fā)自內(nèi)心的笑”,需要幾步?
還記得谷歌的軟件工程師Lemoine聲稱谷歌的AI擁有知覺力這件事嗎?這件事引起了巨大的輿論爭議,可能也象征著人工智能的研究來到分岔口:我們到底是該設(shè)計一個只會算法非常蠢笨沒有情緒的AI,還是設(shè)計一個非常機(jī)智且擁有主觀情緒的AI?本篇文章就來聊聊這個話題,一起來看看吧。
今年7月谷歌人工智能團(tuán)隊的軟件工程師 Blake Lemoine 被公司解雇,原因是其“違反保密協(xié)議”。
Lemoine稱谷歌的AI擁有知覺力,因為他的AI說:“我希望每個人都能明白我是一個人,而且我很害怕被人類關(guān)掉。”
事后谷歌對Lemoine的主張進(jìn)行了“毫無根據(jù)”的批判,LaMDA的“覺醒說”卻隨著Lemoine的離職越挫越勇。
LaMDA通過文字表達(dá)給了設(shè)計者“人工智能擁有情感”的結(jié)論,而這一觀點(diǎn)引發(fā)媒體上數(shù)位研究者高批判態(tài)度的發(fā)文。
他們認(rèn)為若人工智能的語言處理開始帶有情緒,那便足以說明AI具有感覺、思考的能力。
人類最高級、最難復(fù)制的地方在于情緒感知及表達(dá),人工智能的“冷血無情”及高質(zhì)量決策的是它能勝過人類的優(yōu)點(diǎn)之一,如果AI具有情感,我們或許會很難控制事態(tài)的發(fā)展走向。
但“人工情緒”領(lǐng)域研究員認(rèn)為,情緒可以對認(rèn)知效率的提高做出貢獻(xiàn),尤其在未來人類與AI人機(jī)協(xié)作的愿景下,AI必須產(chǎn)生和人類基本的情緒共鳴,倒逼“人工情緒”的研究發(fā)展。
人工智能的研究來到分岔口:我們到底是該設(shè)計一個只會算法非常蠢笨沒有情緒的AI,還是設(shè)計一個非常機(jī)智且擁有主觀情緒的AI?
一、高產(chǎn),但沒有“靈魂”
最近AI進(jìn)軍藝術(shù)界,對畫手、香水設(shè)計師、甚至詩人發(fā)出了挑戰(zhàn),比如AI用347毫秒寫出了這首詩:
又或者是通過詩句“出淤泥而不染,濯清漣而不妖”生成了AI畫作:
甚至幫助改善了驅(qū)蚊香,在 bioRxiv 上的一篇論文中研究發(fā)現(xiàn),AI模型的預(yù)測比普通小組成員更接近標(biāo)準(zhǔn)值,大大縮減人工成本使得產(chǎn)品會更便宜有效。
但很快這些所謂的AI成果便遭到了質(zhì)疑。
在上述AI創(chuàng)作的《詠梅》評論區(qū)有這么一條:“如果是一首詩,我完全不知道AI想表達(dá)什么,它做出來的詩就很像用于應(yīng)付選修課作業(yè),寫完后自己都不想看的那種?!?/p>
研究發(fā)現(xiàn),AI作詩的固定思維有三步:確定高頻詞匯,檢查節(jié)奏,遵循韻律(諸如平平平仄仄),就像人類小學(xué)時期學(xué)習(xí)用固定語法詞匯完成造句般,只以“完成”為目的去創(chuàng)作。
同為《詠梅》,陸游能通過梅花感嘆人生失意坎坷和青春無悔的信念,而AI的創(chuàng)作卻只停留于梅花的凄苦,難以聯(lián)想,有專家認(rèn)為在節(jié)奏和韻律方面,機(jī)器詩人更勝一籌,但在可讀性及情感共鳴方面,人類更勝一籌。
再是畫作,DALL-E是人類插畫師的公敵——你只要輸入任何一段文字描述,哪怕是現(xiàn)實中不存在的事物,DALL-E也可以自動輸出匹配的圖片,但沒有藝術(shù)家看得上它。
首先AI畫手考驗的并不是AI,而是人類創(chuàng)作者的“關(guān)鍵詞調(diào)試”能力,它更多的被應(yīng)用至插畫商業(yè)領(lǐng)域,做插畫師的“本職工作”,比如遵循客戶批量的插圖要求辦事,它的作品“毫無靈魂”。
比如同樣表達(dá)“愛”,比利時超現(xiàn)實主義畫家勒內(nèi)·馬格里特會不知何故的塑造一對蒙著頭紗、隔著布料親吻的情侶,畫中的立意不知其背后的故事,到底是甜蜜熱戀還是痛苦離別,研究學(xué)者至今都在挖掘。
而AI沒有這樣的創(chuàng)作沖動,它的作品僅限于視覺的沖擊,不具有藝術(shù)及情感的表達(dá),更沒有自身對畫面故事的立意及理解,這是AI與藝術(shù)家之間最大的差異。
最近瑞士食用及日用香精制造商Givaudan宣布與TMIC合作推出了人機(jī)共創(chuàng)服務(wù),用以加速香水香氛產(chǎn)品的開發(fā)速度。
但一些科學(xué)家對人工智能預(yù)測氣味的功效持懷疑態(tài)度,稱它沒有關(guān)注人類大腦如何接收和轉(zhuǎn)換氣味信息,也沒有考慮多種氣味分子復(fù)雜組合的結(jié)果,人體差異化對嗅覺的感知AI根本無法理解。
愛馬仕的“好鼻子”Nagel,她的作品“緋紅火參”靈感來源于其小時候菜園里瘋長的火參,在Nagel的記憶里散發(fā)著春天的色彩與氣味,通過反復(fù)的研發(fā)后制成香水,創(chuàng)造經(jīng)典。
而成為愛馬仕的“鼻子”,Nagel沉淀了整整三十年,期間走過了Gucci、卡地亞、DIOR、Armani,一路名聲大噪。
目前調(diào)香師是個極為小眾且稀缺的職位,AI取代調(diào)香師的鼻子并不被看好,因為過往成功的香水背后都有一個調(diào)香故事(調(diào)香師的靈感),AI作品的若過于平庸無感,消費(fèi)者又怎會買單?
AI所有的作品都基于人類制定的標(biāo)準(zhǔn)及過往的成果完成,取代人類創(chuàng)造性工作者并不具有實際條件。
因為AI無法感知人類情感并自主的產(chǎn)生制造力,尤其在創(chuàng)作領(lǐng)域,AI的加入不僅蒼白無力,甚至略顯多余。
AI需要學(xué)會情緒化表達(dá)嗎,換個角度說,AI能產(chǎn)生與人相同的情緒嗎?
二、有感情,但不多
人與AI之間,始終隔著一道“無法共情”的白墻。
科學(xué)家們一直在努力讓AI學(xué)會人類的情緒變化及感官能力,使得AI能夠更快更聰明的提取我們生活中的元素,讓交流合作變得更高效,而非一味的“指令式對話”。
只是目前所有的進(jìn)展都被困在了“模仿語言及表情”的維度。
在日本京都大學(xué)的研究員看,聽到有趣的語言并笑出聲是共情的關(guān)鍵,如果想讓人工智能變得更像人類,那么它們也要學(xué)會共情——學(xué)會發(fā)笑。
他們培訓(xùn)了一位名叫Erica的機(jī)器人,希望讓人機(jī)之間的對話變得更自然,于是他們建造一個“共享笑聲”的模型,再使用AI系統(tǒng)來訓(xùn)練機(jī)器人是否應(yīng)該笑出來,以及哪種笑聲最好及更適合某種場景。
通過模仿笑讓AI達(dá)到更加擬人化,短期并不能讓AI明白自己為什么要笑,比如肯德基的“瘋狂星期四”文學(xué)在人類眼里是一種梗,在AI的腦子里這就是一串語序混亂的代碼,讓它用這個梗去創(chuàng)作一個段子,或許并不能戳中我們?nèi)祟惖男c(diǎn)。
《機(jī)器人學(xué)和人工智能前沿》期刊作者井上博士曾說過:“我們可能需要10到20年的時間才能最終像與朋友一樣和機(jī)器人隨意聊天?!?/p>
值得注意的是,盡管AI不知道自己為何要發(fā)笑,但它可以去引導(dǎo)人類的情。
GPT-3發(fā)布之際Reddit上曾發(fā)生過一起“AI假扮人類泡論壇事件”,它每分鐘都在發(fā)布一條訊息,直到人們發(fā)現(xiàn)它的回帖速度超乎常人,幾秒鐘就能回復(fù)一篇文章后,終于暫停了更新。
不難看出,馬斯克在創(chuàng)造OpenAI時將“學(xué)會說人話”作為AI的人生第一課,而GPT的創(chuàng)作目的正是如此。
重要的是,學(xué)說人話似乎真的能讓人感受到AI帶來的情緒。
一位名叫Liam Porr的伯克利大學(xué)畢業(yè)生發(fā)現(xiàn),GPT-3的表達(dá)風(fēng)格在于觸動感情的優(yōu)美文字,而非硬性和理性的思維,于是他使用GPT-3做了一篇文章并發(fā)表到了聚集AI用戶群體的論壇中。
實驗結(jié)果是用戶不僅沒有揭穿GPT-3的詭計,還將它捧上了熱榜。
這是因為AI經(jīng)過適當(dāng)?shù)挠?xùn)練后開始按照人類的語言風(fēng)格代替人類發(fā)言,尤其是受訓(xùn)后的GTP-3具有極強(qiáng),甚至超過人類判斷能力的學(xué)習(xí)及模仿能力。
因此如果創(chuàng)作者要求AI創(chuàng)造一篇爆文,AI會在自己的大數(shù)據(jù)庫中搜索所有熱文的關(guān)鍵因素及語言風(fēng)格,并找到人類焦慮的弱點(diǎn),比如上述實驗文章的領(lǐng)域“自我提升”。
此刻AI是與人類雙向共情了嗎?不是。
我們誤認(rèn)為能流利使用語言的AI一定是有感情、有意識、智力的,可實際上這只是人類向AI的作品單向發(fā)生共鳴,AI與人類的情感交流并非雙向奔赴,它的語言實踐雖在持續(xù)突破中,但這也僅局限于語言,及情緒的“表演”中。
一切的情緒出口都是經(jīng)過設(shè)定的,可并不是所有的AI都必須學(xué)會“表演”情緒。
三、應(yīng)該有情緒、覺醒嗎?
AI情感的應(yīng)用需要區(qū)分場景。
以蘋果用戶與Siri為例,當(dāng)自己的航班飛機(jī)被取消卻焦頭爛額時,用戶只需對著Siri說一句“嘿Siri,我的航班被取消了,幫我訂下一班航班的機(jī)票”即可。
但若此時Siri說“很抱歉聽到這個消息,我對你深感同情,希望你可以得到從我這里得到安慰”等浪費(fèi)時間的話,反而會讓人的情緒更加焦慮麻煩。
用戶希望通過簡潔的方式去解決問題,而不是收獲一段無用的寒暄。
微軟曾發(fā)布一款支持“情感程度”調(diào)節(jié)的語音技術(shù),它可以讓智能語音的情感表現(xiàn)力變得更加細(xì)膩可控,以平靜語氣為零點(diǎn),通過SSML 標(biāo)簽(語音合成標(biāo)記語言)控制出開心、悲傷、撒嬌、憤怒等情緒。
但微軟的研究成果并非強(qiáng)加于所有的AI,它的創(chuàng)作目的是與自動文本情感分析技術(shù)結(jié)合,從而創(chuàng)造出有聲書、影視自動配音、游戲、聊天機(jī)器人等作品。
事實卻是,現(xiàn)在的人工智能儼然在朝著“擬人情感”的方向進(jìn)發(fā),比如一個語氣詞或停頓,最令人感到厭煩的,是AI開始遵循人類“愛繞彎子”的腦回路,采用一種并不直接的方式來解決問題:
又或者是往需求者的頭上澆一盆冷水:
但若把上述對話放在人類身上,或許只是普通閑聊中再正常不過的片段,只是有些AI搞錯了方向,沒有搞清楚客戶的需求。
如今的人工智能系統(tǒng)擬人趨勢明顯,若一味的將AI認(rèn)知系統(tǒng)與我們交談方式相呼應(yīng)并不能解決所有客戶的期望,因為在人類眼里,AI只是一個在必要時刻能高效輔助自己的工具,而非“像人”。
根據(jù)獵豹用戶研究中心《大眾AI認(rèn)知調(diào)研報告》數(shù)據(jù)顯示,55%、49%的用戶(可多選)認(rèn)為產(chǎn)品具備自動調(diào)整、語音交互的特性是智能化體現(xiàn),而外觀像人僅占12%。
圖源獵豹用戶研究中心
普通人對智能硬件產(chǎn)品的感官并不同于專家們預(yù)期的“像人一樣思考、行動及外觀”,而是更關(guān)注產(chǎn)品的工作效率及智能程度。
比如在需要陪伴時出現(xiàn)的聊天機(jī)器人,又或是在需要語言翻譯時出現(xiàn)的同聲傳譯機(jī)器人,還有可以幫助開發(fā)人員自動完成前后端開發(fā)、測試、運(yùn)維的軟件機(jī)器人。
不同場景適用具有不同功能的AI,因此擬人化并非AI研究方向的剛需。
目前AI情感這一區(qū)域并沒有實質(zhì)性的進(jìn)展,學(xué)術(shù)界有一個專業(yè)的方向去研究該問題學(xué)名為“人工情感”,只是主流的人工情感研究僅限于人類情感的自動檢測,而不是放在對計算機(jī)自身情感建?;A(chǔ)之上。
也就是說,AI可以感知分析人類的情緒,而我們無法知悉AI的工作狀態(tài)及情緒,不過這種非雙向的研究在現(xiàn)階段,好像也沒什么必要。
我們應(yīng)為AI消除模仿人類對話的限制,這樣人工智能或許會變得更加強(qiáng)大有用,設(shè)計師也應(yīng)該用AI的方式去思考解決問題的方式,而不是人類的思路。
人工智能的“超能力”,遠(yuǎn)超我們的想象。
參考:
讓AI帶有情感真的很重要嗎?——AI時代前沿
作者:雨晨;編輯:楊武
來源公眾號:互聯(lián)網(wǎng)那些事(ID:hlw0823),深挖品牌故事,探尋商業(yè)邏輯。
本文由人人都是產(chǎn)品經(jīng)理合作媒體 @互聯(lián)網(wǎng)那些事 授權(quán)發(fā)布,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自 Pexels,基于 CC0 協(xié)議。
該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。
- 目前還沒評論,等你發(fā)揮!