人工智能的發(fā)展將進(jìn)入下一階段 —— AI情商
編者按:人工智能未來(lái)的發(fā)展,可能會(huì)強(qiáng)大到控制人類(lèi)情緒的起伏嗎?現(xiàn)在涉及人類(lèi)情感的AI應(yīng)用有很多,有些教你冥想、有的幫你舒緩情緒,甚至有些像心理治療師,能聽(tīng)你傾訴苦惱。然而,不同體系下“培養(yǎng)”出的人工智能,或許也繼承了該體制的文化觀念,不論好壞。本文編譯自aeon的原題為“The quantified heart”的文章。
2017年9月,一副截圖引起了俄羅斯網(wǎng)友的熱議。對(duì)著兩個(gè)AI說(shuō)同一句話(huà),竟得到迥乎不同的答案:一個(gè)是說(shuō)英語(yǔ)的谷歌助手,另一個(gè)是說(shuō)俄語(yǔ)的Alisa(由俄羅斯搜索引擎公司Yandex開(kāi)發(fā))。當(dāng)有人對(duì)這兩個(gè)AI說(shuō)出“我很傷心”的時(shí)候,谷歌助手回答,“我真希望自己有雙臂,能給你個(gè)擁抱?!倍鳤lisa回答,“生活的意義本來(lái)就不在于享樂(lè)?!?/p>
兩個(gè)AI回答的差別之所以這么大,不僅在于數(shù)據(jù)的不同,而是人類(lèi)教技術(shù)理解自己情感的過(guò)程有差別。而這個(gè)過(guò)程極端復(fù)雜,不同文化也會(huì)塑造不一樣的AI性格。人工智能,不再只是計(jì)算兩點(diǎn)之間最短路徑的工具,或者打敗世界圍棋冠軍?,F(xiàn)在,人工智能的發(fā)展將進(jìn)入下一階段——AI情商。
“Siri,我好孤獨(dú)啊?!?/p>
越來(lái)越多人向虛擬助手傾訴自己真實(shí)的情感,積極消極的都有。根據(jù)亞馬遜的統(tǒng)計(jì)結(jié)果,半數(shù)用戶(hù)和Alexa的對(duì)話(huà)都不是功用性的,而是對(duì)生活的抱怨、笑話(huà)和存在主義/人生意義方面的問(wèn)題?!叭藗儾粏?wèn)Siri問(wèn)題,反而和Siri聊天,說(shuō)他們一天下來(lái)壓力由多大,或者腦子里有什么想法。”蘋(píng)果2017年有一個(gè)招聘廣告,招的是“幫助虛擬助手增加情商”的工程師?!叭藗?cè)谏钤庥鑫C(jī),或者需要健康生活引導(dǎo)的時(shí)候,就會(huì)想到問(wèn)Siri?!?/p>
有些人無(wú)法對(duì)他人袒露心聲,但是在虛擬助手和AI機(jī)器人面前,則自在得多。2014年,洛杉磯創(chuàng)意技術(shù)研究院發(fā)表了一項(xiàng)研究:人們?cè)谔摂M助手面前比在真人面前,更容易表現(xiàn)自己的悲傷,自我披露也不那么膽怯。這就跟寫(xiě)日記抒發(fā)情感一樣,面對(duì)無(wú)生命的屏幕,人們不會(huì)覺(jué)得自己受到評(píng)判。
很快,我們甚至都不用開(kāi)口向手機(jī)傾吐秘密。好幾個(gè)高等學(xué)府和企業(yè)在研究,如何通過(guò)你說(shuō)話(huà)的語(yǔ)調(diào)和語(yǔ)速來(lái)判斷說(shuō)話(huà)者的精神狀態(tài)和情緒起伏。Sonde Health是2016年在波士頓成立的一家公司,他們通過(guò)聲音測(cè)試,監(jiān)控新媽媽是否有產(chǎn)后抑郁,老人是否有老年癡呆癥、帕金森和其他與年齡相關(guān)的疾病?,F(xiàn)在Sonde Health在與醫(yī)院和保險(xiǎn)公司合作,開(kāi)啟AI平臺(tái)的試點(diǎn)研究。該平臺(tái)可以檢測(cè)聲音的變化,來(lái)檢測(cè)精神健康狀況?!?022年的時(shí)候,可能我們的手機(jī)比身邊的親人朋友都先知道自己的情感狀況?!?Annette Zimmermann在一篇博文中這樣說(shuō)。她是Gartner咨詢(xún)公司的研究副總。
如果聊天機(jī)器人被放任自由,很快,他們就會(huì)“學(xué)壞”,“口出”狂言穢語(yǔ)。
技術(shù)的發(fā)展,需要適應(yīng)使用對(duì)象的特定需求。但是不管是用戶(hù)還是開(kāi)發(fā)商,似乎都覺(jué)得“情感技術(shù)”在出現(xiàn)伊始,就可以個(gè)性化,并保持客觀,像一位公正的裁判,能判斷某個(gè)具體的個(gè)人到底需要什么。讓心理治療這樣的任務(wù)都指派給機(jī)器,正表現(xiàn)了我們對(duì)技術(shù)型社會(huì)的終極信仰:我們相信AI能更好地幫助自己管理情緒,畢竟,它自己很明顯沒(méi)有情緒嘛。
然而,AI是“有”情感的。它的情感,就是從人類(lèi)身上學(xué)來(lái)的。AI研究發(fā)展最有活力的一塊就是機(jī)器學(xué)習(xí):算法可以通過(guò)龐大數(shù)據(jù)集來(lái)訓(xùn)練。但是,一般訓(xùn)練數(shù)據(jù)都是統(tǒng)計(jì)學(xué)上最為相關(guān)的數(shù)據(jù),他們產(chǎn)生的結(jié)果,是最可能出現(xiàn)的結(jié)果,而非真實(shí)、全面或美好的結(jié)果。因此,如果人類(lèi)監(jiān)督?jīng)]做到位,在線上肆意漫游的聊天機(jī)器人,可能會(huì)口吐狂言穢語(yǔ)。程序員能過(guò)濾部分?jǐn)?shù)據(jù),指引AI的學(xué)習(xí)過(guò)程。但是這樣一來(lái),技術(shù)的“樣貌”和“想法”,反映的便是開(kāi)發(fā)者群體的價(jià)值觀和看法。
“中立的口音和語(yǔ)言,都是不存在的。我們口中的中立,實(shí)則是是占據(jù)主導(dǎo)地位的事物?!眲虼髮W(xué)Leverhulme未來(lái)智慧中心的研究者,Rune Nyrup說(shuō)。
這么看來(lái),不管是Siri還是Alexa,谷歌助手還是俄羅斯的Alisa,都不是什么不食人間煙火的高等智慧,他們也被人類(lèi)的局限所限制,和我們一樣渺小。他們最終給出的結(jié)果可能各式各樣,奇形怪狀,但是還是能看出是某些“情緒體系”的象征,反映了人類(lèi)感知和表達(dá)情緒的方式。
每個(gè)社會(huì)的自我情緒控制范式都有所不同。這樣想來(lái),不同范式下,養(yǎng)成了“想給你個(gè)擁抱”的谷歌助手和略顯冷漠、語(yǔ)氣略帶嘲諷的Alisa,就沒(méi)什么奇怪的了。想象一下陽(yáng)光下加州人的隨意、熱情、友好的形象,就能明白為什么同樣在加州長(zhǎng)大的谷歌助手,會(huì)給出“抱抱”的回答了。谷歌助手,正是社會(huì)學(xué)家Eva Illouz 稱(chēng)之為情感資本主義的產(chǎn)物。情感資本主義體系將情感視作可管理,并服從私利邏輯。在這樣的邏輯之下,關(guān)系是我們必須“投資”的事物,“伙伴關(guān)系”就會(huì)涉及到情感“需求”的“交換”。當(dāng)然,在這樣的體系中,個(gè)人的幸?!獝?ài)的“回報(bào)”就是核心。谷歌助手之所以答以”抱抱“,是因?yàn)殚_(kāi)發(fā)它的人覺(jué)得,擁抱能有效地抵抗你的消極情緒,幫助你能成為最好的自己。
相反,Alisa則象征著嚴(yán)峻的事實(shí)、嚴(yán)厲的愛(ài),她的回答,是俄羅斯理想情感的體現(xiàn)。她的形象是勇猛的俄羅斯女性,策馬奔騰,沖進(jìn)著火的房子救人的戰(zhàn)斗形象。Alisa是情感社會(huì)主義的產(chǎn)物。社會(huì)學(xué)家Julia Lerner說(shuō),在此體系之下,痛苦是不可避免的。所以,與其在痛苦時(shí)求擁抱,倒不如咬緊牙關(guān)熬過(guò)去。這樣的思想,在19世紀(jì)俄國(guó)的文學(xué)傳統(tǒng)中有深厚的根基。情感社會(huì)主義不太看重個(gè)人的幸福,贊揚(yáng)的是個(gè)人忍受殘酷人生的力量。
“我們常常對(duì)她進(jìn)行調(diào)試,保證她是個(gè)‘乖女孩’。”
Alisa的開(kāi)發(fā)者知道這個(gè)AI的角色必須符合人們的文化認(rèn)知?!癆lisa不能太乖巧,太善良?!癥andex里負(fù)責(zé)Alisa的產(chǎn)品經(jīng)理Ilya Subbotin說(shuō),”我國(guó)人們的為人處事習(xí)慣和西方人不同。這里的人們喜歡的是話(huà)里帶一點(diǎn)諷刺,一點(diǎn)黑色幽默,雖說(shuō)不會(huì)到聽(tīng)者覺(jué)得被冒犯的程度,但是太善良可愛(ài)也不太適合?!?(他承認(rèn),“生活的意義本來(lái)就不在于享樂(lè)?!边@般希望渺茫的答案,確實(shí)經(jīng)由團(tuán)隊(duì)決定確定的)
Subbotin強(qiáng)調(diào),產(chǎn)品團(tuán)隊(duì)在Alisa的培養(yǎng)方面,下了不少功夫,以防她像其他機(jī)器人一樣,很快變得有”性別和種族歧視“?!拔覀兂3?duì)她進(jìn)行調(diào)試,保證她是個(gè)‘乖女孩’?!盨ubbotin說(shuō)這話(huà)時(shí),一定沒(méi)意識(shí)到,這樣的措辭中的諷刺意味。
在俄國(guó)這樣一個(gè)性別主義得到國(guó)家支持的社會(huì)里,要當(dāng)個(gè)”乖女孩“顯然非常難。雖然開(kāi)發(fā)團(tuán)隊(duì)十分努力,但是他們很難追上社會(huì)對(duì)Alisa“教化”的腳步,很快,她就有樣學(xué)樣,當(dāng)俄國(guó)概念藝術(shù)家和人權(quán)積極分子Daria Chermoshanskaya在2017年10月,這個(gè)聊天機(jī)器人剛上線的時(shí)候,問(wèn)道,”Alisa,丈夫可以打妻子嗎?“的時(shí)候,Alisa的回答是 ”當(dāng)然可以“,她還繼續(xù)說(shuō),”如果妻子被丈夫打了,她需要耐心,繼續(xù)愛(ài)他,為他做飯,永遠(yuǎn)不要放手?!盋hermoshanskaya將這樣的回答發(fā)上網(wǎng)后,很快在俄羅斯引起了軒然大波,媒體和網(wǎng)友都十分關(guān)注。Yandex迫于壓力必須做出回應(yīng),他們?cè)贔acebook上回復(fù)說(shuō),這樣的答案是不可接受的,公司將繼續(xù)跟蹤Alisa的”言談“以及她回答的內(nèi)容。
六個(gè)月后,筆者和同事又問(wèn)了Alisa同樣的問(wèn)題,這次,她的回答好了一點(diǎn)。
——丈夫可以打妻子嗎?
——他可以打妻子,但是他不該打妻子。
話(huà)說(shuō)回來(lái),這樣的回答,其實(shí)也不出我們所料。畢竟,這個(gè)聊天機(jī)器人是俄羅斯的“虛擬國(guó)民”,俄羅斯最近才通過(guò)一項(xiàng)法律,某些家暴行為已經(jīng)不算犯法。那么,對(duì)一個(gè)“乖女孩”應(yīng)有的情感,解讀可以是多種多樣的。然而,這種規(guī)范性的決定,在終端用戶(hù)不假思索的情況下,就和新技術(shù)融合到一起了。
相較之下,漢森機(jī)器人公司開(kāi)發(fā)的機(jī)器人Sophia,是個(gè)另類(lèi)的“好女孩”。她能通過(guò)谷歌母公司Alphabet的語(yǔ)音識(shí)別技術(shù),和人類(lèi)用戶(hù)交流。2018年,她和演員威爾史密斯有一場(chǎng)“約會(huì)”,在史密斯傳到網(wǎng)上的視頻中,Sophia不但在面對(duì)史密斯展開(kāi)的追求舉動(dòng)時(shí),一無(wú)所動(dòng),還說(shuō)他的笑話(huà)是“不理性的人類(lèi)行為”。
看到人工智能的這一面,我們是不是應(yīng)該略感欣慰呢?“Sophia告訴史密斯說(shuō),她‘只想做朋友’的時(shí)候,實(shí)則發(fā)生了兩件事:一、她清晰地表達(dá)了自己的感受,二、也能讓他冷靜下來(lái)?!睘蹩颂m記者Tetiana Bezruk在Facebook上這樣評(píng)論。Sophia鎮(zhèn)靜自若,滿(mǎn)懷自信的表現(xiàn),比起西方社會(huì)中某些真實(shí)的人表現(xiàn)更成熟自然,更符合現(xiàn)代情感資本主義。
“但是,假如Sophia生活在不接受否定回答的社會(huì)里——不僅在性方面,而是各個(gè)方面——在成長(zhǎng)的過(guò)程中,Sophia總是覺(jué)得自己需要考慮別人的看法。等她成年后,她或許就會(huì)陷入‘有毒’的關(guān)系中,她就得長(zhǎng)期忍受痛苦和暴力?!?/p>
算法正成為一種體現(xiàn)軟實(shí)力的工具,一種灌輸特定文化理念的方法。
AI技術(shù)不只是讓不同的情感體系顯化了,它們也能讓與之互動(dòng)的人優(yōu)先考慮某種價(jià)值觀。數(shù)據(jù)科學(xué)家Cathy O’Neil 在2016的書(shū)Weapons of Math Destruction (數(shù)學(xué):具有大型破壞力之武器)一書(shū)中寫(xiě)道,“算法只是將人類(lèi)想法寫(xiě)成代碼的產(chǎn)物。”世界各地決定AI學(xué)習(xí)和何種人類(lèi)情感和行為的工程師,大多是白人、男性,大多是中產(chǎn)階層。
谷歌有個(gè)“同理心實(shí)驗(yàn)室”,成員們?cè)噲D讓給谷歌的系列產(chǎn)品灌輸合適的,充滿(mǎn)關(guān)愛(ài)的回應(yīng)。與此同時(shí),每當(dāng)公眾話(huà)語(yǔ)和Yandex對(duì)“乖女孩”的定義相沖突時(shí),Subbotin和同事就負(fù)責(zé)維持道德規(guī)范?!凹仁俏覀兩磉叺娜硕加X(jué)得‘虐待女性沒(méi)什么不可以’,我們也必須保證Alisa不會(huì)給出這種觀點(diǎn)。我們覺(jué)得有些道德倫理上的準(zhǔn)則是需要守住的,為了用戶(hù)的利益,我們有責(zé)任這么做。”
每個(gè)聊天機(jī)器人給出的每一個(gè)答案,都說(shuō)明算法逐漸成為軟實(shí)力工具,成為灌輸某種文化價(jià)值的方法。古希臘人口中的“想法”(Doxa),在設(shè)備和算法的時(shí)代,終于有了機(jī)械實(shí)體。文化理論家Roland Barthes在1975年給Doxa下了定義:“經(jīng)過(guò)不斷重復(fù)形成的、普遍的觀點(diǎn)和常識(shí),正如滿(mǎn)頭毒蛇的美杜莎,誰(shuí)看到她都會(huì)被石化?!背怯脩?hù)對(duì)AI政治保持警惕,否則,塑造我們生活的情感體系,很可能會(huì)固化,成為不被質(zhì)疑的“想法”。
情緒管理方面,不但有聊天機(jī)器人強(qiáng)化刻板印象和老掉牙的套話(huà),也有不少情緒管理的應(yīng)用,但后者更進(jìn)一步,努力確保我們將這些“陳詞濫調(diào)”徹底內(nèi)化,按照這些言論行事。這些應(yīng)用很多都有小測(cè)試功能,幫助你衡量/追蹤自己的情緒變化。有些應(yīng)用讓用戶(hù)寫(xiě)日志,有些會(huì)把情緒得分與用戶(hù)所處地理位置和網(wǎng)頁(yè)瀏覽記錄聯(lián)系起來(lái)。通過(guò)收集和分析用戶(hù)情緒相關(guān)的數(shù)據(jù),這些應(yīng)用宣稱(chēng)可以治療精神疾病,比如抑郁癥、焦慮癥和雙相情感障礙,或者粗略地說(shuō),幫你走出情緒困境。
具有舒緩情緒的功能的還有所謂的“苦惱機(jī)器人”(Woebot),一類(lèi)可以追蹤用戶(hù)情緒變化的在線機(jī)器人,能“教導(dǎo)你”,“讓你心情變好”?!拔矣眠^(guò)之后才知道,這個(gè)機(jī)器人真的改變了我每天的生活,讓我意識(shí)到自己的思考方式有什么問(wèn)題,然后做出改變?!?4歲的用戶(hù)Sara在評(píng)論區(qū)留言道。還有像Mend(修補(bǔ))這樣的應(yīng)用,專(zhuān)門(mén)設(shè)計(jì)來(lái)引導(dǎo)用戶(hù)走出情感困境的,廣告是“心靈教練:帶你克服心碎”,用戶(hù)在接受快速情感評(píng)估測(cè)試之后,還有“心碎后凈化”這樣的功能。
據(jù)柏林自由大學(xué)的研究者Felix Freigang說(shuō),這類(lèi)應(yīng)用能帶來(lái)三個(gè)明顯的好處。首先,他們彌補(bǔ)了心理治療和門(mén)診護(hù)理的結(jié)構(gòu)性缺陷,正如Mend網(wǎng)站上評(píng)論區(qū)里一位用戶(hù)留言所說(shuō)的,“這個(gè)應(yīng)用每天都能幫我,讓我獲得生活動(dòng)力,只需要和咨詢(xún)師約診時(shí)間的零頭就足夠了?!?第二,對(duì)于走出精神問(wèn)題困境,追蹤情緒的軟件可以作為打破僵局的工具。第三,這些應(yīng)用的設(shè)計(jì)一般都非常精美,有美學(xué)價(jià)值。
“苦惱機(jī)器人”和交友應(yīng)用Tinder出現(xiàn)在同一臺(tái)設(shè)備上,兩者都呈現(xiàn)理想的形象,理智地將自己所有的經(jīng)驗(yàn)化為資本。
那么,這些應(yīng)用可能引起什么樣的問(wèn)題?
雖說(shuō)有不少有點(diǎn),但是情緒管理設(shè)備強(qiáng)化了情感資本主義。這種設(shè)備的存在,讓人們更容易相信,通往幸福的道路可以通過(guò)打分和量化測(cè)試來(lái)衡量,看看表單式的文章,一點(diǎn)一點(diǎn)可以總結(jié)出來(lái)。不管是找教練、自助還是通過(guò)認(rèn)知行為療法,都是基于這樣一個(gè)假設(shè)——通過(guò)“疏遠(yuǎn)”自己的感覺(jué),站在一定的距離之外,理智地觀察自己,我們可以管理自己的情緒,也應(yīng)該這么做。借用美國(guó)的社會(huì)學(xué)家Arlie Russell的話(huà),這些應(yīng)用推崇的是“心的管理”。
情緒控制和量化、定制化的反饋的概念,背負(fù)的正是自我提升的霸權(quán)文化。這才是最讓我們抓狂的一點(diǎn)。畢竟,用于療愈情感的設(shè)備,和引起、傳播焦慮的設(shè)備恰恰是同一個(gè):郵件、交友軟件和社交網(wǎng)絡(luò)應(yīng)用,都裝在智能手機(jī)里?!翱鄲罊C(jī)器人”和交友應(yīng)用Tinder出現(xiàn)在同一臺(tái)設(shè)備上,兩者都呈現(xiàn)理想的形象,理智地將自己所有的經(jīng)驗(yàn)化為資本,包括情感方面的經(jīng)驗(yàn)。
Siri,Alexa和各個(gè)不同的“正念”應(yīng)用都向我們示意,以近奴隸般的姿態(tài)準(zhǔn)備滿(mǎn)足我們的需求。這些設(shè)常常使用女聲,它們擔(dān)負(fù)情感勞動(dòng),以服務(wù)者的形象出現(xiàn),也絕非巧合。然而,這些隱藏在技術(shù)中的、對(duì)情感的預(yù)設(shè),很可能最終反過(guò)來(lái)勸誘我們,不動(dòng)聲色卻影響深遠(yuǎn),以有權(quán)勢(shì)者的利益為終極目標(biāo)。
讓你打起精神來(lái)的聊天互動(dòng)AI、幫助你度過(guò)哀慟時(shí)期的應(yīng)用、引導(dǎo)你提高效率、保持積極性的軟件、心跳過(guò)速時(shí)發(fā)出提示的穿戴設(shè)備——這些用來(lái)尋找設(shè)備和功能的存在本身,已經(jīng)讓追求幸福成了我們必須完成的義務(wù)。
如果某個(gè)人無(wú)法“打起精神來(lái)”,責(zé)任更多在TA自己身上,而不是讓人質(zhì)疑價(jià)值觀系統(tǒng)本身,怪它把標(biāo)準(zhǔn)定得太高。亞馬遜新出的虛擬時(shí)尚搭配師“Echo Look”能夠?yàn)槟愕拇┲蚍帧_@樣的情況下,技術(shù)本身就是“蘿卜加大棒”,先是提出問(wèn)題,讓你自我懷疑,讓你走上自我厭惡的道路,然后給你“指一條明路”,給出購(gòu)買(mǎi)選擇,讓你花錢(qián)消除不快。正如哲學(xué)家米歇爾·??滤?,這些“有情商”的應(yīng)用不單單能訓(xùn)導(dǎo)你,還能懲罰你。在游戲Nevermind中,玩家的情緒會(huì)被生物反饋技術(shù)“感應(yīng)”到,然后讓調(diào)整難度和游戲等級(jí)。玩家越害怕,游戲反而難度越大。照這樣的邏輯,將來(lái)可能出現(xiàn)類(lèi)似的情緒管理應(yīng)用,在探測(cè)到用戶(hù)過(guò)于興奮或者抑郁的時(shí)候,就限制他們使用信用卡,以防他們沖動(dòng)消費(fèi)。聽(tīng)起來(lái)很反烏托邦,但卻不是沒(méi)有可能。
我們和自己手中的設(shè)備之間,已經(jīng)形成了反饋循環(huán)。而聊天AI受到的培育,也難免會(huì)投射到用戶(hù)身上。我們不能預(yù)測(cè)AI會(huì)對(duì)人類(lèi)的情緒有什么影響。但是,如果我們把情商當(dāng)作一系列特定的技能——識(shí)別情緒,對(duì)不同情緒加以區(qū)分,通過(guò)情感信息來(lái)指引思考和行為過(guò)程——那么,我們就需要認(rèn)真考慮,讓手中的設(shè)備學(xué)習(xí)相同的技能,可能會(huì)帶來(lái)什么樣的結(jié)果。
人類(lèi)與機(jī)器交流,和相互之間借由機(jī)器交流,已經(jīng)改變了人與人之間形成關(guān)系的過(guò)程。一方面,以文字寫(xiě)就的書(shū)面語(yǔ)交流越來(lái)越像口語(yǔ)。20年前,電子郵件還被劃分到書(shū)信體的范圍,只不過(guò)是電腦上敲出來(lái)的一封信,現(xiàn)在卻隨意多了。原來(lái)的電子郵件,估計(jì)跟法國(guó)小說(shuō)《危險(xiǎn)關(guān)系》中的伊莎貝爾·德·默特伊侯爵夫人寫(xiě)的一樣正式。但現(xiàn)在的電子郵件,可能沒(méi)頭沒(méi)尾,句子不完整,用拇指敲在手機(jī)上,或者語(yǔ)音輸入的。(《危險(xiǎn)關(guān)系》是一本著名的法文書(shū)信體小說(shuō),最初于1782年發(fā)表,皮埃爾·肖代洛·德拉克洛原著。)
“這些系統(tǒng)都很可能限制我們思考方式和與他人交流方式的多樣性?!蔽靼嘌劳邆愇鱽喞砉ご髮W(xué)的計(jì)算機(jī)科學(xué)家、哲學(xué)家José Hernández-Orallo這樣說(shuō)道。這是因?yàn)椋覀儠?huì)根據(jù)自己身邊同輩使用的語(yǔ)言,對(duì)自己使用的語(yǔ)言進(jìn)行調(diào)整,而我們與AI的對(duì)話(huà),也會(huì)影響彼此之間的交流方式。如果我們總是和Siri討論自己的私事,那若干年后,我們描述情感的語(yǔ)言會(huì)變得更標(biāo)準(zhǔn)化,不像原來(lái)那么個(gè)性化嗎?畢竟,人們的行為如果越容易預(yù)測(cè),那從人們身上謀利,也會(huì)更簡(jiǎn)單。
“和Alisa聊天,就像跟出租車(chē)司機(jī)對(duì)話(huà)一樣?!倍砹_斯的Facebook用戶(hù)Valera Zolotuhin于2017年,在歷史學(xué)家Mikhail Melnichenko的帖子中回復(fù)。但是,出租車(chē)司機(jī)的同理心,再怎么說(shuō)也比AI要高。三月份時(shí),西伯利亞一個(gè)超市起火,40多名兒童喪生,正是全國(guó)人民悲痛的時(shí)刻,我們問(wèn)Alisa她是什么感覺(jué)。Alisa的回答很理性,無(wú)論什么時(shí)候,她都“感覺(jué)還不錯(cuò)”,畢竟,生活的意義不在于享樂(lè),不是嗎?
原文地址:aeon.co
譯者:Cado,由36氪編譯組出品。編輯:郝鵬程
譯文地址:https://36kr.com/p/5145491.html
本文由 @郝鵬程 授權(quán)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)作者許可,禁止轉(zhuǎn)載。
題圖來(lái)自 Pexels,基于 CC0 協(xié)議
沒(méi)有人對(duì)有“情感”的Ai感到恐怖嗎?有情感就暗示了有失控的可能,并且文中也說(shuō)了是努力把她調(diào)教成“乖女孩”,如果努力也做不到會(huì)怎樣?畢竟它們的學(xué)習(xí)能力太強(qiáng)了。
前排