當(dāng)前最緊迫的危機:人工智能只為一部分人工作
編者按:隨著人工智能和機器人的快速發(fā)展,開始有更多人對它們流露出擔(dān)憂的情緒,甚至史蒂芬·霍金也表示,未來有一天,人工智能機器人將取代人類成為地球上的主導(dǎo)生命形式。本文作者 Simon Chandler?認(rèn)為其實人工智能和機器人目前而言對我們社會最大的威脅不在于此。我們所恐懼的不應(yīng)該是這些機器人,而是機器人背后的創(chuàng)造者們。
史蒂芬·霍金表示,未來有一天,人工智能機器人將取代人類成為地球上的主導(dǎo)生命形式,埃隆·馬斯克也說過類似的話。但是,近年來隨著人工智能和機器人取得的令人矚目的進(jìn)步,他們對這個社會構(gòu)成的最緊迫、最真切的威脅其實不在于此。
具體來說,這種威脅并不是由人工智能和機器人會超越他們現(xiàn)在的特定服務(wù)目的(例如管理對沖基金或招募新員工)以及反抗其所有人的可能性而帶來的。更確切地說,情況恰恰相反,正是由于這些人工智能設(shè)備和機器人能夠非常高效的代表他們的主人來服務(wù),因此才對這個社會產(chǎn)生了威脅性。
事實上,由于機器人和人工智能設(shè)備到現(xiàn)在為止還沒有展現(xiàn)出一點點的自主或獨立性,因此很顯然它們并不是像霍金所說的那樣一種“新的生命形式”。它們更像是對那些創(chuàng)建和使用它們的人群的一種延伸,它們是精心制作的工具,用來增強這些人執(zhí)行某項工作或者任務(wù)的能力。
正是由于它們是操作者的一種延伸,所以它們對這個社會也構(gòu)成了潛在的威脅。因為機器人是由具有特定價值觀和利益的特定人群來設(shè)計和使用的,這就意味著它們的行動必然會反映并推廣這些人的價值觀和利益,而這些人的價值觀和利益并不一定為所有群體和個人所認(rèn)同。機器人所具有的卓越的效率和生產(chǎn)力,能夠為那些擁有足夠資源利用到它們的人提供明顯的優(yōu)勢,這些人可能會以犧牲那些沒有同等資源的其他人的利益為代價來重塑這個世界。
你只要看看最近人工智能和機器學(xué)習(xí)算法導(dǎo)致偏見的事例就能想象,人工智能未來將如何加劇社會、經(jīng)濟和政治領(lǐng)域的不平等現(xiàn)象。例如,網(wǎng)絡(luò)非盈利媒體?ProPublica 在 2016 年 5 月發(fā)表了一項研究成果,其中顯示,美國多個州使用的再犯罪評估算法對非裔美國人有所偏見,將其錯誤標(biāo)記為“高風(fēng)險”再犯罪人員的幾率為 44.9%,而白人的這一數(shù)據(jù)則為 23.5%。除此之外,2017 年 4 月發(fā)表于《科學(xué)》雜志的一篇研究論文發(fā)現(xiàn),當(dāng)機器學(xué)習(xí)工具從互聯(lián)網(wǎng)上學(xué)習(xí)到大量的詞匯聯(lián)想法之后,會對女性和非裔美國人獲得一種“類人語義偏見”(即刻板的印象)。
這種情況下偏見的產(chǎn)生是由于人工智能設(shè)備和機器人只能從它們接收到的數(shù)據(jù)和參數(shù)中去學(xué)習(xí)。通常情況下,這些數(shù)據(jù)和參數(shù)是由那些設(shè)計和使用它們的人群來提供,例如白人以及那些站在社會金字塔頂尖、享有特權(quán)的男性。也正是因為如此,人工智能面部識別軟件在識別有色人種的面孔方面表現(xiàn)一直不理想。并且,這也能說明為什么人工智能和機器人會以服務(wù)和推動它們制造者和所有者利益的方式來運作。
除此之外,人工智能和機器人由于其所呈現(xiàn)出的卓越的效率,到 2017 年將滲透到 2470 萬個工作崗位,這就意味著它們將會把制造者的標(biāo)志烙印到生活和工作的大部分領(lǐng)域。它們會讓數(shù)百萬工人階層失去工作,它們會打亂現(xiàn)在家庭生活的節(jié)奏,它們會讓那些有能力大規(guī)模應(yīng)用它們的發(fā)達(dá)國家獲得相較于發(fā)展中國家更大的商業(yè)優(yōu)勢。最終,那些制造和擁有它們的民族和階層將會聚集更高的全球影響力。
也正是因為如此,那些日益增多的有關(guān)賦予機器人權(quán)利(甚至是公民權(quán))的相關(guān)論調(diào)會讓人感覺如此不安。因為,機器人和人工智能已經(jīng)獲得了其所有者的財產(chǎn)權(quán)保護(hù),不能被隨意破壞。這樣一來,顯而易見,賦予它們“權(quán)利”就不僅僅意味著賦予他們保護(hù)自己不備破壞的消極權(quán)利(因為他們已經(jīng)擁有這些權(quán)利),而是意味著要賦予它們可以追求自己的目標(biāo),而不受一些人干擾的積極權(quán)利,例如,那些備受機器人想法折磨的人的干擾。
換句話說,賦予機器人這種權(quán)利實際上就等同于賦予其所有者為達(dá)到自己的目的、實現(xiàn)自己的價值和利益所需的特殊的、受保護(hù)的地位。然后,這些所有人利用 AI 和機器人為自己的目標(biāo)服務(wù)的能力就可以更進(jìn)一步。
最后,在有關(guān)人工智能相關(guān)討論中經(jīng)常會出現(xiàn)的一個話題也值得一提。無論是歐洲議會,還是研究機構(gòu),經(jīng)常會說我們需要確保人工智能機器人能夠?qū)W習(xí)并且維護(hù)人類的價值觀。然而,問題在于:機器人究竟學(xué)習(xí)并且維護(hù)的是哪些人的價值觀呢?而這個全人類又是由誰來代表的呢?無論真正普世的價值觀是否能夠灌輸?shù)街悄軝C器人之中,這種說法只能表明機器人的所作所為只能在某個方向上產(chǎn)生道德、社會和經(jīng)濟方面的成果,因此它們也只能是作為某些價值觀的代理人。
而令人擔(dān)憂的一個事實是,這些機器人很大程度上是由一些特定的公司和工業(yè)家階層來制造和掌握,因此它們的能力也很有可能會為這樣一個階層的價值觀和利益帶來明顯的好處。
原文地址:https://venturebeat.com/2017/11/08/its-not-robots-we-should-fear-its-their-creators/
譯者:aiko,由編譯組出品。編輯:郝鵬程
譯文地址:http://36kr.com/p/5102095.html
本文由 @郝鵬程?授權(quán)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)作者許可,禁止轉(zhuǎn)載。
題圖來自 Pexels,基于 CC0 協(xié)議
- 目前還沒評論,等你發(fā)揮!