具有超級智能的人工智能:不是人類滅亡的信號,而是人類黎明的到來
編者按:本文作者M(jìn)ax Versace,他是深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)軟件公司Neurale的CEO,也是波士頓大學(xué)神經(jīng)形態(tài)實驗室的主管。在這篇文章中,他堅決反對“人工智能威脅論”,認(rèn)為人工智能不僅不會給人類造成威脅,它反而預(yù)示著一個更加道德、更不具破壞性的人類黎明的到來,并從四個方面論證了自己的這一論點(diǎn)。
隨著超級智能的人工智能的出現(xiàn),當(dāng)天世界上的一些極具影響力的知名人物開始擔(dān)心人工智能將會給人類帶來一場浩劫。
斯蒂芬·霍金曾與人合寫了一篇關(guān)于這個話題的文章,他在文章中暗諷道:“研發(fā)人工智能將成為人類歷史上犯的最大錯誤。不幸的是,這也可能是最后一個錯誤。因為人工智能的崛起可能是人類文明的終結(jié)?!?比爾·蓋茨對于人工智能也表達(dá)出了類似的擔(dān)憂。
馬斯克也將人工智能視為人類面臨的最大潛在威脅。他曾這樣說道:我認(rèn)為我們必須對人工智能抱著非常謹(jǐn)慎的態(tài)度。在我看來,人工智能可能是我們面臨的最大威脅。因此,我們必須非常謹(jǐn)慎地進(jìn)行人工智能研究。我越發(fā)堅信我們需要對人工智能的研究進(jìn)行適當(dāng)監(jiān)管,可能是在國家層面和國際層面,確保我們不會做出一些非常愚蠢的事情。隨著人工智能的發(fā)展,我們將召喚出惡魔。也許你會認(rèn)為我們可以用類似五芒星和圣水的東西控制惡魔,但事實根本不是這樣。
馬斯克還和霍金、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克與其他上百位專業(yè)人士共同簽署的號召禁止人工智能武器的公開信。公開信稱,人工智能武器是繼火藥和核武器后“戰(zhàn)爭領(lǐng)域的第三次革命”,禁止人工智能武器的禁令必須盡快頒布。
前不久,馬斯克在全美國州長們面前的一席話特別令人矚目,這不僅是因為他重點(diǎn)強(qiáng)調(diào)人工智能的巨大威脅,而且還強(qiáng)烈呼吁政府進(jìn)行干預(yù)。
“就人工智能而言,我們需要在管制上更具有前瞻性,而不是消極應(yīng)對。因為等到我們制定出人工智能管理規(guī)定的時候,已經(jīng)太晚了。我一直在警告大家,但是等到大家看到機(jī)器人在大街上殺人,他們將不知如何應(yīng)對,因為它看起來太玄幻了?!?/p>
拜托,馬斯克,我們談?wù)摰氖蔷哂谐壷悄艿娜斯ぶ悄?,而不是變形金剛電影?/p>
馬斯克等人的言論在媒體上引發(fā)了人們的激烈討論,有人贊同,有人反饋。其他一些科技大佬也參與了進(jìn)來。Facebook的創(chuàng)始人兼CEO 扎克伯格在一次Facebook Q&A直播中表達(dá)了自己對人工智能威脅論的不贊同。
“我認(rèn)為可以通過發(fā)明一些東西讓世界變得更美好,人工智能就是其中之一。我對人工智能的前景是非常樂觀的。對于那些鼓吹人工智能威脅論、認(rèn)為人工智能會引發(fā)世界末日的人,我真的搞不懂他們是怎么想的。那種言論太負(fù)面消極的,從某種程度上說,我認(rèn)為那是一種非常不負(fù)責(zé)任的言論。”
扎克伯格列舉了人工智能將給人類帶來的所有好處,比如人工智能對醫(yī)療健康和自動駕駛領(lǐng)域帶來的改進(jìn)等。
馬斯克很快就對扎克伯格的這番言論做了回?fù)?,說扎克伯格對人工智能的理解“太局限了”。
不過,我對人工智能的了解并不局限。我認(rèn)為扎克伯格的觀點(diǎn)是對的。實際上,我認(rèn)為扎克伯格對人工智能帶來好處的觀點(diǎn)甚至有些保守了。具有超級智能的人工智能的到來不僅不是人類滅亡的信號,它反而預(yù)示著一個更加道德、更不具破壞性的人類黎明的到來。
1、人工智能會讓我們保持誠實
我的觀點(diǎn)的第一個主要論點(diǎn)是:為人工智能定義什么是合符道德的應(yīng)該和為人類重新定義什么是合符道德的一起進(jìn)行。盡管在哲學(xué)或存在層面上已經(jīng)做過很多次這種努力,但是要想實際應(yīng)用是不可能的。在我們?yōu)槿斯ぶ悄芏x游戲規(guī)則的時候,我們也需要迫使自己遵循這個規(guī)則,結(jié)果就是,人工智能將會讓我們能夠嚴(yán)格遵循自己的標(biāo)準(zhǔn),因為人工智能是無所不在、無所不知的。這時就很難再出現(xiàn)犯罪了,因為關(guān)于每個人、每件事的所有信息都是能被知道和獲取。
2、人工智能將會消除我們固有的偏見
如果生活在一個由無所不知、無處不在的人工智能主導(dǎo)的世界里聽起來像一個反烏托邦的噩夢的話,那么讓我們暫時停下來思考一下我們目前生活的世界。全世界的人民都在遭受腐敗、專制、貧窮、無政府主義和永無止盡的恐怖主義的影響。
在我們目前生活的這個世界上,我們有維護(hù)法律和秩序的警察部隊。但是這些警察很多時候都是容易受到偏見甚至歧視影響的,因此他們無法做到非常平等地去保護(hù)每一個公民。
以美國為例。美國的監(jiān)禁率高的驚人:世界上有22%的囚犯都在這里,盡管這個美國的人口只占世界人口的4.4%。在關(guān)押的所有囚犯中,三分之一是非裔美國人,盡管非裔美國人只占全美人口的13%。此外,非裔美國司機(jī)被警察攔下的可能性比白人司機(jī)要高31%,而非裔美國人在日常交通站點(diǎn)中被搜查的幾率是白人的兩倍。
人工智能可以解決這個問題。
通過恰當(dāng)?shù)剡x擇訓(xùn)練樣本或人工智能接觸的東西,科學(xué)家已經(jīng)能夠創(chuàng)造出比人類擁有更少偏見的人工智能。在這種人工智能的幫助下,警察將被迫放棄自己的有意或無意的偏見,不讓自己的判斷受年齡、性別或種族偏見的影響,從而抓到真正的壞人。
3、人工智智能可以糾正我們在環(huán)境保護(hù)上犯的錯
用人工智能監(jiān)視聽起來有點(diǎn)讓人毛骨悚然,但是用人工智能拯救瀕臨滅絕的物種絕不會讓你有這種感覺。有許多不同的方法可以實現(xiàn)這一目標(biāo),并且已經(jīng)有好幾個這類案例了。例如,用人工智能武裝起來的無人機(jī)可能是防止偷獵者在非洲屠殺大象和犀牛的最有效方式。
4、人工智能可能會拯救我們
人工智能可能會把我們從自身中拯救出來,從預(yù)防戰(zhàn)爭和交通事故,到讓更多人能夠負(fù)擔(dān)得起醫(yī)療保健費(fèi)用,再到用它來尋找丟失的孩子。人工智能有潛力變得更加超級智能,而不會帶有人類固有的缺陷。盡管馬斯克等人對人工智能表示出極大的擔(dān)憂,我認(rèn)為人工智能是可以用來在很多方面造福人類的,而造福人類的場景是數(shù)不勝數(shù)的。
原文鏈接:https://venturebeat.com/2017/10/29/4-ways-ai-will-prevent-not-cause-an-apocalypse/
譯者,達(dá)達(dá),由36氪編譯組出品。編輯:郝鵬程。
譯文地址:http://36kr.com/p/5100256.html
本文由 @達(dá)達(dá) 授權(quán)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)作者許可,禁止轉(zhuǎn)載。
題圖來自 Pexels,基于 CC0 協(xié)議
黑客的世界你不懂
事物都具有兩面性,而且個人認(rèn)為,最極端情況下也只是被奴役,而不是滅亡
馬斯克和小扎的言論似乎不在一個維度??梢园袮I比作是菜刀,用立法來禁止拿菜刀砍人并不是說不讓用菜刀,這當(dāng)然不否定用菜刀切菜非常管用。AI是同樣的道理,AI大有可為,但是呼吁禁止AI用作武器并不是杞人憂天。這樣的口水仗沒有實際意義。
人工智能的厲害之處在于它的決策比人類的要好,要全面,要穩(wěn)定,給人類帶來了各種各樣的方便。人工智能有著很大的商業(yè)價值,也促使著它在不同的行業(yè)滋生,直到一個通用人工智能的出現(xiàn),人工智能越來越造福人類。人工智能技術(shù)是一把雙刃劍,可以造福人類也可以毀滅人類,就看技術(shù)會掌握在什么人的手上,有些國家有可能會用于軍事上,恐怖分子可能會利用人工智能搞破壞。人工智能發(fā)展勢頭如此兇猛,未來的事情誰也無法預(yù)測,只是有這么一個潛在風(fēng)險,提前制定應(yīng)對措施也是非常必要的。
贊同,不論未來是好是壞,保持警惕,預(yù)估到最壞結(jié)果并制定相應(yīng)預(yù)警方案總是沒有錯的。