機器行為學,怎樣幫助我們理解AI?
人工智能機器人三大定律:第一法則,機器人不得傷害人類(主人)或袖手旁觀坐視人類受到傷害;第二法則,除非違背第一法則,機器人必須服從人類的命令;第三法則,在不違背第一及第二法則的條件下,機器人必須保護自己———科幻小說家艾薩克.阿西莫夫
01
人也是一種“黑箱”,但不影響我們相互理解。
2016年3月9日-15日,Google Deepmind公司的團隊研發的人工智能圍棋機器人AlphaGo與韓國圍棋世界冠軍李世石展開了5場激烈的激烈的戰斗,最終AlphaGo以4:1的懸殊比分輕松取勝。隨后在一系列與世界圍棋頂尖高手的對決中AlphaGo披荊斬棘所向披靡,再也沒有輸掉過任何任何對決。2017年10月18日AlphaGo的升級版AlphaGo Zero橫空出世并且以100:0的比分擊敗了上代版本AlphaGo。
“AI完勝”無疑讓第三次人工智能浪潮達到了一個高峰,但隨即也引起了部分人們對人工智能的恐慌,AlphaGo已經證明了人類已經真的可以創造出如此聰明的人工智能,其一旦不受人類控制和約束,那些科幻電影的情節會不會成真,最終導致嚴重的后果呢?
近年來人工智能技術飛速發展,關于人工智能機器人最終不受人類控制并且最終統治甚至毀滅人類的科幻影視作品出不窮,熱播美劇《西部世界》中的失控的AI機器人在人類世界里大肆殺戮,嚴重的破壞了原來穩定的秩序。電影《升級》里面的人工智能芯片“智腦“被植入人體后通過其高超的運算能力一步一步的破壞了原本給它設定的規則程序,與人腦融為一體最終掌控人的肉體,最終讓人成為他的傀儡。
針對這種擔憂,麻省理工學院媒體實驗室的研究人員表示,社會需要用一種類似于行為學的多學科方法來研究算法,而不是簡單的恐懼人工智能或呼吁對人工智能的監管。
AI技術的核心是算法,算法本身并不帶有善意與惡意,但人類的善意和惡意都能被算法放大。因此,對人工智能倫理的研究,不能局限于人工智能本身,而必須將人工智能放置于其即將被投入的社會視角進行研究。
于是他們提出了一個新的跨學科研究領域,來研究人工智能是如何進化的,以及它對人類意味著什么——機器行為學。
評論人士和學者正在對人工智能機器人帶來的廣泛的、意想不到的后果發出警告,這些機器人內置的算法能夠通過機器展示自己的行為,并產生始料未及的影響(包括正面和負面影響)。人們擔心人類可能失去對智能機器的控制,“自主武器”的發展意味著機器可以決定誰在武裝沖突中生存,誰在沖突中死亡。
本月發表在《自然》(Nature)雜志上的論文《機器行為》(Machine behavior)呼吁“在設計和設計人工智能系統的領域,以及傳統上使用科學方法研究生物學的行為的領域”共同努力。具體地說,作者建議不僅研究機器學習算法如何工作,而且還研究它們如何受其工作環境的影響。
用更簡單的話來說,就是不止考慮人工智能在“實驗室”里怎樣工作,還要看它在實際中會怎樣工作,產生什么影響。
這“類似于動物行為學和行為生態學通過將生理學和生物化學(內在特性)與生態學和進化論(由環境塑造的特性)結合起來研究動物行為?!?/strong>
所以機器人行為學是一個跨學科的,復雜的研究方向需要更多的跨學科專家加入研究。
02
目前,最常見的研究機器行為科學家是計算機科學家、機器人專家和工程師,因為是他們首先創造了機器。他們會基于原發者的視角思考機器人的行為。這就好像是一個創造生命的“上帝”,他們為創造出的生命設計了各類機制與本能。
然而,這些“生物”一旦“離手”最初設計的機制與外在環境互動的過程中并不一定總是與最初的設想一致。
這就好比每個身心健康的人類總是有大致相似的生理需求與心理動機,但在與現實世界的互動中每個人都成長為完全不同的個體,一些人成為了至善之人而另一些人成為了邪惡的罪犯。
計算機科學家和工程師通常都不是訓練有素的行為學家,他們可能對自己創造的AI有足夠的掌握,但卻并不一定能夠對這些AI即將獨自探索的社會現實有充足的理解。
他們很少接受實驗方法論、基于人口的統計和抽樣范式或觀察性因果推理方面的正式指導,更不用說神經科學、集體行為或社會理論了。相反,雖然行為學家更有可能擁有在這些方面的科學方法,但他們不太可能精通人工智能方面的相關知識。
為此,人工智能行為學期望通過一種全新的方式來解決目前對人工智能的理解。
目前,社會上各種算法的流行是前所未有的,推薦算法和社交媒體公司的人工智能會影響著我們看到什么樣的信息。各大金融軟件里的信用評級(評分)算法決定了放貸策略。打車軟件中的算法改變了人們的出行方式和城市交通。
這些人工智能給人們生活帶來便利的同時,也帶來了系統的復雜性和不透明性,比如甚至連金融公司自己都不再能清楚的解釋為什么可以給一個人貸款10萬而另一個只有1000。
人工智能系統的多樣性以及普遍性會對研究這些系統(如金融系統或交通系統)的行為造成巨大挑戰。
人工智能系統的復雜性很高,雖然用于指定模型的體系結構和訓練它的代碼可能會很簡單,但輸出的結果往往十分復雜。它們被給予輸入,但產生這些輸出的確切的函數過程即使對那些自己生成算法的科學家也很難解釋。
此外,數據的維度和大小為理解機器行為增加了另一層復雜性。使這一研究更加復雜的是,社會上使用最頻繁的算法的大部分源代碼和模型結構都是專有的,這些系統所訓練的數據也是專有的。
03
在許多情況下,商業中的人工智能系統公開可見的唯一因素是它們的輸入和輸出。即使在可用的情況下,人工智能系統的源代碼或模型結構也不能對其輸出提供足夠的預測能力。人工智能系統還可以通過與世界和其他無法精確預測的系統的交互來展示新的行為。即使解析在數學上是可描述的,它們也可能是冗長而復雜的,以至無法解釋。而且,當環境發生變化時(可能是算法本身的結果),預測和分析行為就變得困難得多。
對此,引入對此,引入AI與外部環境互動的視角能更好的幫助研究者理解人工智能本身。
機器行為位于設計和設計人工智能系統的領域與傳統上使用科學方法研究生物行為領域的交叉點。對行為的科學研究有助于人工智能學者對人工智能系統能做什么和不能做什么做出更精確的表述。
到目前為止,那些創建人工智能系統的人的主要關注點一直是構建、實現和優化智能系統,以執行特定的任務。他們的目標一直是最大化算法的性能。一旦目標任務“多快好省”的實現,人工智能便“宣告成功”。然而在這一目標被實現后的社會影響,目標實現路徑種可能存在的其他影響則往往并不在人工智能科學家的考慮范圍之內。
機器行為的學者們對于更廣泛的指標集感興趣,而不是使用指標來對基準進行優化,就像社會科學家在社會、政治或經濟互動領域探索人類的廣泛行為一樣。因此,研究機器行為的學者花了大量的精力來定義微觀和宏觀結果的度量,以解答一些廣泛的問題,比如這些算法在不同環境中的行為,以及人類與算法的交互是否會改變社會結果。
隨機實驗、觀察推斷和基于群體的描述性統計——這些方法經常用于定量行為科學,這必須是機器行為研究的核心。所以將傳統上生產智能機器的學科之外的學者納入其中,可以提供關于重要方法論工具、科學方法、替代概念框架以及機器將日益產生影響的經濟、社會和政治現象的觀點的知識。
通過觀察某一事物與周邊環境互動的“行為”來對事物的內在進行研究并不是一個新方法。AI所面臨的“算法黑箱”也不是新問題,某種程度上,動物和人都是一種“黑箱”。
發展人工智能的初衷就在于讓人類生活更加便捷更加美好,而進一步理解機器人行為對于我們能夠有效地控制它們的行為,以及我們最大化人工智能對社會的潛在好處,消除可能帶來的潛在危害至關重要。
–END–
作者:楊振瀚,王健飛,公眾號:騰訊研究院(ID:cyberlawrc)
來源:https://mp.weixin.qq.com/s/BKe4w9WAa2O95Z2r5sS92Q
題圖來自Unsplash,基于CC0協議
- 目前還沒評論,等你發揮!