真不是愚人節新聞:使用下意識時的你,與AI無異

1 評論 3617 瀏覽 1 收藏 9 分鐘

在昨天這個人人都有可能被愚弄的日子,不如我們來換換戲耍的對象,看看機器有沒有可能被愚弄欺騙呢?

在人工智能五十年的研發過程中,我們一直在不斷嘗試著讓機器理解人對于世界的認知方式。不管是一直沒有實現較大突破的類腦計算,還是模仿人類感知外界機制的人工神經網絡,本質上都是對人類行為方式的多種模仿。

當然我們也知道,這些模仿雖然在應用上取得突破,但本質上來看與人類的認知方式還是大相徑庭的。

就拿視覺來說,人類對于萬事萬物的認知來自于綜合的感知。以前一陣社交媒體上瘋傳的《神奇寶貝》大電影來說,人們見到3D版皮卡丘非常驚訝——皮卡丘竟然是有毛的?

其實這就體現了人類非常有趣的一點,建立在綜合知識基礎之上,人類的五感是相通的,因此可以從有限的信息里進行關聯挖掘,對陌生的事物建立起認知。

當我們簡單皮卡丘身上茸毛時,我們立刻聯想起了那種毛茸茸的手感,認為它像一只大老鼠毫不可愛。

被隨意愚弄的機器思維相比之下機器視覺的認知方式就相對孤立,建立分類器后組織層層的神經網絡,對圖片進行分層處理,分別去辨認圖片中是不是一架橋,是不是一只猴子,是不是一棵大樹。最后得出的結論是,這張圖片97%的幾率是一架橋,2%的幾率是一只猴子,1%的幾率是一棵大樹。

對于人類來說,我們可能把猴子看成猩猩,原因是我們自己腦海中的底層知識不足,在認知中分不清猩猩和猴子的概念。但絕不會把橋、猴子、大樹這些風馬牛不相及的東西混淆一談。

但對于機器視覺就不一樣了,在機器的“眼中”,一切圖像都是像素點的排列組合。對于我們來說,猴子和大樹的區別是哺乳動物和區別。可對于機器來說,猴子和大樹之間只有一個數字分割線而已。

這就導致了機器視覺可以被“針對性”的愚弄,讓圖像識別輸出完全錯誤的結果,這就是我們常說的對抗生成樣本。例如:將一張圖片的像素點進行輕微的移動,在人眼中兩張圖片沒有任何區別,可在機器識別邏輯下,卻可能讓機器把猴子認成大樹。

又比如我們曾經介紹過的“迷幻貼紙”——將某一種物體的分類特征高度濃縮成一個很小圖案,“粘貼”在其他圖片上。圖像識別對于結果的輸出,是基于幾項結果比率的高低。在貼上貼紙之前,圖像識別可能明確的分析出圖片有98%幾率的是一只猴子。但粘貼上高度濃縮特征的貼紙之后,就能立刻改變圖像識別的結果。

讓人類理解機器思維,或許比想象中更容易

如此看來,雖然機器一直在嘗試模仿人類的思維方式,但最終結果還是我們與機器之間彼此無法理解。那么如果換個角度,讓人類去學習機器的思維方式呢?

近期約翰霍普金斯大學就做了這樣一項實驗。

為了弄明白為什么機器能看到人類“看不到”的變化,約翰霍普金斯大學推出了一系列實驗,讓人類志愿者在圖片中找到“機器犯的錯誤”。

例如給志愿者一張噪點圖或看似無意義的花紋,讓人類志愿者從中識別辨認圖片更像哪一種物體,并將AI給出的結果混淆其中。又比如給人類幾個斑駁的數字圖案,讓人類志愿者選擇AI可能將圖案誤認成了什么錯誤的數字。

真不是愚人節新聞:使用下意識時的你,與AI無異

令人震驚的是,在大部分實驗中,人類志愿者都憑借著直覺很快辨認出了AI的思維模式。

以上圖為例,有81%的人類志愿者都準確的發覺了機器會犯下的錯誤。在一共48個實驗1700位志愿者中,有人們在75%的時間里都選擇和機器一樣的答案,而只有2%的人從來沒有選擇過和機器一樣的答案。

這個驚人的實驗結果告訴我們,即使拋開人類基礎的認知邏輯,應用下意識的第一反應,也能夠和機器得出相同的結果??磥砩窠浘W絡黑箱中對于人類經驗提煉的深度,或許遠超我們想象。

對抗對抗性圖像:當人類開始理解機器

這個實驗的意義,當然不是為了告訴大家其實我們都是機器人,而是教會了我們如何應對機器視覺可能犯下的錯誤。在機器視覺認知模式的固有弊端下,很可能會形成很多可供鉆空子的漏洞。例如當自動駕駛識別公路上的交通標志時,一個小小貼紙就可能讓視覺系統產生錯覺,把交通標識識別成突然出現的行人來個急剎車。

為了解決這種可能出現的情況,通過理解機器思維并進行逆向拆解或許是個不錯的方法。

從實驗中我們可以看出,即使是毫無邏輯的圖案和紋理,人類也可以通過聯想能力對這些圖片進行更高級的認知和處理。實驗中人類和機器進入了同樣的情景,面對幾個分類選項做選擇題。而這種分類選擇或許就是讓機器陷入錯誤的關鍵。

真不是愚人節新聞:使用下意識時的你,與AI無異

另外一點則是,人類可以很清楚的識別出對抗性圖像。例如:故意斑駁讓人難以辨認數字圖案,以及特征十分明顯的花哨貼紙。那么說明這些對抗性的圖案也擁有自己的“對抗性特征”。

雖然面對這種情況,最理想的方式是放棄卷積神經網絡,應用認知計算真正讓人工智能建立在一個更完整的世界觀上進行識別。但在認知計算獲得突破之前,我們或許可以尋找一些替代性的解決方案。

例如:我們可以在一些安防、自動駕駛等等關鍵場合之中,特意生成對抗性樣本讓人類進行標注,在汽車、行人這些常規分類中多出一個“對抗樣本”分類,讓卷積神經網絡可以識別出來這些搗亂的圖案。

對于那種動幾個像素點就可以改變機器認知的情況,很有可能出現在數據流通途中的壓縮產生的失誤,我們可以尋找使得機器認知結果改變的壓縮規律,反向從源頭組織失誤的發生。

在愚人節這個日子里,發現“人類與機器有著十分相近的思維模式”這一新聞,聽起來似乎像個笑話。但或許我們引以為傲的“人類意識”,根本并沒有那么復雜,最終會與機器思維以一種出乎意料的方式相遇。

但在相遇之前,我們還是應該用人類思維與機器人思維之間的相似性,來解決現實生活中的問題。

 

作者:腦極體,微信公眾號:腦極體

本文由 @腦極體 原創發布于人人都是產品經理。未經許可,禁止轉載。

題圖來源于 Unsplash,基于CC0協議

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 你如果了解神經網絡算法,也了解人的認知神經的一些研究,那么對于“人類與機器有著十分相近的思維模式”你一點也不會感到驚訝。因為神經網絡算法和人的神經認知原理本來就是一樣的!

    來自江蘇 回復