如何讓算法解釋自己為什么“算法歧視“?

1 評論 7424 瀏覽 15 收藏 14 分鐘

人工智能作為一項新技術(shù),正在改變著人類社會的原有規(guī)則和運作方式,人類也逐漸衍生出了害怕被AI支配的恐懼心理,在某種程度上來說,這種恐懼正是源于算法的不透明性。

一、算法的可解釋性隱憂

傳播學者尼爾·波茲曼在《技術(shù)壟斷》一書中斷言,每一種新技術(shù)都既是包袱又是恩賜,不是非此即彼的結(jié)果,而是利弊同在的產(chǎn)物。

作為一項新技術(shù),人工智能以其強大的變革勢能,重構(gòu)了人類社會的原有規(guī)則和運作方式。人類把選擇乃至決策的權(quán)力拱手交給AI,在享受著由此產(chǎn)生的便利的同時,卻又不自覺地生發(fā)出自身及世界將被AI支配的恐懼心理。

這種恐懼表征于各種科幻電影和著作之中,“作為工具的AI反過來統(tǒng)治人類”成為大量影視作品經(jīng)久不衰的主題;另一方面也漸顯于現(xiàn)實社會的諸多反思話語之中,當下對算法偏見、算法歧視以及對算法侵害隱私和社會關(guān)系的指責,無一不顯現(xiàn)出人類對這項革命性技術(shù)的恐懼。

某種程度上,這種恐懼源于算法的不透明性。人類天生會對未知事物感到恐懼,對于人類而言,算法運作宛若“黑箱”——我們負責提供數(shù)據(jù)、模型和架構(gòu),算法負責給出答案,而中間的運作過程卻只在暗處進行。這種合作方式看似給我們帶來極大便利,但是問題在于,如果算法的運作不可監(jiān)察、不可解釋,將導致人類無法真正理解算法,更不能有效地控制算法,從而也就無法預見和解決算法可能帶來的問題。

難以想象,當人類把未來命運寄托于一項既不可知又不可控的技術(shù)會誘發(fā)怎樣的后果?!癕IT科技評論”曾發(fā)表過一篇題為“人工智能中的黑暗秘密”的文章,指出“沒有人真正知道先進的機器學習算法是怎樣工作的,而這恐將成為一大隱憂。”而紐約大學AI Now Institute的一份報告甚至建議負責刑事司法、醫(yī)療保健、社會福利和教育的公共機構(gòu)避免使用AI技術(shù)。

算法的可解釋性隱憂已成為當下多方關(guān)注的焦點,也是算法及AI深化發(fā)展亟待解決的現(xiàn)實問題。人類渴望理解算法,以期能更好地引導和使用算法。眾多互聯(lián)網(wǎng)公司為解決這一問題進行了大量的工作,但由于種種客觀原因的限制,這些努力仍收效甚微。

二、不可解釋的算法帶來歧視

在上個月的Google I/O 2019開發(fā)者大會上,谷歌發(fā)布的一項名為“TCAV”的新技術(shù)因為與消費者無關(guān)因此并沒有收到太多關(guān)注。但這一項目,似乎為算法可解釋性隱憂帶來了一種新的解決思路。

桑達爾·皮查伊在此次大會上公布了Google新一階段的目標:Building a more useful Google for everyone.(“為每個人構(gòu)建一個更有用的Google”)。但這項目標實現(xiàn)起來頗有難度,因為它意味著谷歌需要著手解決一系列與算法相關(guān)的現(xiàn)實問題,比如算法偏見和算法歧視。皮查伊顯然也意識到這一點,他指出“偏見”(bias)仍然是機器學習領(lǐng)域一個值得關(guān)注的問題,當牽涉到人工智能時,這一問題的風險度則會更高。

許多人認為算法是單純的技術(shù),并沒有什么價值觀可言,但實際上算法也像它的人類締造者一樣,存在著各種偏見和歧視。究其本質(zhì),算法歧視屬于社會結(jié)構(gòu)性歧視的延伸,因為算法的有效性建基于大量數(shù)據(jù)材料分析,而這些材料大多都源自社會現(xiàn)實,所以究其本質(zhì),算法歧視其實是社會結(jié)構(gòu)性歧視的延伸。

比如,訓練分類算法進行圖像識別,讓它能從一堆職業(yè)照片中選出“醫(yī)生”職業(yè)。我們首先要為算法提供大量的醫(yī)生圖像進行學習,算法會總結(jié)出這些圖像的基本特性,比如白色大褂、口罩、聽診器等等,并將其作為標準在識別工作中予以執(zhí)行,它會把具備同類特征的圖像均識別為“醫(yī)生”。

但問題是由于種種現(xiàn)實和歷史原因,在當下醫(yī)生人群中,男性的比例確實更高。而算法通過上述的學習,并不會理解這是我們當下及未來要努力做出改變的地方,而很可能認定“男性”是“醫(yī)生”這一職業(yè)判定的相關(guān)因素,從而在識別中把女性醫(yī)生篩選出去。

另外的例子是與就業(yè)求職相關(guān)的算法向男性推薦的工作崗位整體工資要高于向女性推薦的崗位,以及美國警方的犯罪識別系統(tǒng)會認定黑人犯罪概率更高。因此,性別、種族等方面的現(xiàn)實偏見通過算法得以延伸。而算法歧視之所以難以解決,歸根結(jié)底在于算法的可解釋性問題,如果我們不能理解算法的運作方式,自然也就無法得知它為什么會延續(xù)歧視,更無法對歧視問題進行解決。

但在算法的黑箱運作機制下,AI做出決策的影響因素并不會顯而易見的拉成一個單子擺在研發(fā)者的面前?!芭浴边@一影響因素本身并不會表明為女性,而可能被表述為一系列描述身體視覺特征的像素向量,對于有色人種和其它需要被剔除的影響因素也是同理。這也導致過往的研發(fā)人員不可能依靠“看一眼”就將算法中的偏見剔除。

而從現(xiàn)實角度出發(fā),算法偏見也引發(fā)了公眾對AI的認知偏差,已經(jīng)是其被污名化的來源之一。種種因素之下,解決算法偏見問題成為目前行業(yè)的基本共識。

對于Google來說,這一問題更為迫切。當智能工具為用戶執(zhí)行任務時的功能越來越多時,算法的可解釋性和透明度就顯得無比重要,因為它等同于用戶對谷歌技術(shù)更大的信任和更多的商業(yè)化使用。皮查伊表示,要為每個人建立一個更有用的谷歌,意味著解決偏見問題,為此谷歌將著力于提高模型的透明度。而這次皮查伊的底氣,很大程度上來自于TCAV技術(shù)。

三、TCAV,讓普通人理解算法的運作方式

TCAV是“概念激活向量測試”(Testing with Concept Activation Vectors)的縮寫。由于這項技術(shù)主要面向開發(fā)人員和數(shù)據(jù)科學家,而且暫時不開放給第三方使用,所以并不是Google I/O 2019的主角,在相關(guān)報道也都被一筆帶過。但與其低調(diào)的形象不同,TCAV實際上作用極大,并且應用前景極為廣闊。

早在開發(fā)者大會之前,數(shù)據(jù)科學家Been Kim團隊就發(fā)表了一篇Interpretability Beyond Feature Attribution : Quantitative Testing with Concept Activation Vectors (TCAV)的論文,詮釋了TCAV的作用原理??傮w而言,TCAV是一種算法可解釋性的方法,能夠直觀顯示神經(jīng)網(wǎng)絡模型運算所依據(jù)的概念及其比重。正因為如此,TCAV也是一種算法歧視糾偏技術(shù),因為它可以被用于觀察其他AI模型中的算法歧視傾向。

人類之所以不能理解算法的運作規(guī)則,是因為二者“認知方式”存在差異:人類往往使用各種高級概念進行思考和交流,而大多數(shù)機器學習模型則關(guān)注低階要素,運用大量抽象概念進行“思考”。比如,人類之所以能判定一張圖中的動物是斑馬,主要依據(jù)它的身形、黑白條紋等高級概念;但算法卻不一樣,它考量的是不同特征屬性(Feature Attribution)的權(quán)重。對算法來說,一幅圖像中的每個像素都是輸入要素,它會關(guān)注圖片中的每一個像素的顯著程度,并賦予它相關(guān)的數(shù)值,以此作為識別的依據(jù)。

如何讓算法解釋自己為什么“算法歧視“?

問題就在于,人類無法理解算法所采用的識別方式。因為我們在描述事物時,會直接動用顏色、形狀等各種高級概念,卻永遠不會說圖像的第6個像素的值是33。因此,即便得到算法運作所生成的各種數(shù)值,也無助于我們理解算法的運作過程。

而可解釋性的初衷就是使人類更容易理解機器學習模型,特別是對那些缺少技術(shù)背景的人更是如此。那么,能不能夠讓算法的運作方式以人類能看懂的“高級概念”的形式予以呈現(xiàn)?TCAV技術(shù)試圖解決的正是這個問題。

與典型的可解釋性方法不同,TCAV目標是將支撐模型的變量以人類能夠理解的高級概念表現(xiàn)出來。它能直觀顯示在算法運作中各種高級概念的權(quán)重,比如顏色、性別、種族、年齡等(即便該概念不是訓練的部分)。

如何讓算法解釋自己為什么“算法歧視“?

比如,一個訓練有素的模型能夠檢測圖像中動物是否是斑馬,而TCAV可以幫助我們理解哪些變量在識別圖像時發(fā)揮了作用,以及各自發(fā)揮了多大的重要性,因它對我們理解模型預測原理幫助很大。由結(jié)果可見,在各項概念中,“條紋”(Stripes)占據(jù)的權(quán)重最高,“馬的形體”(Horse)次之,“草原背景”(Savanna)的權(quán)重最低,但也有29%。

如何讓算法解釋自己為什么“算法歧視“?

而 TCAV 的這一功能被用于算法糾偏非常合適,當我們把它的這項能力轉(zhuǎn)移到涉及社會現(xiàn)實的識別模型上時,就可以清晰地判定該模型是否涉及歧視。比如,一個用于識別醫(yī)生圖像的算法,由TCAV的結(jié)果可見,其高權(quán)重的識別概念包括“白色衣服”、“聽診器”以及“男性”等。前兩個影響因素是正確的,但關(guān)于性別的判斷則意味著模型出了偏見需要通過進一步訓練進行糾偏。

從更廣闊的前景來說,TCAV 可以讓普通人也能夠輕松理解算法的“思維”,因為它讓我們可以理解算法思考過程的每一步。因為 A 得到 B,所以 C,最后得出了 D。而不是像以往的 AI 那樣給予 A 的輸入便獲得 D的結(jié)果。這一功能可被應用于其它領(lǐng)域而并非只是用于算法糾偏。

四、結(jié)語

TCAV的重要意義在于,它不僅在技術(shù)層面以一種極為有效的方式解決了算法的可解釋性問題,而且它以人類所使用的高階語言為呈現(xiàn)形式,即便是沒有技術(shù)背景的普通人也可窺見算法究竟以何種標準進行運作,是否有所偏倚,進而能夠及時解決算法偏見和算法歧視問題。

要知道,算法和AI并非張牙舞爪的妖魔鬼怪,無端的恐懼和憂愁均無助于問題的解決。它更像是正在學步的孩童,需要我們借助于TCAV這樣的解釋性工具進行對話、達成理解并幫助它更好地成長,這才是引導科技向善的體現(xiàn)。

–END–

 

作者:王煥超,騰訊研究院助理研究員,公眾號:騰訊研究院(ID:cyberlawrc)

來源:https://mp.weixin.qq.com/s/4gjKvSB5acN_1evfTFyLkg

題圖來自Unsplash,基于CC0協(xié)議

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前算法是基于過去的事實的一個抽象化,模型化,不具備政策解讀與算法轉(zhuǎn)化,也不具備帶有對偶然因素影響帶來的必然性的解釋。

    回復