今天,我們被算法「控制」了嗎?
編輯導(dǎo)讀:外賣員小哥經(jīng)常與交通事故一起出現(xiàn)在新聞上,這個(gè)群體的“出鏡率”頗高。昨日,一篇描寫外賣配送員被算法“逼迫”的文章引起了廣泛關(guān)注。人們同情外賣員的同時(shí),也在思考,算法到底怎樣才算是對(duì)人類有益?本文作者圍繞算法的影響,進(jìn)行了深度的思考,希望對(duì)你有幫助。
數(shù)字經(jīng)濟(jì)時(shí)代,算法究竟應(yīng)該是怎樣的存在?
近日,一篇《外賣騎手,困在系統(tǒng)里》的文章刷屏,算法的“逼迫”,導(dǎo)致外賣員成為了交警部門數(shù)據(jù)背后的高危職業(yè)。餓了么隨后宣布將發(fā)布“為騎手多等5/10分鐘”的功能,這樣的危機(jī)公關(guān)不可不謂經(jīng)典,但真正的問題不在消費(fèi)者愿不愿意多等這五、十分鐘,而是機(jī)器算法在促進(jìn)生產(chǎn)力的發(fā)展和財(cái)富累積的同時(shí),也存在著明顯的倫理、法律和制度性問題。
我們推薦劉志毅的這篇深度文章,能夠幫助人們更好的理解算法背后的利益和倫理博弈。
在國內(nèi)眾多涉及數(shù)據(jù)倫理以及AI倫理的議題之中,數(shù)據(jù)的邊界、壟斷和法律問題屢屢被人提起,而算法相關(guān)的研究則少之又少。
事實(shí)上,在全球的前沿人工智能的跨學(xué)科研究中,越來越多的學(xué)者都在關(guān)注算法的作用,討論代碼與法律之間的關(guān)系,并開始擔(dān)憂算法會(huì)不會(huì)動(dòng)搖關(guān)于現(xiàn)有人類社會(huì)法律的基本框架與概念——尤其是在公共領(lǐng)域中的使用的倫理和風(fēng)險(xiǎn)問題。
與此同時(shí),伴隨著區(qū)塊鏈等技術(shù)的興起,科技烏托邦的理念又再度興起,來自于硅谷和中關(guān)村的科技精英們,又開始討論“代碼讓世界更加美好”的概念。
隨著人工智能的發(fā)展,我們認(rèn)為:雖然智能時(shí)代的算法衍生出來的數(shù)字化世界會(huì)給現(xiàn)實(shí)的經(jīng)濟(jì)和社會(huì)帶來巨大的福利和便利,但是科技崛起之后也需要必要的監(jiān)管。機(jī)器算法在促進(jìn)生產(chǎn)力的發(fā)展和財(cái)富累積的同時(shí),也存在著明顯的倫理、法律和制度性問題。
本文就是基于“算法規(guī)制(Algorithm regulation)”的概念來理解算法的特點(diǎn)、重要性以及帶來所帶來的道德與倫理風(fēng)險(xiǎn),弄清楚算法決策與算法規(guī)制的相關(guān)倫理議題的思考。
一、算法規(guī)制
人們之所以要承擔(dān)這樣的責(zé)任,是因?yàn)槊總€(gè)個(gè)體的行為都促成了這樣不正義的結(jié)果。
首先,要理解算法規(guī)制(Algorithm regulation)的定義范疇,就首先要理解算法的定義。
按照塔爾頓·吉萊斯皮(Tarleton Gillespie)的概念,算法廣義上可以理解為“是基于特定的計(jì)算將輸入數(shù)據(jù)轉(zhuǎn)換為所需的輸出的編碼程序”。
這個(gè)概念里強(qiáng)調(diào)的是:數(shù)據(jù)輸入輸出可以由人類或者機(jī)器來執(zhí)行,同時(shí)算法可以由人創(chuàng)造或者機(jī)器橙黃早,或者機(jī)器運(yùn)行過程中自我修改而生成。
而算法規(guī)制這一概念廣為人知,是由硅谷企業(yè)家奧萊利(O’Reilly)在2013年提出的,后來的學(xué)者們也在不斷的完善這個(gè)概念。
簡(jiǎn)而言之,算法規(guī)制是一種以算法決策為手段的規(guī)制治理體系,而算法決策指的是通過算法生成指示系統(tǒng)來做決策,可以理解為算法治理的工具。而算法治理,則是數(shù)字化治理的重要手段和方式,也是建立數(shù)字化治理體系的基礎(chǔ)措施。
按照英國伯明翰大學(xué)法學(xué)院和計(jì)算機(jī)學(xué)院的教授凱倫·楊(Karen Yeung)的定義,算法規(guī)制是指通過算法來規(guī)制某個(gè)領(lǐng)域的決策系統(tǒng),通過從受規(guī)制環(huán)境相關(guān)的動(dòng)態(tài)組件實(shí)時(shí)和持續(xù)的產(chǎn)生和搜集數(shù)據(jù),通過知識(shí)的計(jì)算生成以及智能化的應(yīng)用,實(shí)現(xiàn)三個(gè)方面的目標(biāo):
- 第管控特定應(yīng)用的風(fēng)險(xiǎn);
- 改變用戶群體的行為;
- 實(shí)現(xiàn)自動(dòng)優(yōu)化的操作,來推動(dòng)系統(tǒng)預(yù)定目標(biāo)的形成。
事實(shí)上,算法規(guī)制在數(shù)字經(jīng)濟(jì)領(lǐng)域無處不在。例如我們看到類似今日頭條這樣的新聞應(yīng)用會(huì)通過推薦算法來監(jiān)管用戶的發(fā)布和瀏覽行為,或者抖音這樣的短視頻平臺(tái)會(huì)通過算法決策系統(tǒng)來實(shí)現(xiàn)內(nèi)容的發(fā)布和流量的管理。
我們可以認(rèn)為算法規(guī)制體現(xiàn)了一種風(fēng)險(xiǎn)管理的技術(shù)機(jī)制,這種機(jī)制的覆蓋范疇從使用應(yīng)用的個(gè)體到某個(gè)平臺(tái)的所有群體,其作用就是在設(shè)定特定目標(biāo)下利用算法系統(tǒng)指導(dǎo)和影響這些群體。
可以看到:算法規(guī)制的模式是一種基于“設(shè)計(jì)”思想的控制模式,從治理層面來說,算法規(guī)制可以看作一種協(xié)調(diào)數(shù)字生態(tài)中特定活動(dòng)的社會(huì)秩序的輸出形式。
正因?yàn)槿绱?,算法?guī)制在學(xué)術(shù)界被認(rèn)為是一種雙刃劍。
一方面算法規(guī)制能夠做出精準(zhǔn)的行為預(yù)測(cè),可以為管理者提供非常好的循環(huán)干預(yù)機(jī)制:對(duì)于公共行為主體來說,可以通過對(duì)大數(shù)據(jù)的應(yīng)用來解決社會(huì)治理問題,對(duì)于私人主體來說可以借助數(shù)據(jù)來提供個(gè)性化和定制化的服務(wù)。
另一方面,算法規(guī)制存在著諸如黑箱問題、利益和風(fēng)險(xiǎn)不對(duì)稱等問題,而且由于算法技術(shù)發(fā)展的超前性,新科技的創(chuàng)造者具備不對(duì)稱的信息和技術(shù)優(yōu)勢(shì),能夠按照自身利益的需求來塑造在平臺(tái)上的算法規(guī)制邏輯和社會(huì)系統(tǒng),這帶來了監(jiān)管的不確定性。
這里需要提到的是重要的女性政治理論家艾麗斯·M·揚(yáng)的結(jié)構(gòu)不正義理論,她認(rèn)為社會(huì)進(jìn)程使得人們系統(tǒng)性的受到被支配或者被剝奪其發(fā)展和行使才能的威脅,同時(shí),這些社會(huì)進(jìn)程使得另一群人能夠支配他人或者擁有廣泛你的機(jī)會(huì)來發(fā)展和行使他們的權(quán)力。
這個(gè)理論為我們提供了理解算法規(guī)制的重要視角,就是我們?yōu)榱吮苊膺@樣的結(jié)構(gòu)性不正義的出現(xiàn),我們需要轉(zhuǎn)向社會(huì)關(guān)聯(lián)責(zé)任模式。
人們之所以要承擔(dān)這樣的責(zé)任,是因?yàn)槊總€(gè)個(gè)體的行為都促成了這樣不正義的結(jié)果。
換言之:我們并不是追溯某個(gè)個(gè)體或者團(tuán)體的回顧性責(zé)任,而是通過主動(dòng)減少、修正以及預(yù)防的方式來承擔(dān)這樣的前瞻性責(zé)任。
由于這種責(zé)任是通過社會(huì)結(jié)構(gòu)和進(jìn)程存在于人們的關(guān)聯(lián)之中,它就具備了共享性的特質(zhì),人們通過集體行為承擔(dān)了社會(huì)責(zé)任。
通過這樣的方式在算法規(guī)制中去體現(xiàn),可以讓我們能夠?qū)λ惴ㄒ?guī)制的意義和價(jià)值得到更深刻的思考。
二、科學(xué)的本質(zhì)
正因?yàn)槿绱松疃葘W(xué)習(xí)為代表的人工智能算法才會(huì)引發(fā)研究者的疑慮,因?yàn)檫@個(gè)過程中人類的參與程度會(huì)越來越低,因此人們很難對(duì)算法產(chǎn)生的負(fù)面結(jié)果的道德責(zé)任負(fù)責(zé)。
事實(shí)上,我個(gè)人認(rèn)為,這其中涉及了如何理解科技的本質(zhì)——如果僅僅從創(chuàng)新視角去理解的話,則很容易關(guān)注到科技變革帶來的規(guī)制行為的滯后性,從而對(duì)科技的發(fā)展產(chǎn)生疑慮。
如果我們從社會(huì)屬性來理解技術(shù),則打開了新的視角:
科技的發(fā)展(包括算法的發(fā)展)不是無水之源、無根之木,它是社會(huì)發(fā)展過程中產(chǎn)生的技術(shù)組合,因此科技的演化就會(huì)和社會(huì)結(jié)構(gòu)以及相應(yīng)的監(jiān)管系統(tǒng)產(chǎn)生耦合,從而適應(yīng)社會(huì)的發(fā)展。
從某個(gè)角度來說,過去數(shù)十年中國的數(shù)字經(jīng)濟(jì)發(fā)展有賴于數(shù)字化技術(shù)與中國的創(chuàng)新社會(huì)環(huán)境之間的“共生關(guān)系”,創(chuàng)新的技術(shù)與社會(huì)的環(huán)境相互影響并動(dòng)態(tài)交互,伴隨著時(shí)間推移和演化實(shí)現(xiàn)了共同發(fā)展。
換言之,算法規(guī)制是一種算法監(jiān)管的技術(shù),也是一種社會(huì)現(xiàn)象,構(gòu)建了一套“共生系統(tǒng)”,從而實(shí)現(xiàn)了復(fù)雜的社會(huì)與技術(shù)之間的管理。
這種管理機(jī)制擁有以下特點(diǎn):
第一,算法規(guī)制是通過高速的分布式信息處理機(jī)制進(jìn)行機(jī)器學(xué)習(xí)實(shí)現(xiàn)的。這其中比較典型的包括分類系統(tǒng)、推薦系統(tǒng)等等,通過這類人工智能的算法可以實(shí)現(xiàn)大規(guī)模的社會(huì)治理機(jī)制的落地,所面向的數(shù)據(jù)集也往往是大型非結(jié)構(gòu)化數(shù)據(jù)集,且在這個(gè)過程中算法會(huì)持續(xù)的更迭從而帶來不確定的效果。
由于這樣的機(jī)制非常依賴數(shù)據(jù),因此諸如GDPR這樣的數(shù)據(jù)治理和保護(hù)的機(jī)制就會(huì)出現(xiàn),成為決定算法規(guī)制等機(jī)制發(fā)展的重要文件。
第二,算法規(guī)制通過大型自動(dòng)化技術(shù)系統(tǒng)實(shí)現(xiàn)落地,由于其提供的復(fù)雜算法系統(tǒng)正在滲入社會(huì)生活的各個(gè)方面,因此關(guān)于它的研究往往涉及到跨學(xué)科的研究工作。
無論是經(jīng)濟(jì)學(xué)界所提到的“監(jiān)視資本主義”還是法律界提到的“機(jī)器人自主權(quán)”的問題,或者是我們所關(guān)心的機(jī)器倫理的問題等,都體現(xiàn)了這一問題的復(fù)雜性。
目前學(xué)術(shù)界和產(chǎn)業(yè)界雖然對(duì)算法的規(guī)制和管理的重要性達(dá)成了共識(shí),但是在具體應(yīng)對(duì)不同問題上則還是眾說紛紜,這對(duì)現(xiàn)有的數(shù)字經(jīng)濟(jì)的治理體制帶來的非常大的挑戰(zhàn)。
第三,算法規(guī)制需要相應(yīng)的風(fēng)險(xiǎn)控制機(jī)制來應(yīng)對(duì),以避免產(chǎn)生類似算法系統(tǒng)偏見即算法歧視等問題,不同的偏見和算法歧視已經(jīng)成為數(shù)字化政策領(lǐng)域研究的熱點(diǎn)問題。
無論是在算法決策過程中的算法決策機(jī)制存在的偏見,還是其訓(xùn)練的數(shù)據(jù)集本身所存在的偏見,都會(huì)帶來機(jī)制的不公和對(duì)個(gè)體的損害。
除此之外,算法的模擬行為也需要控制一定的限度,如果過度使用算法來仿照人類的行為模式和外觀,就會(huì)引發(fā)欺騙或者其他的社會(huì)道德問題。
基于以上的思考,我們可以將算法規(guī)制理解為一種風(fēng)險(xiǎn)管理系統(tǒng),這個(gè)系統(tǒng)是對(duì)于算法決策過程中可能會(huì)引發(fā)的技術(shù)與社會(huì)的嵌入和耦合后的風(fēng)險(xiǎn)的管理。
那么,我們?cè)谟懻撍惴▽?duì)決策影響時(shí),真正關(guān)注的是什么呢?
從法學(xué)角度來說,我們可以將算法決策系統(tǒng)對(duì)于規(guī)制行為的影響理解為三個(gè)層面的問題:
第一,對(duì)于決策程序自身的風(fēng)險(xiǎn)擔(dān)憂,這類擔(dān)憂主要集中于對(duì)決策責(zé)任對(duì)象的擔(dān)憂。
由于機(jī)器學(xué)習(xí)的算法過程中其生成的邏輯基礎(chǔ)有部分是人類完全無法實(shí)施有意義的監(jiān)督和干預(yù)的,且機(jī)器能夠在短時(shí)間內(nèi)處理成千上萬參數(shù)的變化,因此人類在算法運(yùn)行過程中喪失了信息的優(yōu)勢(shì),且對(duì)于結(jié)果的不可預(yù)料性也無法進(jìn)行控制,因此如何在決策過程中加入更多的人類監(jiān)管因素非常重要,我們所討論的“負(fù)責(zé)任的人工智能”就是基于這個(gè)視角去討論的。
如果機(jī)器無法承擔(dān)責(zé)任,而與此同時(shí)算法的決策剝奪了受影響力個(gè)體表達(dá)和反駁的權(quán)利,就會(huì)剝奪了某些個(gè)體的“陳情權(quán)”等基本權(quán)利,導(dǎo)致不正義的出現(xiàn)。
歐盟提出科技的治理必須是一項(xiàng)可以執(zhí)行的權(quán)利,其基礎(chǔ)出發(fā)點(diǎn)就在于必須在這個(gè)過程中體現(xiàn)公平和正義的可執(zhí)行性,而不是算法自動(dòng)化的集成。
第二,對(duì)于決策程序所導(dǎo)致結(jié)果的風(fēng)險(xiǎn)擔(dān)憂,即對(duì)算法系統(tǒng)的安全可靠性的質(zhì)疑。比如無人駕駛等算法決策系統(tǒng)帶來的巨大風(fēng)險(xiǎn),以及內(nèi)容推薦系統(tǒng)帶來的偏誤。
我們所熟知的劍橋分析公司與Facebook的丑聞體現(xiàn)了媒體內(nèi)容的偏差是如何左右民主選舉的進(jìn)程的。除此之外,算法決策所產(chǎn)生的不公和歧視也可以理解為結(jié)果的偏見和不準(zhǔn)確,也是引發(fā)人們對(duì)算法決策系統(tǒng)擔(dān)憂的重要體現(xiàn)。
第三,對(duì)算法決策系統(tǒng)帶來的個(gè)性化服務(wù)的風(fēng)險(xiǎn)擔(dān)憂,國外的電商平臺(tái)亞馬遜推出的商品算法的推薦引擎以及社交平臺(tái)Facebook所使用的動(dòng)態(tài)消息機(jī)制都屬于這類個(gè)性化服務(wù)的代表。
這樣的服務(wù)通常是免費(fèi)的,通過對(duì)大量用戶行為信息的持續(xù)追蹤以后,對(duì)其中的信息進(jìn)行分類和提煉,為用戶打上不同的標(biāo)簽,從而實(shí)現(xiàn)所謂“個(gè)性化服務(wù)”。
這類個(gè)性化服務(wù)通常意義上并非真實(shí)的用戶興趣和愛好,而是基于算法所推斷出來的興趣和愛好。換句話說,它們優(yōu)化的是商業(yè)系統(tǒng)的商業(yè)利益的結(jié)果,而不是用戶自身的興趣,沒有去保障用戶受到誤導(dǎo)以后的行為偏差,也很難保障用戶的長(zhǎng)期利益。
最后我們?cè)傺a(bǔ)充下關(guān)于算法偏見的分析:
在算法規(guī)制的所有對(duì)象中,算法的偏見是最具備典型性的,實(shí)際上這個(gè)概念從上世紀(jì)90年代就有了相關(guān)的討論。
在這個(gè)過程中,我們主要關(guān)注在沒有人類介入的情況下處理和分析輸入數(shù)據(jù)的機(jī)器,以及機(jī)器通過數(shù)據(jù)處理和分析得到的正面和負(fù)面的結(jié)構(gòu)。
換句話說:算法偏見關(guān)注的是非人類行為在應(yīng)用算法時(shí)可能存在的偏見。正因?yàn)槿绱?,深度學(xué)習(xí)為代表的人工智能算法才會(huì)引發(fā)研究者的疑慮——因?yàn)檫@個(gè)過程中人類的參與程度會(huì)越來越低,因此人們很難對(duì)算法產(chǎn)生的負(fù)面結(jié)果的道德責(zé)任負(fù)責(zé)。
當(dāng)然,人工智能系統(tǒng)及算法并不能全然獨(dú)立于人類——因?yàn)樗麄兊倪\(yùn)算背后必須有人的參與和輸入,抽離于特定場(chǎng)景的算法毫無意義。
由于人的道德是主觀性的,關(guān)注的是個(gè)人的道德責(zé)任,而算法偏見則是客觀性的,存在一定的道德缺口,這是為什么這類問題難解的原因。
關(guān)于這類問題的解決,會(huì)涉及到諸如“分布式責(zé)任”等新的范式的研究,限于篇幅我們?cè)谶@不做詳細(xì)闡述,這里只是強(qiáng)調(diào)算法偏見為代表的問題的出現(xiàn),需要通過一定的算法規(guī)制來解決。
以上就是我們對(duì)算法規(guī)制必要性和算法決策所帶來的道德問題的討論。
事實(shí)上算法規(guī)制背后的數(shù)據(jù)倫理議題,本質(zhì)上就是算法成為社會(huì)與技術(shù)系統(tǒng)的一部分以后,我們?nèi)绾伪苊馑惴ㄋ鶎?dǎo)致的復(fù)雜的社會(huì)系統(tǒng)風(fēng)險(xiǎn)的議題。
作者:劉志毅,數(shù)字經(jīng)濟(jì)學(xué)家、商湯智能產(chǎn)業(yè)研究院主任;微信公眾號(hào):底層設(shè)計(jì)師(ID:Bottom-upDesigner)
來源:https://mp.weixin.qq.com/s/iEGbHzxiJGGvYVJnbvLC-Q
本文由 @底層設(shè)計(jì)師 授權(quán)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自 Unsplash,基于CC0協(xié)議。
每天都在被算法控制,抖音上面某類視頻多看幾秒都會(huì)在接下來多推送幾條相似的,算法太強(qiáng)大