人工智能長篇報(bào)告:1.5萬字告訴你AI的應(yīng)用究竟對人類社會經(jīng)濟(jì)有哪些影響

0 評論 9681 瀏覽 27 收藏 58 分鐘

本報(bào)告為2016年7月7日由白宮和紐約大學(xué)信息法律協(xié)會聯(lián)合舉辦的“AI Now”人工智能研討會內(nèi)容之總結(jié)。

人工智能(Artificial Intelligence,簡稱AI)是一系列技術(shù)的集合,其下包括機(jī)器學(xué)習(xí)、推理、感知和自然語言處理等。人工智能的概念和應(yīng)用65年前就已開始,不過最近AI的進(jìn)步和應(yīng)用讓這種技術(shù)再次成為熱議。隨著AI被更廣闊地應(yīng)用到人類社會和經(jīng)濟(jì)生活各個(gè)方面,新的機(jī)遇和挑戰(zhàn)隨之而生。其巨大的潛在影響讓人類不得不謹(jǐn)慎思考AI技術(shù)的發(fā)展與應(yīng)用。

于今年7月舉行的“AI Now”研討會是由白宮科技政策辦公室和美國國家經(jīng)濟(jì)委員會聯(lián)合推動的一系列研究的最后一個(gè)環(huán)節(jié)。此前的一系列研究分別從不同的角度對AI進(jìn)行了分析研究,從政策法規(guī)到AI的安全控制,再到AI公益以及如何挖掘AI的更多潛能。這次“AI Now”則主要就未來十年AI在社會和經(jīng)濟(jì)領(lǐng)域的影響進(jìn)行討論。來自全球多個(gè)領(lǐng)域的專家學(xué)者集聚一堂,發(fā)表自己的觀點(diǎn)。討論的問題包括:現(xiàn)階段AI的迅速發(fā)展造成了哪些問題?如何更好地理解與使用AI來創(chuàng)造更公平公正的未來?

社會和經(jīng)濟(jì)的問題多不勝數(shù),本次“AI Now”主要圍繞“醫(yī)療”、“勞工就業(yè)”、“AI公平”以及“AI道德”準(zhǔn)則展開討論。

之所以選擇“醫(yī)療”和“勞工就業(yè)”作為主要話題,是因?yàn)槟壳斑@兩個(gè)領(lǐng)域中AI滲入廣泛,AI所能帶來的問題在這兩個(gè)領(lǐng)域中較為突出和明顯。而“AI公平”和“AI道德”則是未來大家都關(guān)注的問題:AI會有助于世界大同還是會加劇社會不公?以及如何確保AI的利益被全體人類享用?

該研討會的舉行旨在讓AI能夠更好地造福人類社會。通過眾多專家學(xué)者聚集一堂進(jìn)行討論的方式,本次“AI Now”研討會對人工智能學(xué)界內(nèi)外都具有顯著意義。

問題和建議

研討會對未來AI所可能造成的情況做出了預(yù)見,并分別給出相應(yīng)的建議。需要聲明的是,下列建議融合了全體與會人員的智慧,并不代表個(gè)人或某組織的立場。

隨著AI愈加緊密地被應(yīng)用到社會經(jīng)濟(jì)生活的方方面面,以下列出的問題和對應(yīng)的建議可以作為投資者和相關(guān)領(lǐng)域從業(yè)者在對來的參考指南。

問題一

AI的發(fā)展和應(yīng)用有賴于特定的基礎(chǔ)設(shè)施和人、物資源。這些基礎(chǔ)資源的短缺無疑會限制AI的發(fā)展,對這些基礎(chǔ)設(shè)施和資源的掌握在AI發(fā)展前期變的至關(guān)重要。

建議:從多個(gè)渠道改善發(fā)展AI的資源基礎(chǔ)。注重?cái)?shù)據(jù)集、計(jì)算機(jī)、相關(guān)人才教育培訓(xùn)等配套領(lǐng)域的建設(shè)。

問題二

雖然目前AI水平還在初級,不過在多個(gè)領(lǐng)域AI已經(jīng)作為人工輔助的角色存在,并且對勞動關(guān)系產(chǎn)生了影響。奧巴馬經(jīng)濟(jì)顧問委員會的主席杰森·弗曼(Jason Furman)就表示,低技術(shù)的體力勞動是最有可能被AI和自動化機(jī)械取而代之的職位。如果機(jī)器人開始和人類競爭工作,人力資源的分配也將迎來變革。

建議:更新自己的思維和技能,來應(yīng)對AI參與所帶來的就業(yè)結(jié)構(gòu)的改變。未來AI機(jī)器將承擔(dān)絕大多數(shù)低技術(shù)水平的工作職位,人們需要調(diào)整自己的技能儲備和收支方向以應(yīng)對新形勢。

問題三

AI和自動化的過程通常都是在人們目所不及的幕后進(jìn)行。缺少了人類的參與,機(jī)器可能做出有失公允或不慎恰當(dāng)?shù)臎Q定。隨著AI應(yīng)用的進(jìn)一步增長,對AI判斷和勘誤將變得更加重要,也更加困難。

建議:支持AI校準(zhǔn)和勘誤的研究,AI錯誤危害評估程序也應(yīng)提上日程。這些研究應(yīng)和AI的突飛猛進(jìn)配套發(fā)展,就像人類系統(tǒng)中司法之于行政。如此能夠及時(shí)發(fā)現(xiàn)AI犯下的錯誤,并避免嚴(yán)重后果。

問題四

針對AI模式下公私機(jī)構(gòu)公平和問責(zé)制的研究似乎與當(dāng)前美國一些法律相忤,比如計(jì)算機(jī)欺詐與濫用法案(CFAA)和數(shù)字千年版權(quán)法案(DMCA)。

建議:需要澄清的是,無論是計(jì)算機(jī)欺詐與濫用法案還是數(shù)字千年版權(quán)法案,都沒有限制相關(guān)研究。

問題五

盡管AI正以飛快的速度被運(yùn)用在醫(yī)療、勞工等諸多領(lǐng)域,但目前人類沒有一個(gè)公認(rèn)的辦法來在評估AI所帶來的影響。

建議:支持AI影響評估系統(tǒng)的研究。而且該領(lǐng)域的研究應(yīng)該和政府機(jī)構(gòu)通力合作,使成果能為政府行政所用。

問題六

那些因部署AI而權(quán)益受到損害的人,其聲音往往被忽視。

建議:在打造AI系統(tǒng)的時(shí)候,受影響者的意見應(yīng)該被聽取。AI應(yīng)由各方共同設(shè)計(jì)以免有失公允和太過激進(jìn)。

問題七

AI的研究主要集中在電子技術(shù)上,對于人性方面問題的關(guān)注常常不足。在未來,計(jì)算機(jī)科學(xué)領(lǐng)域的成員將益加呈現(xiàn)同質(zhì)化和單一化對特點(diǎn),這不利于AI開發(fā)者的眼界和經(jīng)驗(yàn),進(jìn)而影響到AI產(chǎn)品的打造。

建議:AI研究員和開發(fā)者應(yīng)該盡量多元化,開發(fā)人員的多樣與多元也會帶來更豐富紛呈的AI產(chǎn)品。未來AI領(lǐng)域應(yīng)該多多支持跨學(xué)科研究,從而使得AI系統(tǒng)能夠融合電子計(jì)算、社會科學(xué)以及人文氣息。

問題八

現(xiàn)有的道德準(zhǔn)則已經(jīng)不能應(yīng)對AI在現(xiàn)實(shí)中所面臨問題的復(fù)雜性。(比如在醫(yī)療、執(zhí)法、犯罪判決以及勞務(wù)等等)同時(shí),在大學(xué)里的計(jì)算機(jī)課堂上,盡管這些理工課程也逐漸開始重視道德教育,然而并未徹底貫徹到實(shí)踐中。

建議:同美國人工智能協(xié)會(AAAI)、美國計(jì)算機(jī)協(xié)會(ACM)以及電器和電子工程師協(xié)會(IEEE)這些專業(yè)機(jī)構(gòu)進(jìn)行合作,推動產(chǎn)生可以面對新形勢的道德準(zhǔn)則。同時(shí)在學(xué)校課堂上貫徹落實(shí)這些新道德準(zhǔn)則的教育。每個(gè)有志于計(jì)算機(jī)科學(xué)的學(xué)生在專業(yè)課之外也應(yīng)接受公民權(quán)利、自由等道德教育。相應(yīng)的,那些有AI滲入的領(lǐng)域(比如醫(yī)療場所)的從業(yè)人員也應(yīng)該對這些新道德標(biāo)準(zhǔn)有所知悉。

目前關(guān)于人工智能的四個(gè)關(guān)鍵性問題

我們現(xiàn)在將對目前關(guān)于人工智能的四個(gè)關(guān)鍵問題進(jìn)行深入探討,為讀者提供一個(gè)了解業(yè)內(nèi)專家見解以及建議的機(jī)會。相關(guān)探討包括每個(gè)關(guān)鍵問題所面臨的挑戰(zhàn)、機(jī)遇以及可采用的干預(yù)措施。

1.社會不公

人工智能系統(tǒng)如何造成偏見以及歧視等社會不公現(xiàn)象?

人工智能系統(tǒng)在高風(fēng)險(xiǎn)決策領(lǐng)域的作用越來越重要——從信貸、保險(xiǎn)再到第三方?jīng)Q策以及假釋問題。人工智能技術(shù)將代替人工決定誰會獲得重要機(jī)遇,而誰又將被拋棄,由此將會引發(fā)一系列關(guān)于權(quán)利、自由以及社會公正問題。

有些人認(rèn)為人工智能系統(tǒng)的應(yīng)用有助于克服人類主觀偏見帶來的一系列問題,而有些人則擔(dān)心人工智能系統(tǒng)將會放大這些偏見,反而會進(jìn)一步擴(kuò)大機(jī)會的不均等。

在這場討論中,數(shù)據(jù)將會起到至關(guān)重要的作用,引發(fā)人們的強(qiáng)烈關(guān)注。人工智能系統(tǒng)的運(yùn)行往往取決于其所獲得的數(shù)據(jù),也是這些數(shù)據(jù)的直觀反映。其中也包括這些數(shù)據(jù)的來源以及收集過程中的偏差。從這方面來講,關(guān)于人工智能的影響是與相應(yīng)的大數(shù)據(jù)技術(shù)密切相關(guān)的。

從廣義上講,數(shù)據(jù)偏差有兩種形式:

  • 第一種是采集的數(shù)據(jù)客觀上不能夠準(zhǔn)確反映現(xiàn)實(shí)情況(主要?dú)w因于測量方法的不準(zhǔn)確;數(shù)據(jù)采集不完整或過于片面;非標(biāo)準(zhǔn)化的自我評價(jià)以及數(shù)據(jù)采集過程中的其他缺陷);
  • 第二種在數(shù)據(jù)采集的過程中主觀上存在結(jié)構(gòu)性偏差(諸如在關(guān)于職業(yè)數(shù)據(jù)的采集中有目的性地通過主觀性的重男輕女來預(yù)測職場成功率)。

前一種的數(shù)據(jù)偏差可以通過“凈化數(shù)據(jù)”或者改進(jìn)數(shù)據(jù)采集過程來加以解決。但后一種則需要復(fù)雜的人工干預(yù)措施。值得注意的是,雖然有很多機(jī)構(gòu)都為解決這種問題做了大量的工作,但對于如何“檢測”數(shù)據(jù)偏差尚無定論。

當(dāng)采集的數(shù)據(jù)存在上述偏差時(shí),用這種數(shù)據(jù)所訓(xùn)練的人工智能系統(tǒng)也會存在相應(yīng)偏差,其產(chǎn)生的模型或者結(jié)果不肯避免的會復(fù)制并放大這種偏差。在這種情況下,人工智能系統(tǒng)所作出的決策將會產(chǎn)生差別效應(yīng),從而引發(fā)社會不公。而這種不公平要比人為偏見和不公隱晦的多。

在以風(fēng)險(xiǎn)控制為主導(dǎo)的行業(yè)中,隨著人工智能系統(tǒng)的廣泛應(yīng)用,導(dǎo)致人與人之間的細(xì)微差別異化對待等現(xiàn)象顯著增加,在保險(xiǎn)以及其他社會擔(dān)保行業(yè)尤為如此。人工智能系統(tǒng)的應(yīng)用能夠使公司更加有效地通過“逆向選擇”來識別特定群體以及個(gè)人,從而有效避免風(fēng)險(xiǎn)。

諸如在醫(yī)療保險(xiǎn)領(lǐng)域,人工智能系統(tǒng)會對投保人的特征以及表現(xiàn)行為進(jìn)行分析,并對那些被識別為特殊疾病或者是未來發(fā)病率高的投保人收取更多保費(fèi)。在這種情況下,對于那些健康狀況不佳且經(jīng)濟(jì)能力差的人群尤為不利。這就是為何批評者經(jīng)常會指責(zé)稱,即便人工智能系統(tǒng)的預(yù)測準(zhǔn)確,保險(xiǎn)人行為理性,但效果卻常常是帶來負(fù)面影響。

保險(xiǎn)業(yè)的競爭或許會加劇這種發(fā)展趨勢,最終人工智能系統(tǒng)的應(yīng)用或許會加劇這種不平等性。當(dāng)然,相關(guān)反歧視法律法規(guī)中的規(guī)范性原則能夠?yàn)榻鉀Q這些問題帶來幫助,雖然這種方法可能不是最有效、最公平的。此外,對人工智能系統(tǒng)進(jìn)行設(shè)計(jì)和部署也很重要,但現(xiàn)有的法律框架或許會使相應(yīng)研究受到阻礙。諸如如計(jì)算機(jī)欺詐和濫用法(CFAA)和數(shù)字千年版權(quán)法案(DMCA)都對這方面研究進(jìn)行了限制,因此當(dāng)下也需要對現(xiàn)行法規(guī)進(jìn)行改革,確保必要的研究能夠順利進(jìn)行。

人工智能將受益少數(shù)人?

人工智能系統(tǒng)為經(jīng)濟(jì)價(jià)值的產(chǎn)生帶來了新的方式,也對經(jīng)濟(jì)價(jià)值的分配產(chǎn)生了新的影響。在某種程度上,人工智能系統(tǒng)的價(jià)值分配會使一部分群體受益,從而延續(xù)或加劇現(xiàn)有的薪資、收入以及財(cái)富分配差距。

那些有能力研發(fā)人工智能技術(shù)的組織將會加劇這種不平等性。據(jù)預(yù)測,人工智能是一個(gè)每年市值達(dá)到數(shù)十億美元的龐大產(chǎn)業(yè)。開發(fā)人工智能技術(shù)需要大量的前期投資,其中包括海量的計(jì)算資源以及大數(shù)據(jù),兩者的成本都非常之大。這導(dǎo)致人工智能的開發(fā)和應(yīng)用被限制在一個(gè)特定的范圍之內(nèi)。在這種情況下,那些擁有強(qiáng)大數(shù)據(jù)以及計(jì)算能力的企業(yè)才能夠通過人工智能系統(tǒng)深入了解市場動態(tài),從而獲取更多優(yōu)勢,為自己帶來“富者更富”的馬太效應(yīng),帶來更多成功。

從另一方面來說,人工智能以及自動化系統(tǒng)能夠降低商品和服務(wù)成本,如果這些降低的成本能夠使消費(fèi)者受益,那么人工智能就可以縮小貧富差距。在這種情況下,人工智能系統(tǒng)能夠提高整個(gè)社會的生活水平,甚至于引發(fā)一個(gè)漸進(jìn)式的再分配效應(yīng)。

此外,人工智能也會帶來全新的生活方式。在人工智能環(huán)境下,那些工作落伍的人有機(jī)會需求獲取資源的新方式,而工作受到影響的人也能夠通過人工智能創(chuàng)造新的就業(yè)機(jī)會。換而言之,人工智能能夠緩解勞動力危機(jī),讓人們自由追求生活以及工作新方式,從而提高社會的整體福利。

盡管如此,一些評論家指出,人工智能系統(tǒng)會使得某些工人的技能多余化,那些被自動化所取代的工人不得不尋求新的就業(yè)機(jī)會。即便這部分工人能夠找到新的工作,這種工作也常常是低附加值的,且工作穩(wěn)定性更低。從這個(gè)角度將,人工智能以及自動化系統(tǒng)反而消除了就業(yè)機(jī)會。

更進(jìn)一步,如果學(xué)習(xí)新的工作技能非常昂貴,工人們或許會認(rèn)為這種職業(yè)技能培訓(xùn)與新工作并不成正比。在這種情況下,人工智能系統(tǒng)不僅會增加社會不公,更會帶來永久性的失業(yè)以及貧窮。這就是為何理解人工智能系統(tǒng)對勞動力的潛在影響是理解其對經(jīng)濟(jì)平等性影響的重要方面。

和以往許多技術(shù)一樣,人工智能技術(shù)也往往反映了其創(chuàng)建者的價(jià)值觀。因此,也可以通過在人工智能開發(fā)、部署、維護(hù)階段的多元化來推動人工智能技術(shù)的平等性。

當(dāng)前,在人工智能甚至于整個(gè)計(jì)算機(jī)科學(xué)家技術(shù)行業(yè),女性以及少數(shù)民族從業(yè)人員所占比例還很少。這種現(xiàn)狀也在一定程度上導(dǎo)致整個(gè)技術(shù)缺乏包容性,導(dǎo)致一定的偏見,延續(xù)或限制相關(guān)從業(yè)者對其他群體的考慮。

人們也越來越清楚的認(rèn)識到,人工智能領(lǐng)域從業(yè)者的多樣性有助于人工智能系統(tǒng)滿足不同人群的利益。為了解決偏見、歧視和不平等問題,人工智能團(tuán)隊(duì)需要一個(gè)更廣泛的視角。

2.勞工關(guān)系

目前有關(guān)就業(yè)和AI系統(tǒng)的討論往往都集中在對人們未來將會失業(yè)的擔(dān)憂上。最新的研究表明,還存在更加復(fù)雜、影響更加直接的問題,這些問題不僅僅影響勞工市場,還影響雇主與雇員之間的關(guān)系、權(quán)力動力學(xué)、職業(yè)責(zé)任和工作在人類生活中的角色。

許多傳統(tǒng)經(jīng)濟(jì)研究人員正在密切追蹤美國國內(nèi)勞工市場和企業(yè)機(jī)構(gòu),以此來考量AI系統(tǒng)的影響。這類研究可帶來非常重要的定性數(shù)據(jù),能夠促進(jìn)對宏觀經(jīng)濟(jì)趨勢和勞工供需狀況的理解,比如未來將會有多少工作崗位。

與此同時(shí),社會科學(xué)研究則評估工作屬性和工作動力的改變正在如何改變?nèi)藗兊娜粘I铙w驗(yàn)。這兩個(gè)研究視角對于衡量AI系統(tǒng)短期對勞動力的社會影響和經(jīng)濟(jì)影響都必不可少。

AI會影響工作崗位需求嗎?

自動化技術(shù)在經(jīng)濟(jì)中的角色遠(yuǎn)非新議題,事實(shí)上對于AI系統(tǒng)影響的考慮是出現(xiàn)于長期以來的討論。

雖然表面來看勞工需求會隨著自動化技術(shù)的日益普及而下降,畢竟需要做的工作將會很有限,但也有經(jīng)濟(jì)學(xué)家并不這么認(rèn)為,他們稱該觀點(diǎn)是“勞動合成”謬論。他們指出,隨著一個(gè)行業(yè)的生產(chǎn)力的提升(由于自動化技術(shù)或者其它因素),新行業(yè)也會誕生,因而會產(chǎn)生新的勞工需求。例如,1900年農(nóng)業(yè)在美國勞動力中的占比為41%,到2000年該占比只有2%。兩位勞工經(jīng)濟(jì)學(xué)家大衛(wèi)·奧特爾(David Autor)和大衛(wèi)·多恩(David Dorn)稱,即便出現(xiàn)這種劇變,失業(yè)率長期來看并沒有出現(xiàn)上升,就業(yè)人口比率實(shí)際上反而出現(xiàn)提升。另外兩位經(jīng)濟(jì)學(xué)家詹姆斯·亨廷頓(James Huntington)和卡爾·弗雷(Carl Frey)則給出了可怕的預(yù)言:AI系統(tǒng)將會大大減少工作崗位。

還有人在爭論勞動市場的變化和波動是否與技術(shù)進(jìn)步有關(guān),是否只是因經(jīng)濟(jì)政策而出現(xiàn)。這類看法聚焦于現(xiàn)有的法律體系和監(jiān)管機(jī)制對于AI和自動化系統(tǒng)的發(fā)展應(yīng)該擔(dān)當(dāng)什么樣的角色。例如,羅伯特·戈登(Robert Gordon)認(rèn)為當(dāng)前的創(chuàng)新浪潮其實(shí)并沒有它們表面上看起來那么具有變革性。不少持相反意見的人則稱,勞動市場正因?yàn)榧夹g(shù)變化而發(fā)生重要轉(zhuǎn)變。這些人包括約瑟夫·斯蒂格利茨(Joseph Stiglitz)和拉里·米歇爾(Larry Mishel),他們認(rèn)為,要保護(hù)勞動力,就必須要對AI和自動化系統(tǒng)相關(guān)的監(jiān)管和其它政策變化上保持高度的重視。

奧特爾、多恩等經(jīng)濟(jì)學(xué)家發(fā)現(xiàn)“就業(yè)兩極分化”現(xiàn)象正變得非常明顯,即中等技能崗位在減少,而高等技能和低等技能的崗位則在增加。雖然未來可能會出現(xiàn)新的崗位,但它們往往都收入比較低,不受歡迎。

例如,許多支持AI系統(tǒng)的工作事實(shí)上需要由人類去完成,他們需要維護(hù)那些基礎(chǔ)設(shè)施,照顧系統(tǒng)的“健康狀況”。這種勞動力往往不大顯眼,至少從媒體的報(bào)道和人們對AI的印象來看是這樣。因此它往往受到低估。這類工作包括負(fù)責(zé)清潔辦公室和維護(hù)工作的清潔工,負(fù)責(zé)維修服務(wù)器故障的維修工,以及有位記者所說的“數(shù)據(jù)衛(wèi)生工”(能夠“清理”數(shù)據(jù),為數(shù)據(jù)分析做好準(zhǔn)備)。

AI系統(tǒng)對勞動力的影響相關(guān)的問題應(yīng)當(dāng)不僅僅包括未來是否會創(chuàng)造出新崗位,還應(yīng)當(dāng)包括那些崗位會否是能維持生計(jì)的體面工作。

此外,有關(guān)AI系統(tǒng)和勞工市場未來的討論通常都專注于傳統(tǒng)上被認(rèn)為是低收入的工人階級崗位,如制造業(yè)、卡車運(yùn)輸、零售或者服務(wù)工作,但研究表明,未來各行各業(yè)都將受到影響,其中包括需要專業(yè)訓(xùn)練或者高學(xué)歷的專業(yè)工作,如放射學(xué)或者法律。關(guān)于這一點(diǎn),未來將需要解決職業(yè)責(zé)任和義務(wù)方面的新問題。

AI將會如何影響主雇關(guān)系?

近年來,研究人員開始研究依靠大數(shù)據(jù)的AI和自動化系統(tǒng)(從Uber到應(yīng)用于大型零售商的自動化調(diào)度軟件,再到工作間監(jiān)視)正在如何改變雇主與雇員之間的關(guān)系。

研究發(fā)現(xiàn),雖然這類系統(tǒng)可以用來賦能員工,但該類技術(shù)也可能會引發(fā)大問題,如剝奪員工權(quán)利,加劇就業(yè)歧視問題,以及催生不當(dāng)勞動行為。

例如,AI驅(qū)動的勞動力管理和調(diào)度系統(tǒng)正越來越多地被用來管理勞動力,助力按需經(jīng)濟(jì)的增長和“朝不保夕族”(precariat)的崛起。雖然部分研究人員稱恰當(dāng)?shù)恼{(diào)度能夠帶來很有價(jià)值的彈性,但到目前為止,更多的研究發(fā)現(xiàn)受該類系統(tǒng)管制的員工存在情緒緊張和缺乏安全感問題。

由這類系統(tǒng)管理的員工的不利體驗(yàn)包括長期不充分就業(yè),財(cái)務(wù)狀況不穩(wěn)定,缺少傳統(tǒng)全職員工能夠獲得的福利保障,無力為家庭或者自我照顧(又或者因?yàn)槿淌懿涣嗽擃惞ぷ魍蟮碾S時(shí)待命性質(zhì)而尋找別的工作)做規(guī)劃。此外,受這些問題影響的員工更多是女性和少數(shù)族裔。

另外,基于AI系統(tǒng)的新遠(yuǎn)程管理模式會加大將“系統(tǒng)”所做的嚴(yán)重影響員工的決策歸責(zé)于雇主的難度。因此,員工更容易受到剝削。

例如,像Uber這樣的由大數(shù)據(jù)和AI驅(qū)動的平臺會遠(yuǎn)程控制行駛路線、定價(jià)、報(bào)酬甚至人際交流方面的標(biāo)準(zhǔn)——這些決定傳統(tǒng)上說通常都有人工親自管理。

除了模糊化特定決策的性質(zhì)和邏輯之外,這類遠(yuǎn)程管理通常并不被認(rèn)為是“雇員管理”。

由于這些新管理模式不大符合現(xiàn)有的監(jiān)管模式,像Uber這樣的公司會將自己標(biāo)榜為技術(shù)公司,而非雇員的管理者。按照這一理念,這類公司將自己視作促進(jìn)連接的平臺,因此不會像傳統(tǒng)雇主那樣對雇員負(fù)責(zé)。依照這種模式,雇員最終要承擔(dān)權(quán)益保障(如減輕稅項(xiàng)負(fù)擔(dān)、醫(yī)療保健和其它的勞工保障)和潛在救濟(jì)模式的就業(yè)帶來的風(fēng)險(xiǎn)。

3.醫(yī)療健康

像我們現(xiàn)在所看到的大多數(shù)已被應(yīng)用到醫(yī)療健康領(lǐng)域的AI系統(tǒng),它們幾乎都依賴于大型數(shù)據(jù)庫,這些AI系統(tǒng)會通過各種復(fù)雜的統(tǒng)計(jì)模型和機(jī)器學(xué)習(xí)技術(shù),從其所收集到的海量數(shù)據(jù)中,自動提煉出各種重要信息。

那些已投入使用的醫(yī)療數(shù)據(jù)信息源(仍處在不斷增長當(dāng)中)——包括電子病歷(EHRs)、臨床和醫(yī)保數(shù)據(jù)庫、從各類消費(fèi)電子產(chǎn)品和App上傳來的健康數(shù)據(jù)——目前已經(jīng)被大量地應(yīng)用到AI系統(tǒng)的實(shí)踐,這些AI系統(tǒng)具有極大的能改善社會醫(yī)保水平的潛力。

無論是臨床診斷、病人護(hù)理,還是施藥;無論是藥品生產(chǎn)、組織管理,還是醫(yī)保信息交互,這些AI系統(tǒng)都為醫(yī)療從業(yè)者的工作起到了極大的助力。

AI是如何被融入到醫(yī)學(xué)研究和醫(yī)療健康的?

將AI系統(tǒng)融入到醫(yī)學(xué)研究,具有令人極為欣喜的應(yīng)用前景,它能幫助我們更好地理解那些疾病的病理,幫助我們開發(fā)出更多的新式治療手段,實(shí)現(xiàn)更為精準(zhǔn)的醫(yī)學(xué)診斷,甚至還能私人訂制地為個(gè)人生產(chǎn)出特制的藥品。

然而,鑒于目前仍存在的將AI應(yīng)用到醫(yī)療領(lǐng)域的局限和偏見,它們或?qū)⒆璧K這些應(yīng)用前景的實(shí)現(xiàn),而這就需要研究人員更為細(xì)心謹(jǐn)慎地去探索這一前沿的技術(shù)。

目前,這些將AI技術(shù)應(yīng)用到醫(yī)療領(lǐng)域的局限,包括有不完整或不準(zhǔn)確的研究數(shù)據(jù),即未含蓋到特定的少數(shù)群體,除此之外,尤以美國醫(yī)保系統(tǒng)為代表的復(fù)雜醫(yī)療補(bǔ)貼激勵制度,也將在一定程度上阻礙到了AI醫(yī)療技術(shù)的應(yīng)用。舉個(gè)簡單的例子,目前的一些醫(yī)療補(bǔ)貼制度會更支持個(gè)別種類的藥物研發(fā),或是更傾向于補(bǔ)貼個(gè)別治療方案。

醫(yī)療研究數(shù)據(jù)時(shí)常會表現(xiàn)出客觀、通用的屬性,但在實(shí)際應(yīng)用的過程中,這些研究結(jié)論往往會表現(xiàn)出片面、暫時(shí)和只針對某些團(tuán)體或病癥的特性,而AI系統(tǒng)根據(jù)這些“片面”數(shù)據(jù)所分析和建立出的模型,可能會引出、建立或是衍生出一些錯誤的猜測。

所幸的是,這樣的錯誤情況是可以避免的。如果一個(gè)AI系統(tǒng)所收集的數(shù)據(jù)不存在上面我們所提到的那些瑕疵(假設(shè)這點(diǎn)是可以被保證的),或是該AI系統(tǒng)所使用的數(shù)據(jù)框架像隨機(jī)對照試驗(yàn)方法(randomized control trials, RCTs)或是其它公共醫(yī)療數(shù)據(jù)庫那樣,具有自行矯正這些問題的能力,能減小其內(nèi)在錯誤偏差的話,它就能有效地避免重大誤差的出現(xiàn)。

假設(shè)這些誤差微小到可被忽略,將AI系統(tǒng)融入到醫(yī)療健康研究和臨床實(shí)踐中心的一個(gè)最有可能實(shí)現(xiàn)的應(yīng)用前景,是讓AI去協(xié)助醫(yī)生進(jìn)行病癥診斷,從海量數(shù)據(jù)中發(fā)現(xiàn)規(guī)律性的模式,從而幫助醫(yī)生更早地揪出那些藏匿在身體深處的“狡猾”病灶。

事實(shí)上,AI系統(tǒng)目前已經(jīng)可以完成對部分病癥的診斷了,這其中就包括了白血病。在檢查和臨床護(hù)理環(huán)節(jié),AI系統(tǒng)在一些情況下,也有幾率能減少,甚至預(yù)防誤診情況的出現(xiàn)。須知,誤診是可以致命的,AI輔助診斷技術(shù)的價(jià)值之高,可想而知。

在這方面,AI系統(tǒng)在診斷和確立病癥的環(huán)節(jié)上,正扮演越來越重要的角色。然而,也正是因?yàn)槿绱?,研究人員必須警惕,要避免出現(xiàn)因AI錯誤猜測,而推斷出“正常”或是“平均”等健康狀況描述的情況的發(fā)生。

類似的,我們只需要回顧一下美國在1973年前的那段歷史,就想象出當(dāng)AI出現(xiàn)誤診時(shí),會發(fā)生什么樣慘劇。彼時(shí),美國精神病學(xué)協(xié)會(American Psychiatric Association)將同性戀作為一種精神疾病列入到了它權(quán)威的精神病診斷和統(tǒng)計(jì)手冊當(dāng)中,這樣一來,悲劇的出現(xiàn)就不可避免了。

同樣的,當(dāng)AI系統(tǒng)被直接地應(yīng)用到病人護(hù)理時(shí),它們將涉足到診斷和臨床管理的方方面面,而這也時(shí)常將隔開看護(hù)者同病人之間的距離,所以,適當(dāng)?shù)孛鞔_出AI“專業(yè)程度”的局限,是非常重要的。

一名人類外科醫(yī)生在上崗之前,會先上醫(yī)科大學(xué),在經(jīng)歷過層層嚴(yán)苛的考核后,他們的醫(yī)術(shù)才能獲得世人的承認(rèn),然而,我們要如何造出一個(gè)出色的AI大夫來協(xié)助,或者甚至是取代一個(gè)有“文憑”的人類名醫(yī)呢?

這樣一個(gè)AI醫(yī)療系統(tǒng)意味著它需要具有絕對準(zhǔn)確的專家級權(quán)威水平,不會出現(xiàn)誤診或是診斷偏頗的情況。這種級別的信任代表著這些AI系統(tǒng)無論是在出廠的能力評估上,還是在檢測其極限能力上,都可以接受更少的審查,而這也將制造出那些,目前還未被醫(yī)學(xué)倫理框架所囊括的新型倫理問題。

除此之外,我們還需要關(guān)注類似于這樣的AI醫(yī)療系統(tǒng)在醫(yī)保領(lǐng)域內(nèi)被布置于何處,使誰受益等等這樣的問題。盡管讓醫(yī)療健康惠及所有人,讓大家都能負(fù)擔(dān)得起確實(shí)是一種需求,但已有大量的證據(jù)表明,取得醫(yī)保和健康數(shù)據(jù)的權(quán)限并未被公平地分配,在多數(shù)情況下,窮人、非白人和女性群體常常處于劣勢地位。

讓AI系統(tǒng)融入到醫(yī)保體系,非但不會根除這些系統(tǒng)性的不平等問題,反而還有可能會放大這種問題的嚴(yán)重性。雖然AI系統(tǒng)可以實(shí)現(xiàn)合適的定制化醫(yī)療護(hù)理,讓各式各樣的人都獲益,但它也可以被故意培養(yǎng)成過濾掉那些之前就常常被忽視、被服務(wù)不周的外圍群體。

如果這些群體沒有被給予適當(dāng)?shù)目紤]的話,這反過來也將影響到AI系統(tǒng)所構(gòu)建出的預(yù)測模型。AI預(yù)測模型會被那些能用上這種AI系統(tǒng)的特權(quán)群體所上傳的健康數(shù)據(jù)所不斷的固化,從而只能有效反饋出富人的“健康狀況”,并最終構(gòu)建出一個(gè)會完全排斥“邊緣人群”的健康與疾病的整體認(rèn)知模型。

鑒于目前美國存在的醫(yī)保財(cái)政的亂象,這樣的憂患確實(shí)是值得人們投入更多關(guān)注,就像這樣的亂象在過去影響到醫(yī)療技術(shù)的整合一樣,它也必然會在未來影響到AI醫(yī)療系統(tǒng)的布置和效用,

基于這樣的考慮,人們在推動AI醫(yī)療系統(tǒng)不斷發(fā)展的同時(shí),也在不斷努力地去降低AI醫(yī)療系統(tǒng)造價(jià),而這也將促使那些利益相關(guān)者(比如政客、保險(xiǎn)公司、健康機(jī)構(gòu)、制藥企業(yè)、雇主和其他人)把他們的注碼,寄托于大規(guī)模的健康數(shù)據(jù)收集和AI系統(tǒng)的研制上,以此來幫助他們更好地維護(hù)他們在模型研發(fā)和醫(yī)保護(hù)理上的經(jīng)濟(jì)利益。

然而,將這些信息技術(shù)和AI系統(tǒng)整合到醫(yī)院和其它醫(yī)療健康體系所需要的關(guān)鍵培訓(xùn)、資源和那些正在進(jìn)行當(dāng)中的必要維護(hù),并不總是能夠得到支持,或者說并不總是能處于“不差錢”的狀況。而這種情況其實(shí)已經(jīng)導(dǎo)致了技術(shù)資源和技術(shù)能力的分配不均。

訓(xùn)練AI所需的數(shù)據(jù)收集和病患觀察將如何影響到個(gè)人隱私?

AI系統(tǒng)對數(shù)據(jù)量的極度依賴和對病例觀察的需求也自然而然地催生出了對病人隱私、秘密和安全保護(hù)等等急迫的問題。

目前,對AI醫(yī)療系統(tǒng)高性能期許的實(shí)現(xiàn)依賴于通過各式各樣的設(shè)備、平臺和互聯(lián)網(wǎng)來源源不斷地獲取到海量的病患數(shù)據(jù),而這一過程也不可避免地會涉及到某些人或機(jī)構(gòu)會在利益的驅(qū)使下,做出出格的監(jiān)視行為。、

與此同時(shí),像同態(tài)加密(Homomorphic encryption)、差分隱私(differential privacy)和隨機(jī)隱私(stochastic privacy)這樣的技術(shù)帶給了我們應(yīng)對這些亂象現(xiàn)象的新的希望,它們可以讓AI系統(tǒng)實(shí)現(xiàn)在不“查閱”數(shù)據(jù)的情況下,直接地去“調(diào)用”它們。雖然就目前來說,這些新技術(shù)仍處于研發(fā)的初步階段,連一個(gè)通用應(yīng)用程序都還沒有被開發(fā)出來,但它展現(xiàn)出能令人鼓舞的應(yīng)用前景。

除此之外,隨著近期美國政府對循證醫(yī)學(xué)(Evidence ?based medicine)的推廣和《平價(jià)醫(yī)保法案》(Affordable Care Act)已由原先的按服務(wù)收費(fèi)轉(zhuǎn)變至按治療行為收費(fèi)的這一變化,監(jiān)管行為背后所涉及到的經(jīng)濟(jì)利益問題和對敏感健康數(shù)據(jù)消費(fèi)的問題,都在不斷地加劇惡化當(dāng)中。

至于那些保險(xiǎn)公司,在AI系統(tǒng)入局的情況下,其所需面對的對驗(yàn)證交叉補(bǔ)貼方案合理性的呼聲的壓力也在與日俱增。

舉個(gè)例子,盡管美國政府在2008年就頒布了《基因資訊平等法》(Genetic Information Nondiscrimination Act),但出于對保險(xiǎn)分層管理的需求,保險(xiǎn)公司對能獲取到遺傳危險(xiǎn)率信息的興趣也在日益增長。事實(shí)上,差別定價(jià)目前已經(jīng)成為了數(shù)據(jù)分析供應(yīng)商的一項(xiàng)業(yè)內(nèi)通用做法,而這反過來也進(jìn)一步地鞏固和加劇了目前的不平等現(xiàn)象。

此外,“智能設(shè)備”和其它能讓AI系統(tǒng)獲取到所需數(shù)據(jù)的聯(lián)網(wǎng)傳感器也已讓追蹤和監(jiān)視變得無處不在,而這也將目前的那些隱私保護(hù)政策的覆蓋范圍不斷地拓寬,像《醫(yī)療健康可攜性和責(zé)任法案》(Health Insurance Portability and Accountability Act)就是在這一考慮下的產(chǎn)物。

隨著AI系統(tǒng)被越來越多地融入到健康和電子消費(fèi)產(chǎn)品上,病人因細(xì)分?jǐn)?shù)據(jù)而被重新定義,或是由代理數(shù)據(jù)來預(yù)測出他們的身份、所患疾病和其它健康信息的風(fēng)險(xiǎn),正不斷地升高。

除此之外,那些驅(qū)動這些數(shù)據(jù)收集設(shè)備的軟件也常常是為私人所持有,而不是開源的(不受外部審查審計(jì)的約束)。雖然,美國政府最近簽署的法令對《數(shù)字千禧年著作權(quán)法案》(Digital Millennium Copyright Act)中的相關(guān)條例進(jìn)行了免除,讓審查外部醫(yī)療設(shè)施的代碼成為可能,但更為重要的或許是審查那些內(nèi)部醫(yī)療設(shè)施,然而這種行為并未被這一豁免權(quán)所囊括到。

總的來說,相關(guān)業(yè)內(nèi)專家們都已經(jīng)對在物聯(lián)網(wǎng)設(shè)備上,布置聯(lián)網(wǎng)技術(shù)所潛在的重大安全隱患做過警告了,在這些警告中,有很多就是專門針對醫(yī)療設(shè)備安全問題的。

AI將如何影響患者和醫(yī)療保險(xiǎn)供應(yīng)商?

那些已被實(shí)現(xiàn)或是有望被實(shí)現(xiàn)的AI技術(shù),對健康護(hù)理系統(tǒng)的構(gòu)建有著深遠(yuǎn)的意義,對需要照顧的病患,或是那些虛弱體質(zhì)的人也意義非凡。

人們對于AI系統(tǒng),進(jìn)行了許多美好的構(gòu)想,寄予它們護(hù)理工作調(diào)解員的角色,并相信它們在未來有可能完全取締了護(hù)工的工作。這一轉(zhuǎn)變前景樂觀、經(jīng)濟(jì),且高效,很可能會改善患者與醫(yī)生或其他護(hù)工之間的關(guān)系和他們的工作方式。

能展示AI系統(tǒng)具有代替或者協(xié)助人工護(hù)理工作的潛力的例子非常之多,包括有機(jī)器人外科醫(yī)生、虛擬管家和陪護(hù)機(jī)器人等等。這些例子逐漸引發(fā)了一些爭論,比如代理照顧和陪同護(hù)理的社會意義是否可以讓非人類的機(jī)器來代替?當(dāng)機(jī)器替代人工時(shí),它是否能不僅僅只是增強(qiáng)人工的專業(yè)性,而能做到真正的獨(dú)當(dāng)一面呢?當(dāng)我們認(rèn)為一臺機(jī)器有能力“護(hù)理”病人時(shí),它具備了哪些“護(hù)理”能力呢?我們又是如何定義“護(hù)理”這個(gè)詞呢?這些我們以為的“以為”是否是站在病人權(quán)益的角度上,去考慮的呢?

就目前來說,雖然陪護(hù)機(jī)器人在取代人工護(hù)理工作上,還未取得什么明顯的效果, 但由AI驅(qū)動的APP和聯(lián)網(wǎng)設(shè)備能讓病人取回對自己健康管理的控制權(quán)的前景正在與日俱增,而這也預(yù)示著AI醫(yī)療系統(tǒng)同病人的直接交互,正處于早期發(fā)展階段。。

這種人與AI的直接交互其實(shí)也是一把雙刃劍。一方面,它能讓病人康復(fù)地更快、對自身病情有更多的了解。另一方面,這種變革也需要他們擔(dān)負(fù)更多的風(fēng)險(xiǎn)。這些風(fēng)險(xiǎn)包括它可能會誤導(dǎo)病患,影響他們可能會接收到的信息的質(zhì)量和準(zhǔn)確性,而這也是美國聯(lián)邦貿(mào)易委員會(FTC)在近些年來,所要傳達(dá)給我們的擔(dān)慮。

除此之外,這些搭載了AI的APP也可以將原先醫(yī)療從業(yè)者所需要承擔(dān)的責(zé)任轉(zhuǎn)移病人本身,但這對病人來說不見得是什么好消息,因?yàn)椴⒉皇撬腥硕加袝r(shí)間、財(cái)力和AI技術(shù)獲取渠道,來實(shí)現(xiàn)對他們自身健康的護(hù)理。

那么,什么樣的患者能優(yōu)先享受到這些仍在不斷改進(jìn)當(dāng)中的AI醫(yī)療技術(shù)的紅利呢?對于那些“裝備”不良卻想管理和維護(hù)自己個(gè)人數(shù)據(jù)的病患來說,他們所接受到的健康看護(hù)是否是不合格的呢?

再者,那些搭載了AI技術(shù)的應(yīng)用的設(shè)計(jì)者和研發(fā)者在這一社會演變過程中,又需要扮演什么新的角色?需要承擔(dān)哪些新的責(zé)任?

那些始終處于風(fēng)口浪尖的醫(yī)學(xué)道德倫理,又將如何融入到這些與眾不同的,新式工程技術(shù)的載體上呢?

4.道德責(zé)任

AI系統(tǒng)的部署不僅將引發(fā)新的責(zé)任,也將對職業(yè)道德、研究道德、甚至公共安全評估等現(xiàn)有領(lǐng)域造成挑戰(zhàn)。

近來,人們對道德和AI系統(tǒng)的討論傾向于優(yōu)先考慮很久以后可能會出現(xiàn)的AI系統(tǒng),例如,“奇點(diǎn)”的來臨,或超級智能的發(fā)展。

也就是說,這種討論往往并未關(guān)注AI系統(tǒng)在短期或中期內(nèi)會產(chǎn)生的道德影響,例如,當(dāng)前已投入使用的大量任務(wù)型AI系統(tǒng)引發(fā)了新挑戰(zhàn)、可能加劇不平等、或從根本上改變權(quán)利機(jī)制。

當(dāng)代AI系統(tǒng)上能夠執(zhí)行各種各樣的活動,這類技術(shù)會引發(fā)各種隱性和顯性后果,因此可能對傳統(tǒng)倫理框架提出新挑戰(zhàn)。AI系統(tǒng)被部署在人類社會中時(shí)或許會引發(fā)不可預(yù)測的相互作用和后果。

在資源配置以及讓權(quán)力和信息集中或重組的潛力方面,我們迫切需要處理一些關(guān)鍵問題來確保AI技術(shù)不會造成傷害,特別對于已被邊緣化的群體。

我們?nèi)绾蜗駻I授予權(quán)力或委派AI展開決策?

AI系統(tǒng)在社會和經(jīng)濟(jì)領(lǐng)域內(nèi)的融合需要我們把社會問題轉(zhuǎn)變?yōu)槟軌虮籄I解決的技術(shù)問題。這種轉(zhuǎn)變無法保證AI系統(tǒng)產(chǎn)生的錯誤會少于它將取代的現(xiàn)有系統(tǒng)。瑞安?卡洛(Ryan Calo)指出,人們通常以為,AI系統(tǒng)(如,自主駕駛汽車)犯的錯誤將少于人類。實(shí)則不然。復(fù)雜程度不高的AI系統(tǒng)無法避免地會犯一些人類不會犯的新錯誤。

在許多領(lǐng)域中,倫理框架往往需要產(chǎn)生記錄,例如,病歷、律師的案卷、或研究人員向機(jī)構(gòu)審查委員會提交的文件。此外,人們還面向患者、客戶或感覺自己遭遇了不公正待遇的對象設(shè)立了補(bǔ)救機(jī)制。

當(dāng)代的AI系統(tǒng)往往無法提供此類記錄或補(bǔ)救機(jī)制,要么因?yàn)榧夹g(shù)上無法實(shí)現(xiàn),要么因?yàn)樵O(shè)計(jì)者并未考慮此類記錄或機(jī)制。

這意味著,受到影響的特定群體或個(gè)人往往無法對AI或其他預(yù)測系統(tǒng)的決策進(jìn)行檢驗(yàn)或質(zhì)疑。這會惡化各種形式的權(quán)力不對等現(xiàn)象。而權(quán)力不對等是一個(gè)很重要的倫理議題。

當(dāng)受到影響的個(gè)人無法對這類自動化決策展開檢驗(yàn)、質(zhì)疑或上訴時(shí),他們就處在了權(quán)力相對缺失的位置上。

這帶來的風(fēng)險(xiǎn)是,AI系統(tǒng)不僅將削弱弱勢群體的質(zhì)疑權(quán)力,而且將賦予設(shè)計(jì)方更多定義道德行為的權(quán)力。這種權(quán)力能夠以十分微妙的形式呈現(xiàn)出來。例如,各種自動化系統(tǒng)往往被用來從某種方向來影響或“微調(diào)”某些個(gè)體,而很大程度上扮演決定或支配角色的是設(shè)計(jì)部署此類系統(tǒng)并從中獲利的一方。

若要從零開始構(gòu)建AI系統(tǒng),以實(shí)現(xiàn)糾正上述不平衡現(xiàn)象等目標(biāo),這本身就要受到實(shí)力差距的限制。打造和維護(hù)AI系統(tǒng)需要大量的計(jì)算資源和大量數(shù)據(jù)。而擁有海量數(shù)據(jù)和計(jì)算資源的企業(yè)相對缺乏這類資源的企業(yè)擁有更多的戰(zhàn)略優(yōu)勢。

我們?nèi)绾卧诂F(xiàn)有的各種行業(yè)中應(yīng)對與AI相關(guān)的倫理問題?

隨著AI系統(tǒng)在不同行業(yè)環(huán)境(如,醫(yī)學(xué)、法律、金融)中的融入愈加深入,我們還將面臨跨越不同行業(yè)的新的道德困境。

例如,AI系統(tǒng)在保健環(huán)境中的應(yīng)用將對醫(yī)療專業(yè)人員道德準(zhǔn)則中秉持的核心價(jià)值(如,涉及保密、護(hù)理的連續(xù)性、避免利益沖突以及知情權(quán))造成挑戰(zhàn)。

隨著醫(yī)療業(yè)的不同利益相關(guān)方推出了各種各樣的AI產(chǎn)品和服務(wù)。對這些核心價(jià)值的挑戰(zhàn)可能會以全新的和意想不到的方式呈現(xiàn)。

當(dāng)一名醫(yī)生使用的AI診斷設(shè)備在受訓(xùn)時(shí)使用了一家醫(yī)藥公司的藥品試驗(yàn)數(shù)據(jù),而這家公司是某種藥物處方的既得利益者,那么這位醫(yī)生應(yīng)如何遵守避免利益沖突的誓言?

雖然這是個(gè)假想的情況,但這點(diǎn)明了在修訂以及更新職業(yè)道德準(zhǔn)則的過程中必須解決的棘手問題。

同樣地,負(fù)責(zé)管理AI研發(fā)及維護(hù)的專業(yè)協(xié)會也有必要考慮采取相應(yīng)的措施。例如,美國人工智能協(xié)會(AAAI)應(yīng)制定相關(guān)的道德準(zhǔn)則,而美國計(jì)算機(jī)協(xié)會(ACM)以及電氣和電子工程師協(xié)會(IEEE)需認(rèn)真修訂相關(guān)的道德準(zhǔn)則。ACM和IEEE現(xiàn)有的道德準(zhǔn)則已擁有20年以上的歷史,不用說,這些準(zhǔn)則不僅無法解決與人類機(jī)構(gòu)、隱私和安全相關(guān)的核心問題,而且也無法預(yù)防AI和其他自動化決策系統(tǒng)可能產(chǎn)生的危害。隨著AI技術(shù)進(jìn)一步被整合到重要的社會領(lǐng)域中,這一點(diǎn)正變得越來越重要。

盡管更多的高等教育機(jī)構(gòu)在技術(shù)和科學(xué)專業(yè)的教學(xué)中已開始強(qiáng)調(diào)職業(yè)道德的重要性,但這番努力仍處在初期,還有進(jìn)一步的拓展空間。而民權(quán)、公民自由和道德實(shí)踐等領(lǐng)域的知識還未成為學(xué)生們畢業(yè)時(shí)必須掌握的要求范圍。此外,有一點(diǎn)是值得注意的,若有人違背醫(yī)藥界道德準(zhǔn)則,他需承擔(dān)的懲罰包括失去行醫(yī)權(quán)力,這一點(diǎn)并不適用計(jì)算機(jī)科學(xué)或許多其他相關(guān)領(lǐng)域。

目前還不清楚大多數(shù)計(jì)算機(jī)科學(xué)家是否熟知ACM或IEEE準(zhǔn)則中的核心內(nèi)容。我們也不清楚,企業(yè)雇主是否會因?yàn)槠渌膭罨驂毫σ蛩囟x擇不遵守這種不具約束力的法規(guī)。因此,從實(shí)用角度看,除了僅僅對倫理框架進(jìn)行改寫和更新外,有必要關(guān)注范圍更廣的鼓勵機(jī)制,并確保對倫理準(zhǔn)則的遵從并不是事后才想起的事項(xiàng),而是相關(guān)專業(yè)領(lǐng)域需要關(guān)注的核心問題,以及AI領(lǐng)域?qū)W習(xí)和實(shí)踐中不可或缺的組成部分。

闡述建議

下面我們將進(jìn)一步闡述上面簡要提到的建議背后的基本原理。

1、多元化和拓寬AI開發(fā)和部署所必需的資源——如數(shù)據(jù)集、計(jì)算資源、教育和培訓(xùn)的使用,包括擴(kuò)大參與這種開發(fā)的機(jī)會。特別是關(guān)注當(dāng)前缺乏這種訪問的人口。

正如在AI Now Experts研討會期間很多人提到的,這些開發(fā)和培訓(xùn)AI系統(tǒng)的方法費(fèi)用高昂并只限于少數(shù)大公司?;蛘吆唵蔚卣f,在沒有大量資源的情況下DIY AI是不可能的。培訓(xùn)用AI模式要求有大量數(shù)據(jù)——越多越好。同時(shí)還要求有巨大的計(jì)算能力,而這費(fèi)用不菲。這使得即使要進(jìn)行基礎(chǔ)研究都只能限于能支付這種使用費(fèi)用的公司,因此限制了民主化開發(fā)AI系統(tǒng)服務(wù)于不同人群目標(biāo)的可能性。投資基本的基礎(chǔ)設(shè)施和使用合適的培訓(xùn)數(shù)據(jù),有助于公平競爭。同樣,開放現(xiàn)有行業(yè)和機(jī)構(gòu)里開發(fā)和設(shè)計(jì)過程,以多元化內(nèi)部紀(jì)律和外部評論,可幫助開發(fā)更好服務(wù)和反映多元化環(huán)境需求的AI系統(tǒng)。

2、升級使公平勞動行為具體化的定義和框架,以適應(yīng)AI管理部署到工作地時(shí)出現(xiàn)的結(jié)構(gòu)性變化。同時(shí)研究可替代的收入和資源分布、教育和再培訓(xùn)模式,以適應(yīng)未來重復(fù)性工作日益自動化和勞動及就業(yè)態(tài)勢不斷變化。

在AI Now Experts研討會上,奧巴馬總統(tǒng)首席經(jīng)濟(jì)學(xué)家賈森·福爾曼(Jason Furman)指出,在美國每小時(shí)工資只有不到20美元的工作,83%都將面臨自動化的嚴(yán)重壓力。對于每小時(shí)工資在20-40美元的中等收入工作,這個(gè)比例也高達(dá)31%。這是勞動力市場一次巨大轉(zhuǎn)變,可能導(dǎo)致出現(xiàn)一個(gè)永久失業(yè)階層。為確保AI系統(tǒng)的效率在勞動力市場不會導(dǎo)致民眾不安,或社會重要機(jī)構(gòu)如教育(有一種可能是教育不再視為就業(yè)的更好途徑)的解散,在這種巨大轉(zhuǎn)變出現(xiàn),應(yīng)該徹底研究替代性資源分布方法和其他應(yīng)對引入自動化的模式,制定的政策應(yīng)該為組織良好的各種落實(shí)測試開路,控制可能導(dǎo)致的災(zāi)難性后果。

除了“替代工人”外,AI系統(tǒng)也對勞動力市場也有其他多重影響。例如,它們改變了權(quán)力關(guān)系、就業(yè)預(yù)期和工作本身的角色。這些變化已經(jīng)對工人產(chǎn)生深遠(yuǎn)影響,因此在引入AI系統(tǒng)時(shí),在考慮如何表述公平和不公平做法上,理解這些影響很重要。例如,如果開發(fā)實(shí)際作為管理層行事的AI系統(tǒng)的公司,可被視為科技服務(wù)公司,與雇主不同的是,職員可能不受現(xiàn)有法律保護(hù)。

3、在設(shè)計(jì)和部署階段,支持研究開發(fā)衡量和評估AI系統(tǒng)準(zhǔn)確性和公平度的方法。同樣地,也支持研究開發(fā)衡量及解決一旦使用出現(xiàn)的AI錯誤和損害的方法,包括涉及通知、矯正和減輕這些因AI系統(tǒng)自動決策導(dǎo)致的錯誤和損害的問責(zé)制。這些方法應(yīng)優(yōu)先通知受自動決策影響的人們,并開發(fā)對錯誤或有害判斷提出異議的方法。

AI和預(yù)測性系統(tǒng)日益決定了人們是否能獲得或失去機(jī)會。在很多情況下,人們沒有意識到是機(jī)器而非人類在做出改變?nèi)松臎Q定。即使他們意識到,也沒有對錯誤界定提出異議或拒絕有害決策的標(biāo)準(zhǔn)流程。我們需要在研究和技術(shù)原型化上投資,確保在AI系統(tǒng)日益用于做出重要決策的環(huán)境中,確?;緳?quán)利和責(zé)任受到尊重。

4、澄清無論是反電腦欺詐和濫用法案還是數(shù)字千年版權(quán)法案不是用于限制對AI責(zé)任的研究

為了進(jìn)行對檢驗(yàn)、衡量和評估AI系統(tǒng)對公共和私人機(jī)構(gòu)決策的影響所需的研究,特別是有關(guān)如公平和歧視的關(guān)鍵社會關(guān)切,研究人員必須被清楚地允許跨大量域名并通過大量不同方法測試系統(tǒng)。然而,某些美國法律,如反電腦欺詐和濫用法案(CFAA)和數(shù)字千年版權(quán)法案(DMCA),規(guī)定與電腦系統(tǒng)甚至互聯(lián)網(wǎng)上公開可訪問的電腦系統(tǒng)“未授權(quán)”互動為非法,可能限制或禁止這種研究。這些法律應(yīng)該澄清或修改,明確允許促進(jìn)這種重要研究的互動。

5、支持在現(xiàn)實(shí)環(huán)境中AI系統(tǒng)對社會經(jīng)濟(jì)生活影響的強(qiáng)大評估和評價(jià)方法的基礎(chǔ)性研究。與政府機(jī)構(gòu)合作將這些新技術(shù)集成到他們的調(diào)查、監(jiān)管和執(zhí)法能力中。

我們當(dāng)前缺乏對AI系統(tǒng)社會經(jīng)濟(jì)影響評估和理解的嚴(yán)格做法。這意味著AI系統(tǒng)在融合到現(xiàn)有社會經(jīng)濟(jì)領(lǐng)域,部署在新產(chǎn)品和環(huán)境中,卻不能衡量或精確計(jì)算它們的影響。這種情況類似于進(jìn)行試驗(yàn)卻不愿記錄結(jié)果。為確保AI系統(tǒng)帶來的益處,必須進(jìn)行協(xié)調(diào)一致的研究開發(fā)嚴(yán)格的方法,理解AI系統(tǒng)的影響,當(dāng)使用這種方法時(shí)可幫助形成跨部門和政府內(nèi)部的標(biāo)準(zhǔn)做法。這種研究及其結(jié)果可比作早期預(yù)警系統(tǒng)。

6、在與這些人聯(lián)合開發(fā)和部署這種系統(tǒng)時(shí),與受自動決策應(yīng)用和AI系統(tǒng)影響的社區(qū)代表及成員合作,聯(lián)合設(shè)計(jì)可問責(zé)的AI。

在很多情況下,這些受AI系統(tǒng)影響的人將是對AI系統(tǒng)環(huán)境和結(jié)果最權(quán)威性的專家。特別是鑒于當(dāng)前AI領(lǐng)域缺乏多元化,那些受AI系統(tǒng)部署影響的人實(shí)際上從事提供反饋和設(shè)計(jì)方向,來自反饋機(jī)制的這些建議可直接影響AI系統(tǒng)的開發(fā)和更廣泛的政策框架。

7、加強(qiáng)行動提高AI開發(fā)者和研究者的多元化,拓寬和融合所有觀點(diǎn)、環(huán)境和學(xué)科背景到AI系統(tǒng)開發(fā)中。AI領(lǐng)域應(yīng)該也結(jié)合計(jì)算、社會科學(xué)和人文學(xué),支持和促進(jìn)針對AI系統(tǒng)對多個(gè)觀點(diǎn)影響的跨學(xué)科AI研究。

計(jì)算機(jī)科學(xué)作為一個(gè)學(xué)科領(lǐng)域缺乏多樣性。特別是嚴(yán)重缺乏女性從業(yè)者,在AI里這種情況更為糟糕。例如,雖然有些AI學(xué)術(shù)實(shí)驗(yàn)室由女性掌管,但在最近的神經(jīng)信息處理系統(tǒng)大會上,與會者只有13.7%是女性,這次大會是該領(lǐng)域最主要的年度大會之一。缺乏多元化的圈子不大可能會考慮這些不在其中人的需求和關(guān)注。當(dāng)這些需求和關(guān)注成為部署AI的社會經(jīng)濟(jì)機(jī)構(gòu)的中心時(shí),理解這些需求和關(guān)注很重要,AI開發(fā)反映了這些重要的觀點(diǎn)。關(guān)注開發(fā)AI人群多元化是關(guān)鍵,除了性別和代表受保護(hù)人群外,包括除計(jì)算機(jī)科學(xué)外各種學(xué)科的多元化、建立依賴來自相關(guān)社會經(jīng)濟(jì)領(lǐng)域?qū)W習(xí)的專業(yè)知識的開發(fā)實(shí)踐。

在計(jì)算機(jī)科學(xué)之外和計(jì)算機(jī)科學(xué)之內(nèi)AI子領(lǐng)域的社會經(jīng)濟(jì)領(lǐng)域,進(jìn)行AI影響的徹底評估將需要多數(shù)這種專業(yè)知識。由于很多環(huán)境下AI被集成和使用——如醫(yī)學(xué)、勞動力市場或在線廣告——本身是學(xué)習(xí)的豐富領(lǐng)域。為真正制定AI影響評估的嚴(yán)格流程,我們將需要跨學(xué)科的協(xié)作,建立新的研究方向和領(lǐng)域。

8、與專業(yè)組織如美國人工智能進(jìn)步協(xié)會(AAAI)、美國計(jì)算機(jī)協(xié)會(ACM)和電氣及電子工程師協(xié)會(IEEE)合作,更新(或制作)專業(yè)道德準(zhǔn)則,更好地反映在社會經(jīng)濟(jì)領(lǐng)域部署AI和自動化系統(tǒng)的復(fù)雜性。為任何想掌握計(jì)算機(jī)科學(xué)的人開設(shè)公民權(quán)、公民自由權(quán)和道德培訓(xùn)課程,反映了教育中的這些變化。同樣,更新專業(yè)道德準(zhǔn)則約束引入AI系統(tǒng)的專業(yè)人士,如適用于醫(yī)生和醫(yī)院工作者的道德準(zhǔn)則。

在醫(yī)學(xué)和法律等職業(yè)中,專業(yè)人士的行為受控制可接受和不可接受行為的道德準(zhǔn)則約束。專業(yè)組織如ACM和IEEE確實(shí)制定了道德準(zhǔn)則,然而這些準(zhǔn)則過時(shí)了,不足以解決復(fù)雜社會經(jīng)濟(jì)環(huán)境中使用AI系統(tǒng)帶來的具體并常常是微妙的挑戰(zhàn)。雖然醫(yī)生確實(shí)遵守了約束他們對待病人行為的職業(yè)道德,但AI系統(tǒng)的發(fā)展,如幫助醫(yī)生診療和治療病人,出現(xiàn)了現(xiàn)有職業(yè)道德準(zhǔn)則不總是能解決的道德挑戰(zhàn)。職業(yè)準(zhǔn)則和計(jì)算機(jī)科學(xué)培訓(xùn)必須更新,以反映AI系統(tǒng)建造者對因使用這些系統(tǒng)遭受不同程度不利影響的人所負(fù)有的責(zé)任。在AI用于增強(qiáng)人類決策時(shí),職業(yè)道德準(zhǔn)則應(yīng)該包括在AI系統(tǒng)受到利益沖突左右的時(shí)候鑒定責(zé)任的保護(hù)措施。

 

作者:網(wǎng)易智能

來源:網(wǎng)易創(chuàng)業(yè)Club

版權(quán)聲明:人人都是產(chǎn)品經(jīng)理尊重行業(yè)規(guī)范,所轉(zhuǎn)載的文章都注明作者和來源,若標(biāo)注有誤,請聯(lián)系主編QQ:419297645更改。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!