“人工智能與法律”對AI產(chǎn)品經(jīng)理有何實(shí)際借鑒意義
作為AI產(chǎn)品經(jīng)理和先行者,我們應(yīng)該抱著責(zé)任感,甚至悲憫、敬畏之心來真正重視AI的倫理和法律問題,因?yàn)檫@些真的會影響我們和后代的未來。
AI和法律、倫理、安全等方面的交叉領(lǐng)域,我個人一直是比較關(guān)注,因?yàn)橐环矫?,這些基礎(chǔ)設(shè)施會對人類產(chǎn)生很大影響,并直接影響部分AI領(lǐng)域落地的時機(jī),另一方面,對于AI產(chǎn)品經(jīng)理來說,在認(rèn)知深度和廣度方面,需要吸取這種跨領(lǐng)域信息,并且還要有能力將看似high level的感性/文科觀點(diǎn)落地成非常具體的產(chǎn)品體驗(yàn)feature。
目錄
- 一、案例:AI應(yīng)用時面臨的法律問題和風(fēng)險
- 二、現(xiàn)狀:各國對AI法律政策問題的探索
- 三、未來:AI可能如何影響法律
- 四、落地:以上內(nèi)容對AI產(chǎn)品經(jīng)理有何實(shí)際借鑒意義
- 五、附錄:相關(guān)資料推薦(2本書籍、7篇文章、5個相關(guān)產(chǎn)品/公司)
一、案例:AI應(yīng)用時面臨的法律問題和風(fēng)險
1、圖像識別領(lǐng)域
1)種族歧視問題:谷歌公司的圖片軟件曾錯將黑人的照片標(biāo)記為“大猩猩”。
2)用戶隱私保護(hù)問題:2011年,F(xiàn)acebook就曾因其“人臉識別和標(biāo)記功能未按伊利諾伊州《生物信息隱私法案》(BIPA)要求告知用戶收集面部識別信息的期限和方式”被訴,隨后又因“采集面部特征前未能明確提醒用戶并征得用戶同意”而遭到愛爾蘭和德國有關(guān)部門的調(diào)查。
注:盡管Facebook辯稱默認(rèn)開啟該功能是因?yàn)橛脩敉ǔ2粫芙^進(jìn)行人臉識別,并且用戶有權(quán)隨時取消這一功能,但德國漢堡市數(shù)據(jù)保護(hù)與信息安全局堅(jiān)持Facebook的面部識別技術(shù)違反了歐洲和德國的數(shù)據(jù)保護(hù)法,F(xiàn)acebook應(yīng)刪除相關(guān)數(shù)據(jù)。最終,F(xiàn)acebook被迫在歐洲地區(qū)關(guān)閉了人臉識別功能,并刪除了針對歐洲用戶建立的人臉數(shù)據(jù)庫。
2、語音識別領(lǐng)域
模擬人聲詐騙:有朝一日,如果TTS技術(shù)效果非常好了,可能會有人用假的聲音去詐騙,比如模仿子女的聲音,給其父母打電話……
3、自然語言處理領(lǐng)域
AI被人“教壞”:2016年3月23日,微軟的人工智能聊天機(jī)器人Tay上線一天就被緊急下線,因?yàn)樗挥脩簟敖虊摹绷恕闪艘粋€集反猶太人、性別歧視、種族歧視等于一身的“不良少女”。
4、廣告投放領(lǐng)域
種族歧視問題:研究表明,在谷歌搜索中,相比搜索白人的名字,搜索黑人的名字更容易出現(xiàn)暗示具有犯罪歷史的廣告。
二、現(xiàn)狀:各國對AI法律政策問題的探索
1、知識產(chǎn)權(quán)
國際標(biāo)準(zhǔn)化組織IEEE在其標(biāo)準(zhǔn)文件草案《合倫理設(shè)計(jì):利用人工智能和自主系統(tǒng)(AI/AS)最大化人類福祉的愿景》中提出了一個基本原則:如果AI依靠人類的交互而實(shí)現(xiàn)新內(nèi)容或者發(fā)明創(chuàng)造,那么使用AI的人應(yīng)作為作者或發(fā)明者。
2、隱私和數(shù)據(jù)保護(hù)
在2016年通過的《一般數(shù)據(jù)保護(hù)條例》(簡稱GDPR)中,歐盟就加強(qiáng)了個人隱私和數(shù)據(jù)保護(hù),其中關(guān)于用戶畫像等自動化決策的規(guī)定,將對基于大數(shù)據(jù)的互聯(lián)網(wǎng)行業(yè)實(shí)踐產(chǎn)生重大影響,即用戶有權(quán)拒絕企業(yè)對其進(jìn)行畫像等自動化決策,而且用于用戶畫像的數(shù)據(jù)不能包括人種或者種族起源、政治意見、宗教或者哲學(xué)信仰、商會會員、基因、生物特征、健康狀況、性生活等特殊類別的個人數(shù)據(jù)。這將對個性化服務(wù)的提供產(chǎn)生重大影響。
監(jiān)管部門和司法機(jī)關(guān)對透明性和舉證責(zé)任的要求,與機(jī)器學(xué)習(xí)結(jié)果的不確定性和算法保密要求之間,存在著一種結(jié)構(gòu)性的緊張關(guān)系。……2016年阿肯色州發(fā)生的一起謀殺案中,警方希望獲取Alexa語音助手收集的語音數(shù)據(jù),該請求遭到了亞馬遜公司的拒絕,理由是警方?jīng)]有出具有效的法律文件。
3、標(biāo)準(zhǔn)化建設(shè)
美國在去年出臺的《聯(lián)邦自動駕駛汽車政策》、《美國國家人工智能研發(fā)戰(zhàn)略計(jì)劃》等報(bào)告中,也要求加強(qiáng)并統(tǒng)一技術(shù)、數(shù)據(jù)使用、安全等標(biāo)準(zhǔn)建設(shè),避免造成碎片化的問題,影響人工智能研發(fā)和應(yīng)用。
4、“阿西洛馬人工智能原則”(Asilomar AI Principles)
2017年1月,在美國加州Asilomar召開的“阿西洛馬會議”上,由“生命未來研究所”(Future of Life Institute,F(xiàn)LI) 牽頭,844名AI專家聯(lián)合簽署了“阿西洛馬人工智能原則”(Asilomar AI Principles)(23條),其核心思想是Beneficial AI,有人解讀為 “為了人和人類的AI”。
三、未來:AI可能如何影響法律
- 有人預(yù)測,在強(qiáng)人工智能和超人工智能階段,現(xiàn)有法律已經(jīng)基本無法直接套用,人工智能將對傳統(tǒng)法律體系產(chǎn)生巨大的沖擊和顛覆。越來越多的極其復(fù)雜的新問題將迅速出現(xiàn),成文法將會萎縮甚至消亡。
- 未來的人們在作出法律決定時,他們既不需要檢索法律,也無須理解法律,更無須權(quán)衡行為的合法性,他們所遵循的不過是經(jīng)由人工智能優(yōu)化了的微指令而已。
- 如果人工智能的歧視行為給用戶造成了實(shí)際或精神損害,相關(guān)的法律責(zé)任應(yīng)當(dāng)首先由人工智能服務(wù)的最終使用者承擔(dān),人工智能開發(fā)者有過錯的,最終使用者承擔(dān)責(zé)任后可以向開發(fā)者追償。
在判斷開發(fā)者過錯程度時,可能需要區(qū)分不同算法:如果技術(shù)開發(fā)者主動設(shè)立了算法中的規(guī)則,那么對最終出現(xiàn)的歧視風(fēng)險預(yù)見和控制程度也更高,如果最終因系統(tǒng)的“歧視”或者“偏見”損害了第三方的合法權(quán)益,難辭其咎。但如果采取的深度學(xué)習(xí)等算法,由系統(tǒng)自身探索并形成規(guī)則,所以開發(fā)者對歧視風(fēng)險的控制程度是比較低的,主觀惡意和過錯都較小,可能具有一定的免責(zé)空間。
四、落地:以上內(nèi)容對AI產(chǎn)品經(jīng)理有何實(shí)際借鑒意義
1、行業(yè)前景判斷
比如自動駕駛,由于法律、倫理、安全,以及道路基礎(chǔ)設(shè)施等問題,短期內(nèi)肯定是不可能大規(guī)模普及民用的。(當(dāng)然,以前也說過,卡車的自動駕駛,短期內(nèi)是可以做的)
多說一句,科技圈公司,更多面臨生存壓力,首先考慮賺錢,所以倫理、安全、法律等問題的優(yōu)先級不高——這些問題,至少在行業(yè)早期,需要由政府、高校、學(xué)術(shù)界來推動。
2、產(chǎn)品理念和需求討論時,需要check倫理問題,足夠警惕。
這是因?yàn)槿斯ぶ悄芟到y(tǒng)并非表面看起來那么“技術(shù)中立”,如果輸入的數(shù)據(jù)代表性不足或存在偏差,訓(xùn)練出的結(jié)果將可能將偏差放大并呈現(xiàn)出某種非中立特征,比如歧視。
所以,最好將倫理委員會常態(tài)化,研究產(chǎn)品中的倫理問題及其影響。比如,Google DeepMind、Lucid AI等機(jī)構(gòu)已經(jīng)設(shè)立了倫理審查委員會。該審查委員會由具有不同知識背景和經(jīng)驗(yàn)的專家組成,在審查時需要參考一定的行業(yè)標(biāo)準(zhǔn),并最大限度地考慮安全和倫理問題。
3、產(chǎn)品思路:AI輔助人工,不能自行決策。
在重要領(lǐng)域,不能將AI的運(yùn)算結(jié)果當(dāng)然作為最終且唯一的決策依據(jù)。例如在關(guān)于人工智能醫(yī)療輔助診斷的規(guī)定中,就明確了人工智能輔助診斷技術(shù)不能作為臨床最終診斷,僅作為臨床輔助診斷和參考,最終診斷必須由有資質(zhì)的臨床醫(yī)師確定。
4、產(chǎn)品體驗(yàn)細(xì)節(jié)設(shè)計(jì)
1)充分考慮女性、兒童、殘疾人、少數(shù)族群等易被忽視群體的利益,并對道德和法律的極端情況設(shè)置特別的判斷規(guī)則。特別是聊天對話類產(chǎn)品。
2)體驗(yàn)流程中,如果涉及隱私,需要“明確提醒用戶并征得用戶同意”,以及“告知用戶收集XX隱私信息的期限和方式”,而且,用戶有權(quán)(有操作入口)拒絕企業(yè)對其進(jìn)行畫像等自動化決策(即,不能先斬后奏,讓用戶先使用、然后再關(guān)閉相關(guān)功能)。
具體設(shè)計(jì)細(xì)節(jié)示例
另外分享一點(diǎn),AI正在快速進(jìn)入司法領(lǐng)域(“智慧法庭建設(shè)”),“截至今年6月,超過100家法院應(yīng)用了科大訊飛智慧法庭庭審系統(tǒng)……阿里云的語音技術(shù)已快速滲透進(jìn)300多家法院、6000多個法庭。而今年夏季才入場的騰訊和國雙科技,在短短幾個月時間中,至少與40家法院達(dá)成了合作。”
結(jié)語
數(shù)據(jù)科學(xué)家凱西?歐尼爾在其著作《數(shù)學(xué)武器:大數(shù)據(jù)如何加劇不平等、威脅民主》中,將造成歧視、個體損害等不利后果的人工智能稱為“殺傷性數(shù)學(xué)武器”(Weapons of Math Destruction),認(rèn)為因其不透明性、規(guī)模效應(yīng)及損害性而應(yīng)當(dāng)引起足夠關(guān)注。
我想說的是,作為AI產(chǎn)品經(jīng)理和先行者,我們應(yīng)該抱著責(zé)任感,甚至悲憫、敬畏之心來真正重視AI的倫理和法律問題,因?yàn)檫@些真的會影響我們和后代的未來。
附錄一:相關(guān)資料推薦
1、2本書籍
《數(shù)學(xué)武器:大數(shù)據(jù)如何加劇不平等、威脅民主》和《發(fā)明倫理:科技和人類未來》,獲評《麻省理工科技評論》2016年最佳圖書,涉及技術(shù)性失業(yè)、致命性自主武器、算法公平、道德判斷、價值一致性等AI倫理問題。
2、7篇文章
- 20171206-《從律師到法律機(jī)器人,法律行業(yè)未來二十年的機(jī)遇和挑戰(zhàn):AI觀察》
- 20170805-《法律人工智能十大趨勢|AI觀察》
- 20170612-《全球視野:人工智能的前沿法律政策問題思考》
- 20170413-《2017人工智能:技術(shù)、倫理與法律研討會(AITEL2017)》(含內(nèi)容紀(jì)要和與會專家名單)
- 20170320-《人工智能法律服務(wù)的前景與挑戰(zhàn)| AI觀察》
- 20170106-《人工智能倫理法律問題最全解讀:IEEE發(fā)布首份人工智能合倫理設(shè)計(jì)指南》
- 20161009-《阿里研究院聶東明:人工智能或?qū)氐最嵏踩祟惉F(xiàn)行法律體系》
3、5個“AI+法律”相關(guān)的產(chǎn)品/公司
1)ROSS。AI+法律領(lǐng)域,全球最知名&有代表性的創(chuàng)業(yè)公司,詳見《Ross Intelligence:世界首個人工智能律師是如何煉成的?》
2)DoNotPay。在英國,一款名為DoNotPay的機(jī)器人律師可以幫助用戶挑戰(zhàn)交通罰單并準(zhǔn)備所需的法律文件,現(xiàn)在已經(jīng)擴(kuò)大到了政府住房申請、難民申請等法律服務(wù)。詳見《免費(fèi)法律機(jī)器人DoNotPay能處理1000種案件!》
3)法里。北京創(chuàng)業(yè)公司,詳見《原人人網(wǎng)總經(jīng)理創(chuàng)業(yè),研發(fā)AI機(jī)器人可解答90%離婚法律問題,半年獲得兩輪投資》 ;官網(wǎng)。
4)藍(lán)燈魚Lanternfish。今年在香港成立的公司,主要領(lǐng)域是專利(涉及NLP技術(shù))和商標(biāo)(涉及CV技術(shù))兩方面;官網(wǎng) 。
5)ULegal(有法務(wù))。騰訊投資的互聯(lián)網(wǎng)法律科技公司,創(chuàng)始人趙小彬(Marcus)是前騰訊微信法務(wù)團(tuán)隊(duì)創(chuàng)始人,致力于通過法律科技手段,探索法律服務(wù)創(chuàng)新和產(chǎn)品化的新思路。公眾號“有法務(wù)”、官網(wǎng),詳見《ULegal 從成本、效率著手,為B端企業(yè)提供法務(wù)支持》。
附錄二:阿西莫夫機(jī)器人三定律的英文原文
Law Ⅰ: A Robot may not injure a human being or, through inaction, allow a human being to come to harm.
第一定律:機(jī)器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;
Law Ⅱ: A robot must obey orders given it by human beings except where such orders would conflict with the first law.
第二定律:機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時例外;
Law Ⅲ: A robot must protect its own existence as long as such protection does not conflict with the first or second law.
第三定律:機(jī)器人在不違反第一、第二定律情況下要盡可能保護(hù)自己的生存。
說明:這三條法則實(shí)際是把機(jī)器對人的服從作為機(jī)器的設(shè)計(jì)和制造的原則,并沒考慮具有“自主能力”、甚或“自我意識”等超級人工智能的問題。
#專欄作家#
黃釗(hanniman),圖靈機(jī)器人-人才戰(zhàn)略官,人人都是產(chǎn)品經(jīng)理專欄作家,前騰訊產(chǎn)品經(jīng)理,微信公眾號/知乎/在行/飯團(tuán)“hanniman”。5年人工智能實(shí)戰(zhàn)經(jīng)驗(yàn),8年互聯(lián)網(wǎng)行業(yè)背景?!叭斯ぶ悄墚a(chǎn)品經(jīng)理”概念的推動者,被AI同行廣泛傳播的200頁P(yáng)PT《人工智能產(chǎn)品經(jīng)理的新起點(diǎn)》的作者。
本文原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,不得轉(zhuǎn)載。
題圖來自unsplash,基于CC0協(xié)議
小說里的定律也拿來說