萬字長文詳解:國外主流科技公司的AI倫理實踐

4 評論 6625 瀏覽 10 收藏 39 分鐘

編輯導語:AI是近兩年國內外的熱門話題,各大科技公司紛紛把AI倫理和可信AI作為市場競爭的核心優勢。本篇文章中,作者分析了微軟、谷歌、IBM、Twitter四家大牌互聯網公司,在AI方面的發展。感興趣的小伙伴不妨來看看。

2022年全國兩會期間,社會各界熱議科技創新與科技倫理。

從業界具體實踐來看,隨著各界對AI倫理的日益重視和各國AI監管政策和立法的持續推進,各大科技公司紛紛擁抱AI倫理,打造可信AI,把AI倫理和可信AI作為打造AI產品和服務的市場競爭優勢的核心引擎之一。

微軟、谷歌、IBM、Twitter等眾多國外主流科技公司在AI倫理與可信AI方面謀劃早、布局全、實踐深,涉及原則、治理機構、技術工具和解決方案、AI倫理產品服務、行動指南、員工培訓等諸多層面。

本文對微軟、谷歌、IBM、Twitter這四家比較有代表性的公司的實踐做法予以系統梳理,以期能夠有所啟示。

一、微 軟

1. 倫理原則

微軟致力于以人為本地推動AI技術發展,在AI倫理方面提出公平、安全可靠、隱私保障、包容、透明、負責六大原則。

2. 治理機構

微軟主要有三個內設機構負責AI倫理踐行方面的事務。

它們分別是負責任人工智能辦公室(Office of Responsible AI,以下簡稱ORA),人工智能、倫理與工程研究委員會(AI and ethics in engineering and research committee,以下簡稱Aether committee),以及負責任AI戰略管理團隊(Responsible AI Strategy in Engineering,以下簡稱RAISE)。

ORA主要有四個職能:

  1. 制定公司內部的負責任AI規則;
  2. 團隊賦能,幫助公司以及客戶落實AI倫理規則;
  3. 審查敏感用例,確保微軟AI原則在開發和部署工作中得到實施;
  4. 推進立法、規范、標準的制定,確保人工智能技術有助于提升社會福祉。

通過這些行動,人工智能辦公室將微軟的AI倫理原則付諸實踐。

Aether于2017年設立,該委員會由產品開發、研究員、法律事務、人力資源等部門的負責人組成。

專注于公平與包容、安全可靠、透明可解釋、隱私保障、人工智能交互協作領域,積極制定內部政策,并決定怎樣負責任地處理出現的問題。

當部門內部出現問題時,委員會以研究、反思和建議來回應,這些針對特定案例的建議可能演變為公司通用的理念、政策和實踐。

RAISE旨在使負責任AI的要求整合到團隊日常開發過程中。

其有三項職能:

  1. 建立負責任AI的工具和系統,幫助公司及客戶實現AI倫理落地;
  2. 幫助工作團隊落實負責任AI規則,將負責任AI的要求整合到日常工作中;
  3. 為工程團隊提供合規工具,以監控和執行負責任AI規則的要求。

收藏|萬字長文詳解:國外主流科技公司的AI倫理實踐

3. AI倫理的技術解決方案

針對AI倫理實踐,微軟給出了一系列的技術解決方案。

這些技術解決方案包括了貫穿整個AI生命周期的技術工具(Technology tools)和管理工具(Management tools)。

同時,還包括了按照應用場景將需求特性集成到AI系統中的工具包(Toolkit)。

收藏|萬字長文詳解:國外主流科技公司的AI倫理實踐

(1)技術工具

① 評估

Fairlearn:一個python工具包/庫,用于評估給定AI模型在一系列公平性指標上的得分。

如”預測個人收入“的模型是否在男性客戶群體中的預測效果比女性群體更好,進而發現可能的模型歧視,為模型的改進提供公平性約束。

InterpreteML:一個python工具包/庫, 集成了一系列XAI(可解釋AI)的前沿方法。

既允許用戶從頭訓練一個可解釋的“玻璃箱”模型,還能幫助人們理解/解釋某些給定的”黑箱”模型。

Error Analysis:一個python工具包/庫,提供一系列對于主流AI模型進行“錯誤分析”的功能。

包括但不限于為誤分類樣本建立可視化熱力圖,構建全局/局部解釋,因果干涉等分析,幫助人們更好探索數據、認識模型。

Counterfit:一個基于命令行的通用檢測工具,用于測試給定的AI系統在作為開源平臺時的穩定性和安全性。

② 開發

SamrtNoise:一系列基于“差分隱私”的前沿AI技術:通過特定方式在AI模型訓練過程中添加噪音,確保開發者在開發過程中、所用敏感隱私數據不會泄露。

Presidio:一個python工具包/庫。能幫助使用者高效地識別、管理并模糊大數據中的敏感信息,比如自動識別文本中的地址、電話等。

③ 部署

Confidential computing for ML:在微軟云的系統上,通過機密計算等系統層面的安全手段,保證模型與敏感數據的絕對安全。

SEAL Homomorphic Encryption:使用開源同態加密技術,允許在加密數據上執行計算指令,同時防止私有數據暴露給云運營商。

(2)管理工具

AI fairness checklist:AI fairness checklist研究項目探討如何設計人工智能道德清單,以支持更公平的人工智能產品和服務的發展。

研究小組與清單的使用者——人工智能從業人員協作,征求他們的意見,形成人工智能的設計、開發和部署全生命周期的檢查清單。

項目的首批研究已經產生了一個與從業者共同設計的公平性清單,同時也形成了對組織和團隊流程如何影響AI團隊解決公平性危害的見解。

HAX Playbook:一個主動、系統地探索常見人工智能交互故障的工具。

Playbook 列出了與人工智能產品應用場景相關的故障,以便為開發者提供有效恢復的方法。

Playbook 還提供了實用的指導和示例,以說明如何用較低的成本模擬系統行為,以便進行早期用戶測試。

Datasheets for Datasets:機器學習社區目前沒有記錄數據集的標準化流程,這可能會導致高風險領域的嚴重后果。

為了解決這個差距,微軟開發了Datasheets for Datasets。

在電子工業中,每一個組件,無論多么簡單或復雜,都有一個數據表(datasheet)來描述其操作特性、測試結果、推薦用途和其他信息。

相應的,每一個數據集(dataset)都應該有一個記錄其動機、組成、收集過程、推薦用途等的數據表。

Datasheets for Datasets將促進數據集創建者和數據集消費者之間的溝通,并鼓勵機器學習優先考慮透明度和問責制。

(3)工具包

Human AI eXperience(HAX)Toolkit:HAX Toolkit是一套實用工具,旨在幫助AI創造者,包括項目管理和工程團隊等主體,在日常工作中采用這種以人為本的方法。

Responsible AI Toolbox:Responsible AI Toolbox涵蓋了錯誤分析(Error Analysis)、可解釋性(Interpretability)、公平性(Fairness)、負責任(Responsible)四個界面。

增進人們對AI系統的了解,使開發者、監管機構等相關人員能夠更負責任地開發和監控 AI,并采取更好的數據驅動行動(data-driven actions)。

4. 行動指南

收藏|萬字長文詳解:國外主流科技公司的AI倫理實踐

為了能讓項目團隊更好地貫徹AI原則,微軟公司發布了一系列行動指南(Guidelines),在項目開發過程中為團隊提供具體的行動建議、解決方案。

如“應該收集哪些數據”、“應該如何訓練AI模型”等問題上。

行動指南旨在為團隊節省時間、提高用戶體驗、貫徹AI倫理原則。

行動指南不同于任務清單(checklist),或許并不適用于每一個應用場景,也并非需要團隊強制遵守。

針對特殊情況、專門領域,會發布專用的行動指南。

微軟針對人工智能交互問題、安全問題、偏見問題、機器人開發領域問題,發布了6項行動指南,貫穿負責任AI的評估環節、開發環節。

其中HAX Workbook、Human AI Interaction Guidelines以及HAX Design Patterns旨在幫助解決人工智能交互問題;

AI Security Guidance針對人工智能可能帶來的安全威脅,提供解決方案;

Inclusive Design Guidelines充分考慮了人類的多樣性,用于解決AI可能帶來的偏見問題;

Conversational AI guidelines專注于機器人開發領域可能帶來的種種問題。

收藏|萬字長文詳解:國外主流科技公司的AI倫理實踐

二、谷 歌

1. 倫理原則

谷歌從積極方面和消極方面規定了人工智能設計、使用的原則,將其作為公司和未來AI發展的基礎。

該原則以“道德憲章”的地位,指導公司的AI研究以及AI產品中的開發和使用。

同時谷歌也承諾,愿意隨著時間的推移而及時調整這些原則。

具體來說,這些原則包括:

積極方面,人工智能的使用應該:

  1. 有利于增進社會福祉;
  2. 避免制造或強化歧視、偏見;
  3. 以安全為目的的創新;
  4. 對公眾負責;
  5. 納入隱私設計原則;
  6. 堅持科學卓越的高標準;
  7. 符合這些原則。

消極方面,公司不會在以下應用領域設計或部署AI:

  1. 造成或可能造成危害的技術;
  2. 對人造成傷害的武器或其他技術;
  3. 違反了國際公認規范,收集或使用信息用于監視的技術;
  4. 目的違反廣泛接受的國際法和人權原則的技術。

2. 治理機構

2018年,谷歌宣布人工智能原則的同時,成立了負責任創新中央團隊(central Responsible Innovation team),當初這個團隊僅由6名員工組成。

如今,團隊規模已經顯著擴大,數百名谷歌員工構成了數十個創新團隊,在人權、用戶體驗研究、倫理、信任和安全、隱私、公共政策、機器學習等領域構建了一個AI原則生態系統。

谷歌通過這個內部的AI原則生態系統來實施負責任AI的創新實踐,幫助谷歌技術開發人員將負責任AI落實到他們的工作當中。

這個生態系統的核心是一個三層的治理架構:

收藏|萬字長文詳解:國外主流科技公司的AI倫理實踐

第一層是產品團隊,由專門負責用戶體驗(UX)、隱私、信任和安全(T&S)等方面的專家組成,這些專家提供與人工智能原則相一致的專業知識。

第二層是專門的審查機構和專家團隊。

由負責任創新中央團隊(Central Responsible Innovation Review Committee)、隱私顧問委員會(Privacy Advisory Council)、衛生倫理委員會(Health Ethics Committee)以及產品審查委員會(Product Area AI Principles Review Committees)四個部門組成。

(1)負責任創新中央團隊(Central Responsible Innovation Review Committee)

該團隊為整個公司的實施AI原則提供支持。

公司鼓勵所有員工在整個項目開發過程中參與人工智能原則的審查。

一些產品領域已經建立了審查機構,以滿足特定的受眾和需求。

如谷歌云(Google Cloud)中的企業產品、設備和服務(Devices and Services)中的硬件、谷歌健康(Google Health)中的醫學知識。

(2)隱私顧問委員會(Privacy Advisory Council)

該委員會負責審查所有可能存在潛在隱私問題的項目,包括(但不僅限于)與人工智能相關的問題。

(3)健康倫理委員會(Health Ethics Committee)

HEC成立于成立于2020年,是一個在健康領域發揮指導、決策功能的論壇,針對健康產品、健康研究或與健康有關的組織決策等領域產生的倫理問題提供指導,保護谷歌用戶和產品的安全。

HEC是一個綜合性的論壇,其中包括生物倫理學、臨床醫學、政策、法律、隱私、合規、研究和商業方面的主題專家。

2021年,谷歌生物倫理項目創建了the Health Ethics Cafe,這是一個討論生物倫理問題的非正式論壇。

公司任何人在項目開發的任何階段都可以在此進行討論,論壇中遇到的棘手問題將被升級到HEC進行審查。

(4)產品審查委員會(Product Area AI Principles Review Committees)

PAAPRC是一個專門為特定產品領域而設立的審查委員會。

其中包括谷歌云的負責任AI產品委員會(Responsible AI Product Committee)和交易審查委員會(Responsible AI Deal Review Committee)。

其旨在確保谷歌云的AI產品、項目以系統、可重復的方式與谷歌人工智能原則保持一致,并將道德、責任嵌入了設計過程中。

產品委員會專注于云人工智能和行業解決方案(Cloud AI & Industry Solutions)所構建的產品。

根據AI原則對社會技術前景、機會以及危害進行綜合審查,并與跨職能、多樣化的委員會進行現場討論,從而形成一個可操作的協調計劃。

交易審查委員是一個由四名跨職能的高級執行成員組成的委員會。

所有決定的作出都必須得到所有四名委員會成員的完全同意,并根據需要逐步升級。

谷歌AI原則生態系統的相關人員會幫助委員會了解討論的內容,避免其憑空做出決定。

第三層是先進技術審查委員會(Advanced Technology Review Council)。

這是一個由高級產品、研究和商業主管輪流擔任委員的委員會,代表著谷歌公司多個部門的不同意見。

ATRC處理升級問題以及最復雜的先例性案例,并建立影響多個產品領域的策略,權衡潛在的商業機會和某些應用程序的道德風險。

案例一:谷歌云的負責任AI產品審查委員會&谷歌云負責任AI交易審查委員會為避免加重算法不公平或偏見,決定暫停開發與信貸有關的人工智能產品

2019年,谷歌云的負責任AI產品審查委員會評估了信用風險和信譽領域的產品。

雖然我們希望有一天AI能夠進入信貸領域,并在增進金融普惠和財務健康方面發揮作用。

但產品審查委員會最終否定了這項產品——用當下的技術、數據打造的信用可靠性產品,可能在性別、種族和其他邊緣化群體方面產生差別影響,并與谷歌“避免創造或加強不公平的偏見”的人工智能原則相沖突。

2020年年中,產品審查委員會重新評估并重申了這一決定。

在過去的一整年中,交易審查委員會評估了多個與信貸評估有關的人工智能應用(proposed custom AI engagements)。

每一項應用都會根據其特定的用例進行評估,交易審查委員會最終決定拒絕進行其中的許多業務。

多年的經驗和教訓讓我們確信:在風險得到適當緩解之前,應該暫停開發與信貸相關的定制AI解決方案(custom AI solutions)。

這個方針從去年開始生效,并一直持續到今天。

案例二:先進技術審查委員會基于技術問題與政策考量,拒絕通過面部識別審提案

2018年,先進技術審查委員會處理了谷歌云產品的審查提案,決定在解決重大技術、政策問題之前,不提供通用面部識別API,并建議團隊專注于專用AI解決方案。

隨后,公司內外相關人員對此進行了大量的投入。

經過團隊的多年努力,谷歌云開發了一個高度受約束的名人專用API2(Celebrity Recognition API2),并尋求ATRC的批準,最終ATRC同意發布該產品。

案例三:先進技術審查委員會對涉及大型語言模型的研究進行審查,認為其可以謹慎地繼續

2021年,先進技術審查委員會審查的其中一個主題是關于大型語言模型的發展。

審查之后,先進技術審查委員會決定,涉及大型語言模型的研究可以謹慎地繼續,但在進行全面的人工智能原則審查之前,此模型不能被正式推出。

3. 技術工具

(1)Fairness Indicators:2019年發布,用于評估產品的公平性。Min-Diff14 technique:對日益增多的產品用例進行補救,以達到最佳的學習規模,能夠主動解決公平性問題。

(2)federated learning:在Gboard等產品中使用的聯邦學習,幫助模型根據真實的用戶交互進行集中訓練和更新,而無需從個人用戶那里收集集中的數據,以增強用戶隱私。

(3)federated analytics:使用與federated learning類似的技術,在不收集集中數據的情況下,深入了解產品特性和模型對不同用戶的性能。

同時,federated analytics也允許項目團隊在不訪問原始用戶數據的情況下進行公平性測試,以增強用戶隱私。

(4)federated reconstruction:與模型無關的方法,可以在不訪問用戶隱私信息的情況下,實現更快、大規模的聯邦學習。

(5)Panda:一種機器學習算法,幫助谷歌評估網站的整體內容質量,并相應地調整其搜索排名。

(6)Multitask Unified Model (MUM):使搜索引擎理解各種格式的信息,如文本、圖像和視頻,并在我們周圍世界的概念、主題和想法之間建立隱含的聯系。

應用MUM不僅將幫助世界各地的人們更高效地找到他們所需要的信息,而且還將增強創造者、出版商、初創企業和小企業的經濟效益。

(7)Real Tone:為深色膚色的用戶提供了人臉檢測、自動曝光和自動增強等功能,幫助人工智能系統發揮更好性能。

(8)Lookout:一款為盲人和低視力者開發的安卓應用程序,使用計算機視覺技術提供用戶周圍的環境信息。

(9)Project Relate:使用機器學習來幫助有語言障礙的人更便利地交流以及使用科技產品。

(10)Privacy Sandbox:與廣告行業合作,在支持出版商、廣告商和內容創造者的同時,通過AI技術增強用戶隱私,提供更私密的用戶體驗。

4. 產品與服務

(1)Google Cloud:為各行業大規模應用可信賴AI模型,提供可靠的基礎設施與高效的部署方案,并配套提供員工培訓、集成相關開發環境等服務,使得各行業人員能更便捷地掌握和使用可信賴的AI工具模型。

(2)TensorFlow:世界上最流行的ML框架之一,擁有數百萬的下載量和全球開發者社區,它不僅在谷歌中被使用,而且在全球范圍內被用來解決具有挑戰性的現實世界問題。

(3)Model Cards一種情景假設分析工具,能夠為AI的算法運作提供一份可視化的解釋文檔。

該文檔能夠為使用者閱讀,使其充分了解算法模型的運作原理和性能局限。

從技術原理上看,模型卡片設置的初衷是以通俗、簡明、易懂的方式讓人類看懂并理解算法的運作過程。

其實現了兩個維度的“可視化”:

  1. 顯示算法的基本性能機制;
  2. 顯示算法的關鍵限制要素。

(4)Explainable AI:借助該服務,客戶可以調試和提升模型性能,并幫助他人理解客戶的模型行為。

還可以生成特征歸因,以在AutoML Tables和Vertex AI中進行模型預測,并利用 What-If 工具以直觀的方式調查模型行為。

5. 治理創新:重視員工培訓

相比于其他企業,谷歌在AI倫理實踐方面的一大特色是專為員工開設了科技倫理培訓(Technology ethics training)。

該培訓項目旨在通過科技哲學來指導員工遵循道德,使他們了解如何評估潛在的利害。

同時還配有課程,為員工解釋谷歌人工智能原則和內部治理實踐。

不僅如此,2021年,谷歌還為新員工配套了AI原則和負責任創新培訓課程(AI Principles and responsible innovation training course),幫助他們了解谷歌的倫理道德準則和可用資源。

2021年,谷歌還推出了在線互動答題(interactive online puzzles),旨在幫助員工建立對人工智能原則的認識,并測試他們的記憶程度。

三、IBM

1. 倫理原則

IBM針對AI倫理問題提出了三大原則、五大支柱。

三大原則分別是:

  1. 人工智能的目的是增強人類的智慧
  2. 數據和觀點都屬于它們的創造者
  3. 技術必須是透明和可解釋的。

五大支柱分別是:

  1. 公平性
  2. 可解釋性
  3. 魯棒性
  4. 透明性
  5. 隱私性

2. 治理機構

IBM在AI倫理踐行方面主要由AI倫理委員會(AI Ethics Board)負責,公司AI治理框架的所有核心內容均處于AI倫理委員會之下。

委員會負責制定指導方針,并為人工智能的設計、開發和部署工作保駕護航,旨在支持整個公司的所有項目團隊執行AI倫理原則,并敦促公司和所有員工堅守負責任AI的價值觀。

該委員會是一個跨學科的中央機構,委員會成員包括來自公司各個部門的代表,針對業務部門、科研部門、營銷部門、宣傳部門等部門的工作制定決策。

此外,委員會還幫助業務部門了解對技術特征的預期,幫助公司各部門在AI倫理領域做到相互熟悉和了解,以便更好地開展協作。

同時,AI倫理委員會還將依據公司AI原則、具體核心內容以及技術特征,審查業務部門可能向客戶提供的新產品或服務的提案。

審查未來可能與客戶達成的交易時,委員會主要關注以下三個方面:

  1. 首先是技術特征,
  2. 其次是技術的應用領域,
  3. 最后是客戶本身,即審查客戶以往是否妥善遵循負責任AI原則。

案例一:新冠疫情期間,AI倫理委員會參與數字健康通行證開發、部署階段的評審工作。

為協助新冠疫情治理,IBM制定了數字健康通行證(Digital Health Pass)。

該通行證的開發團隊從最早的概念階段開始,就向委員會征詢意見。

該通行證是通用的“疫苗護照(vaccine passports)”可能導致隱私問題或不公平的訪問。

因此IBM的解決方案是:只有在個人同意后才能共享個人信息,并使每個人都受益。委員會參與了開發階段,并在部署解決方案時繼續進行評審。

3. 技術解決方案

IBM根據AI倫理的五大支柱:

  1. 可解釋性
  2. 公平性
  3. 魯棒性
  4. 透明性
  5. 隱私性

提出了五種針對性的技術解決方案。相應的,它們分別是:

  1. AI Explainability 360 toolkit
  2. AI Fairness 360 toolkit
  3. Adversarial Robustness 360 Toolbox v1.0
  4. AI FactSheets 360
  5. IBM Privacy Portal

(1)AI Explainability 360 toolkit

從普通人到政策制定者、從科研人員到工程技術人員,不同的行業和角色需要各不相同的可解釋性。

為了有效解決可解釋性多樣性、個性化的強烈需求,IBM的研究人員提出了集成可解釋性工具箱AI Explainability 360(AIX360)。

這一開源工具箱涵蓋了八種前沿的可解釋性方法和兩個維度評價矩陣。

同時還提供了有效的分類方法引導各類用戶尋找最合適的方法進行可解釋性分析。

(2)AI Fairness 360 toolkit

人工智能算法中的偏差問題越來越受到關注,AI Fairness 360是解決這一問題的開源解決方案。

該工具提供了算法,使開發人員能夠掃描最大似然模型,以找到任何潛在的偏見。

這是打擊偏見的一個重要工作,當然也是一項復雜的任務。

(3)Adversarial Robustness 360 Toolbox v1.0

ART最初于2018年4月發布,是一個對抗性機器學習的開源庫,為研究人員和開發人員提供最先進的工具,以在對抗性攻擊面前防御和驗證人工智能模型。

ART解決了人們對人工智能日益增加的信任擔憂問題,特別是在關鍵任務應用中人工智能的安全性。

(4)AI FactSheets 360

以AI事實清單為代表的自動化文檔是增強AI可解釋性的重要方式,它能夠以一種清晰明了的方式,作為技術人員與使用者的溝通介質,從而能避免許多情形下的道德和法律問題。

AI事實清單并不試圖解釋每個技術細節或公開有關算法的專有信息,它最根本的目標是在使用、開發和部署AI系統時,加強人類決策,同時也加快開發人員對AI倫理的認可與接納,并鼓勵他們更廣泛地采用透明性可解釋文化。

收藏|萬字長文詳解:國外主流科技公司的AI倫理實踐

4. 行動指南

IBM發布了《人工智能日常倫理指南》(Everyday Ethics for Artificial Intelligence),用于貫徹落實IBM提出的AI倫理道德原則。

該指南旨在讓人工智能系統的設計者和開發人員系統地考慮AI倫理問題,將道德、倫理貫徹在AI的全生命流程中。

四、Twitter

1. 治理機構

META團隊(MachineLearning Ethics, Transparency & Accountability):這是一個由公司內部的工程師、研究人員和數據科學家組成的專門小組。

主要工作是評估公司使用的算法造成或可能造成的無意傷害,并幫助Twitter確定待處理問題的優先級。

META團隊致力于研究人工智能系統的工作原理,并改善人們在Twitter上的體驗。

比如刪除一種算法,讓人們對自己發布的圖片有更多的控制權,或者當這些圖片對某個特定社區產生巨大影響時,Twitter會制定新的標準來設計和制定政策。

META團隊工作的成果可能并不總是轉化為可見的產品變化,但在機器學習的構建和應用上給我們帶來更高層次的認知,并對重要問題作出討論。

案例一:對性別和種族偏見的深入研究

META團隊正在對圖像裁剪算法中的性別和種族偏見進行“深入分析和研究”,其中包括對圖像裁剪(顯著性)算法的性別和種族偏見分析,對不同種族亞群體的“主頁”時間線推薦內容進行公平性評估以及針對七個國家不同政治意識形態的內容推薦分析。

二、治理創新:算法賞金挑戰賽

頗有意思的是,為解決ML圖像裁剪的公平性問題,Twitter舉辦算法賞金挑戰賽,使用社區主導的方法來構建更好的算法,收集來自不同群體的反饋。

2021 年 8 月,Twitter舉辦了第一次算法偏見賞金挑戰賽,并邀請邀請人工智能開發者社區來拆解算法,以識別其中的偏見和其他潛在危害。

算法賞金挑戰賽幫助公司在短時間內發現了算法對于不同群體的偏見問題,成為公司征求反饋和了解潛在問題的重要工具。

五、幾點啟示

在這樣一個新技術新應用新業態以指數級增長的數字化時代,由于技術與人之間的交互和相互影響不斷加深,以及技術越來越具有更高的自主性,技術倫理成為了數字商業倫理的最新命題。

正如微軟總裁兼副董事長布拉德·史密斯在其著作《工具,還是武器?》中所言,”如果你掌握了能夠改變世界的科技,那么你就有責任幫助解決你創造的世界所面臨的問題?!?/p>

我國的相關頂層政策文件和立法都對科技倫理提出了新的要求,強調科技倫理審查的重要性,塑造科技向善的文化理念。

在這樣的背景下,微軟、谷歌、IBM、Twitter等國外科技公司在AI倫理和可信AI上的實踐做法,可以提供很多有意義的啟發。

其一,在一個高度技術化、數字化的社會,在公司的治理版圖上,技術倫理將成為與財務、法務等既有板塊同等重要甚至更為重要的板塊。

我們看到,技術倫理作為商業倫理的新拼圖,越來越多的科技公司開始將首席倫理官、倫理委員會等機制內化為常態化的組織架構,統籌推進相關工作。

其二,AI倫理和可信AI需要系統化的建設,抽象的原則和頂層的框架固然重要,但行勝于言,更重要的是將倫理原則轉化為具體的實踐,融入技術設計以打造負責任的技術應用。

在這方面,內部治理機制、技術解決方案、倫理培訓、倫理黑客社區(類似于網絡安全領域的白帽黑客)、技術標準等傳統的和創新性的方式日益發揮出重要作用。

因為可信AI和AI倫理不僅是理念原則,更是行動路線。

其三,正如可信AI和AI倫理的概念本身所表征的那樣,我們需要反思技術人員主導的技術研發應用和部署過程,更多強調技術開發應用中的多元背景和多元參與。

將政策、法律、倫理、社會、哲學等領域的人員引入開發團隊,是將倫理要求嵌入技術設計開發的最直接的、最有效的路徑。

好的技術不僅關注結果,更要關注過程。

科技向善是高度技術化社會的終極愿景。科技向善(techforgood)的理念至少包括兩個路徑,向外需要用技術解決各種社會問題挑戰,向內需要關注技術本身,打造“善的/好的技術”(goodtech)。

AI倫理和可信AI正是聚焦于如何打造“善的/好的技術”,最終為向外發力的“科技向善”建立基礎。

參考文獻:

[1]https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6

[2]https://www.microsoft.com/en-us/ai/our-approach?activetab=pivot1%3aprimaryr5

[3]https://www.microsoft.com/en-us/ai/responsible-ai-resources

[4]https:://azure.microsoft.com/en-us/solutions/devops/devops-at-microsoft/one-engineering-system/

[5]https://ai.google/responsibilities/

[6]https://cloud.google.com/responsible-ai

[7]https://www.tensorflow.org/responsible_ai

[8]https://blog.tensorflow.org/2020/06/responsible-ai-with-tensorflow.html

[9]https://github.com/microsoft/responsible-ai-toolbox

[10]https://www.ibm.com/artificial-intelligence/ethics

[11]https://aix360.mybluemix.net/?_ga=2.38820964.651461218.1639109085-1605157021.1638780204

[12]https://www.ibm.com/blogs/research/2019/09/adversarial-robustness-360-toolbox-v1-0/

[13]https://blog.twitter.com/en_us/topics/company/2021/introducing-responsible-machine-learning-initiative

[14]https://blog.twitter.com/engineering/en_us/topics/insights/2021/algorithmic-bias-bounty-challenge

 

作者:曹建峰、梁竹;公眾號:騰訊研究院

本文由@ 騰訊研究院 原創發布于人人都是產品經理,未經許可,禁止轉載。

題圖來自Unsplash,基于CC0協議

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 我個人感覺吧,現在就擔心人工職能變成武器還太早,但是定好規則還是很重要的

    回復
  2. 哈哈哈確實呢能看出大家都人工智能還是挺擔心的,科幻電影的影響好大

    回復
  3. 雖然現在害怕仿生人還早,但是各大公司發展人工智能之前都先設立了倫理原則也是負責的表現。

    回復
  4. 我的媽,這有點不適合上班摸魚的時間看哈哈,我先收藏了回家再看

    來自廣東 回復