人工智能可以開辟性別平等的時代嗎?
越來越多的人已經意識到:技術對于創造一個沒有偏見的世界,是非常有潛力的。
試想一個性別平等的社會:女人不是生孩子、養孩子的工具,男人不是傳統思想上的統治者。人們在這個平等的社會中,扮演的角色是和他們的智慧和興趣一致的,而不是由性別、根深蒂固的狹隘觀點驅使的。
這樣的社會目前還不存在。幾年前,Malala Yousafzai這位巴基斯坦的、以爭取女性教育而聞名的女子,還因為想要爭取自己的教育而幾乎失去了生命!她的故事并不特殊,女性為了進入主流的聲音,已經奮斗了數百年了。
是的,對待性別平等這個問題,部分國家已經比較先進和發達了。但是,即使在最先進的環境中,深刻的偏差還是存在的。那么,有沒有什么方法能重新設計一些由結果驅動的社會規范,而不是由固有的人類偏見驅使的社會規范呢?
人工智能也許就能打破數千年來的、根深蒂固的社會偏見?,F在的技術,可以創造一種使用深度學習和數據驅動的技術,來糾正刻板印象的機制嗎?
深度學習的軟件,試圖模仿人腦的大腦活動,在大腦皮層發生思考。這個軟件學習識別聲音、圖像和其他數據。Ray Kurzweil通過軟件技術,寫了一本名為《如何創造心靈》的書。深度學習的目的是在機器層面重建人類智慧,然而,這種學習的結果取決于軟件的訓練程度,有偏見的訓練會導致偏倚的結果。
繼續說我們的這個實驗,讓我們來看看一個簡單的工作場所中的例子:在會議室,出現了一些性別歧視的言論。
我們想要的結果是:有人舉起手來,并阻止這樣的言論。在這個簡單的例子中,期望的結果在很大程度上取決于兩個主要的假設:
- 會議室中至少有一位女性 ;
- 公司的文化氛圍是能讓她自由地表達她的觀點。
如果這種情況是由人工智能技術的機器人處理,那么機器人必須對基本假設進行訓練。不良的訓練會導致不佳的結果。當機器人接收到性別歧視的輸入時,它需要了解上下文,運用透視圖,然后進行相應的操作。如果機器人沒有被編入女性的觀點,那么它就沒法達到我們預期的結果。
技術公司的環境中,人工智能算法經過培訓和測試,因為女性任職人數不足,缺乏對這種偏見的認識。計算機專業畢業的女性只有大約16%,再加上那些根深蒂固的文化和工作態度,對偏見的認識就更加不足了。
幸運的是,與人類的偏見不同,人工智能的偏差,能通過重新編程機器人的軟件來更正。為了排除偏見,這些行為應該根據“平等、公平”的原則來分類。就看我們如何訓練和測試我們的數據算法、增加實現這種愿景的可能性了。未來,我們的算法,能在性別和文化的框架中,處理數據、糾正機器人的行為、模仿理想的人類語言和觀念!
也許在不久的將來,人工智能會成為我們生活中無處不在的東西,深入保健、行為經濟學、政治等多種多樣的領域。為了達到這樣的未來,我們也需要各界人士的幫助,不止是程序員,還有從事醫療保健、人類學、經濟學、金融等方面的專業人士。
越來越多的人已經意識到:技術對于創造一個沒有偏見的世界,是非常有潛力的。正如Malala倡導“女孩應該接受平等的教育”一樣,將會有更多的倡導者會為之奮斗,建造一個性別平等的社會。
本文由 @硅谷密探(微信公眾號 ID : guigudiyixian)) 原創發布于人人都是產品經理。未經許可,禁止轉載。
題圖來自StockSnap.io,基于 CC0 協議
- 目前還沒評論,等你發揮!