人工智能助手的性別平權(quán)之路

0 評(píng)論 3534 瀏覽 11 收藏 11 分鐘

在一個(gè)由機(jī)器、AI和機(jī)器學(xué)習(xí)主導(dǎo)的未來,乃至人機(jī)相融的未來,生理上性別的區(qū)隔和枷鎖需要被打破。

不久前的錘子發(fā)布會(huì)上,羅永浩發(fā)布了自家研制的智能音箱產(chǎn)品,同時(shí)提及了國內(nèi)智能音箱廠商對(duì)智能音箱的定位限于女性,甚至“把音箱的人設(shè)搞成女仆甚至女奴”的現(xiàn)狀。

縱觀市面上的大多數(shù)智能音箱和我們生活中使用頻率日益增高的智能語音助手,使用女性設(shè)定(或女聲設(shè)定)的智能服務(wù)類產(chǎn)品屬于絕大部分。

與此形成對(duì)比的是,世界頂級(jí)的超級(jí)計(jì)算機(jī)IBM沃森卻有著一個(gè)男性的名字和聲音。倫敦大學(xué)社會(huì)學(xué)院人類學(xué)家凱瑟琳·理查森(Kathleen Richardson)也曾表示,多數(shù)完整的類人機(jī)器人同樣是男性。

不少消費(fèi)者和用戶認(rèn)為,這種對(duì)不同智能產(chǎn)品的差別化人設(shè),會(huì)讓人們理所應(yīng)當(dāng)?shù)恼J(rèn)為女性在社會(huì)中只能承擔(dān)服務(wù)他人的角色,是在向人們傳遞一種“男尊女卑”的性別歧視觀。在此,我們首先探討應(yīng)該如何定義性別歧視。

拋開性別因素,所有性格特質(zhì)都是平等的,但如果我們認(rèn)為只有男性或女性才能擁有某些性格特質(zhì),那么這才是性別歧視。性格特質(zhì)應(yīng)當(dāng)和性別剝離開來,親和友好的性格特質(zhì)也許會(huì)更多的出現(xiàn)在女性身上,但是我們不能因此就認(rèn)為男性具有這種性格特質(zhì)是一種錯(cuò)誤。

而在當(dāng)前的智能服務(wù)產(chǎn)品領(lǐng)域,我們不難發(fā)現(xiàn),這種性別歧視仍然大量存在,人們對(duì)于性別差異所導(dǎo)致的工作勝任能力差異仍有著強(qiáng)烈的刻板印象。同時(shí),有研究表明,不管是設(shè)計(jì)開發(fā)人員還是一般人,都傾向于將性別刻板印象投射到機(jī)器人或AI身上,特別是與人類有交互的那一類AI。

德國比勒菲爾德大學(xué)的一項(xiàng)研究表明,機(jī)器人顯現(xiàn)出的性別特征,會(huì)影響被試者對(duì)這個(gè)機(jī)器人能力和用途的判斷。

實(shí)驗(yàn)者給出了兩種機(jī)器人,讓參與者試著描述這些機(jī)器人可能的性格(比如是否友好、是否有判斷力,等等),以及會(huì)把這些機(jī)器人用于哪些場(chǎng)景(運(yùn)輸、家務(wù)、教育,等等)。

結(jié)果顯示:女性形象的機(jī)器人被視作更擅長溝通,人們更愿意讓“她們”去做家務(wù)、護(hù)理等工作;而人們更愿意男性形象的機(jī)器人來參與計(jì)算、機(jī)械類的工作。[1]

同時(shí),這種性別刻板印象不僅是第一眼印象,它還會(huì)影響人們對(duì)于“工作”滿意程度的判斷。

在新加坡南洋理工大學(xué)的研究中,研究者觀察了不同性別的機(jī)器人完成不同工作的情況,并對(duì)人們的反應(yīng)進(jìn)行了測(cè)量,研究發(fā)現(xiàn):人們會(huì)偏好完成家政工作的女性機(jī)器人和完成安保工作的男性機(jī)器人,而不是相反。[2]一臺(tái)電腦若是發(fā)出女性的語音,人們對(duì)它的性能預(yù)估就不如一臺(tái)男性語音主導(dǎo)的電腦。[3]

研究人員甚至發(fā)現(xiàn),這種依照聲音對(duì)機(jī)器產(chǎn)生的刻板印象甚至不止局限于傳統(tǒng)的性別歧視領(lǐng)域:

一個(gè)小孩子聲音設(shè)定的機(jī)器人會(huì)被認(rèn)為更為親和,但它給出的意見人們卻不愿采納,因?yàn)檎J(rèn)為它“不夠格”[4]。

相對(duì)極端的一個(gè)例子是,上世紀(jì)90年代,寶馬5系轎車推向市場(chǎng)時(shí),預(yù)裝的GPS系統(tǒng)是女聲,一些德國男性駕駛者因?yàn)椴辉敢饴爮呐说闹噶睿螂娫捪驅(qū)汃R抱怨,最終,寶馬只好召回了這個(gè)系統(tǒng)。

對(duì)于消費(fèi)者來說,愿意擁有一個(gè)“更耐心”或“更嚴(yán)謹(jǐn)”的人工智能助理本身并不是一種歧視。但將“耐心”或“嚴(yán)謹(jǐn)”的性格特質(zhì)與特定的性別相關(guān)聯(lián),則構(gòu)成了隱形的歧視。

由此可見,在當(dāng)前的消費(fèi)市場(chǎng)上,這種隱藏在性別刻板印象背后的性別歧視,仍在潛移默化的影響著我們。智能產(chǎn)品采用女性聲音或女性設(shè)定也許會(huì)為商家?guī)砀蟮匿N量,因?yàn)楦嫌脩舻目贪逵∠髲亩層脩粽J(rèn)為這帶來了更好的體驗(yàn),但這并不意味著它是正確的。

在現(xiàn)實(shí)中,由歷史造成的刻板印象往往有其自限性,社會(huì)生產(chǎn)力的不斷發(fā)展推動(dòng)著我們的思維方式不斷更新。當(dāng)客觀條件不再能束縛女性或男性的工作范圍和工作能力時(shí),人們對(duì)不同個(gè)體從事不同社會(huì)角色所給出的評(píng)價(jià)會(huì)逐漸趨于客觀,并告別通過性別來衡量個(gè)體的工作水平。

而在虛擬世界中,人工智能助手的平權(quán)則走上了一條完全不同的路——讓人工智能助理回歸本來的面貌,即沒有明確的、固定的性別。

現(xiàn)在已經(jīng)有很多科技公司意識(shí)到了這一點(diǎn),大多數(shù)的智能助手開始向無性別的趨勢(shì)發(fā)展。用戶可以自由選擇男性或者女性的聲音,而當(dāng)用戶提問的時(shí)候,AI并不明示自己的性別。

不過,調(diào)整智能助手的性別,也不僅僅是更換一下聲音和性別這么簡(jiǎn)單。男性和女性在用詞上有不同的傾向,比如女性會(huì)更傾向使用人稱代詞(你、我、她等),而男性會(huì)更傾向使用數(shù)量詞(一、二、一些等)。如果用戶聽到女性設(shè)定的智能助手說著男性模式的話,也會(huì)帶來困擾和不良體驗(yàn)。因此,公司在給智能助手準(zhǔn)備“稿件”時(shí),要考慮的因素其實(shí)還很多。

隨著科技的不斷進(jìn)步,語音的多樣性會(huì)慢慢得到改善,不同用戶的不同偏好也會(huì)得到滿足。不遠(yuǎn)的未來,也許我們每個(gè)人都可以擁有為自己量身定制的智能助手,得到最好的語音體驗(yàn)。

IDEO設(shè)計(jì)執(zhí)行官Danny Stillion認(rèn)為這種趨勢(shì)很有發(fā)展?jié)摿Γ?/p>

“即使在同一部設(shè)備上,你也可能會(huì)想用不同的聲音來控制不同的服務(wù)?!?/p>

現(xiàn)在,一些地圖導(dǎo)航軟件已經(jīng)推出了不同聲音版本的語音導(dǎo)航,在行車過程中,無論你想要林志玲還是郭德綱為你指路,都能變成現(xiàn)實(shí)。

除了帶給我們更好的語音體驗(yàn)以外,智能助手或許還能夠推進(jìn)現(xiàn)實(shí)社會(huì)往更好的方向發(fā)展。

早在1991年,著名的女性科技學(xué)者唐娜·哈拉維(Donna Haraway)就曾提出過一個(gè)“賽博宣言”[5],號(hào)召人們利用科技鑄就新的性別身份,在一個(gè)由機(jī)器、AI和機(jī)器學(xué)習(xí)主導(dǎo)的未來,乃至人機(jī)相融的未來,打破生理上性別的區(qū)隔和枷鎖。因此,智能助手也許會(huì)成為我們推進(jìn)性別平等的強(qiáng)大助力。我們希望新科技能夠帶領(lǐng)全社會(huì)向著更加平等和多元的方向發(fā)展,而不是通過更多的偏好算法來固化我們現(xiàn)有的偏見。

我們既然賦予了技術(shù)走進(jìn)我們生活的權(quán)利,那么也就應(yīng)當(dāng)在層出不窮的新技術(shù)帶給我們便利的同時(shí),確認(rèn)它們是在朝著推動(dòng)社會(huì)認(rèn)知不斷前進(jìn)的方向上發(fā)展。新科技的推廣所帶來的蝴蝶效應(yīng),需要我們?cè)谶~出每一步時(shí)都務(wù)必再三思量,希望在不遠(yuǎn)的未來,人工智能的良性發(fā)展能夠帶給我們一個(gè)更加平等、更加美好的社會(huì)。

參考文獻(xiàn)

[1]Eyssel, Friederike, Hegel, Frank, (S)he’s Got the Look: Gender Stereotyping of Robots 1. Journal of Applied Social Psychology. 42. . 10.1111/j.1559-1816.2012.00937.x.

[2]Benedict Tay, Younbo Jung, Taezoon Park, When stereotypes meet robots: The double-edge sword of robot gender and personality in human–robot interaction, Computers in Human Behavior, Volume 38, 2014, Pages 75-84.

[3]Nass, C., Moon, Y., & Green, N. (1997). Are machines gender neutral? Gender-stereotypic responses to computers with voices. Journal of Applied Social Psychology, 27, 864–876.

[4]Powers, A., &Kiesler, S. (2006, March 1–3). The advisor robot: Tracing people’s mental model from a robot’s physical attributes. Proceedings of the Conference on Human-Robot Interaction (HRI 2006), Salt Lake City,UT, pp. 218–225.

[5]Haraway, Donna Jeanne (1991): A Cyborg Manifesto: Science, Technology, and Socialist-Feminism in the Late Twentieth Century”. Simians, Cyborgs and Women: The Reinvention of Nature. Routledge. ISBN 0415903866.

 

作者:王維佳,騰訊研究院助理研究員

來源:公眾號(hào):S-Tech(ID:S-Tech1014)

題圖來自Unsplash,基于CC0協(xié)議

更多精彩內(nèi)容,請(qǐng)關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號(hào)或下載App
評(píng)論
評(píng)論請(qǐng)登錄
  1. 目前還沒評(píng)論,等你發(fā)揮!