用AI防自殺,究竟是為了及時拯救生命,還是防止利益損失?

1 評論 1722 瀏覽 1 收藏 14 分鐘

隨著AI技術(shù)的發(fā)展,它已不再是一個高大上的名詞,而是逐漸滲入我們的生活。最近扎克伯格決定在Facebook上推廣AI防自殺系統(tǒng),不過這究竟是為了及時拯救生命,還是為了平息用戶對FFacebook上曾多次出現(xiàn)直播自殺事件的不滿情緒,以及用戶的隱私之殤,這些都值得我們深思。

 

很忙的扎克伯格決定在全球范圍內(nèi)推廣AI防自殺系統(tǒng)以平息用戶對Facebook的不滿情緒,這是怎么回事?

原來,之前Facebook上曾多次出現(xiàn)直播自殺的事件,但由于平臺方?jīng)]有及時排查到此類信息,一時給社會造成了很大的負面影響,而Facebook也理所當(dāng)然地遭到了平臺用戶的責(zé)難,所以扎克這才趕緊推出了AI防自殺系統(tǒng)。

不過,這已經(jīng)不是第一次Facebook因為信息管理不利而被diss了。今年《紐約時報》和《衛(wèi)報》的報道指出英國一家數(shù)據(jù)分析的政治咨詢公司利用Facebook的信息管理漏洞,竊取了5000千多萬Facebook用戶的個人資料,幫助現(xiàn)任美國總統(tǒng)特朗普在2016年的大選當(dāng)中獲得有利輿論。

Facebook近年來爭議不斷,這套AI防自殺系統(tǒng)是其挽回用戶信心的一個小動作,但是小動作里面也可能藏有大玄機,F(xiàn)acebook的新技術(shù)到底能不能安撫長期以來被其傷害的用戶之心呢?

一、從圖文到視頻:AI識別自殺的技術(shù)之流

AI可以識別自殺這一論斷看似很迷,但是在各種AI識別人類性格、性取向、精神疾病等技術(shù)層出不窮的前提下,我們可以嘗試對AI防自殺系統(tǒng)進行簡單剖析,嘗鼎一臠。

文字識別

AI防自殺系統(tǒng)會對用戶的發(fā)帖內(nèi)容進行識別,針對含消極情緒的語句,

例如,“我不想活了”,“我恨世界上所有人”,“我為什么還不死”這類代表負面情緒的語言AI會特別注意,并將發(fā)布此類言論的用戶進行標(biāo)記。然后,AI會將相應(yīng)的數(shù)據(jù)移交給公司專員進行篩選和處理,最后由人工來做出決策。

Facebook這套AI防自殺系統(tǒng)沒有讓AI單兵作戰(zhàn),而是選擇人機協(xié)作的方式來篩選信息,為提高系統(tǒng)識別自殺的準(zhǔn)確度做了一定的保障。目前,AI偵測與回報機制的速度比人工的手動回報快三成,已經(jīng)大大提高了Facebook信息篩選效率,并成功阻止了多起自殺事件。

圖片識別

其實,要機器從一張圖片來分析出一個人是否有自殺傾向是一件相當(dāng)困難的事情,因為圖片的表達有時候比較抽象,其中還會涉及到色彩學(xué)方面的問題,就算是人類也不一定能做到。

不過AI仍然可以對此做出一些嘗試,我們可以拿另外一個AI圖片識別的領(lǐng)域來舉例,那就是AI鑒黃。由于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)模型在各種圖像識別比賽中取得的突破性進展,目前AI鑒黃一般會采用CNN(卷積神經(jīng)網(wǎng)絡(luò))、GoogleNet、ResNet(殘差網(wǎng)絡(luò))三種深度網(wǎng)絡(luò)模型結(jié)構(gòu)。

開發(fā)人員會需要從技術(shù)層面研發(fā)出一個“分類器”,從而讓AI能夠計算出該圖是否屬于黃圖的概率。這套AI鑒黃的原理在理論上來說對于所有的圖片識別基本通用,只不過相比鑒黃來說,AI要從圖片中識別出自殺傾向的困難點在于難以抓取此類圖片的共同點,所以在第一步建立“分類器”上,AI可能會遇到比較大的障礙。

因此后續(xù)AI識別的準(zhǔn)確率,相對文字識別來說,也會不太好保證。

音視頻識別

當(dāng)然,用戶在社交平臺上發(fā)布的內(nèi)容不僅僅是文字和圖片,還有很多的表達是以音頻或者視頻的形式,所以,AI防自殺系統(tǒng)在視頻直播當(dāng)中也植入了AI程序。

雖然Facebook方面并沒有透漏有關(guān)該AI視頻識別技術(shù)的相關(guān)細節(jié),但是我們?nèi)匀豢梢詮臋C器視覺領(lǐng)域的進展來窺一窺究竟。

之前,一公司的計算精神病學(xué)和神經(jīng)成像研究小組團隊利用機器學(xué)習(xí)預(yù)測大腦精神疾病抑郁癥,通過對59名普通人的語言方式進行追蹤和分析從而預(yù)測他們潛在的患病風(fēng)險,其精確度達到83%,由此我們可以看出機器具備一定能力從語音層面來分析人類情緒。

另外,南加州大學(xué)曾推出一款A(yù)I心理治療師,能夠分析受訪士兵的面部表情變化,并將AI分析表情的結(jié)果作為診斷士兵是否存在PTSD(創(chuàng)傷后應(yīng)激障礙)的依據(jù)之一。所以,AI防自殺系統(tǒng)要判斷視頻中的人是否有自殺的傾向,可能首先會從:

  • 人物的面部表情;
  • 是否存在危險器械;
  • 是否有流血等畫面的特點來進行分析。

總的來說,AI防自殺系統(tǒng)的有關(guān)圖像識別技術(shù)基本上會與以上所提到的兩個機器學(xué)習(xí)技術(shù)類似。

二、AI防自殺識別系統(tǒng)之殤,真的很痛

雖然現(xiàn)在AI識別人類情緒的工程一直在持續(xù)推進,但是情緒識別對于機器來說仍然不是一件簡單的事情。

首先,我們需要弄清楚AI分得清“演戲”和“真實”嗎?比如,在快手上存在著大量小劇場表演式的視頻類型,很多男生哭天搶地,女生狠心決絕甩耳光的視頻得到數(shù)百萬的點贊。人們把這些視頻當(dāng)作娛樂消遣,而機器會怎么看待這樣視頻?嘴角下?lián)P、淚眼婆娑、聲嘶力竭,這一場場一幕幕會被機器的“眼睛”迅速捕捉,并將其標(biāo)簽為極端消極負面的情緒傳播。

吃瓜群眾津津樂道地一場戲精飆戲在機器眼里成了有自殺傾向的人群情緒宣泄,這可能真的會讓人有些哭笑不得。模仿是人類的天性之一,長期熟悉模仿式表演的用戶能夠很快分辨出模仿和真實情緒的流露之間的細微差別,但是就是這一點點細微的差別卻是機器情緒識別最難突破的瓶頸之處。

其次,當(dāng)機器將識別出的一些負面關(guān)鍵詞作為標(biāo)記自殺人群的標(biāo)準(zhǔn)時,那么我們必須應(yīng)該讓機器知道那些說要“死”的人是不是真的想去死。Facebook這一AI防自殺系統(tǒng)應(yīng)用于國外會有什么烏龍,我們可能還沒那么清楚。

但是設(shè)想一下,如果把這一系統(tǒng)挪用到中國來,人工篩選的信息量反可能被大大增加。

舉個例子,在中國的語言系統(tǒng)里有一個很特殊的點,就是很喜歡把“死”作為程度詞來使用。在日常生活中,我們隨時隨地都會聽到有人說“熱死了”、“冷死了”、“煩死了”、“討厭死了”,像這類句子在人類看來只是十分常見的日常用語,但是機器對此卻難以判定,因為機器家族對這個世界暫時還不存在一個全面的感知系統(tǒng)。

當(dāng)中國被譽為“四大火爐”的幾個城市一到夏天,每一個人都能感受到高溫的襲來,也會知道在這個時候說“熱死了”是多么正常的表達,而機器能怎么辦呢,它可并不知道現(xiàn)在的現(xiàn)實世界到底有多熱呀。

另外,在機器的背后還需要思考的問題是懸在各大社交平臺頭頂?shù)囊话堰_摩利斯克之劍——隱私之殤。

6月4號,《紐約時報》的報道稱在過去十年中,F(xiàn)acebook至少與60家設(shè)備制造商(包括蘋果、亞馬遜、黑莓、微軟和三星)達成協(xié)議,向它們提供用戶隱私信息,這些協(xié)議中的多數(shù)至今還在生效。Facebook建立了最龐大的信息帝國,但是每一次信息技術(shù)的革命只是在表面上讓信息看上去更加去中心化,然而實際上卻只是建立了更加龐大的信息壟斷市場。

對比現(xiàn)實世界的條條框框,網(wǎng)絡(luò)承擔(dān)了社會“減壓閥”的功能。負面情緒再怎么樣都是人類的基本情緒,也是人類該有的脆弱。原本以為在無弗屆遠的網(wǎng)絡(luò)世界,你能擁有一隅展示脆弱的機會。但是,誰知道你的脆弱已經(jīng)被平臺收集,你躲在黑暗中卻被各大商家悄悄盯上。

在商業(yè)的世界中,商人需要不斷發(fā)掘人性的弱點,便于制定推廣商品的策略。而Facebook正在承擔(dān)這樣一個“老鴇”的角色,給商家提供人性的弱點,令人扼腕。

三、娜拉出走之后,AI防自殺系統(tǒng)還能做什么

AI防自殺系統(tǒng)在正式投入使用后,一個月檢測并攔截到的自殺事件有上百個,確實有效挽救了不少生命。但是從一個爭議不斷的社交平臺的角度來說,AI防自殺系統(tǒng)的目的到底是什么還需要探討。

這樣的一套AI程序究竟是為了及時拯救生命,還是肅清平臺環(huán)境,還是僅僅只是平臺針對外界質(zhì)疑的擋箭牌而已。如果,這是為了及時拯救生命,那么這樣的AI防自殺系統(tǒng)會面對一個非常有爭議的問題,就是娜拉出走之后的問題。

今年5月,在廈蓉高速服務(wù)區(qū)發(fā)生一起因欠下巨額高利貸而全家自殺的事件,而事件的主人公正是去年在微博發(fā)布遺書之后在海南警方及時救援下最后自殺未遂的同一家人。從這件事中,我們可以意識到微博作為信息平臺可以發(fā)現(xiàn)并識別這樣的自殺信息,但是拯救了一次之后呢?該自殺的還是照樣自殺,只不過這次卻不關(guān)我的事了。

說得冷漠一點,或許這些信息平臺真正想說的只是:自殺是你的自由,但是請別在我的地盤上自殺。看懂了這一層的邏輯后,這個AI防自殺系統(tǒng)似乎光環(huán)不再,最終,F(xiàn)acebook防來防去,防的還是利益損失。

但除去一些個例,AI防自殺系統(tǒng)還是有很大的落地空間。

因為AI防自殺系統(tǒng)不僅是在社交平臺,還在醫(yī)療機構(gòu)、審訊機構(gòu)等可以發(fā)揮作用,及時阻止一些不必要的傷亡。

目前,自殺已經(jīng)成為世界第十大死亡原因,2016年美國衛(wèi)生統(tǒng)計中心發(fā)布的數(shù)據(jù)顯示:

美國的自殺率在15年間上升了24%。

但在全球自殺的人群當(dāng)中,仍然有相當(dāng)一部分人是屬于非理性自殺,他們需要有一個AI防自殺系統(tǒng)能夠幫助他們再獲得一次重生的機會。

所以,期待AI防自殺系統(tǒng)在解決了一些硬性問題之后,全面落地到日常生活當(dāng)中,拾取更多可能在不經(jīng)意間逝去的生命。

【完】

 

作者:楊蘇穎,微信公眾號:智能相對論

本文由 @智能相對論 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載

題圖來自網(wǎng)絡(luò)

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!