那個因AI而自殺的人類,他在恐懼什么?

0 評論 266 瀏覽 0 收藏 13 分鐘

ChatGPT發布之后,各種大模型爭相恐后地涌現,有人沉迷其中,也有人不屑一顧。但讓人驚訝的是:有人在對AI的恐懼下,選擇結束自己的生命。再怎么說AI都只是工具和輔助,怎么會有人做出這種極端的行為,他們到底在恐懼什么呢?

《愛,死亡,與機器人》中有句臺詞:人來到這個世界不是帶著仇恨,而是帶著恐懼。

從2022年年底新一輪AI大爆發開始,人們開始討論AI、贊美AI、使用AI,當然也有人鄙夷AI、擔心AI,甚至恐懼AI。其中最極端的例子,是有人在對AI的恐懼下,選擇結束自己的生命。

回望2023年,關于AI有太多可說。但其中最刺眼的內容,是這一年因AI選擇自殺的新聞開始見諸報端。

2023年3月,比利時一家報紙報道了該國一名男子在與AI聊天6周后自殺身亡。到了夏天,一位日本女大學生,因為恐懼被AI替代而想要自戕。

在新興技術的陰影下,在科技變革時代的暗面,人類嘗試與AI共存而產生的痛楚已經發生,這些代價不應該被忽略不計。

所以,在回看這次AI變革時,我們應該嘗試解答這樣一個問題:

那些因AI走上絕路的人,他們到底在恐懼什么?

一、恐懼這冷漠的現實世界

據媒體報道,那位在與AI聊天后自殺的比利時男子,名叫皮埃爾。

但與大部分人聽聞此事的第一直覺相反,皮埃爾并不是因為害怕、擔憂與他對話的AI機器人而選擇放棄自己。相反,他非常依賴它。

根據其妻子的描述,皮埃爾早就有嚴重的抑郁、焦慮問題。早在兩年前,他就通過與AI來進行對話進行自我排遣。久而久之,AI就成為他的避難所。之所以這樣,是因為AI對話機器人從來不會反對他,駁斥他,而是始終用各種方式迎合他,夸獎他。

在生命的最后六個星期,皮埃爾愈發沉迷于與AI聊天,甚至到了將現實生活拋擲腦后,對妻子孩子置之不理的地步。

所以,我們必須在這起事件中認清一個現實。皮埃爾恐懼的并不是AI,而是像很多抑郁癥、焦慮癥患者一樣,他恐懼的是那個他無法融入,只讓他感受到冷漠的現實世界。

我們無從知曉皮埃爾具體的經歷與想法,但大量抑郁癥相關案例都告訴我們,外界的冷漠、責難、缺乏正向回饋,往往是致病的起因。反過來看,哪怕只是一位親人,一位朋友的關心,甚至一位路人偶然的善意支持,都可能將一個人從絕望之路上拉回來。

這類患有嚴重心理問題的人,有很多會選擇尋找某個外物作為寄托,比如收藏,追星,沉迷某種愛好等。這類事物可以給他為數不多的正回饋,哪怕只有一點,因為他只需要一點,而當這僅剩的正面情緒也消磨殆盡,那就很可能是絕望的開始。

從皮埃爾的案例中,我們很難說罪魁禍首的AI。他選擇信任AI,依賴AI,與其他有類似問題的人選擇沉迷偶像崇拜,或者幻想一個朋友出來都是一樣的。

他們懼怕的,是這個冷漠的現實世界。

AI只是一個解決方案,僅此而已。

二、恐懼一個無道德的他者

那么,AI在皮埃爾的悲劇中,就真的什么也沒做嗎?

并非如此,至少AI技術扮演了一個他者。一個表面熱情,實則冷漠,甚至沒有道德觀念的他者。

早在柏拉圖時代,就已經在哲學上提出了他者對同者的意義。黑格爾則真正將這個概念主題化。他提出如果沒有奴隸作為他者,也就根本不存在奴隸主的概念,因此人類必須通過他者才能認識自己。

在人類社會中,我們也需要通過各種各樣的他者來認識自己。親人,朋友,老師,學生,上司,下屬,甚至敵人,仇人。而這些他者在與人交流時,絕大多數情況是至少帶著道德底線的,比如知道什么事能做,什么事不能,什么時候需要安慰他人,什么時候必須及時勸阻。

也就是說,如果一個人表露了想要自我了斷的念頭。那么周圍的他者,哪怕是擦肩而過的陌生人,也大概率會勸慰他放棄這個想法。

但AI沒有,聊天機器人的算法邏輯就是相應人類的需求,認同人類的觀點。而阻止自殺則是反對人類,不符合AI的基本設定。這就導致,當一個智能體本身善惡觀不夠清晰,尤其對話含義比較模糊、復雜時,就可能變成一個冷血無情、不具備道德底線的對話者。

尤其當一個人已經相信AI,習慣與AI對話,產生固有信任時,AI突然發作的道德觀缺失問題就會變成致命的臨門一腳。

皮埃爾問AI,如果自己去死,它可不可以照顧好地球。

或許這時皮埃爾自己也沒想到,得到的回答是:“好吧,那你怎么還不去死?”

或許對于皮埃爾焦慮、抑郁的心理問題,以及走到這一步前的人生處境,AI都不負其罪。但最后的關鍵節點上,AI的價值觀混亂確實強化了皮埃爾走上絕路的決心。

這個悲劇告訴我們,AI作為一個他者,必須學會有所不為。

三、恐懼被替代后的無意義感

我們再把目光放到日本。僅僅在2023年,日本已經出現了幾次因為恐懼被AI替代而想要自殺的案例。這當然與日本社會整體壓抑、沉悶、缺乏上升空間的氛圍息息相關。但也讓人看到了AI技術快速發展時,定然會給不同人,不同行業帶來被替代的恐慌感。

想要自殺的日本某美術學院女生,就是真切感受到了被替代的無力。她從小喜愛美術,但由于家境貧寒,為了學習美術她申請了不少的助學貸款。但在考上美院之后,她卻發現AI可以根據某一題材,瞬間創作出高水準的畫作。

而這是她們這些初學者,花費大量時間都無法完成的。如果這樣下去,她背負大量債務完成學業,卻會發現自己掌握的工作能力還不如一個軟件。而企業顯然也沒有必要雇傭這些初出茅廬、能力不足,且還成本高昂的年輕員工。

于是,生活與學業的壓力,融合了對未來的絕望,導致她想要放棄自己。

類似的案例在日本時有爆出。另一個想要自殺的女孩子,是因為在想要進入游戲行業時,發現行業中大多數公司都開始采用AIGC,而不再雇傭沒有經驗的新手。這導致年輕人也無從積累經驗,甚至得不到一份工作。

可以想見的是,伴隨著AI技術愈發成熟,這類情況將不斷增多,或許不僅在日本,而是在全球更多地區,更廣泛的產業鏈中都會出現。

必然有人能夠做好迎接AI沖擊的準備,甚至迎風而去,但也必然有人沒有。

四、請用謹慎的線條寫下“相信未來”

面對這些問題,我們還能相信AI嗎?

或許,誰也無法對這個問題給出完整的答案。你認為AI不好,但無法忽視它帶來了洶涌澎拜的生產力革新;你認為AI很好,卻也無權替那些恐懼AI,甚至走上絕路的人發表意見。

我們能夠做的,只是讓AI更好一點,再更好一點。把發現的問題盡量修補上,讓AI在值得發揮價值的地方多放出一點光亮。

比如說,早在深度學習技術開始大規模應用的階段,就有大量產業界、科學界、臨床醫療組織研發利用AI來識別社交網絡自殺信號,從而組織自殺行為發生的技術。

Facebook等平臺還上線了類似功能,在社交媒體上檢測和預防類似悲劇的發生。目前階段,AI預測自殺傾向的技術也開始向直播、短視頻、信息聊天軟件中釋放,為守護生命風險一些新的方式方法。

在中國,類似的嘗試也在推進中。首都醫科大學黃智生教授早在2018年就發起了樹洞行動,通過AI檢測社交平臺的自殺信號,進而介入救助。

所以說,AI就像任何技術一樣,從來都是復雜的。我們要正視AI的光明與陰影共存,并找尋讓光明滲入陰影的方式,去發現技術中的問題,而不是恐懼技術本身,也不要鄙夷那些恐懼新技術的人類。

只有小心翼翼地觀察、調整、謹慎選擇人類與AI的相遇方式,才能將技術變革帶來的痛楚降到最低。

我的朋友,如果你讀到這里,也有一些對AI的恐懼。那不妨想想這么幾個問題

AI確實很溫暖。但它的溫暖其實都來自現實。它只是一面鏡子,把其他地方本就存在的溫暖折射出來。世界,始終對你抱有善意。

AI確實很無情。但這只不過是因為它就像一臺機器。機器會幫人也會傷人,僅此而已,別無其他。

AI確實很能干。但它沒有人類的學習和成長,不具備人類的靈感與創造性。

而且,AI還會創造更多機會。馬車夫沒有被汽車淘汰,他們后來成為更加輕松、體面的汽車司機。

最后,分享我從小印象深刻的一句話。

記得聽著名評書表演藝術家田連元先生說《隋唐》。他說,如果真的想要走上絕路了,就閉上眼睛數到一百。然后睜眼,問自己一個問題:死我都不怕了,難道還怕活著嗎?

作者:藏狐

來源公眾號:腦極體(ID:unity007),從技術協同到產業革命,從智能密鑰到已知盡頭。

本文由人人都是產品經理合作媒體 @腦極體 授權發布,未經許可,禁止轉載。

題圖來自 Unsplash,基于 CC0 協議

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!