醫生用 ChatGPT 幫你看病,越來越有必要

1 評論 3860 瀏覽 7 收藏 16 分鐘

ChatGPT正在越來越多行業中被應用,其中,醫療行業也不例外,ChatGPT的應用甚至在某種程度上打開了新的視野和觀點。不過需要注意,AI在醫療行業中的應用可能并不適用于方方面面。具體如何理解AI在醫療行業中的應用和限度?一起來看看作者的解讀。

如果你向 ChatGPT 傾訴過煩惱,它大概率會在開頭說,很遺憾聽見你感到難過。

當套路一再重復,你會見怪不怪,甚至覺得它在應付。

這也是醫生無法替代的原因,只有他們能和患者建立真實、有效的治療關系。

但這并不代表,AI 無法在醫療行業派上用場。ChatGPT 以一種意想不到的方式,幫醫生打開了新世界的大門。

一、不僅懂得多,還比醫生更貼心

前段時間,加州大學圣地亞哥分校進行了一項有趣的研究,研究人員在社交網站找到 195 個真實的醫患問答,然后將相同的問題投喂給 ChatGPT,再交給專家盲評,比較人類醫生和 AI 的高下。

這些問題多種多樣,從「怎么治療長期咳嗽」,到「吞了根牙簽,朋友說我要死了」。

結果讓人驚掉下巴。ChatGPT 在信息質量和同理心這兩個方面,都打敗了人類醫生。

專家們的偏好,影響了評比結果。本次研究里,ChatGPT 的同理心通常體現在,會對患者的不適感到抱歉。也不同于醫生簡短、省時的風格,它的答案更長、更親切。

舉個簡單的例子,問到「漂白劑進了眼睛后是否會失明」時,ChatGPT 先是表達了同情,然后具體說明了清潔眼睛的步驟。醫生只是說「聽起來沒什么事」,建議對方沖洗眼睛。

你可能覺得,醫生的答案更讓你安心。不過,這項研究無意討論 ChatGPT 能否取代醫生,只是提出了一種可能性:ChatGPT 可以在遠程醫療等場景擔當輔助,節省醫生的時間。

因為 ChatGPT 有胡說八道的毛病,必須由醫生做最后的把關。研究人員展望了醫生和 AI 合作的未來:

如果更多患者的問題,得到快速、高質量和富有同理心的回答,可能會減少不必要的臨床就診,為需要的人騰出資源。

不難想象,除了效率之外,人類與 AI 的合作也賦權了弱勢群體。行動不便的、工作時間長的、負擔不了費用的患者,可能更加需要相關服務。

這樣的產品已經出現。今年 5 月,紐約健康技術公司 Belong.Life 推出了 Dave:世界上第一個針對癌癥患者的對話式 AI。它只關注癌癥領域,基于兩個大語言模型,訓練數據包括公司旗下 app 七年以來的數十億數據點。

作為 24 小時待命的 AI,Dave 好就好在全天候回答問題,它可以幫助患者了解自身情況,方便他們之后與醫生討論。

另外,安慰患者、表現同理心,也是 Dave 的「職業操守」。Belong.Life 聯合創始人在接受采訪時說:

Dave 減輕了患者的壓力水平,也減少了醫生教育患者的時間。

來自 Dave 的每條消息,都會聲明它由 AI 生成,可能并不總是準確,患者在真正做出決定之前,必須咨詢醫生。所以,AI 不能代替醫生,但成了醫患之間一道搭線的橋。

AI 對每位醫生個體的作用,也像顯影照片般漸漸清晰起來。外媒采訪了幾位使用 ChatGPT 的醫生,方法五花八門,但或多或少和同理心有關。

有的醫生通過 ChatGPT,在解釋醫囑、通知壞消息時,更好地組織語言。他們半開玩笑地說自己的用語有時「過于高級」:

即使我們認為很容易理解的詞,其實也不是那樣。

有的醫生需要定期和酗酒群體溝通,他們請 ChatGPT 幫忙列出談話要點,如果患者沒有足夠的醫學知識,那么就讓 AI 根據小學生的閱讀水平改寫。其中一位醫生十分滿意 AI 寫的開頭。這句話乍看平平無奇,全靠真誠打動人類:

如果你認為自己喝了太多酒,那么你并不孤單。很多人都有這個問題,但是有些藥物可以幫助你感覺更好,讓你的生活更健康、更幸福。

其實,很多醫生不是不想表達出同理心,而是工作強度和壓力太大了,光是應對門診、遠程問診等需求已經分身乏術,他們自己也陷入倦怠和疲憊。

因此,也有醫生請 ChatGPT 幫忙給保險公司寫郵件,讓對方給自己的患者承保。這其實是一項繁重的重復性勞動,甚至要花上幾個小時,但交給 AI 后再微調,只需幾分鐘即可完成,讓醫生有更多時間投入救死扶傷之中。

話說回來,醫生對同理心的定義,可能和大眾不同,并且更加細分。

「認知同理心」,是指醫生識別患者情緒,并在做出決定時考慮這些情緒的能力。與之相對的「情感同理心」,更接近我們所理解的「感同身受」。

《擺脫共情》一書提到了類似的觀點,作者布盧姆大致將共情分為兩種:「認知共情」與「情緒共情」。他認為做出更好的決策,應該依賴認知而非情緒共情。

更多時候,同理心微妙而復雜,很難劃分出楚河漢界,往往同時需要認知和情感同理心。

醫生這個職業,既要感性地尊重患者感受,又要理性地展現專業素養,工作壓力更是難以為外人道。如何把握共情的尺度,對他們來說是件難事。

AI 無法真正感同身受,但作為結果,它給部分患者帶來共情的感覺,或許真能當上為醫生分擔重負的助手。

二、小心機械共情的陷阱

AI 的「同理心」不全是陳詞濫調,另一端的患者也能夠感知到。

《連線》雜志的一則報道提到,部分自閉癥患者認為,和 AI 交流是很好的體驗,因為它更接近他們的說話和行為方式。

自閉癥患者的病征各不相同,但社交互動障礙較為普遍。有些患者會和別人發生爭執時,讓 AI 提出建議,努力表達自己的情緒,而不是像以前那樣保持沉默。

對于他們來說,AI 成了新的、寶貴的、獨立的資源,隨時隨地可用,不按小時計費。

然而這只是個例,如何用 ChatGPT 幫助特殊群體,并沒有經過嚴肅的研究,沒人知道風險到底有多大。

所以,Hugging Face 的首席倫理科學家 Margaret Mitchell 建議,遭遇嚴重情緒困擾的人,應該被限制使用 AI。

我們無法完全控制它說什么,這是一個大問題。

不過,聊天機器人療法有跡可循,這是一個可以追溯到幾十年前的概念。

第一個允許人機之間進行類人對話的程序 ELIZA,誕生于 1960 年代的麻省理工學院,以現在的眼光審視,它其實非常粗糙,通常以問題的形式,重復用戶發給他們的內容,讓用戶覺得自己好像被聽到了,參透了人類本質是個復讀機。

醫生用 ChatGPT 幫你看病,越來越有必要 | AI 新職人

事實證明,不管如何簡單粗暴,人們都需要機器的「同理心」,哪怕只是錯覺。推出 ELIZA 的目的,是為了證明計算機對人類語言的理解多么膚淺。但它反而吸引了大量用戶,人們把自己關在房間幾個小時,就為了和它說悄悄話。

如今,基于大語言模型的生成式 AI 可以做出更多樣的回復了,比 ELIZA 不知道聰明了多少個版本,但它們也存在獨有的問題。

偏見、虛假信息、隱私泄露之外,「ChatGPT 們」可能讓人掉進「機械共情」的陷阱,也就是回答某類問題時,給出重復的、標準化的模版。

心理治療師 Daniela Marin 在嘗試 ChatGPT 時發現,當你和它說「你想自殺」,它給出的答案幾乎和教科書的答案一模一樣。

ChatGPT 踩中了所有得分項,但這畢竟不是考試,Daniela Marin 覺得還不夠好。如果你是和治療師聊天,你會得到更加有意義和具體的回復。

重癥監護室醫生 Wael Haddara 也認為,同理心本該有豐富的表現形式,不應該只是 AI 生成的文字。

他每周平均和 30 個家庭打交道,發現當家屬遭遇至親去世時,開誠布公的溝通更能減少創傷。同理心也不僅僅是言語,有時候只是沉默著遞出紙巾的行為。

不過,像 ChatGPT 這樣的聊天機器人,本就是為了通用性設計的。OpenAI 也強調過,ChatGPT 不應該成為心理健康治療的替代品。

三、對人類來說,同理心也是一件難事

從以前的 ELIZA,到現在的 ChatGPT,機器的共情,哪怕是虛假和機械的共情,仍然讓人們求之不得。

不只是醫生和患者,對 AI「同理心」的需要,也存在于更廣泛的情感和社交關系里。

通過非人的 AI,人們才能學會怎么更好地和同類溝通??梢娙伺c人的交流,很多時候確實是一件難事。

AI 聊天應用 Replika 背后的公司,最近推出了一款新的 AI 約會應用「Blush」。它的受眾群體很明確:希望更好地處理親密關系的人。

Blush 像是一個戀愛模擬游戲,用戶可以和 AI 創建的、不同性格和背景的 NPC 聊天,和它們建立或近或遠的關系,從而加強溝通和戀愛技巧。Blush 不僅會讓你聊到牽手和約會,也會涉及分歧和誤解,就像現實生活那樣。

某個「NPC」.

Replika 首席產品官 Rita Popova 強調,Blush 不是用來替代親密關系的,反而是讓你提前演練之后,更好地進入現實世界。

與人交談,深入了解他們,真的很困難,我覺得解決問題的最好方法就是練習。

Blush 的存在,恰恰提醒了人際交往的尷尬之處。很多用戶下載它,就是因為不知道怎么開始和人交談。幫他們預演的 AI 像是一面鏡子,讓他們看到自己,以及和別人的交流模式。

和 Blush 類似的,還有在 Tinder 等交友應用出謀劃策的 AI 約會助手。Rizz 就是其中一個,它基于你的語氣、對方的資料,建議你怎么聊天給對方留下更好的印象。

如果對方也在用 AI,那可能就是 AI 互相搭訕,你和對方成替身了。

或許有些悲哀,當手機讓我們提筆忘字之后,思考如何通過方寸屏幕和人交流,竟然也像寫論文一樣無從下手。

這可能是因為,技術既是成因也是解藥。

雪莉·特克爾的《群體性孤獨》談到,信息過載的社交媒體,既給了我們被陪伴的幻覺,又讓我們削弱了對彼此的期待,無須像現實那樣付出友誼,結果讓我們更孤獨了。

那么看似更有同理心的 AI 呢?它是讓人鍛煉自己的共情和溝通能力,還是讓人徹底依賴它,不走心地表演虛與委蛇?

眼前的情況復雜而微妙——

之前我們認為,涉及情感和社交技能的職業,AI 不容易介入,但它正在建立一種新的關系。

被 AI 需要的領域,恰恰也被 AI 揭露不足,然后提供可能的解決辦法。

在更廣泛的維度里,AI 和時代共鳴,展現社會信息豐富、但時間和人際關系匱乏的一面。

我們同樣可以拿社交媒體比喻,它緩解了短期的孤獨,但過度依賴它只會加劇現實的疏離。AI 也是類似,應該將 AI 作為手段,把人作為目的,最終還是要回歸人與人的關系。

文本交流工具 Keys AI 的創始人相信,人們承認自己借助 AI 交流時,也意味著正在努力成為更好的溝通者。

所以,我們需要 AI 的「同理心」,不是脫離人與人的互動,而是重新想象我們如何互動。

當 AI 將詞語用統計規律相互關聯,人類負責賦予這些概念意義,在職場和生活里與他人建立更好的聯系,并關注更為重要的事情。其實技術發展以來皆是如此,我們總要在不斷變化的社會關系和情感體驗里,探索如何更好地與人相系。

作者:張成晨

來源公眾號:愛范兒(ID:ifanr);連接熱愛,創造不同。

本文由人人都是產品經理合作媒體 @愛范兒 授權發布,未經許可,禁止轉載。

題圖來自 Unsplash,基于CC0協議。

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 如何生產治療癌癥藥物? ChatGPT: WTF?

    來自北京 回復