接到“女兒”求救電話,親媽差點被AI仿聲騙了

1 評論 3687 瀏覽 3 收藏 11 分鐘

AI技術的進步讓我們看到了大量可能,比如用戶可以利用AI繪畫軟件生成“以假亂真”的作品,比如網店商家可以用AI生成虛擬模特,減少人力成本的投入。但現在,AI技術卻被部分“有心人”利用了,比如國外就出現了AI仿聲欺詐事件??磥?,AI行業在飛速前進的同時,也需要將反詐這件事提上日程了。

聽到電話里女兒的求救聲,慌亂的母親差點給“綁匪”打錢,但綁匪是假的,女兒的聲音也是克隆的。借助最新的AI技術,騙子只要拿到他人3秒的語音,就能快速復制出一模一樣的聲音,甚至方言和語氣也能模仿。

當人們還在驚訝AI繪畫以假亂真的能力時,AI仿聲技術已經被騙子應用。在加拿大,僅3天就有至少8名受害者被騙約100萬元,騙子模仿親人的聲音“救急”,就算親媽也聽不出紕漏。

有了AI,“摳腳大漢”能秒變誘惑女郎,陌生人能輕松冒充成你的親友,打錢你就輸了。

從區塊鏈到AI,每次新技術一出,詐騙者最先沖鋒時代前沿。面對以假亂真的詐騙手段,普通人越來越難以防范,那些打開潘多拉魔盒的科技巨頭們,也不能光忙著蒙頭狂奔,得用魔法打敗魔法。

一、AI仿聲詐騙案出現,加拿大8人被騙100

“媽媽!救我!”電話的另一頭傳來了女兒的哭喊聲,母親一下子慌了。還沒等緩過神兒來,就聽到一個陌生的男人在電話里吼道“把頭往后仰,躺下”。緊接著,陌生男子發話,“你女兒在我這里,你敢打電話報警或通知任何人,我便會迷暈她,把她帶到墨西哥?!?/p>

電話這頭,焦急的母親隱隱約約能聽到女兒的呼救聲,“媽媽,拜托救救我,救我”。此時,“綁匪”談起了條件,需要100萬美元才能放人,得到沒有那么多錢的回應后,“綁匪”改口稱,“拿5萬美元來換你的女兒?!?/p>

上述情景是近期發生在美國亞利桑那州的真實一幕。據美國全國廣播公司(NBC)報道,這是一起AI仿聲詐騙案。電話那頭的女孩聲音,其實是AI克隆的,幸好這名母親鎮靜下來,聯系了丈夫確認女兒無恙,才免于被騙。

事后回憶起通話細節時,這名母親感到陣陣后怕,雖然已經明確了這是一宗電信詐騙,但她依然對女兒的聲音沒有絲毫懷疑。

在人工智能提速科技變革時,不法分子正在將AI當成魔法,用最先進的技術手段實施詐騙。這種技術發達到什么程度?亞利桑那州立大學AI領域的教授坎巴姆帕蒂稱,只需獲得某人3秒鐘的原聲,就能迅速復制出完全相同的聲音。

不少人已經被騙。4月2日,央視網發布視頻報道,加拿大犯罪分子利用AI合成親人聲音實施詐騙,3天時間內至少有8人上當,涉案金額約100萬元。這些受害者多為老年人,他們的反饋也是,“電話里的聲音簡直和親人一模一樣”。

甚至,以往被認為安全的“聲紋”系統也能被輕易破解。今年3月,《衛報》澳大利亞版記者尼克·伊夫賽德說,他用人工智能做出自己的聲音,成功進入了他的Centrelink自助服務賬戶。而就在兩年前,澳大利亞服務局在一份報告中還聲稱“聲紋與指紋一樣安全”。

AI進化的速度實在太快了。早在2019年,《華爾街日報》曾報道過一名詐騙犯用AI語音合成來冒充老板,讓一家分公司的總經理給他打了22萬歐元。但在當時,詐騙者還得準備被模仿者的語料加以訓練打磨。而現在,AIGC讓克隆聲音幾乎沒什么門檻,連方言和語氣的模仿都不在話下。

目前,國內暫時還沒有大規模出現AI仿聲詐騙的案例,不過,用AI生成假圖片來騙錢的事已經頻頻發生。

今年2月,一則“在蘇州金雞湖將舉辦游艇女仆party”的消息在網絡流傳,宣傳文檔里附有多張女仆裝打扮的女性照片,發布者明碼標價,參與Party每人要交3000元。明目張膽舉辦“擦邊”派對,很快引來了網警,根據后續網警披露,那些女仆照片基本都是AI生成的。

類似的事件還有不少,網友們逐漸養成了“有圖也不一定有真相”的防范意識。如今,哪怕有聲音、有視頻也不可信了。

二、防偽造技術跟不上AI“高仿”,反詐待升級

當詢問ChatGPT“AI詐騙都有哪些類型”時,它給出了多項答案,包括用AI生成虛假網站和社媒賬號,冒充合法機構和個人騙取信息和錢財;用AI生成仿真聲音實施電詐;對受害者個人信息進行深度學習,生成個性化欺詐方案等等。

接到“女兒”求救電話 親媽差點被AI仿聲騙了

ChatGPT給出的AI詐騙類型

但ChatGPT還是低估了騙子的手段。對于精心設局的詐騙者來說,AI作為底層,甚至衍生出無窮無盡的詐騙方法。

在這方面,加入了AI技術的“殺豬盤”危害性不小。在各種交友和婚戀網站,充斥著許多“殺豬盤”騙局,不法分子偽造自己的身份和人設,接近受害者,在取得對方信任后騙取錢財。

以往,騙子會在網絡上盜取照片偽裝成自己,但只要有心人搜圖對比也可能識破,但倘若騙子使用AI來繪圖,這可就是“獨一份”。不僅如此,通過AI作圖,騙子甚至還能輕易根據受害者的要求比出相應的手勢,更容易獲取信任。

而在社交媒體上,“摳腳大漢”也更容易假扮成美女來騙錢了。一些AIGC應用能夠生成誘惑、大尺度的照片和視頻,來誘惑用戶進行裸聊,或者讓用戶為更多私密照片付費。放在以前,這些視覺產品還需要花功夫制作,現在這些事直接交給AI,一旦有人踏進陷阱,就會被騙子拿捏。

更可怕的是,由于許多AI工具都已經開源,騙子實施詐騙的成本和門檻越來越低,直接在網絡上就能得到教程,發布者的本意是供人們學習,但擋不住不法分子動歪心思。

隨著AI的技術演進,人們所聽所見將越來越不可信,想要避免被騙,不僅要了解詐騙手段,提升防范意識,同樣也需要先進的技術,用魔法打敗魔法。

面對深度偽造帶來的危害,谷歌早在2019年就開始有意識地防御,先是招募了一群演員錄制視頻,然后利用網上的深度偽造技術進行換臉等操作,并對這些數據進行全面地分析,讓開發者們研究深度偽造技術的算法和邏輯,在“知己知彼”的基礎上,更準確地識別和防治深度偽造內容。

去年,微軟推出了名為“Video Aunthenticator”的工具,它能夠對畫面中渲染邊界和灰度等級進行逐幀的實時分析進而生成可靠指數,幫助用戶鑒別內容真實性。

不久前,OpenAI也發布了AI生成內容識別器,但博客數據顯示,檢測成功率只有26%,對英文以外的語言,檢測效果要差很多。相比ChatGPT的強大,這家AI公司在“打假”方面的研究還不夠深入。

當AI技術呈現出硬幣的兩面,正邪的交鋒就再也無法停止。發人深省的是,2018年,紐約州立大學曾開發出一款“反換臉”AI刑偵工具,通過預測眼睛是否眨動的狀態來識別偽造人臉,準確率宣稱能夠達到99%,但這款工具很快就失效了,因為深度偽造技術進化了。

科技巨頭們用技術打開了潘多拉的魔盒,世界也需要他們掌握鎖住惡魔的鎖鏈。AI詐騙流行的苗頭隱隱出現,反詐技術也得跟上腳步。

作者:凱爾,編輯:文刀

來源公眾號:元宇宙日爆(ID:yuanyuzhouribao),在這里,看見未來。

本文由人人都是產品經理合作媒體 @元宇宙日爆 授權發布,未經許可,禁止轉載。

題圖來自Unsplash,基于 CC0 協議

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 獵罪圖鑒里面有這個劇情

    來自廣東 回復