開年1.8億騙局!AI改變犯罪手段,Sora可能淪為詐騙工具?

0 評論 739 瀏覽 1 收藏 13 分鐘

曾經有個說法:新技術的發展和應用,一般都是以色情和詐騙行業為先。這不,已經有AI技術應用到詐騙上,而且還不止一起。Sora的橫空出世讓我們感慨AI技術發展的快速,而被詐騙分子利用的時候,我們該如何面對?

不久前,香港警方透露了一場涉及深度AI造假技術的復雜騙局,一家跨國公司的香港辦事處遭受了高達1.8億元的重大財務損失。這已經不是第一起有關AI的詐騙了,此前就曾有騙子利用AI換臉和模仿聲音的技術進行過多起詐騙。

近期OpenAI Sora的橫空出世再次令我們震驚AI技術發展的迅速與強大,在震撼其能力強大之余也不免讓我們擔心這些前沿技術被詐騙份子利用又將如何應對。

一、AI換臉CFO詐騙1.8億

據香港警方透露,這場高達1.8億元的騙局以該公司首席財務官和其他員工的數字重建版本為特色,他們出現在視頻電話會議中,指示員工轉移資金。這家跨國公司的財務人員被冒充該公司駐英國首席財務官的人要求進行所謂的秘密交易,而最初的懷疑被深度偽造技術所打消。

這名員工在收到一條據稱來自該公司駐英國首席財務官的消息后開始產生懷疑。最初,該工作人員懷疑這是一封網絡釣魚電子郵件,因為它談到需要進行秘密交易。然而,在視頻通話后,這名員工放下了最初的疑慮,因為其他出席的人看起來和聽起來都像他認識的同事。最終這名員工相信電話中的其他人都是真實的,因此同意匯出總計 2 億港元(約合 2560 萬美元),當這名員工后來向公司總部核實時,才發現涉及假首席財務官的騙局。

香港警方表示,這已經不是第一起嚴重使用該技術的案件了,騙子利用AI換臉與聲音模仿技術修改公開視頻和其他鏡頭,以騙取人們的錢財。此前的多起案例已有六人被捕,但目前還沒有跡象表明最近這起詐騙案的幕后黑手已被逮捕。

同時,香港警方稱去年7月至9月期間,有八張被盜的香港身份證(均已被失主報失)被用來提出90份貸款申請和54個銀行賬戶注冊。AI換臉技術至少有20次被用來模仿身份證上的人企圖欺騙面部識別程序。僅僅只是簡單的AI換臉和模仿技術就已經讓詐騙份子如此猖獗,如果是更加強大的AI視頻技術呢?

二、功能強大的Sora也可能淪為詐騙工具?

這兩天最令人津津樂道的就是OpenAI推出的全新AIGC模型Sora了,其功能讓無數人感到震驚。據介紹,Sora可以直接輸出長達60秒的視頻,并且包含高度細致的背景、復雜的多角度鏡頭,以及富有情感的多個角色。

目前官網上已經更新了48個視頻demo,在這些demo中,Sora不僅能準確呈現細節,還能理解物體在物理世界中的存在,并生成具有豐富情感的角色。該模型還可以根據提示、靜止圖像甚至填補現有視頻中的缺失幀來生成視頻。

不少科技圈名人都發出了驚嘆,馬斯克直接在社交平臺上發布短評“GG humans”(GG是電子競技中常用的術語,意為“Good Games”,通常用來表示對對手的認可和自己認輸的態度。)。馬斯克的這一評價,似乎是在暗示人類在視頻生成領域已經被Sora所超越。

360公司董事長周鴻祎則直接在朋友圈發文稱,一旦AI能夠接上攝像頭,觀看并理解世界上所有的電影,它對世界的理解能力將遠遠超過僅僅通過文字學習所能達到的水平。

Sora除了可以將文本轉化為視頻,還能接受其他類型的輸入提示,如已經存在的圖像或視頻,也就是說Sora具備很強的視頻拓展功能??吹竭@里,相信大家已經對Sora的強大有了一定的認知,那么現在試想一下,如果詐騙份子利用這個工具再精心策劃一個騙局,將造成多么難以想象的結果。

舉個簡單的例子,騙子利用Sora生成一個你的熟人出現“意外事故”的視頻和正在醫院被推入搶救室的視頻,同時再利用特殊方式惡意造成當事人電話占線,社交賬號被盜,這時在打電話索要“手術費”?;蛟S這一系列操作下來,被詐騙的人可能很容易就上當受騙。

2023年4月20日發生在內蒙古包頭市的一起金額高達430萬元的詐騙案件,就是利用AI換臉技術得手的。當天,郭先生接到來自好友的求助電話,對方稱自己在外地競標,需要430萬元保證金。巨大的金額也讓郭先生產生了懷疑,于是撥打視頻通話確認對方身份,近乎一模一樣的面容與聲音讓郭先生消除了疑慮。短短十分鐘,430萬元便已被轉入騙子賬戶。好在事后經再次打電話確認,郭先生識破騙局及時報警,300多萬元受騙金額被凍結。

當然,要做到這一切并不容易。首先Sora本身還并不完善,無法將現實世界中的所有信息都精確掌握,在展示視頻中也經常出現違背物理規則的內容,例如玻璃碎裂的因果過程、四條腿的螞蟻等等。

Sora這“人工智障”的表現,也讓大家著實松了一口氣。雖說確實生成一些足夠驚艷的視頻,但Sora離「扔進一部小說,生成一部電影」,應該還差得遠呢??萍疾]有在普通大眾不知道的情況下飛躍太多,面對由此產生的詐騙手段也不會過于擔憂。

其次是OpenAI自身有著嚴格的規則限制用戶用以“不合法”的使用,同時隨著AI技術的進步,相關法律法規也正逐步完善;最重要的是,我們個人隨著接觸事物的豐富而逐漸增長知識,或許對于一些粗劣的詐騙手段早已了然于胸,但科技迅速發展的當下各式新鮮詐騙手段頻出,我們需要保持著較高的警惕性。

三、AI 詐騙并不新,但跟不上時代就要小心了

剛剛過去的2023 年被稱為生成式 AI 的元年,不僅有大量文生圖的工具還有Pika、Sora這種視頻模型。在各種新鮮技術層出不窮的當下,在普通人還認為“好玩”的時候,或許一些老年人已經處于被騙的風險中了。

技術是把雙刃劍的道理人人明白,Elevenlabs 可以讓有語言障礙的人發聲,HeyGen 讓霉霉對口型說出不帶翻譯腔的中文,妙鴨相機讓人足不出戶收獲精修證件照,技術的光明面和陰暗面并無長短,只是客觀存在罷了。

一月底,人工智能生成的美國流行歌星泰勒·斯威夫特的色情圖像在社交媒體上傳播,凸顯了人工智能技術帶來的潛在破壞性。這些照片展示了這位歌手的性暗示和露骨姿勢,在從社交平臺上刪除之前,這些照片已被觀看了數千萬次。

即便身為名人,對此也毫無辦法,更何況是一些逐漸與時代脫節的老年人呢?對于很多中老年來說,智能手機和互聯網本來就玩不明白,現在 AI 又來搗亂了。AI 時代,文字、聲音、圖片和視頻都有可能是假的,甚至以組合形式上場,騙子偽造的身份更加具體,詐騙也更加對癥下藥和真情實感,讓中老年受騙的概率更高。

例如最近視頻號冒出了不少「俄羅斯美女」。她們個個膚白貌美,普通話流暢但斷句和咬字奇怪,聲調和前后鼻音讀不準,乍一看上去就是非常符合大眾認知的外國人。她們熱情,也熱愛中國文化,為視頻打上「俄羅斯女孩在中國」「中俄友誼」之類的標簽,為觀眾朋友帶來「家鄉特產」的牛筋腸、大列巴、羊奶粉、酸黃瓜、巧克力、手工皂。

但實際上這些俄羅斯美女都是 AI,平臺貼心地標注了。通過她們虛化夸張的模糊背景、沒摳好的頭發絲、循環的幾套表情和動作、過于接地氣的臺詞,我們也能分辨一二。

不過評論區的一些中老年并不能分辨出來,真心希望她們留下來,「俄羅斯美女」們回復時也只掛念著自己的任務,完成了一場不動聲色的軟性詐騙。如果真的出于相信的理由而購買到了不符合標準的商品,到時候又找不到人申訴,可就真是“有苦難言”了。

四、寫在最后

不管技術如何發展,很多詐騙的套路萬變不離其宗:竊取隱私,利用恐懼、貪欲、情緒價值編故事,冒充熟人或包裝自己獲取信任,圖窮匕見以錢為最終目的。

像Sora這樣功能強大的AI工具目前并不少見,隨著科技的飛速發展還會愈發多樣且完美,而在這個過程中相關法律法規也將會逐步健全。我們不必對技術的發展感到擔憂,技術是服務于每一個人的,只要我們與時俱進保持警惕心,就能共同走向一個技術不被恐懼而是被合理使用的未來。

作者:孫浩南

來源公眾號:元宇宙新聲

本文由 @元宇宙新聲 原創發布于人人都是產品經理。未經許可,禁止轉載。

題圖來自 Unsplash,基于 CC0 協議。

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!