10分鐘從老板手里騙走430萬,騙子們是把AI玩明白了
在 AI 技術的高速發展浪潮下,有些人可能會利用 AI 來實現業務提效,但部分用心不良的人卻將 AI 技術用于詐騙, 比如近日,有關“AI 詐騙”的消息就登上了熱搜,引起了不少人的關注和防范。那么我們如果看待“AI 詐騙”?一起來看看作者的分析。
AI工具還有很多人沒用上呢, AI 詐騙它就來啦!
今天一個新聞上熱搜了,內容是“AI 詐騙”。
這個熱搜的詞條,其實是有些夸大的,但里面實際發生的事兒,也的確離譜。
事情發生在福州,一位科技公司的老板,老郭,某天突然接到了個好友的微信視頻,說是自己的朋友在外地競標,需要 430萬的保證金,想走他的公司賬戶過個賬。
老郭想著也不是啥大事兒,于是在確認視頻通話里的人和聲音都是他朋友之后,就同意了。
隨后,對方就給老郭發了一張銀行卡轉賬成功的截圖,說是錢已經轉到老郭的戶頭上了。
由于老郭之前已經確認了朋友的身份,在沒確認錢到帳與否的情況下,也沒有多想,直接就把 430萬轉到了好友給的銀行卡上。
整個過程不過短短十分鐘……
轉賬完成之后,當老郭再次和好友打電話核實時,這才驚呼,剛才的一切,居然都是詐騙人員使用各種技術手段偽造的!
不僅好友視頻的人像是 AI 生成的,就連好友的音頻都是通過 AI 技術模擬的,好在警方跟銀行通力合作,截停了錢在銀行的走向,幫老郭止損了大部分損失。
你還別不信,現在的 AI 擬人和擬聲都非常簡單了,世超自己都能煉一個簡單的出來。
還記得之前咱們使用 AI 擬聲工具和 AI 視頻工具模擬的數字人蛋蛋嗎?(我司同事,差評視頻內容的聲音就是他錄的)
這個數字人視頻只使用了一張照片做素材,其中的動作和聲音都是使用 AI 生成的。
整個視頻制作訓練花了不過數小時,而音頻在訓練完模型后推理的時間不超過五分鐘……
可以說,在現在這個時代,不但是語音消息不保真了,這以后連視頻通話見到真人都不能信了。
隨后世超就把這個事發到群里和小伙伴們討論了一下,大家聊了一下認為,這一整個案件里讓人驚嘆的,還不僅僅是AI偽造的視頻和人聲,細究下去,事件里的華點還真不少。
警方沒有公布太多的細節,估計是太細了容易被別的騙子當教材學過去,但根據僅有的細節,我們能分析出幾點:
- 詐騙團伙在給郭先生打視頻電話時,使用的就是他好友的微信號,把他朋友的微信號盜了;
- 騙子掌握了比較多的郭先生朋友的圖片、音視頻信息,用來訓練模型;
- 騙子擁有實時渲染數字人的技術,因為警方新聞中提到了郭先生和他朋友打的是微信視頻;
- 騙子應該對郭先生及其朋友的過往對話風格有比較深入的了解,知道怎么跟郭先生溝通(微信是僅能云同步很有限的聊天記錄的)。
以上所有的條件,無論哪一個,具體到實施上,都是很有難度的操作。
但,它卻就這么真實的發生了。
世超專門找了幾位信息安全從業者問了問,最后發現這個案子,還真的沒那么簡單。
首先是世超百思不得其解的微信登錄問題。對于這點,各位大佬們都覺得這個其實不難,主要有兩個方法能夠做到。
一種方式是微信二維碼釣魚,另一種則是獲取Session(可以簡單理解成是cookie,能保持登錄狀態)。
微信二維碼釣魚這個不難理解,就是利用釣魚網站或者鏈接,讓受害者的朋友通過微信掃碼登錄電腦微信,這樣詐騙人就可以用自己的設備使用他朋友的微信了。(不過其中一位老哥指出,微信異地掃碼登錄會觸發風控)
第二種獲取 Session ,只要受害者朋友的電腦上設置了微信自動登錄,那只要獲取相應的 Session ,理論上就能在詐騙人的電腦上登錄受害者朋友的微信了。
不過出于安全考慮,咋獲取這個 Session ,這位業內人士沒細說。
對了,還有另外一種簡單粗暴的方式,就是被盜號的人自己電腦是登錄微信的,電腦處于開機狀態,但是被騙子用木馬遠控了。
登錄微信之后,接下來的操作才是重頭戲。
詐騙人應該“蹲點”了很久,知道被盜號者微信上誰有錢誰沒錢,跟誰關系好,事先挑好了下手對象。同時,騙子還對他的生活習慣非常了解,這樣才能趁對方不注意登上他的微信,進行視頻通話詐騙。
而想要在微信視頻的同時 AI 換臉和變聲,詐騙人員還得將攝像頭和麥克風的數據,替換成 AI 換過臉和變過聲的數據流。
至于訓練素材,極有可能是通過被盜號者自己的朋友圈或者與別人的聊天記錄獲取。
最后,結合所有獲取的信息,訓練好素材,編造一個劇本來對受害者實施詐騙。
也就是說,這群詐騙人員,不僅有技術,耐心也不差。
在和這些信息安全的朋友一整個聊下來之后,世超是冒了一身冷汗。像這種詐騙,別說是家里的老人分辨不出來了,就算是神仙來了,都能給你晃迷糊。
不過朋友們還是給了大家一個安慰:像這次的詐騙事件,理論上技術可行,但終究還是一個小概率事件。
畢竟在這次的案件里,個人微信被盜用是更主要的原因,而這也是詐騙過程中需要花費最多功夫的步驟。假如沒有這一步,受騙人必然會更加警惕,整個詐騙環節的漏洞也會更多。
想要讓騙子花那么多精力來騙你,前提條件是你值得……
但是,高策劃詐騙難度高,并不代表著低策劃詐騙就騙不到人了。
使用 AI 詐騙的案件現在其實已經屢見不鮮了。
看看之前那個數字蛋蛋的制作過程就知道, AI 對于那些實施語音電信詐騙的人員來說,簡直不要太高效。
而且類似的詐騙案件在國內國外也已經層出不窮了。
之前就有一個國外的詐騙公司,使用 AI 模擬了“卷福”的音頻,打電話給一家新西班牙的小電影公司,稱想要和對方合作,并要求對方先打款 20萬英鎊才能見面。
結果在電影公司付完錢之后,他們才發現這次事件,完完全全就是一場 AI 騙局……
這件事情讓我們非常擔心那些跟不上高速發展的科技的長輩們,他們可能很難相信正在跟自己視頻通話的兒女是假的,騙子找他們要錢可能會輕松得手。。。
在音視頻都不可信的情況下,以后或許要給父母一個密保問題了??梢愿嬖V父母,萬一微信自己找他們要錢,讓他們問一些只有你們自己才知道的細節,比如:
“兒子,你小時候我經常用衣架打你還是拖鞋打你?”
這個問題最好也有陷阱,正確回答應該是“你用掃把打我”。
除了多提高防范意識、多給長輩們科普最新騙術,世超還是要啰嗦一下各位差友,咱們在對個人信息的敏感度上,還是得多上一點心。
之前我們在文章里提到“個人信息泄露”相關的新聞時,常常會有差友發表“完全不在意,反正底褲早都漏光了”的言論。
而且讓我撓頭的是,還有不少人,是認可這種躺平論的。
但你看,隨著技術,特別是 AI 技術的爆發,個人信息泄露的危害已經開始顯而易見地越來越大。大伙再這么躺,就純純是對騙子們的不尊重了。
到那時候,你泄露的個人的信息,指不定轉頭就把身邊的人騙了,這該上哪說理去?
圖片、資料來源:
- 10分鐘被騙走 430萬!小心這種新型詐騙手段!
作者:晚上吃早飯;編輯:江江 & 面線 & 大餅
來源公眾號:差評(ID:chaping321),Debug the World。
本文由人人都是產品經理合作媒體 @差評 授權發布,未經許可,禁止轉載。
題圖來自 Unsplash,基于 CC0 協議。
該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。
很好奇AI犯罪成本很低嗎?還是技術門檻已經人均入門了?