10分鐘騙走430萬,如何提防詐騙新技術?

0 評論 956 瀏覽 2 收藏 12 分鐘

有關AI詐騙的新聞在前幾日曾登上熱搜榜,并引發了大量網友討論。而就在網友熱議的事件背后,我們可以看到AI技術蔓延過程中所暴露的問題和隱患,有關AI詐騙的問題,也成為了當下亟待解決的問題。一起來看看作者的解讀和分析。

一、AI騙子,防不勝防

AI進化的速度有多快,騙術也跟著變得更狠。

福州一位科技公司的老板,某天突然接到了個好友的微信視頻,說是自己的朋友在外地競標,需要 430萬的保證金,想走他的公司賬戶過個賬。老郭在確認視頻通話里的人和聲音都是他朋友之后,就同意了。

隨后,對方就給老郭發了一張銀行卡轉賬成功的截圖,說是錢已經轉到老郭的戶頭上了,由于老郭之前已經確認了朋友的身份,在沒確認錢到帳與否的情況下,直接就把 430萬轉到了好友給的銀行卡上。

結果,這是一場騙局,還是AI操控的。雖然接到報警后,福州、包頭兩地警銀迅速啟動止付機制,成功止付攔截336.84萬元,但仍有93.16萬元被轉移。

還有利用AI進行聲音合成實施的詐騙。騙子通過騷擾電話錄音等來提取某人聲音,獲取素材后進行聲音合成,從而可以用偽造的聲音騙過對方。

已經有人因為AI聲音被騙了。曾有某公司財務接到領導電話,要求立刻給供應商轉款2萬元,并將轉賬信息以郵件形式發送,轉款理由是避免繳納滯納金,因為老板的口音十分逼真,財務也信了,在1小時內轉款完成,轉完才發現被騙。

AI 換臉早已不是什么新鮮事,很多短視頻鬼畜博主都精通這種操作,但擬聲技術相對復雜一些,畢竟犯罪分子需要獲取你的聲音,然后通過軟件將聲音變成他們想要的內容。

實際上,如今的騙子想要獲取聲音也并不難,最普遍的方法就是騷擾電話,只要你接電話后并說了幾句話,那么犯罪分子就會對你的聲音進行錄制,并提取你聲音的信息。

有業內人士表示,犯罪分子通過這一套流程進行詐騙的成功率基本是 100%,尤其是面向那些并不懂AI、防范意識可能薄弱的老年群體,AI詐騙更容易發生。

類似的聲音騙局,國外也早有發生。

一個國外的詐騙公司,使用 AI 模擬了“卷?!钡囊纛l,打電話給一家新西班牙的小電影公司,稱想要和對方合作,并要求對方先打款 20萬英鎊才能見面,結果在電影公司付完錢之后,他們才發現這次事件,完完全全就是一場AI騙局。

對于AI騙局,有律師表示,使用人工智能技術手段模仿真人面容、聲音,冒充親友、熟人、領導等,很容易達到以假亂真的程度,具有極強的迷惑性。與其他類型電信詐騙相比,AI詐騙迷惑性更強,針對性更強,辨識更困難。

如今,耳聽,眼見都不一定為實,各種騙局真是讓人防不勝防。

二、AI有多強大?

最近,關于AI還發生了一個熱點:孫燕姿本人親自回應AI孫燕姿。

對于熱門歌手AI,孫燕姿自己都承認,“諷刺的是,人類再怎么快也無法超越它?!?/p>

她在回應小作文里寫道,“人類無法超越AI技術已指日可待,凡事皆有可能,凡事皆無所謂?!本退銜簳r能夠辨認出AI歌手和真人歌手的區別,很快這條護城河也將不復存在。這種被虛擬淹沒真實的感受,如今已經在全世界蔓延。

AI不光是唱歌可以完全貼近真人,連直播帶貨的活都可以接。

最近有人在直播間里發現,正在賣貨的竟是當紅女星。然而再定睛一看,這些明星居然是使用了AI實時換臉技術的普通主播。

AI實時換臉,正在直播間悄然出現,楊冪、迪麗熱巴、angelababy等當紅女星,成為了AI換臉的熱門。雖然目前還沒有曝出被騙新聞,但由于明星臉的帶貨主播往往擁有更好的引流效果,消費者或明星粉絲很可能會沖著明星效應進行消費而被坑騙。

而這種技術門檻也并不高。有媒體報道,AI實時換臉全套模型購買價僅需3.5萬元。

買不起全套模型,還有“AI換臉特效插件”供買家選擇,售價數百元,只對電腦配置有一定要求,購買后使用者只需更換素材照片,軟件就能自己運行完成“換臉”。這款軟件不僅能對圖片進行換臉,也能在視頻上進行換臉。

AI換臉的風靡,還帶來了“AI脫衣”的新問題。早在今年3月,一則“女子地鐵照被AI一鍵脫衣傳播”的新聞沖上了熱搜,一名女性搭乘地鐵時的一張照片被人用AI軟件“一鍵脫衣”,遭到惡意傳播,罪犯還廣泛散布不實信息對該女子進行污蔑。

更可怕的是,AI深度偽造(DeepFake)內容,可以利用互聯網平臺在全球范圍內病毒式傳播。比如AI現在居然還能通過發布假新聞,讓股市抖三抖。

幾天前,多個經過驗證的推特賬戶,齊刷刷分享了一張聲稱在五角大樓附近發生爆炸的假照片,頓時引起轟動,并導致股市短暫下跌。

這張照片雖然具有AI生成的所有特征,但是因為被許多經過驗證并打上了藍色勾的推特賬戶分享,不少人還是信以為真,謠言一傳十十傳百,甚至有人聲稱這張照片與彭博新聞有關。

連印度一家電視臺都信了,共和國電視臺(Republic TV)報道稱五角大樓發生了爆炸,并在節目中播放了這張假圖片,后來,當發現美國當地官員證實沒有發生此類事件后,共和國電視臺快速撤回了這則報道,這一番操作下來也是相當尷尬。

三、AI騙局,并非沒有破綻

隨著AI技術的不斷發展,被AI騙的人越來越多。根據殺毒軟件 McAfee 公布的最新報告,基于人工智能的語音詐騙越發猖獗,在接到 AI 詐騙電話的群體中,有 77% 的人會上當受騙。

今年3月,一份名為《暫停大型人工智能研究》的公開信在未來生命研究所官網上發布,包括特斯拉CEO埃隆·馬斯克(Elon Musk)、蘋果公司聯合創始人史蒂夫?沃茲尼亞克(Steve Wozniak)等人在內的千名科學家、企業高管簽字呼吁暫緩GPT-4以上版本的研發,他們矛頭所指都是強大AI技術可能的負面用途。

不過AI詐騙雖然逼真,但它并不是沒有破綻,比如AI換臉技術會導致臉部變形,一些主播低下頭頭頂會發黑,AI的聲音,也很難表達真實的主觀情緒。

正如不少網友所說,AI孫燕姿“根本不是孫燕姿的唱法?!薄癆I孫燕姿能模仿她的音色,但模仿不到她的感情;AI孫燕姿能模仿她的聲音,但模仿不了她的現場?!?/p>

與此同時,國內與AI換臉、換聲相關的法律法規也在不斷完善。

在過去,“AI換臉”被大量使用到影視劇二度創作、趣味惡搞視頻、表情包制作當中,其中隱藏的法律風險和侵權糾紛,如今都在得到重視,不少擦邊行為已經得到了及時的懲治。

比如近期,據企查查官網信息顯示,上海魚腥草信息科技有限公司就因旗下一款換臉手機APP遭多位網紅博主起訴,很快在監管部門約談后,這款App下架,因為換臉侵犯了公民的肖像權。

去年12月,《互聯網信息服務深度合成管理規定》發布,對人臉生成、替換、操控,合成人聲、仿聲等都有明確約束。顯然,隨著制度設計更精準,相關立法更健全,AI肆意換臉的空間將越來越小。

就在4月11日,國家互聯網信息辦公室又迅速起草了《生成式人工智能服務管理辦法(征求意見稿)》,涉及的生成式人工智能包括基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術,可以說,對當下的AI偽造都進行了更為全面的約束。

AI究竟是天使還是魔鬼,全在于使用者的一念之差,但唯一可以確定的是,潘多拉魔盒,已經打開。

參考資料:

  • 《AI詐騙正在全面爆發》,紅星新聞
  • 《“AI換臉”詐騙防不勝防?要用“法”打敗“魔法”!》,京報網
  • 《警惕四大AI新騙術,有人10分鐘被騙430萬》,智東西

作者:七月

來源公眾號:首席商業評論(ID:CHReview),深究商業邏輯,助力價值成長。

本文由人人都是產品經理合作媒體 @首席商業評論 授權發布。未經許可,禁止轉載。

題圖來自 Unsplash ,基于CC0協議。

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!