別只關心315打老虎,來看看全年無休的AI打假
在一年一度的“3.15”消費者權益日之外,人們日常也會面臨各式各樣、層出不窮的造假售假,能夠全年無休的AI打假師,也就被科技企業推進了大眾的視野。本文作者對不同段位的AI打假的邏輯、能力和有限性進行了分析,希望能給你帶來一些幫助。
一年一度的“3·15”消費者權益日如期而至,這一天,全民最期待、各家公關最緊張的環節,應該是“打老虎”的高光時刻。
某些高高在上的巨頭或大牌的“套路”被曝光,次日忙不迭道歉整改,讓廣受其害但維權困難的消費者們拍手稱快,這樣的故事大家已經耳熟能詳了。但在3月15日這一天之外,人們日常還會面臨各式各樣、層出不窮的造假售假,不能都指望一天時間、一臺晚會、打幾只老虎來解決。
能夠全年無休的AI打假師,也就被科技企業推進了大眾的視野。不過,想要真的用好AI打假,還要對它的邏輯、能力和有限性,有一定的了解。
本文希望通過科普AI打假的段位,幫大家在日常維權時用好科技的武器。
01 初級段位:機器視覺PK假貨
提到打假,很多人日常接觸到的假東西,應該是各類假冒偽劣、以假亂真的消費品。以消費者服務平臺——黑貓投訴為例,對假貨、售假、貨不對板的投訴量非常之大。
先說AI應用在貨品打假上的基本邏輯。
邏輯:人工打假難、打假貴、周期長、套路多——通過機器視覺提升“眼力”。
人工打假難:隨著現代制作工藝技術越發精湛,越來越多的“大牌”包包、高仿潮鞋、收藏品偽作,不再是粗制濫造的“一眼假”,可以做到以假亂真的地步,看走眼的專家數不勝數。有些造假技藝出神入化的“古玩”,甚至連專業儀器都不能準確鑒定。
人工打假貴:人工甄別需要多名鑒定師“背靠背”鑒定,因此收費也往往是在線鑒定的數倍。國內某奢侈品鑒定平臺,在線鑒定49元,實物鑒定收費則達到199元。
周期長:制假售假販假大多是流水線式團隊作戰,批量生產,加上越來越多生活富裕的人加入消費/收藏的隊伍,交易數量多,相應的投訴量也增多,維權周期也很長,很多消費者只能選擇自認倒霉。
套路多:很多人覺得,專家的意見很可靠,專業機構出具的證書有背書作用,但架不住造假套路太多,市場上充斥著僅在鑒定培訓班學習過幾天而取得“結業證書”的廉價大師,還有不具備相應條件又未經過合法審批的鑒定中介機構渾水摸魚,證書只要給錢就能出,所以即使人工鑒定也可能陷入套路。
所以,近年來通過在線平臺,用戶拍攝照片上傳,AI系統比對鑒定,變得流行起來。有企業推出的“AI鑒定師”,一秒鐘能識別20個假冒商標,有的藝術品鑒定,可以對文物進行“一物一圖”的識別鑒定,規避仿造的問題。這些都是靠什么能力實現的呢?
能力:機器視覺的快、準、惠。
面對假貨,沒有“眼力”就會處于弱勢。機器視覺是AI的一個分支,讓機器能夠“看”和“理解”視覺信息,類似于人類的“眼力”。
首先,機器視覺系統會對物品的高精度圖像進行識別和分析,提取出物品的形狀、顏色、紋理等相關特征。
然后,系統結合已知真假貨的數據集,根據真假貨的規律和特征,比如正品大牌包包的五金件顏色,logo字母的形狀等,進行比照。
當然,隨著造假技術的提高,很多直觀的細節不再是造假的難點,僅僅單一特征的圖像比對是不夠的。比如有的古籍造假,會使用年代久遠的紙張,文字或圖案通過軟件調色貼近真跡,真中有假,假中藏真,讓很多專家也只能憑感覺“覺得哪里不對”,而AI算法可以快速找到多種特征的彼此矛盾之處,找到真假“雜拼”的違和感,再由人工鑒定師進行判斷。
通過機器視覺,可以快速、準確地識別出假貨特征,與人工鑒定相結合,降低鑒定的整體成本。
有限性:造假升級,數據瓶頸。
當然,基于機器視覺的在線鑒定,還不能百分百取代人工鑒定,技術的有限性主要來自于:
一是造假手段的科技化。造假不可怕,就怕造假的人有文化,現在很多產品的造假技術也上了一個新的臺階,比如購入正品后,拆解成幾個部分,再拼湊在一起高價賣出;有的大牌包包在各種細節上都與正品一致,不同的可能是五金件的銅含量不一樣,這就需要借助專業的金屬檢測設備,僅靠機器視覺識別是不夠的。
二是真假數據的限制。機器視覺算法的準確率,需要龐大的真假貨特征數據集來支持,而大牌產品更新換代很快,數據集的速迭代速度如果跟不上,就會讓新款假貨成為漏網之魚。此外,很多藝術品/收藏品都是孤件,收藏家沒有動力將其數字化后共享數據,這也會影響算法結果的準確度。同時,很多鑒定標準都是行業專家口口相傳的口訣,沒有形成一定的算法規則,垂直品類如紫砂壺、明青花等,行業知識匱乏、數據稀疏,也會影響算法的有效性。
這里要說的是,以假亂真的造假,更多用于藝術品、奢侈品等價值昂貴的產品上,吸引的群體比較有限。正是市面上大量流通的大眾消費品,才導致了規模龐大的受害者,而這些產品的造假一般不會費心地精益求精,AI的到來,無疑提供了一把價廉物美的打假武器。
02 中級段位:Anti-Deepfake PK Deepfake
造謠一張嘴,辟謠跑斷腿。當深度偽造技術Deepfakes換臉輕而易舉,圖像、音頻以假亂真,很多人的臉被拿來做成虛假視頻,在網絡上瘋狂傳播,近年來越來越地引發維權。
邏輯:Deepfake帶來的偽造危機——更強大的Anti-Deepfake自動甄別技術 “攻子之盾”。
你也許會說,被改頭換面是公眾人物、明星的煩惱,自己只是個普通人,干嘛要擔心AI換臉。試想一下,這樣的形象造假越來越多,讓網絡上的信息真偽難辨,權威專家的嘴型可以p,領導人的臉可以換,那會讓沒有專業辨識能力的普羅大眾,陷入謠言和欺騙的信息海洋,在無形中損傷了整個社會的互信,引發集體信任危機。
此外,如果Deepfakes被用于非法用途,如詐騙、敲詐勒索等,很難保證黑客不會將其產業化、普及化,這樣就會對更廣大的群體帶來形象和經濟上的損害。我
我曾采訪過一家智能金融機構,對方提到,通過在線視頻確認借款人身份時,就可能會遇到深度偽造視頻的攻擊,提高了風控的難度。
所以,檢測和消除深度偽造圖像和視頻,避免技術被惡意利用,也成為許多科技公司打造負責任的技術的一種選擇。
能力:基于GAN(生成式對抗網絡)的Anti-Deepfake算法,使用多個深度學習模型對輸入數據進行分析,提取出視覺、語音和動態特征,并將它們結合為一個特征向量,與已知的生物特征進行比較。
Deepfakes算法不是完美的,缺少常識,所以偽造的臉存在很多不對勁的特征,但這些面孔本身看起來很逼真,靠人的肉眼“找茬”有點費勁,但AI可以快速找到這些線索。
比如一只耳朵上沒有戴耳環(除非她是一個叛逆朋克少女),牙齒數量以及方向不對,衣服或背景的形態很不合常理。
注意看,中牙非常小,耳朵也很怪
有科學家找到了一種檢測偽造的方法,研究團隊發現Deepfakes難以準確再現常規的瞳孔。真正的人類瞳孔是一個規則的橢圓形,而Deepfakes生成的瞳孔明顯不規則,因為它對人臉結構沒有生理常識。
(來源:arxiv.org/abs/2109.00162)
此外,有的偽造線索是動態的,比如聲音和口型對不上,需要檢測算法提取視頻的音、畫特征進行分析匹配。
有限性:真偽游戲,永無止境。
通過AI自動檢測來識別深度偽造的音視頻,根本挑戰在于偽造技術進化得非???。
2018年紐約州立大學開發出一款“反換臉”AI刑偵工具,通過預測眼睛是否眨動的狀態來識別偽造人臉,準確率達到 99%,但這款工具還沒推廣就失效了,因為Deepfakes技術進化了。
自動檢測算法需要在高質量的數據集上進行訓練,這些數據集要包括真實數據和合成數據,如果數據的多樣性不足,訓練視頻和測試視頻的相似性很高,那么實際檢測的效果也會不理想。
此外,用戶發現被深度偽造內容侵權后,問責和維權是非常難的,一般首先問責的是平臺,對侵權視頻/賬號做出下架、刪除、處罰等處理,但整個過程不確定性很大,還要和平臺企業的客服、運營、公關、法務等多部門交鋒,非常繁瑣,很多用戶只能選擇不了了之。用戶監督對檢測技術的升級,影響有限。
只能希望數據隱私保護的相關法律持續完善和落地,科技企業加強技術倫理和研發,在這場真偽斗法中不斷保障用戶的權益。
03 高級段位:AI內容識別器PK AI作弊
ChatGPT的出現,將AIGC帶入了新的巔峰。據《紐約時報》報道,大型語言模型(LLM)生成的文本,與人類編寫的文本難以區分,資深大學教授也無法準確區分學生是否用ChatGPT寫了論文作業。
所以,為了防止學生用AI作弊,紐約公立學校已全面禁止使用ChatGPT,美國一些學區也開始采取這一措施。
還有科學家讓AI來檢測ChatGPT撰寫的醫學研究摘要,不僅比論文剽竊檢測器的效果好得多,而且比人類審稿人的成績還高。也就是說,ChatGPT撰寫的論文摘要,已經可以讓人類專家都難辨真假了。
而就在今天,GPT-4問世,支持多模態的生成任務,對代碼有超強的理解能力,這也使得AI內容識別器成為了一項必需品,來避免AIGC快速發展拉大“假內容”的識別難度。
邏輯:大型語言模型強大的生成能力導致AI淪為作弊工具——AI內容識別器,檢測內容是人類寫的還是AI寫的。
能力:不詳。
是的,作為一種最新最前沿的造假手段,目前還沒有一種技術或軟件,能夠有效且準確地識別出用ChatGPT作弊內容。
AI內容識別的方法,目前有兩種:
一種是黑盒檢測,即通過統計特征的分析,找到AI文本和人類文本的區別,已經有多個團隊或開發者,推出了相應的解決方案。
比如普林斯頓大學計算機科學專業的華裔學生Edward Tian開發的GPTZero,號稱可以通過分析語言模型對文本的“喜愛”程度,以及AI寫作一段文本時的“困惑”程度,通過“親AI”分數來判斷文章是否出自AI之手。
斯坦福大學提出的DetectGPT,認為人寫文章和模型樣本的攝動差異分布有顯著差異,通過這個差異來檢測一段文本是否由模型生成。
OpenAI也在前不久推出了AI生成內容識別器,但博客數據顯示,檢出成功率只有26%,對英文以外的語言,檢測效果要差很多,并且不支持1000字符以內的短文本(因為人類寫的和AI寫的答案可能是一樣的)。而且,一些AI生成的文本經過編輯之后,也可能規避掉檢測。
大模型能力的提升,使得AIGC和人類的差距越來越小,導致AI內容識別器的檢測準確性也難以保障。比如最新的GPT-4,表現相比GPT-3.5有了大幅提升,之前針對GPT-3等大型語言模型的檢測工具,都面臨失效的風險。
(GPT-4在大多數測試中表現優于GPT-3.5)
另一種是白盒檢測,即模型的開發人員對AI內容進行一定的處理,從而滿足檢測目的。
此前OpenAI就聲稱,考慮給AI內容加上水印,在詞匯選擇上加入“不引人注意的秘密信號”,這樣就能證明這段文字是 GPT 模型生成的。
這一方法的問題是,只能由模型開發者植入水印,模型開源之后可以通過微調來移除水印,也會失效。
有限性:AI檢測技術的進步,慢于AI生成技術的進步。
說了這么多,當然不是為了把AI等新技術生成的東西都“一棒子打死”。
今天,我們能在博物館里看到臨摹仿制的復制品,這種“假”與欺騙無關;能靠Deepfakes將失德藝人的臉換掉,讓作品繼續上映,保住整個制作團隊的心血;能用AI畫出自己想象中的場景,當然也不能算是造假……
物品沒有對錯,技術沒有好壞,錯的只是人心,只是握刀的那只手。
作為普通人,我們能做的就是“知己知彼”,了解造假技術的邏輯、能力和局限,將捍衛自身權益的武器,掌握在自己手里。
作者:藏狐
來源公眾號:腦極體(ID:unity007),從技術協同到產業革命,從智能密鑰到已知盡頭。
本文由人人都是產品經理合作媒體 @腦極體 授權發布,未經許可,禁止轉載。
題圖來自 Unsplash,基于 CC0 協議
該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。
- 目前還沒評論,等你發揮!