造謠、色情、詐騙…AI正在污染全球互聯網

0 評論 360 瀏覽 0 收藏 21 分鐘

AI技術的飛速發展在帶來便利的同時,也引發了諸多問題。本文將探討AI如何在不知不覺中“污染”全球互聯網,分析各國和平臺如何應對這一挑戰,以及未來可能的發展趨勢和治理措施,供大家參考。

“看到好萊塢的標志牌著火的圖片,還以為好萊塢陷落了,結果竟然是AI偽造的?!?/p>

影迷橙子(化名)之前時常和朋友吐槽,社交平臺上AI生成的圖片是“一眼假”,然而,在前兩天洛杉磯山火相關的新聞圖中,橙子完全沒意識到里面摻雜了大量AI假圖。

圖源:微博截圖

“好萊塢標志牌著火的那張圖,各個影迷群幾乎都傳瘋了,大家還調侃這是在電影市場之外,先在物理層面‘陷落’了,結果,第二天就看見媒體辟謠說這張照片是AI偽造的?!背茸颖硎荆@張假圖本身就有情緒性,和新聞報道放在一起更顯得真假難辨。

雖然已經辟謠,但至今仍有不少網友將這張AI圖當作真實照片。

01.你被AI騙過嗎?

在“好萊塢標志牌著火”之前,西藏定日6.8級地震發生后,也曾有一張AI生成的“小男孩被困”圖片在社交媒體上瘋狂流傳。

橙子無奈表示,“當時我還吐槽這種人物圖AI味道太重,手指數目不對,臉部虛化過于嚴重,只有完全不了解AI的中老年群體才會信。結果沒幾天,我就被好萊塢著火的AI圖給‘騙’過去了?!?/p>

在近日的社會新聞里,“好萊塢標志牌著火”和“地震被埋男孩”欺瞞了不少人的眼睛,盡管兩張圖都已經被官方辟謠,但仍有不少用戶“深信不疑”,其中也包括很多年輕人。

圖源:抖音截圖

據媒體報道,經查,青海某網民為博取眼球,將“小男孩被埋圖”與日喀則地震相關的信息進行關聯拼湊、移花接木,混淆視聽、誤導群眾,致使謠言信息傳播擴散。目前,涉案人員已被屬地公安機關依法行政拘留。

1月10日晚間,抖音官方發布公告稱,平臺已嚴肅處置23652條涉地震不實信息并配發了辟謠內容。公告中還提到,2023年和2024年,抖音就曾發布AI內容治理相關公告,明確平臺不鼓勵利用AI生成虛擬人物進行低質創作,將嚴格處罰違規使用AI生成虛擬人物發布違背科學常識、弄虛作假、造謠傳謠的內容。

圖源:今日頭條截圖

AI生成的內容正在占領社交網絡?!靶∝垙堊斐琛薄罢鐙謾C關槍掃射四郎”這類虛擬內容尚能分辨出是AI制作,但如今很多AI生成的的真人圖片和視頻,已經到了肉眼難辨真假的地步。

經常刷短視頻的陳沐(化名)表示,現在刷到AI創作的內容概率越來越高了,“你看完一個換臉視頻以后,平臺就會瘋狂給你推類似的AI換臉二創?!比欢?,目前社媒平臺的審核并不能完全精準識別到所有AI創作內容,還需要用戶發布時自覺勾選標注;而因為AI內容聲明的標識并不顯著,有些內容即使明確標識是AI創作,仍會被很多用戶當作真實內容。

據媒體報道,2024年6月中旬,一家MCN機構的實際控制人王某某因利用AI軟件生成虛假新聞并大肆傳播,擾亂公共秩序,被警方行政拘留。據警方通報,王某某共經營5家MCN機構,運營賬號842個,自2024年1月以來,王某某通過AI軟件生成虛假新聞,最高峰一天能生成4000至7000篇。

圖源:微博截圖

2024年下半年,有網友稱自己在小紅書上通過賬號矩陣管理軟件同時操控1327個AI美女賬號,沒有任何一個被平臺識別出來。由于AI真人賬號過多,小紅書上還出現了專門打假的博主。

圖源:小紅書截圖

有網友表示,為了避開技術bug,很多AI生成的“真人圖”通常會避免出現手指,“很多人都是用提示詞讓手伸出畫面,放在身后,握拳,用東西遮擋雙手等;如果是真人視頻,則要注意口型,AI生成視頻一般口型和臺詞會對不上,或是不太自然?!?/p>

然而,也并不是所有人都在乎照片、視頻里的形象是不是真人。有網友表示,“好看、能提供情緒價值就可以了,難道那些真人博主就長得和照片一模一樣?既然都不真實,是不是AI又有什么所謂?”

由于對“數字人”警惕性不足,通過AI換臉的詐騙案也層出不窮。

據《北京商報》報道,2024年2月有詐騙犯運用Deepfake 深度偽造技術,制作出公司高層發言視頻,誘導職員先后15次將2億港元轉至指定賬戶。

除此之外,還有用AI換臉真人制作色情影片、盜刷醫保的違法案例。杭州曾有人通過AI換臉偽造女明星涉黃視頻,甚至還組建群聊,滿足定制換臉色情影片的需求,根據時長、視頻難度收取相應的費用。杭州蕭山檢察在該群內查獲的淫穢視頻高達1200余部。

圖源:央視新聞截圖

AI模糊了真實與虛假的邊界,也給越來越多的人帶來困擾。

北京周泰律師事務所張子航律師表示,在公共事件中,故意歪曲事實,用AI或者其他技術手段制作圖片、視頻,并在社交平臺傳播造成負面影響的,首先要追究的是制作者的責任,制作者面臨的可能是行政責任,也可能是刑事責任。

此外,發布虛假信息的社交平臺,也有可能要承擔法律責任。張子航律師表示,平臺雖然不是技術和內容的提供者、制作者,但負有審核和監管義務,社交平臺如未能盡到義務,導致虛假圖片傳播并造成嚴重的負面影響,監管部門有權對發布平臺做出罰款、責令整改等形式的處罰。

02.AI正“污染”互聯網

社交平臺上,不止一個網友表達過對“AI入侵”的擔憂。

有小紅書網友表示,現在AI大模型迭代速度很快,2023年用AI畫人類的手和腳還亂七八糟,2024年Flux模型畫手的正確率就明顯提升了很多,再過幾年,說不準AI就能正確畫出人體各部位,還有各種肢體動作了?!叭舨患訌姽芾?,到時社交網絡上恐怕會變得烏煙瘴氣。”

圖源:小紅書截圖

AI生成的內容,同樣也充斥著海外的社交網絡,有些嚴重侵害了明星、名人的權益,有些甚至在經濟層面產生了嚴重影響。

2024年1月,由AI生成的明星泰勒·斯威夫特“不雅照”在X(原推特)、臉書等社交媒體上流傳,瀏覽量已過千萬,引發公眾關注。

據網絡安全公司Home Security Heroes2023年發布的數據,2023年網絡上可監測到的Deepfake視頻有95280個,其中98%都是色情內容,而這類內容的主角99%都是女性。

2023年5月,一張五角大樓發生爆炸的照片曾在Twitter上被大范圍轉發,其中包括很多投資相關的網站和社媒賬戶;據媒體報道,照片發布正趕上美國股市當天的開盤時間,一度引發美股恐慌性短暫下跌。

圖源:微博截圖

當AI生成的內容頻繁地與真實新聞摻雜在一起,不僅普通民眾很難辨別真偽,一些專業機構甚至也難以招架。

互聯網觀察基金會IWF的分析師曾表示,AI生成的非法內容(包括兒童受虐圖片、AI名人換臉視頻等)正在急劇增加,像我們這樣的組織或者警察,可能會被成百上千張新圖片的鑒別工作壓垮,我們并不總能知道,在這其中是否真的有一個孩子需要幫助。

圖源:twitter截圖

張子航律師認為,AI逐漸讓人意識到,眼見并不為實。AI技術的推廣,有可能使得網民對網絡信息從一個極端到另一個極端,也就是從全信到全不信。

除了入侵互聯網內容生態,AI生成的內容也給大模型訓練帶來了風險。中國信通院發布的《人工智能治理藍皮書(2024年)》提到,近年來,人工智能內生風險加大,模型缺陷、幻覺等問題凸顯;人工智能應用風險不斷蔓延,人機倫理、勞動替代、能源短缺等問題突出。

圖源:《人工智能治理藍皮書(2024年)》

OpenAl前首席技術官Mira Murati曾指出,底層大型語言模型的最大挑戰是會編造錯誤或不存在的事實。

牛津大學的伊利亞?舒梅洛夫博士及其團隊在《Nature》上發表的論文提到,當生成模型開始接受AI內容訓練時,最終生成內容的質量會明顯下降,反饋循環可能導致模型輸出偏離現實、甚至有明顯偏見的內容,研究人員將這種現象稱為“模型崩潰”。

此前,國內領先的AI實驗室DeepSeek發布新的AI模型DeepSeek V3模型就出現在測試中竟然聲稱自己是OpenAI的ChatGPT的情況,并且能夠詳細闡述OpenAI API的使用方法。

圖源:微博截圖

參與過文本生成模型研究的子璐(化名)表示,大模型訓練的數據在投喂前都會進行篩選和清洗,圖片、視頻的生成在技術上更復雜,訓練數據的樣本也更容易去做清洗,比如固定去找一些攝影師的作品?!跋啾戎?,文本生成的訓練數據會更雜一些,也更容易被污染,如果沒有人工仔細篩選,很可能會收錄進一些虛假的新聞?!?/p>

如果AIGC的增加是必然趨勢,那普通用戶該如何對這類內容有效甄別?某互聯網大廠AI安全研究員Lisa(化名)對此表示,普通用戶可以從圖像的視覺紋理特征來區分AI創作?!耙话闵傻膱D片顏色更加鮮艷、紋理更加平滑,而生成的視頻運鏡緩慢,畫質模糊,經常出現類似文字的亂碼內容。”

圖源:小紅書截圖

除此之外,文本和圖像還可以借助第三方工具來辨別。《人工智能治理藍皮書(2024年)》提到,“以技治技”正在成為平衡人工智能安全與創新的必要工具。

據“趣解商業”了解,現在已經有AIGC檢測工具根據相似檢索、內容檢測和水印追溯等方法,支持文本、圖片等AI生成內容的檢測。Lisa表示,如今生成內容越來越逼真,真實圖片與生成圖片的特征差異越來越小,檢測工具的模型學習難度其實也在增加。

不過,大部分用戶都是不熟悉AI技術的普通人,不具備鑒別意識和能力,識別AIGC、鑒別真假不應成為用戶的負擔和責任。創作者應自覺聲明內容屬性,平臺擁有更完善的技術資源和團隊,更應承擔起識別和審查AI內容的主要責任。

03.發展和治理“兩手抓”

張子航律師認為,想要防范AI創作內容帶來的風險,除了用戶增強核實意識與能力,平臺也應當加強規范?!坝绕湟P注短時間內被頻繁關注、轉發的內容,如果發現是AI創作,確認為虛假信息后應當予以刪除,如果不能確認真假,也應當提示和標注該內容為AI創作。

據“趣解商業”了解,目前已有多家社媒平臺針對AIGC內容做出了相應的監管規范。

小紅書在2023年啟動了AIGC治理體系建設,對識別為疑似 AI 生成的內容進行顯著標識;抖音也在2023年、2024年陸續發布了《關于人工智能生成內容的平臺規范暨行業倡議》《 AI生成虛擬人物治理公告》等一系列公告,并持續對多種AIGC造假內容進行嚴厲打擊;今年1月,快手還在站內開設了“辟謠”榜位,通過官方賬號轉發辟謠作品,利用算法優化,增加辟謠內容曝光量,同時將辟謠信息精準推送給曾瀏覽過相關謠言的用戶。

圖源:微博截圖

中國企業資本聯盟中國區首席經濟學家柏文喜認為,除了加強監管和治理,平臺還可以完善用戶舉報機制,以及建立版權保護機制,要求用戶在使用AI生成內容時必須遵守相關的版權法規,明確標注內容的來源和版權歸屬,防止侵權行為的發生;同時也要注重用戶教育,通過平臺的官方渠道,如發布指南、教程、案例分析等形式,提高用戶對AI內容的識別能力和辨別真偽的意識和能力。

張子航律師還表示,AI生成工具要有提供顯著標識的功能,像人臉替換、人聲合成等顯著改變個人身份特征的編輯服務,應當強制標識為AI創作。“如果這類服務未強制標識,創作者也不聲明為AI創作,我個人認為是構成共同侵權的,需要承擔一部分的侵權責任?!?/p>

圖源:微博截圖

以從業者的角度來看,子璐認為,防止AI虛假內容的泛濫,還需要對使用者進行限制。“‘harmless’(無害性)和‘helpful’(有用性)是我們之前做文本生成主要權衡的兩個標準,特別安全的內容可能不夠有用,特別有趣、有用的內容可能會有風險,所以企業也很重視生成內容的安全性?!?/p>

“AI工具企業會避免生成含有色情、暴力等價值觀扭曲的內容,但卻管不了內容的用途。如果有人要求AI生成一張性感女孩的換臉照片,照片本身并沒有危害,但用戶拿這張照片造謠中傷女孩,這其實是使用者的問題,也是AI企業很難管轄的領域?!?/p>

如今,國內外都愈加重視對AIGC的監管與合規性問題,目前至少有60多個國家制定和實施了人工智能治理政策。

2023年1月10日,國家互聯網信息辦公室、工業和信息化部和公安部聯合發布的《互聯網信息服務深度合成管理規定》正式施行,旨在加強互聯網信息服務深度合成管理,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益;此后,國家網信辦聯合國家發展改革委等多部門公布了《生成式人工智能服務管理暫行辦法》,并自2023年8月15日起施行。

圖源:微博截圖

2024年9月14日,國家互聯網信息辦公室發布了《人工智能生成合成內容標識辦法(征求意見稿)》公開征求意見的通知,以規范人工智能生成合成內容標識,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益。多項規定和監管政策的相繼落地,讓剛性治理有了更多具體的抓手。

新的技術進步呼吁新的監管體系,而這一點并不能完全指望科技商業公司的自我約束,需要監管方、平臺方的共同努力。盡管AI的應用范圍廣泛且難以界定,但法律和道德的邊界始終清晰;未來,政策監管和平臺審核的力度必然會更加深入,社交平臺上的內容生態還會因此發生哪些改變,值得進一步關注。

本文由人人都是產品經理作者【趣解商業】,微信公眾號:【趣解商業】,原創/授權 發布于人人都是產品經理,未經許可,禁止轉載。

題圖來自Unsplash,基于 CC0 協議。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!