“詐騙”“AI換臉”“一鍵脫衣”,人工智能的另一面到底有多黑暗?
生成式AI爆火之后,AI的應用就讓大家目不暇接。但如果是用在工作、生活中還好,如果是用來做一些不合適的事情,現(xiàn)有的法律和準則,似乎很難約束。這種情況下,AI是在助紂為虐嗎?
從去年開始,AI行業(yè)不厭其煩地上演著“iPhone時刻”,比如ChatGPT的人機交流、HeyGen讓老外說中文、Runway的化靜為動等,AI舞臺的中間正在成為各方爭霸的焦點。
但與此同時,在這些AI應用的反面也在上演著一場“蝴蝶效應”帶來的“災害”。
比如,看似普通的AI換臉,從明星、總統(tǒng),影響到白領職員、學生在內(nèi)的每一個普通人,它沒那么驚艷也不算顛覆,卻足以讓我們“心驚肉跳”。而“一鍵脫衣”應用的出現(xiàn)更讓人們的安全感蕩然無存。
是什么樣的人在利用這些應用來作惡?他們就無法無天了嗎?難道這就是AI為人類帶來的價值嗎?
人工智能在助紂為虐嗎?
我看到你的“裸照”了。
如果有一天,你如往日一樣坐地鐵上班或者騎車上學,在座位上準備一天的工作或課程時,朋友發(fā)來一條“我看到你的裸照了”的信息,你會有怎樣的反應?
這不是一個玩笑。
此前,在僅三萬人居住的西班牙阿爾門德拉萊霍(Almendralejo),一個話題正在以“病毒”似的速度傳播著,網(wǎng)上有學校里三十多名女孩子們的裸照。更令人感覺到可怕的是,這些女孩們明明是受害者,但在這個小鎮(zhèn)里,卻并沒有得到鄰里們的支持。
在可想而知的黑暗中,他們在家人的支持下,堅持了下來,直到警察公布了犯罪嫌疑人的信息,才讓風波平息,但罪惡的背后卻讓我們看到了AI的陰暗面。
西班牙國家司法警察總署就對此案作出了一些解釋和報告:涉案人員總共有十人,其中三人使用了ClothOff,這是一款免費的人工智能應用程序,它可以讓用戶“脫掉”任何想要的人的衣服,這也意味著任何人都可以通過這樣一款AI應用,以極低的成本來實施犯罪。
這樣的罪責并沒有讓技術有所收斂,而是以更快地速度在發(fā)展。
在我國也同樣出現(xiàn)了這樣的案例,一位廣州女生在地鐵拍的美照,被個別網(wǎng)友,用AI一鍵脫衣軟件生成了裸體照片。更可惡的是,在AI脫衣處理以后,還有網(wǎng)友就把生成好的裸照發(fā)到各個微信群,繼續(xù)進行造謠,這對于當事人造成了不可忽視的影響。
不僅是普通大眾成為受害者,美國流行樂歌星泰勒·斯威夫特也受到“AI偽造照片”事件的困擾,大量由AI生成的泰勒虛假色情、血腥照片在多個社交平臺瘋傳,瀏覽量已超過千萬,引發(fā)社交媒體震動,也引起了美國白宮的注意。
實際上這不是泰勒第一次成為AI“深度偽造”的受害者。就在不久前,有人使用AI技術仿造了她的聲音和形象來為商品進行推廣,讓消費者誤以為這是泰勒代言的商品。
元宇宙新聲認為,雖然利用AI技術制作虛假信息早已有之,但隨著生成式AI在過去一年多時間內(nèi)的快速發(fā)展,對視頻、圖片、音頻進行深度造假技術更加成熟且普遍,造假的成本也更加低廉。
傳播學者羅伯特·切斯尼形象地稱之為,“說謊者的紅利”,前所未有的AI深度偽造焦慮讓那個曾經(jīng)遙遠的問題,驟然變得現(xiàn)實而緊迫。
那么,這些令人發(fā)指的行為應該如何處理?在這個真假難辨的時代里,普通人就應該成為受害者嗎?
AI的陰暗面,難道沒辦法阻止嗎?
使用人工智能算法生成的高度逼真的虛假圖像、音頻和視頻等,被稱為“深度偽造”內(nèi)容。
這一概念于2017年首次出現(xiàn),此后借助該技術詐騙或操縱輿論的事件在全球愈加頻發(fā)。以美國為例,過去一年里人工智能詐騙事件同比增幅超過了50%。
不過時至今日,人們?nèi)晕茨苡行Ы鉀Q該問題。這是因為人工智能造假能力的進步速度遠遠超過了信息識偽技術的開發(fā)速度。
如今,任何人都可以快速地、低成本地生成難辨真假的圖像、音頻甚至視頻,而且難以追蹤。與之相反,識偽技術則因在主題和軟件方面具有特異性,難以得到普及。此外,核查事實需要花費更多時間精力。
據(jù)日本瑞穗研究所及技術公司的調(diào)查,70%的日本受訪者認為互聯(lián)網(wǎng)上的信息很難判斷真假,但只有26%的受訪者表示在接觸可疑信息后會進行某種程度的驗證。
2024年年初,世界經(jīng)濟論壇發(fā)布《2024年全球風險報告》,將人工智能生成的錯誤信息和虛假信息列為“未來兩年全球十大風險”之首,擔心其會使本就兩極分化、沖突頻發(fā)的全球形勢進一步惡化。
元宇宙新聲發(fā)現(xiàn),很多的AI深度偽造說不清究竟是分辨不清,還是半推半就,深度偽造的信息總是能在“看熱鬧不怕事兒大”的心態(tài)下廣泛傳播。
立法是治理AI犯罪的一種途徑
我們看到,2016年以來,各國陸續(xù)發(fā)布相關政策法規(guī),但進展仍趕不上技術的進步。去年10月,拜登簽署美國首項人工智能監(jiān)管行政令,為人工智能建立安全和隱私保護標準,但被指缺乏強制執(zhí)行效能。
歐盟方面,雖然歐洲議會于3月13日通過《人工智能法案》,但是法案中的相關條款將分階段實施,部分規(guī)則要到2025年才生效。日本執(zhí)政黨自民黨直到最近才宣布計劃在年內(nèi)提議政府引入生成式人工智能立法。
近年來,我國也出臺了《關于加強科技倫理治理的意見》《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》《生成式人工智能服務管理暫行辦法》等多項法規(guī)和政策,一方面給AI有關技術的創(chuàng)新發(fā)展“鼓勁兒”,一方面又給其“立規(guī)矩”“劃紅線”,以確保相關技術的開發(fā)和使用遵守法律法規(guī)、尊重社會公德和倫理道德。
無論是生成式人工智能帶來的虛假信息問題,還是人工智能應用的風險,其影響都是跨越國界的。因此,人工智能的監(jiān)管和治理應通過國際合作來解決,各國應共同做好風險防范,攜手共建具有廣泛共識的人工智能治理框架和標準規(guī)范。
元宇宙新聲認為,AI技術作惡確實值得焦慮,但也無須過慮。如同時代的發(fā)展,人類社會也在自我調(diào)節(jié)中不斷適應著新的變化,新技術短時間打破平衡,很快在社會的自我調(diào)節(jié)下恢復平穩(wěn)。歸根結(jié)底,無論是“AI換臉”還是“一鍵脫衣”,錯都不在AI,也不在技術,而法規(guī)的制定也只是讓罪惡發(fā)生時有法可依。
其實,真正可怕的從來都不是AI深度偽造,而是深度偽造的病毒式傳播,而傳播關乎我們每一個人。
寫在最后
巴菲特曾比喻說:“我們就像是讓精靈從瓶子里跳出來,尤其是當我們發(fā)明核武器的時候,它已經(jīng)造成了一些負面后果。這種力量有時會讓我感到害怕,而且這個精靈已經(jīng)無法再放回瓶中。”
AI的情況可能與之類似,它已經(jīng)釋放出來,并一定會在各個方面發(fā)揮著重要作用,我們只希望這個作用更多地是正面的。
作者:賈桂鵬;公眾號:元宇宙新聲
本文由 @元宇宙新聲 授權發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自Unsplash,基于CC0協(xié)議。
該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務。
- 目前還沒評論,等你發(fā)揮!