AI迎來MOSS時刻,已有詐騙團伙用ChatGPT寫“劇本”
ChatGPT的大風不僅刮過科技圈,也引起了不法分子的注意,讓人擔心來自人工智能的網絡威脅。目前已經有詐騙團伙利用ChatGPT實施詐騙,關于人工智能的網絡安全管理迫在眉睫,關于ChatGPT產品的安全性,目前我們應該知道能什么,又能夠做什么?一起來看看這篇文章,或許能找到答案。
短短十天,全球被一波又一波的ChatGPT浪潮“炸暈”了。
無論是可支持多模態輸入的ChatGPT 4.0,內置ChatGPT 4.0后可以一鍵生成PPT的Office 365,還是雖然不那么令人滿意但也還算能打的文心一言,最終都濃縮為英偉達創始人CEO黃仁勛在3月21日年度技術峰會GTC上連續強調七次的那句話——“我們正處在AI的iPhone時刻”。
然而,當絕大多數人歡呼AIGC(利用人工智能技術生成內容)降低了普通人使用AI的門檻時,擔憂接踵而來:AI或將帶來新型網絡攻擊。
3月21日,中國產業互聯網發展聯盟、《中國信息安全》雜志、南方日報、中國網絡空間新興技術創新論壇、騰訊安全、騰訊研究院聯合發布的《2023產業互聯網安全十大趨勢》提出,以ChatGPT為代表的生成式人工智能技術進步,將會引發潛在新型攻擊和內容合規等安全風險。
目前,已有安全團隊發現,網絡攻擊者開始使用ChatGPT創建惡意軟件、暗網站點和其他實施網絡攻擊的工具,甚至詐騙團伙也開始用ChatGPT生成“劇本”,進行更有針對性的精準詐騙。
一、ChatGPT版“詐騙劇本”已上線
ChatGPT的橫空出世,讓很多人擔憂自己會失業。生成式人工智能技術的發展,讓寫論文、寫代碼等原本具有一定門檻的人類創作性工作,變成只需輸入的一行文字請求。黃仁勛便認為,程序員將成為第一批失業的職業,ChatGPT讓普通人對原本復雜的編碼程序唾手可得。
同時被拉低的,還有“詐騙的門檻”。騰訊安全策略發展中心總經理呂一平的安全團隊觀察到,已經有詐騙分子開始利用ChatGPT編寫“釣魚劇本”,這大大提高了騙子實施精準詐騙的效率。
安全領域有一個專用名詞叫“社攻”,也即利用社交關系攻擊的方式。詐騙分子通過與被害者聊天,誘導其點擊惡意鏈接,或者下載一些惡意軟件,從而在電腦里“種好木馬”,常見的話術有:“你孩子在學校生病了”“你被法院起訴了”“你獲得一筆退款”等。
“為了贏得被騙人的信任,詐騙分子通常有多套溝通劇本,分別扮演警察、老師、客服等角色,原本這些劇本需人工編寫,且必須具備一定的專業知識。比如扮演HR,你要深入了解對方的工作;扮演保險公司業務員,要對保險業務有比較清晰的了解……”
呂一平告訴《IT時報》記者,通過ChatGPT,編寫劇本不再需要有“專業能力”的騙子,而且“劇本”幾乎瞬間生成,大大提升了行騙的效率,因此,未來“劇本”里很可能會出現更多樣化的角色、誘騙手段,形成新的釣魚攻擊方式。
二、調用ChatGPT API?未必合規
3月初,OpenAI放出ChatGPT API,開發者可以將ChatGPT集成到自家應用和服務的門檻上,構建屬于自己的AI聊天機器人。
但安全專家建議,國內開發者先別急著“沖”,首先要評估這種應用方式是否合規。
隨著《中華人民共和國網絡安全法》《中華人民共和國數據安全法》《個人信息保護法》的頒布,以及《信息安全技術個人信息安全規范》等行業標準的實施,數據安全成為企業構建安全體系的重中之重,尤其是對“出境數據”,國家有明確嚴格的評估要求,2022年9月1日,國家互聯網信息辦公室公布《數據出境安全評估辦法》正式施行。
“調用ChatGPT API,意味著要將ChatGPT接入App,但目前ChatGPT所有服務器全部在國外,需根據我國法律對出境數據進行評估,尤其如果App涉及個人信息、地理位置等隱私數據,更要重視合規性?!眳我黄秸J為,數據安全隱患是中國企業引入ChatGPT時的最直接風險。
此外,調試ChatGPT時輸入的數據、代碼,也有同樣風險。據《IT時報》記者了解,目前國內幾家互聯網大廠都明確要求,員工不得用公司數據“喂”ChatGPT。
三、信任ChatGPT?不能太天真
作為大規模語言模型,新發布的ChatGPT4.0展現出比上一代版本更強大的輸入能力和輸出結果,也出現了更多的“涌現”。所謂涌現,是指當大模型的參數規模超過某一個臨界值時,只需給模型提供提示,就可以讓其自動執行任務,而這種提示既沒有經過專門訓練,也從未被期望過出現,也即會呈現出強大的“智慧能力”。
但在斯坦福大學眾多學者聯合撰寫的文章《On the Opportunities and Risksof Foundation Models(基礎模型的機會與風險)》中,“涌現”意味著系統的行為是隱式歸納而不是顯式構造的,故基礎模型顯得更難以理解,并具有難以預料的錯誤模式。
“一夜長大”的ChatGPT固然讓人類看到真正強人工智能時代帶來的曙光,但同時也深藏隱憂——它為什么會如此想?它是真正這么想嗎?正如《流浪地球2》中的MOSS,它的“涌現”究竟從何時開始?誰又能控制它?所有一切都指向終極問題——AI值得信任嗎?
“至少目前來看,大規模語言模型還無法做到被證偽,如果人們信任它們給出的一些回答,很可能會引起嚴重的后果?!卑踩局浒矂撌既寺櫨J為,ChatGPT使生成高質量、高逼真信息的門檻大大降低,而老人、孩子是最容易被高逼真信息困擾或傷害的弱勢群體,因此一些需要職業資格認定的領域不應該輕易使用類ChatGPT產品,比如律師、醫生等,“國家今后也很可能會出臺一些相應的法律規范?!?/p>
作者:郝俊慧;編輯:王昕 孫妍
來源公眾號:IT時報(ID:vittimes),做報紙,也懂互聯網。
本文由人人都是產品經理合作媒體 @IT時報 授權發布,未經許可,禁止轉載。
題圖來自Unsplash,基于 CC0 協議
該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。
- 目前還沒評論,等你發揮!