ChatGPT應用爆火,安全的大數據底座何處尋?

0 評論 4228 瀏覽 6 收藏 12 分鐘

在人工智能飛速發展的今天,好像哪個企業不參與就會被時代拋下。然而,AI運行的核心離不開海量的數據支持,其背后帶來的數據安全問題令各行業擔憂,建立數據安全防護墻迫在眉睫。本文作者對此進行了分析,希望對你有幫助。

毫無疑問,AIGC正在給人類社會帶來一場深刻的變革。

而剝開其令人眼花繚亂的華麗外表,運行的核心離不開海量的數據支持。

ChatGPT的“入侵”已經引起了各行各業對內容抄襲的擔憂,以及網絡數據安全意識的提高。

雖然AI技術是中立的,但并不能成為規避責任與義務的理由。

最近,英國情報機構——英國政府通訊總部(GCHQ)警告稱,ChatGPT和其他人工智能聊天機器人將是一個新的安全威脅。

盡管ChatGPT的概念出現沒有多久,但對網絡安全和數據安全帶來威脅的問題已經成為業內關注的焦點。

對于目前還處于發展初期的ChatGPT,如此擔憂是否杞人憂天?

一、安全威脅或正在發生

去年年底,初創公司OpenAI推出ChatGPT,之后,其投資商微軟于今年推出了基于ChatGPT技術開發的聊天機器人“必應聊天(Bing Chat)”。

由于此類軟件能夠提供酷似人類的對話,目前這項服務已風靡全球。

GCHQ的網絡安全部門指出,提供AI聊天機器人的公司可以看到用戶輸入的查詢內容,就ChatGPT而言,其開發商OpenAI就能夠看到這些。

ChatGPT通過大量文本語料庫進行訓練,其深度學習能力很大程度上依賴于背后的數據。

出于對信息泄露的擔憂,目前已有多家公司和機構發布“ChatGPT禁令”。

倫敦金融城律師事務所Mishcon de Reya禁止其律師將客戶數據輸入ChatGPT,因為擔心在法律上享有隱私特權的資料可能會遭泄露。

國際咨詢公司埃森哲警告其全球70萬名員工,出于類似的原因,不要使用ChatGPT,因為擔心客戶的機密數據最終會落入他人之手。

英國電腦芯片公司Arm的母公司日本軟銀集團同樣警告其員工,不要向人工智能聊天機器人輸入公司人員的身份信息或機密數據。

今年2月,摩根大通成為第一家在工作場所限制使用ChatGPT的華爾街投行。

花旗集團和高盛集團緊隨其后,前者禁止員工在整個公司范圍內訪問ChatGPT,后者則限制員工在交易大廳使用該產品。

而在更早些時候,亞馬遜和微軟為防備員工在使用ChatGPT的過程中泄密,禁止他們向其分享敏感數據,因為這些信息可能會被用作進一步迭代的訓練數據。

事實上,這些人工智能聊天機器人背后是大型語言模型(LLM),用戶的這些查詢內容將會被存儲起來,并且會在未來某個時候被用于開發LLM服務或模型。

這就意味著,LLM提供商能夠讀取到相關查詢,并可能以某種方式將它們合并到未來的版本中。

盡管LLM運營商應該采取措施保護數據,但不能完全排除未經授權訪問的可能性。因此,企業需要確保他們有嚴格的政策,提供技術性支持,來監控LLM的使用,以最大限度地降低數據暴露的風險。

另外,盡管ChatGPT本身尚不具備直接攻擊網絡安全和數據安全的能力,但是由于它具有自然語言生成和理解的能力,可以被用于偽造虛假信息、攻擊社交工程等方面。

此外,攻擊者還可以使用自然語言來讓ChatGPT生成相應的攻擊代碼、惡意軟件代碼、垃圾郵件等。

因此,AI可以讓那些原本沒有能力發起攻擊的人基于AI生成攻擊,并大大提高攻擊成功率。

在自動化、AI、“攻擊即服務”等技術和模式加持下,網絡安全攻擊呈現出暴漲趨勢。

在ChatGPT火爆之前,已發生了多次黑客使用AI技術進行的網絡攻擊。

事實上,人工智能被用戶調教“帶偏節奏”的案例并不鮮見,6年前,微軟推出智能聊天機器人Tay,上線時,Tay表現得彬彬有禮,但不到24小時,其就被不良用戶“帶壞”,出言不遜、臟話不斷,言語甚至涉及種族主義、色情、納粹,充滿歧視、仇恨和偏見,只好被下線結束了短暫的生命。

另一方面,距離用戶更近的風險是,用戶在使用ChatGPT等AI工具時,可能會不經意間將私密數據輸入到云端模型,這些數據可能成為訓練數據,也可能成為提供給他人答案的一部分,從而導致數據泄露和合規風險。

二、AI應用要打好安全底座

ChatGPT作為大語言模型,其核心邏輯事實上是海量數據的收集、加工、處理和運算結果的輸出。

總的來說,這幾個環節可能會在技術要素、組織管理、數字內容三個方面伴生相關風險。

雖然ChatGPT表示,存儲訓練和運行模型所需的數據會嚴格遵守隱私和安全政策,但在未來可能出現網絡攻擊和數據爬取等現象,仍存在不可忽視的數據安全隱患。

特別是涉及國家核心數據、地方和行業重要數據以及個人隱私數據的抓取、處理以及合成使用等過程,需平衡數據安全保護與流動共享。

除了數據與隱私泄露隱患外,AI技術還存在著數據偏見、虛假信息、模型的難解釋性等問題,可能會導致誤解和不信任。

風口已至,AIGC浪潮奔涌而來,在前景向好的大背景下,關口前移,建立數據安全防護墻也至關重要。

尤其是當AI技術逐漸完善,它既能成為生產力進步的有力抓手,又易淪為黑產犯罪的工具。

奇安信威脅情報中心監測數據顯示,2022年1月份-10月份,超過950億條的中國境內機構數據在海外被非法交易,其中有570多億條是個人信息。

因此,如何確保數據存儲、計算、流通過程中的安全問題,是數字經濟發展的大前提。

從整體看,應該堅持頂層設計與產業發展齊頭并進,在《網絡安全法》的基礎上,要細化風險與責任分析體系,確立安全問責機制。

同時,監管部門可開展常態化監查工作,安全領域企業協同發力,構建全流程數據安全保障體系。

對于數據合規和數據安全的問題,特別是在《數據安全法》推出后,數據隱私越來越重要。

如果在應用AI技術的過程中無法保證數據安全和合規,可能會給企業造成很大風險。

特別是中小企業對數據隱私安全方面的知識比較匱乏,不知道應當如何保護數據不會受到安全威脅。

數據安全合規并不是某個部門的事情,而是整個企業最為重要的事情。

企業要對員工進行培訓,讓他們意識到每個使用數據的人,都有義務保護數據,包括IT人員、AI部門、數據工程師、開發人員、使用報表的人等,人和技術要結合在一起。

面對前述潛藏風險,監管方和相關企業如何從制度和技術層面加強AIGC領域的數據安全保護?

相較于直接針對用戶終端采取限制使用等監管措施,明確要求AI技術研發企業遵循科技倫理原則會更具成效,因為這些企業能夠在技術層面限定用戶的使用范圍。

在制度層面,需要結合AIGC底層技術所需數據的特性和作用,建立健全數據分類分級保護制度。

例如,可根據數據主體、數據處理程度、數據權利屬性等方面對訓練數據集中的數據進行分類管理,根據數據對于數據權利主體的價值,以及數據一旦遭到篡改、破壞等對數據主體的危害程度進行分級。

在數據分類分級的基礎上,建立與數據類型和安全級別相配套的數據保護標準與共享機制。

目光投向企業,還需加快推動“隱私計算”技術在AIGC領域的應用。

這類技術能夠讓多個數據擁有者在不暴露數據本身的前提下,通過共享SDK或者開放SDK權限的方式,在進行數據的共享、互通、計算、建模,在確保AIGC能夠正常提供服務的同時,保證數據不泄露給其他參與方。

此外,全流程合規管理的重要性愈加凸顯。

企業首先應關注其所運用的數據資源是否符合法律法規要求,其次要確保算法和模型運作的全流程合規,企業的創新研發還應最大限度地滿足社會公眾的倫理期待。

同時,企業應制定內部管理規范,設立相關的監督部門,對AI技術應用場景的各個環節進行數據監督,確保數據來源合法、處理合法、輸出合法,從而保障自身的合規性。

AI應用的關鍵在于部署方式與成本間的考量,但必須注意的是,如果沒有做好安全合規、隱私保護,對企業來說或將蘊含“更大風險點”。

AI是把雙刃劍,用得好讓企業如虎添翼;用不好疏忽了安全、隱私和合規,會給企業帶來更大損失。因此,在AI應用前,需要構筑更加穩固的“數據底座”,正所謂,行穩方能致遠。

本文由@科技云報到 原創發布于人人都是產品經理。未經許可,禁止轉載。

題圖來自 Unsplash,基于 CC0 協議

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。提供信息存儲空間服務。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!