都在搶發AI大模型,誰在關注模型安全?

0 評論 2939 瀏覽 8 收藏 14 分鐘

4月份,大模型如雨后春筍般涌現,成為所有活動的主題。當所有目光集中在企業最新的技術動態、產品質量,以及可能帶來的商業革命時,另一方面,安全倫理也是這場“AI實驗”的重要且關鍵主題。在享受技術突破帶來發展紅利的同時,要如何應對安全問題呢?

如果要給4月定一個主題,“大模型”應該當仁不讓。

從4月7日阿里突然放出“通義千問”內測開始;8日,華為放出盤古大模型;10日,商湯推出類ChatGPT產品“商量SenseChat”;之后,11日的阿里云峰會,毫末AI DAY,以及之后昆侖萬維號稱即將發布的“天工”……大模型如雨后春筍般涌現,成為所有活動的主題。

另一方面,當所有的目光都集中在企業最新的技術動態、產品質量,以及可能帶來哪些商業革命的同時,另外一些事情在同樣挑動人們的神經。

4月10日,有網友通過AI技術“復活”了自己的奶奶,在網上引起廣泛討論。有人說,看到圖像的那一刻眼眶就濕潤了;也有人說,這有些不尊重逝者;更有人聯想到如果有不法之徒利用這種技術,幾乎可以隨意將一個陌生人帶回家當電子寵物……

圖源揚子晚報

和通用AI技術的驚艷發展一樣,安全倫理也是這場“AI實驗”的重要且關鍵主題。

事實上,從春秋戰國時期鋼鐵冶煉技術的突破,到西方18世紀60年代出現的珍妮機,自古以來,當革命性的技術推動社會跨越式發展的同時,也會給社會的傳統文化、社會范式帶來沖撞和破壞。

AI大模型同樣也是如此,關于倫理道德的討論只是其中的一個方面,這背后所有與人直接相關的,比如數據安全問題、AI的可信度問題、隱私保護問題等等,都在沖撞著當前的數據治理格局。

就像20年前,我們打開每一個網頁都害怕被病毒侵襲、被黑客攻擊一樣,在大模型飛速發展的今天,安全問題正在被重新抬回桌面。

因此,在享受技術突破帶來發展紅利的同時,如何應對這種沖撞,成為當代人需要思考的問題。

01 大模型來臨,AI安全迎來新挑戰

大模型帶來的關于倫理道德、數據安全和可信度的討論,可能來的比所有人想象的都更早。

2021年初,韓國人工智能初創公司Scatter Lab上線了一款基于Facebook Messenger的AI聊天機器人“李LUDA”,但僅僅不到20天,Scatter Lab就不得不將“李LUDA”下線,并公開道歉。

道歉的原因,是“李LUDA”失控了。

“李LUDA”上線后,很快在韓國網絡平臺上受到歡迎,有75萬名用戶參與了互動。但在交流過程中,一些用戶將侮辱“李LUDA”作為炫耀的資本,對其發泄自身惡意,并在網上掀起“如何讓LUDA墮落”的低俗討論。

很快,隨著各種負面信息的介入,“李LUDA”還開始發表各種歧視性言論,涉及女性、同性戀、殘障人士及不同種族人群。

而在“李LUDA”變得越來越“暗黑”的同時,關于“李LUDA”的數據安全和隱私保護也在受到詰問。

“李LUDA”是Scatter Lab基于Science of Love數據開發的,Science of Love可以分析韓國國民級聊天應用KakaoTalk(類似于微信)的對話,顯示用戶間的情感水平,這也導致韓國個人信息保護委員會和互聯網安全局開始介入調查。

“李LUDA”的故事只是一個序曲,在兩年之后的今天,在全球掀起技術革命的OpenAI也同樣面臨安全和可信的問題。

事實上,從ChatGPT推出的第一天起,到后來的谷歌Bard,再到國內的文心一言,以及阿里的“通義千問”,幾乎都面臨著AI“一本正經的胡說八道”的問題。

仍然以ChatGPT舉例,有網友讓其推薦3家西湖區的新興咖啡館,ChatGPT正經地給出了名字、地址和介紹。但網友查詢后卻發現,壓根沒有這樣三家咖啡店的存在。

同樣的例子還有很多,因為AI的回答本質上是一個“概率問題”,即通過前一個字去猜后一個字的可能性,然后根據概率和語義選擇最適合的組成一個句子。

所以當問到AI不曾了解的內容時,它仍然會隨機生成答案。但這會給許多沒有分辨能力的人帶來誤解。

在可信問題之外,數據安全是AI大模型面臨的一個重要考題。

3月底,OpenAI發布一份報告顯示,由于Redis的開源庫bug導致了ChatGPT發生故障和數據泄露,造成部分用戶可以看見其他用戶的個人信息和聊天查詢內容。

僅僅十天左右,意大利數據保護局Garante以涉嫌違反隱私規則為由,暫時禁止了ChatGPT,并對相關事項展開調查。

事實上,這樣的事情正在許多地方同時發生,比如三月中旬,自三星電子允許部分半導體業務員工使用ChatGPT開始,短短20天有三起機密資料外泄事件。

數據安全公司Cyberhaven的一份調查顯示,在員工直接發給ChatGPT的企業數據中,有11%是敏感數據。在某一周內,10萬名員工給ChatGPT上傳了199份機密文件、173份客戶數據和159次源代碼。

眾所周知,以ChatGPT為代表的AI大模型通過“人類反饋強化學習”來不斷進化,這也要求類ChatGPT產品需要不停地收集用戶使用數據。但這些數據回到后臺之后,并沒有進行脫敏處理,也無法被刪除,而是進一步被納入到了模型訓練的數據庫中,并隨時面臨可能被泄露的風險。

整體上,AI大模型被廣為人知以來,倫理、可信、數據安全的問題也逐漸被越來越多人感受到。但這其實就像一條新建成的自動化生產線,生產效率很高,但還有許多地方的衛生條件沒有達到要求。

我們并不應該因為這一些局部的瑕疵而否認整個生產線的價值,但這些潛在的隱患也同樣需要去規避和完善。

02 AI安全,任重道遠

事實上,無論是產業界還是相關的監管機構,其實都早已意識到了問題,并且也都在積極尋求改變。

比如OpenAI就在積極提高其預訓練大模型的安全性,在GTP-4發布時,OpenAI的安全測試顯示,GPT-4比GPT-3.5的得分要高出40%。

OpenAI開發了一項新技術,讓AI能夠模擬人類的自我反思。這讓GPT-4在HumanEval編碼測試中的準確率從67%上升到88%。在Alfworld測試中準確率從73%提高到了97%;在HotPotQA測試中準確率從34%提高到54%。

當然,Open AI官網仍然在警告用戶,在使用GPT-4輸出的內容時應格外小心,特別是在高風險場景下(如醫學、化學等領域)需要人工核查事實準確性,或者壓根避免使用AI給出的答案。

除了在模型階段介入新技術之外,更多公司開始從數據階段就將隱私考慮了進去,比如數據合成和隱私計算就是兩種有效的解決方案。

其中,合成數據是指計算機通過模擬技術,或算法自己生成的標注信息,能夠在數學上或統計學上反映原始數據的屬性,因此可以作為原始數據的替代品來訓練、測試、驗證大模型。但由于數據是合成的,因此不會涉及到真實的用戶隱私和數據安全問題。

而隱私計算則是一種保護數據隱私的計算方法,它可以在不暴露數據內容的前提下進行數據處理、分析、共享等操作,關鍵就是讓數據“可用,但不可見”。

除了在通過研發新技術提高AI能力之外,微軟在開放NewBing時也考慮從其他方式限制AI胡說八道。

現在使用微軟更新的NewBing時,AI不僅會告訴你答案,還會像論文標注一樣,將得出結論的數據來源進行標注,方便用戶回溯,確認信源是否可靠。

當然,在這方面投入努力的也不只是企業,并且也不局限在技術和產品上。

從2021年開始,為了保障數據安全、個人隱私、道德倫理、以及從跨國市場規范、AI平權等多項目標考慮,歐盟就開始推進《人工智能法案》,按既定節奏,該項法案在3月底提交歐盟議會審議。

在歐盟推進立法的同時,聯合國教科文組織(UNESCO)總干事奧德蕾·阿祖萊也在3月30日發表聲明,呼吁各國盡快實施該組織通過的《人工智能倫理問題建議書》,為人工智能發展設立倫理標準。

中國在這方面同樣也在推進相關監管法案的落地。4月11日,國家網信辦起草《生成式人工智能服務管理辦法(征求意見稿)》并向社會公開征求意見。該《辦法》聚焦隱私安全、技術濫用、知識產權和他人權益三大問題,為AIGC的發展建立防護欄。

除此之外,學界和企業界也在積極探索新的方式。比如4月7日,清華大學與螞蟻集團達成合作,雙方攜手攻堅可信AI、安全大模型等下一代安全科技,在可信AI方面聯合攻克安全對抗、博弈攻防、噪聲學習等核心技術,來提升規模化落地中的AI模型的可解釋性、魯棒性、公平性及隱私保護能力;并基于互聯網異構數據,構建面向網絡安全、數據安全、內容安全、交易安全等多領域多任務的安全通用大模型。

除此之外,作為互聯網時代的安全企業,周鴻祎在新智者大會上也提到人工智能的安全挑戰。周鴻祎將其歸納為七點:硬件、軟件、通信協議、算法、數據、應用和社會倫理。但周鴻祎也提到:“僅靠一家企業不能解決所有威脅,需要注重生態合作?!?/p>

整體上,自ChatGPT以來,AGI的大門也才剛剛打開,就如同AI大模型仍在探索一樣,其與傳統產業、安全、社會倫理等方面的沖突也才剛剛開始,整個治理、重建、規范的過程也都還仍重道遠,需要整個社會的共同努力。

作者:周文斌;來源公眾號:光錐智能(ID:guangzhui-tech),前沿科技,數智經濟。

本文由人人都是產品經理合作媒體 @光錐智能 授權發布,未經許可,禁止轉載。

題圖來自Unsplash,基于 CC0 協議。

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!