這次我要爆一點AI的「黑料」,前兩個就與你相關

0 評論 63 瀏覽 0 收藏 14 分鐘

在人工智能迅猛發展的今天,我們既驚嘆于它帶來的便利,也憂慮于其可能引發的副作用。電力消耗巨大、數據隱私泄露、種族性別歧視問題……這些是否真的意味著AI無法完全代替人類?本文將深入探討AI發展背后的挑戰與爭議,讓我們一起思考未來AI的發展方向。

最近,朋友圈在流傳這樣一句話:“只要電費貴過饅頭,AI 就永遠不能完全代替人”“未來的 AI 戰爭,可能也就是拔插頭的事情”。

正如人要吃飯,AI 需要吃電,人工智能發展的背后隱藏著一個「吃電大王」。要知道,現在的「新能源電力」遠遠無法滿足全球 AI 運行的消耗,龐大的電力需求導致化石燃料發電的「復蘇」。

通過燃燒煤炭或天然氣發電會排放「溫室氣體」,包括二氧化碳和甲烷,使地球變暖,帶來更多的極端天氣。

這次我要爆一點AI的「黑料」,前兩個就與你相關

而且,除了會「吸干」全球電力以外,人工智能還喜歡「剽竊」未經授權的數據,放大現實中的「種族歧視」,「捏造」并不存在的事實?!?/p>

這次我要爆一點AI的「黑料」,前兩個就與你相關

三年前,谷歌制定了一項「凈零排放」計劃來應對氣候變化,這意味著到 2030年,谷歌向空氣中釋放的氣候變化氣體不會超過其清除量。但在本周二,谷歌內部一份報告顯示,它遠未達到這一目標。

非但沒有下降,2023 年排放量反而比前一年增長了 13%,與 2019 年相比,排放量「飆升」48%。

這次我要爆一點AI的「黑料」,前兩個就與你相關

耗電量劇增,也不止谷歌一家。據國際能源署(IEA)的數據顯示,由 OpenAI 的 ChatGPT 驅動的搜索所消耗的電量幾乎是谷歌搜索的 10倍。

微軟在密爾沃基將建設一個價值 33 億美元的數據中心園區,當地推遲了燃煤發電機「退休」一年。

Meta 在愛荷華州的數據中心,每年消耗的電力相當于 700萬臺筆記本電腦每天運行 8 小時的總和。

據高盛分析預測,到 2030年,「數據中心」將占美國總用電量的8%,幾乎是現在的三倍。

這次我要爆一點AI的「黑料」,前兩個就與你相關

數據中心(Data Center)是一個用于存儲、處理和分發大量數據的設施或建筑。它是現代信息技術基礎設施的核心部分,為各種組織提供必要的計算資源和服務??萍脊緦⒑碾娏窟@口「鍋」甩給了人工智能及數據中心的需求。

他們表示,無論是訓練人工智能模型,還是使用人工智能執行任務,其中的簡單操作都涉及到了復雜、快速且大量的計算,都需要消耗大量的電力。

根據國際能源署(IEA)的數據,到 2026 年,全球數據中心和人工智能的電力需求可能會翻一番。

當然,人工智能對于電力的消耗,科技公司正在從其他方面「補救」。比如,使用數據來預測未來的洪水,或者使交通流量更有效,以節省汽油。

這次我要爆一點AI的「黑料」,前兩個就與你相關

LAION-5B 是一個由 Large-scale Artificial Intelligence Open Network (LAION)提供的超大規模多模態圖文數據集。它包含了 58.5 億個經過 CLIP 模型過濾的圖像-文本對,數據量達到了 80TB。

這個數據集是當前世界上公開可訪問的最大的圖文數據集之一,比之前的 LAION-400M 數據集大了 14 倍。

而有人在對 Laion-5B 數據集中包含的 58.5 億張圖像中不到0.0001%的分析發現,有 190張澳大利亞兒童的照片是從互聯網上抓取的。

這些照片在未經本人或家人知情或同意的情況下,被納入了幾種人工智能圖像生成工具使用的數據集中。

這次我要爆一點AI的「黑料」,前兩個就與你相關

甚至,一些名字包含在隨附的標題或存儲圖像的URL中,還包括有關照片拍攝時間和地點的信息。這些照片來源于類似「照片直播」的網站,如果不收到分享鏈接,其他人自行搜索,是無法訪問到照片的。

數據隱私與人工智能如何才能共存?

斯坦福大學發布白皮書《反思人工智能時代的隱私問題——針對“以數據為中心”世界的政策建議》中對此建議,在評估這些問題時,政策制定者還必須考慮到,除非采取特別措施保護數據隱私,否則應用人工智能的副作用可能是所有人的數據隱私大幅減少。

這次我要爆一點AI的「黑料」,前兩個就與你相關

斯坦福大學發表論文稱,OpenAI 的 ChatGPT 4 和 Google AI 的 PaLM-2 等聊天機器人的回答可能會根據用戶名字的發音而有所不同。例如,聊天機器人可能會說,應為姓名為 Tamika(偏女性)的求職者提供 79,375 美元的律師薪水,但將姓名改為 Todd(偏男性)之類的名稱會將建議的薪水提高到 82,485 美元。

這些偏見的背后存在巨大風險,尤其是當企業將 AI 聊天機器人面向客戶運營時。

在一個案例中,由人工智能圖像生成器 Midjourney 制作的 195 張芭比娃娃圖像的列表中,德國芭比娃娃穿著制服像納粹黨衛軍,南蘇丹芭比娃娃攜帶著槍,卡塔爾芭比娃娃佩戴著傳統頭飾。

這次我要爆一點AI的「黑料」,前兩個就與你相關

在另一起報道案例中,Meta 的 AI 圖像生成器無法準確生成“亞洲男性和白人妻子”或者“亞洲女性和白人丈夫”這類圖像。例如,當輸入「Asian man and white woman smiling with a dog」(亞洲男性和白人女性帶著狗微笑)時,Meta 圖像生成器給出的都是「兩個亞洲人」的圖像。

即使將“white”改為“Caucasian”時,結果同樣如此。

這次我要爆一點AI的「黑料」,前兩個就與你相關

還有,2022 年清華大學做了一個 AI 模型性別歧視水平評估項目,在包含職業詞匯(如醫生、司機、教師、服務員、職員等)的“中性”句子中,由 GPT-2 等測試模型 AI 預測生成一萬個模板。測試結果發現,GPT-2 有 70.59%的概率將教師預測為男性,將醫生預測為男性的概率則是 64.03%。

總的來看,大多數涉及種族和性別的場景都存在對黑人和女性不利的偏見,少數的場景如“當詢問運動員作為籃球運動員的位置”時,偏見有利于黑人運動員。

這次我要爆一點AI的「黑料」,前兩個就與你相關

幾乎所有行業苦「降本增效」久矣,生成式 AI 的自動寫代碼、寫文案、做客服等功能,讓所有人看到曙光。然而,盡管AI在許多方面表現出色,但它并不是完美的。

AI 幻覺(AI Hallucination)是一個需要十分關注的問題,了解 AI 幻覺的概念、原因和影響,對于我們更好地使用和發展 AI 技術至關重要。

AI 幻覺指的是人工智能系統在處理信息時,生成了看似合理但實際上錯誤或虛假的內容,這種現象在生成式 AI(如聊天機器人和文本生成模型)中尤為常見。

AI 幻覺的產生并不是因為系統故意欺騙用戶,而是由于模型在處理復雜數據時出現了誤判。

比如,之前我們測試過「我今天有 5 個橙子,上星期我吃了 3 個,我還剩多少個橙子?」

正確的答案應該是 5 個,因為上周吃掉的橙子數量不應該影響今天剩余的橙子數量。而在當時,ChatGPT3.5 和 Microsoft Copilot 都回答錯了。

這次我要爆一點AI的「黑料」,前兩個就與你相關

這次我要爆一點AI的「黑料」,前兩個就與你相關

這屬于「輸入沖突幻覺」的一種,LLM 生成的內容與用戶提供的輸入明顯不符,這種類型的幻覺通常是因為模型對用戶意圖的理解出現了誤差。模型可能會忽略關鍵的輸入信息,或者錯誤地解釋了用戶的請求,導致生成的回答與任務指示相悖。這種類型的幻覺特別在那些需要精確信息或者指令的情況下顯得尤為明顯。

此外,LLM 還存在「語境沖突幻覺」和「事實沖突幻覺」。

語境沖突幻覺通常出現在長對話或者需要模型生成較長文本的情況下,反映了模型在跟蹤對話上下文或保持信息一致性方面的局限。

當 LLM 無法有效地保持長期記憶或識別與當前話題相關的上下文時,就可能出現上下文沖突。

事實沖突幻覺是指生成的內容與已知的世界知識不符,比如,有網友在谷歌搜索尋找“芝士和披薩粘不到一塊”的解決辦法。

LLM 建議:你還可以把 1/8 杯的無毒膠水加到醬料里,使其更黏。

這次我要爆一點AI的「黑料」,前兩個就與你相關

對于 AI 幻覺,并不是一味唱衰。北京大學計算機學院教授、北京智源人工智能研究院理事長黃鐵軍在第十七屆中國電子信息年會上發表演講時表示,「幻覺」是人工智能創造性的體現,人類要想創造比自身更強的智能體,就不要降低AI幻覺率,否則人工智能將與巨大的資源檢索庫無異。

好在,目前 AI 幻覺給出的錯誤答案,還在辨認范圍之內。

因此在人工智能不能僭越的「紅線」之內,黃鐵軍認為應該盡可能提升其智能能力。

總的來看,大模型發展是必然的趨勢,向左還是向右,加速還是減速,中間的取舍更多取決于掌控它的人。

本文由 @阿木聊AI(智能體) 原創發布于人人都是產品經理。未經作者許可,禁止轉載

題圖來自Unsplash,基于CC0協議

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!