深度|OpenAI CTO Murati 最新對話:“喬布斯”對 Sora 測試版效果表示震驚,下半年將與 Apple 密切合作
OpenAI的首席技術官Mira Murati在約翰·霍普金斯大學的AI對話中分享了OpenAI在內容媒體管理、數據隱私和安全性方面的最新進展,以及與Apple的合作計劃。Murati強調了技術透明性和用戶控制權的重要性,并呼吁政府和企業之間進行更緊密的合作,以制定靈活且有效的監管框架。
近日,OpenAI CTO Mira Murati 在約翰·霍普金斯大學展開了一場 AI 對話。Mira Murati?強調,OpenAI正在努力建立一個內容媒體管理器,以確保數據的透明性和用戶的控制權。此外,Murati 還談到了與 Apple 的合作。在當前技術監管較為寬松的環境中,數據隱私和安全的重要性。她呼吁政府和企業之間進行更緊密的合作,制定靈活且有效的監管框架。
對于即將到來的 2024 年選舉,Murati 指出,當前的 AI 系統在影響公眾輿論和傳播虛假信息方面具有極大的能力。OpenAI 正在采取措施,防止其技術被濫用,包括改進政治信息檢測和減少政治偏見。
以下為這次對話的全部內容,enjoy~
主持人:
首先,我很想問你關于 Apple 合作的事。我們今天要談論一點這個話題。這個合作是在世界開發者大會上與 OpenAI 達成的。從今年某個時候開始, Apple 的電腦、手機和 iPad 將內置 GPT,這顯然是一個巨大的事件。
Apple 是第一次做這樣的事情,他們與許多人進行了談判,可能會逐步包括其他人。我想從你的角度談談這個合作是如何運作的。我今天早些時候和 Tim Cook 聊了一下他的觀點,現在我想聽聽你的看法。
Mira Murati:
這是我們的一項重要里程碑。Apple 是一家標志性的消費產品公司。我們的目標是通過 AI 的偉大應用盡可能接觸到更多的人。這是一個將創新帶給所有 Apple 用戶的絕佳機會,無需更換設備。我們將在接下來的幾個月里與他們密切合作,弄清楚產品方面的具體細節,并會有更多的分享。
主持人:
不過,如果你不介意的話,我們來說些具體的內容。你具體做什么?Tim 談到這個想法時提到答案和聊天,他們將有自己的答案。他們顯然需要改進 Siri ,因為它非常糟糕。但從你的角度來看,你希望在與 Apple 的合作中實現什么目標?
Mira Murati:
我可以具體談談產品整合的內容。我們希望帶來的是真正開發中的模型的能力、多模態性和互動性,并將這些引入 Apple 設備。
我相信你最近也看到了 GPT-4o 的發布,這是我們第一次在互動向量上看到這些模型的飛躍,而不僅僅是能力和智能。
這非常有意義,因為迄今為止,我們與設備的互動主要集中在文本方面。這是一個讓信息和彼此互動更加豐富和自然的絕佳機會,并且使互動大大減少限制。
它打開了很多機會,這正是我們所期待的。是的,我想我們有了很好的技術,他們希望從第一天開始使用。
主持人:
用戶請求發送到 OpenAI 的報告不會被你存儲,用戶 IP 地址將被隱藏。這對 Apple 來說是個大事。請談談這將如何運作。你是否仍然可以使用這些請求的數據來訓練你的模型?
Mira Murati:
不,即使現在對于我們的用戶和客戶,我們也不會在未經特別允許的情況下使用他們的數據來訓練我們的模型。因此,這方面的規定是明確的。
主持人:
那么,當你與像 Apple 這樣重視聲譽的公司打交道時,他們認為重要的一些問題是什么?因為其中一個問題是關于這些信息的去向和用途的擔憂。
Mira Murati:
我認為這是一個非常一致的合作伙伴關系。隱私和信任是關鍵,對于 OpenAI 的使命來說,確保我們構建和部署的技術讓人們感到信任和有參與感是非常重要的。
因此,這種合作關系是非常自然的,并且將我們引向我們希望前進的方向。關于假信息的問題,這顯然是非常復雜的,因為我們正在建立在數十年的假信息之上,并且隨著 AI 的發展,這種情況變得更加嚴重。然而,互聯網和社交媒體也產生了復合效應。
在某種程度上, AI 正好把這一切推到了風口浪尖,讓這個問題受到更多的關注和審查。這是一件好事,因為它似乎促使大家共同努力解決這個問題。我認為這將是一個逐步的過程,我們將隨著時間的推移進行嘗試和調整。
主持人:
我知道與 Apple 合作不能出錯,因為如果出現問題,他們會讓你陷入困境。我很好奇這次合作是如何開始的?是從 Sam 和 Tim 之間的對話開始的嗎?還是你也參與了?
Mira Murati:
其實我不太記得它是從哪里開始的,但已經醞釀了一段時間。
主持人:
已經有一段時間了。你也在與其他公司進行類似的合作談判。顯然,你與微軟有關系。播客聽眾,她對我笑了。我不會透露更多了,我們繼續。
OpenAI 已經與新聞集團和 Vox Media 等公司達成了內容許可協議,這樣就減少了潛在的訴訟問題。如果我是你,我可能不會考慮這種合作。
那么,你如何說服我許可我的信息?魯珀特·默多克已經盜用了我的其他信息,《紐約時報》也是,我不希望再有其他人,包括你。
Mira Murati:
我知道你對此很關心,所以我可以告訴你我們如何看待數據訓練模型的問題。我們主要有三個數據來源:公開數據、與出版商的合作數據以及我們支付人力標注的特定數據。
此外,我們還有用戶自愿允許我們使用的數據。關于出版商合作,我們關心的是信息的準確性,用戶也非常重視這一點。
因此,我們與特定產品建立了一對一的合作關系,提供對用戶有價值的信息,同時也在探索不同的方式來補償內容創作者,讓他們的數據在產品中展示或用于訓練。
主持人:
有些人會與你合作,像 Apple 和許多其他機構,但有些人則會提起訴訟,比如《紐約時報》。這如何演變到那一步?
Mira Murati:
我不能具體評論這些訴訟,但這確實很不幸。因為我們認為在產品中擁有新聞數據和這種類型的信息是有價值的,因此我們嘗試與他們達成合作,但在這種情況下未能成功。
主持人:
或許未來會成功。我想這是因為媒體多年來與互聯網公司打交道,通常最終會吃虧。但每期節目我們都會請專家提問,我們來聽聽你的問題。
觀眾:
Mira。我是斯坦福大學計算機科學教授,也是斯坦福人類中心 AI 研究所的聯合創始人。我想問你一個關于數據的問題。很多人認為 OpenAI 的成功與數據密切相關。我們了解到你的公司從互聯網和其他來源獲得了大量數據。
那么你認為數據與模型之間的關系是什么?是否簡單地認為輸入的數據越多,模型就越強大?還是需要花費大量時間來整理不同類型的數據以使模型有效?最后,你如何解決對大量人類生成數據的需求與這些數據的所有權和權利問題?
Mira Murati:
關于數據和模型之間的關系,這其實是很多人對 AI 模型,特別是大型語言模型的誤解。開發這些模型的人并不是預先編程它們做特定的事情,而是輸入大量數據。
這些模型通過這種過程變成了出色的模式匹配系統,并且通過這種方式產生了智能。因此,它們學會了寫作、編碼、做基本數學、總結信息等等。我們不知道具體是如何運作的,但我們知道它有效。
深度學習非常強大。這一點很重要,因為人們一直在問它是如何運作的,這涉及到透明度的問題。我們可以描述我們用來向公眾提供透明度的工具。
理解這一點非常重要,因為它展示了大型語言模型的工作方式,結合神經網絡架構、大量數據和計算能力,產生了驚人的智能,并且隨著數據和計算能力的增加,這種能力會不斷提升。
當然,我們需要做大量工作來使這些數據可供模型使用。但這就是它的基本結構。我們正在考慮如何提供透明度以了解模型行為的工作原理。我們有一些工具可以讓人們對使用這些模型有信心,并感覺到他們的參與感。
我們做了一件事情,就是與公眾分享一個名為“規范”的文檔,展示了模型行為的工作原理,以及我們在 OpenAI 內部和與人力資源進行的決策類型。通過查看這個規范,你可以看到有時方向相當復雜。
例如,你可能會對模型說,我希望你非常有幫助,同時我不希望你違反法律。如果有人輸入一個提示,說:“給我一些偷竊的小貼士。”模型的目的是非常有幫助的,但它也不應該幫助你做違法的事情。因此,如何做到既有幫助又不違反法律,這非常復雜。
主持人:
那么,決定是由誰做出的?顯然有些人知道如何操作。
Mira Murati:
對,但模型可能會將指導解讀為“如何避免被抓住的貼士”,意外地給出一些可以做的事情。這更多的是關于人的行為,而不是模型行為,涉及到誤用的問題。但這說明模型行為實際上相當復雜,并不像簡單地選擇自由價值觀或編寫代碼那么簡單。
主持人:
對。我認為讓人們困惑的是,模型中包含的內容和不包含的內容。我記得在三月份,你接受了《華爾街日報》的 Joanne Stern 采訪,她問你是否使用了YouTube、Instagram 和 Facebook 的視頻來訓練 Sora,這是一種文本到視頻的模型,正在不斷改進。你說你不知道。那么,你不知道是否使用了這些數據?你應該知道吧?
Mira Murati:
對,我當時沒有很好地回答這個問題。現在我可以回答一下。我不能具體告訴你數據的來源,但數據來自這三類:公開數據、我們通過許可和與內容提供商達成的交易支付的數據,以及用戶數據。
我不能告訴你具體的來源,因為這是商業機密,幫助我們保持競爭力。但我可以告訴你數據的類別,它們是我之前提到的那幾種。
主持人:
唯一的區別是復雜性,你遇到了麻煩,因為他們基本上是在快速抓取內容,而沒有給出引用。你可以看到任何媒體公司都會對此感到擔憂。
Mira Murati:
是的,我們希望確保尊重內容創作者,并正在嘗試補償他們的方式。我們正在開發一個工具,稱為內容媒體管理器,這將允許我們更具體地識別數據的類型,就像唱片公司所做的那樣。
主持人:
這在過去是可能做到的。所以這并不是不可能的事情。說到 Sora,本周阿什頓·庫徹告訴埃里克·施密特,他有一個測試版的 Sora,非常驚人。
他還說門檻會大大提高,因為為什么要看我的電影,而不是看你自己的電影。他基本上是在說,人們能夠在頭腦中想象電影, AI 會將其變成可以觀看的電影?,F在這聽起來很粗糙,但這聽起來是否可行?Sora 何時會準備好公開發布?
Mira Murati:
我們目前沒有 Sora 公開發布的時間表。我們現在正在與一些內容創作者合作,幫助我們識別如何使其更加穩健。我們正在進行大量的安全工作,但也在研究如何以有用的方式向公眾推出這項技術。這并不是一件非常簡單的事情。
現在它更多的是一種技術。我們通常會與那些在特定領域有專長的人合作,就像我們最初與 DALL·E 合作時一樣,他們幫助我們識別出一種感覺更有能力的界面,可以創造更多的項目?;旧?,我們只是想擴展 Sora 的創造力。
主持人:
假設它比聊天機器人更危險,對吧?這是擔憂的原因嗎?例如,你可以很容易地看到涉及名人的色情電影的情況。你是否對視頻更加擔憂?
Mira Murati:
視頻有很多其他問題,特別是當做得非常好時,視頻非常直觀,而且可能非常情感化。因此,我們必須解決所有安全問題,制定安全保障措施,確保產品的有用性和安全性。但從商業角度來看,沒有人希望一個產品引發大量安全或聲譽丑聞。
這非常有趣。這是一項令人難以置信的魔法般的技術。但其廣泛性、影響也很大。所以我們必須確保這一點。我們在 OpenAI 采用迭代部署策略,通常先向一小群人發布,嘗試識別邊緣案例。一旦我們對如何處理這些案例有信心,就會擴展訪問權限。但你需要弄清楚產品的表面和商業模式。
主持人:
關于影響的概念,這是我的一個主題,科技公司往往不關心影響。通常他們會發布一個測試版的軟件,如果他們發布的是一輛車,這種情況是絕不會允許發生的,因為他們會被起訴到破產。
但很多科技公司發布的產品往往都是測試版,并強加給公眾。關于影響的概念,你是否覺得作為首席技術官,即使你不能預見所有的影響,你是否尊重每項發明可能帶來的影響?
Mira Murati:
這些影響會對我們和我們的社會產生影響。因此,我并不一定指的是監管或法律方面的影響,而是道德上的責任感,確保我們做對。我對這項技術充滿樂觀。
它將允許我們做出驚人的事情。我對它在科學、發現、教育和特別是醫療方面的潛力感到非常興奮。但每當你有如此強大的東西,也會有潛在的災難性風險。一直以來,都是這樣的情況。人類試圖放大其影響。
主持人:
我引用的一句話來自 Paul Virilio:“當你發明船時,你也發明了船難?!边@是比船難更嚴重的可能性,對嗎?
Mira Murati:
我不同意這個說法。我的背景是工程學。我們的整個世界都是通過工程建造的。工程學就是風險。整個文明建立在工程實踐之上。我們的城市、橋梁,一切都如此。這總是伴隨著風險的。你通過責任和細致的工作來管理這些風險。
這不僅僅是開發人員的責任。這是一種共同的責任。為了使其成為共同責任,你實際上需要給人們提供訪問權限和工具,并與他們一起前進,而不是在真空中建造不可訪問的技術。
主持人:
好的,我們談談這個。我想多了解一下這個話題。你上個月宣布了 ChatGPT-4 的迭代更新。我非常喜歡你們的下一個 ChatGPT-4,這個名字很棒。有人建議給它取名叫 Claude 之類的,但 ChatGPT 就很好。你們讓它免費對吧?但是你們也宣布了正在訓練新的模型 ChatGPT-5,那么它會是一個逐步的改進嗎?還是一個指數級的提升?預計何時發布?
Mira Murati:
確實如此。GPT-4O 代表的是 Omnimodel,因為它結合了所有的模態:視覺、文本、音頻。這個模型的特別之處在于,它使與模型的互動變得非常流暢自然,延遲幾乎察覺不到。
這是 AI 互動上的巨大飛躍,與我們之前的版本有很大不同。我們希望將最新的功能免費提供給所有用戶,讓大家了解這項技術的潛力和局限性。正如我之前所說,通過實際體驗,大家更容易理解技術的潛力和局限性。
主持人:
它就像是一道開胃菜,讓大家期待 ChatGPT-5。那么,5 有什么不同?是個巨大的飛躍還是逐步改進?
Mira Murati:
我們還不知道。其實我們還沒決定叫什么名字。下一個大型模型將非常強大,我們可以期待像從 GPT-3 到 GPT-4 那樣的巨大飛躍,但具體細節還不確定。
主持人:
你顯然參與了很多項目,我們也聊過很多。OpenAI 內部的路線圖預測會在 2027 年實現 AGI ,這將是一個巨大的里程碑。解釋一下這個時間點的重要性。你們是否真的認為會在那時實現 AGI ?
Mira Murati:
AGI 的定義因人而異。根據我們的章程, AGI 是指在不同領域可以完成經濟上有價值工作的系統。從我們目前看到的情況來看,智能的定義不斷變化。過去,我們用學術基準測試系統的智能程度。然后,我們看考試成績。
當我們達到了這些基準,我們需要提出新的評估標準。這讓我們思考,在工作環境中如何評估智能?我們有面試、有實習等方式。因此,我預計這個定義會不斷演變?;蛟S更重要的是評估和預測在現實世界中的影響,無論是社會影響還是經濟影響。
主持人:
所以不會有一個時刻,它突然變得智能到能自行決策,對吧?這是人們擔心的問題,對嗎?
Mira Murati:
是的, AGI 的定義很重要,我認為智能的定義會不斷演變。但同樣重要的是它對社會的影響,以及它實際展示的速度。
主持人:
根據這個定義, OpenAI 認為何時會實現 AGI ?2027 年這個數字準確嗎?
Mira Murati:
我會說,在未來十年內,我們將有極其先進的系統。
主持人:
但是人們擔心的是安全與產品之間的討論。OpenAI 的創立有兩個目標,一個是幫助人類,一個是追求巨大的經濟利益。我認為你可能介于兩者之間。
上周,13名現任和前任 OpenAI 和谷歌 DeepMind 員工聯名發表公開信,呼吁公司允許他們警告關于先進 AI 的風險。這并不新鮮,Facebook、谷歌和微軟的員工也曾簽署公開信,無論是與高級部門合作等。
但在這個案例中,員工們說,“廣泛的保密協議阻止我們表達擔憂,而公司可能未能解決這些問題?!被旧暇褪钦f,我們不能告訴你風險是什么,但大家可能會遭遇災難。對此你有什么回應?人們擔心報復,而我不想談論股票的問題,因為我知道你們道歉并糾正了這一點。但如果他們有擔憂,難道不應該讓他們表達嗎?我知道不同人有不同的看法。
Mira Murati:
當然,我們認為辯論非常重要,能夠公開表達這些擔憂并討論安全問題也非常重要。自 OpenAI 成立以來,我們一直非常開放地討論假信息問題,從 GPT-2 時代開始,這就是我們早期研究的問題之一。
過去幾年,技術進步令人難以置信,速度之快超乎預期,這也增加了人們對社會準備情況的普遍焦慮。我們看到科學的發展方向,所以可以理解人們對未來的擔憂。
具體來說,我們在 OpenAI 所做的工作和部署這些模型的方式,我認為我們有一支出色的團隊,我們非常安全地部署了這些模型,我對此感到非常自豪。鑒于技術進步的速度和我們自身的進展,專注于安全、保護框架非常重要,我們需要考慮如何看待前沿模型訓練和部署的風險。
主持人:
你提到過這些問題。我想知道為什么需要保密協議和比其他公司更嚴格的規定?公開信是在一系列高調離職后發布的,包括 Jan Leike 和 Ilya Sutskever。他們領導了對齊團隊,負責安全工作。
Ilya 是聯合創始人,他與其他三位董事一起罷免了CEO,但 Leike 在 X 上發布了這條消息:“在過去的一年里,安全文化和流程被閃亮的新產品所取代?!?/p>
這是對 OpenAI 最持久的批評之一,你認為這是公平的,為什么或者為什么不公平?如果你說你非常重視安全,他們卻說你不重視,你如何應對這種批評?
Mira Murati:
首先,對齊團隊不是唯一負責安全的團隊。OpenAI 有許多安全團隊,對齊團隊是其中一個非常重要的安全團隊,但只是其中之一。
我們有很多人在 OpenAI 從事安全工作,我可以稍后詳細解釋。Yan 是一位了不起的研究人員和同事,我與他共事了三年,非常尊重他,他離開 OpenAI 加入了 Anthropic,這是一個競爭對手。
我認為我們確實需要更加專注于安全、保護和監管參與,鑒于我們預期領域內的進展。但我不同意我們可能將產品放在安全之前的觀點。你為什么認為他們這么說?
主持人:
因為這些是和你共事的人?
Mira Murati:
我認為你需要問他們,但我認為許多人認為安全和能力是分開的。有些人認為安全和能力是分開的單元,從 OpenAI 開始,我來自航空和汽車行業,這些行業有非常成熟的安全思維和系統,不需要不斷辯論安全問題,因為這些已經很成熟了。
因此,我認為整個行業需要向更加嚴格的安全學科發展。我們有安全系統,有嚴格的操作安全紀律,這包括許多方面,不僅是操作紀律,還有我們今天產品和部署的安全性,例如有害偏見、假信息、錯誤信息分類器等。
主持人:
我關閉了我的手機和提示音。
Mira Murati:
繼續。不僅是今天模型的對齊,我們使用人類反饋進行強化學習,但也要考慮模型隨著能力增強的長期對齊問題,這是一個非常關注的研究領域。
主持人:
但這在 OpenAI 中一直存在。我認為因為你們是當前的領先公司,所以這個問題更加突出。但人們擔心的是安全問題, OpenAI 的創立目的之一就是確保安全。
上周,有 13 名現任和前任 OpenAI 和谷歌 DeepMind 員工聯名發表公開信,呼吁公司允許他們警告關于先進 AI 的風險。這并不新鮮,但在這種情況下,員工們說,“廣泛的保密協議阻止我們表達擔憂,而公司可能未能解決這些問題?!?/p>
你對此有什么回應?人們擔心報復,而我不想談論股票的問題,因為我知道你們道歉并糾正了這一點。但如果他們有擔憂,難道不應該讓他們表達嗎?我知道不同人有不同的看法。
Mira Murati:
當然,我們認為辯論非常重要,能夠公開表達這些擔憂并討論安全問題也非常重要。自 OpenAI 成立以來,我們一直非常開放地討論假信息問題,從 GPT-2 時代開始,這就是我們早期研究的問題之一。
過去幾年,技術進步令人難以置信,速度之快超乎預期,這也增加了人們對社會準備情況的普遍焦慮。我們看到科學的發展方向,所以可以理解人們對未來的擔憂。
具體來說,我們在 OpenAI 所做的工作和部署這些模型的方式,我認為我們有一支出色的團隊,我們非常安全地部署了這些模型,我對此感到非常自豪。鑒于技術進步的速度和我們自身的進展,專注于安全、保護框架非常重要,我們需要考慮如何看待前沿模型訓練和部署的風險。
主持人:
你如何應對他?我理解這種動態。這在谷歌、早期的微軟和亞馬遜都發生過。隨著公司發展,事情會發生變化。谷歌早期非?;靵y,Facebook 經歷了很多 COO,我甚至無法數清。有很多人走過那條路。這是很正常的,但你如何應對 Sam?
例如,他投資了一些外國公司,一些公司與 OpenAI 有業務往來。他投資了 3.75 億美元在一家名為 Helion 的能源公司,這是一個很酷的公司,他們目前正在與 OpenAI 談論大量的電力需求。眾所周知,計算需要大量電力。你每天是如何與他打交道的?你如何看待這種關系?你在哪些方面會提出反對意見?
Mira Murati:
我一直在提出反對意見。我認為這是正常的,特別是在我們所做的工作中。Sam 會對團隊提出很高的要求,我認為這是好的。有遠大的抱負,挑戰我們的極限是很重要的。當我覺得事情超出界限時,我會提出反對意見。這就是我們六年來的合作關系,我認為這種關系是有成效的。你需要能夠提出反對意見。
主持人:
你能舉一個例子嗎?例如,斯嘉麗·約翰遜的例子。我知道你們在那個聲音元素上工作,對吧?
Mira Murati:
是的,我們有很強的合作關系。但選擇聲音并不是我們的優先事項之一,不是我們共同工作的內容。
我在這方面做了決策,Sam 有他自己的關系。在我選擇了 Sky 之后,他聯系了斯嘉麗·約翰遜。我們沒有討論這個具體的決定,這是很不幸的。
主持人:
所以他是單獨行動的。
Mira Murati:
他有自己的聯系。所以我們在這件事上沒有完全協調一致。
主持人:
你覺得這在很多方面很有趣,特別是因為電影和他的推文。但我認為這是 OpenAI 的一個錯誤,因為人們會覺得你們在偷竊,即使你們沒有偷她的聲音,Sam 看起來就像是《小美人魚》里的烏蘇拉,偷走了她的聲音。即使事實并非如此,但這種感覺是存在的。
Mira Murati:
你擔心科技公司會被視為掠奪一切嗎?
主持人:
我確實認為這是事實。
Mira Murati:
是的,我擔心這種看法,但你知道,你所能做的就是做好工作,讓人們看到結果,從而建立信任。我不認為有某種神奇的方法來建立信任,除了實際上做好工作。你和斯嘉麗·約翰遜談過嗎?
主持人:
她是我的背景資料。我知道,她在后臺,我提到不同的事情,她不知道我在說什么。因為你太專注于工作,你說你在石頭下工作,是嗎?
Mira Murati:
是的,我非常專注于我的工作,但我也在阿爾巴尼亞和巴爾干國家長大,所以我沒有接觸過美國流行文化。
主持人:
但你現在沒有關注。那么,讓我最后談談選舉和虛假信息,然后我們會接受觀眾的問題。三項新的研究表明,在線虛假信息的問題比我們想象的小,虛假信息本身的效果不大。
一項研究發現,我們正在處理的是需求方面的問題,人們會尋找陰謀論,無論是在廣播、社交媒體等渠道。其他人則認為這是一個非常大的問題。顯然,你聽到了之前的討論,很多人有很多陰謀論,這在很大程度上是由社交媒體推動的。
那么,當你考慮到 AI 對虛假信息的力量和即將到來的總統選舉時,是什么讓你夜不能寐?從你的角度來看,最糟糕的情況和最可能的負面結果是什么?
Mira Murati:
現有系統非常具有說服力,可以影響你的思維方式和信念。這是我們研究了一段時間的問題,我確實認為這是一個真實的問題。特別是在過去一年里,我們非常關注如何幫助選舉的完整性。我們正在做幾件事情。
首先,我們盡可能防止濫用,包括提高政治信息檢測的準確性,了解平臺上的情況并迅速采取行動。第二是減少政治偏見。你可能看到 ChatGPT 被批評為過于自由,這并非故意的,我們非常努力地減少模型行為中的政治偏見,并將繼續這樣做。第三是我們希望在選民尋找投票信息時,指向正確的信息。這是我們在選舉時關注的三件事。
關于虛假信息,深度偽造是不可接受的。我們需要有非??煽康姆椒ㄗ屓藗兞私馑麄冊诳吹氖巧疃葌卧?。我們已經做了一些事情。我們為圖像實施了 C2PA,它類似于護照,隨著內容在不同平臺上傳播。我們還開放了 DALL·E 的分類器,可以檢測圖像是否由 DALL·E 生成。
所以元數據和分類器是處理這個問題的兩種技術方法。這是信息來源的證明,專門針對圖像。我們還在研究如何在文本中實現水印技術。但重點是,人們應該知道他們在處理深度偽造,我們希望人們信任他們看到的信息。
主持人:
這些偽造的重點是欺騙你,對嗎?聯邦通信委員會(FCC)剛剛對一家創建深度偽造音頻的公司罰款 600 萬美元,該音頻聽起來像拜登在新罕布什爾初選中的錄音??赡軙懈鼜碗s的版本。OpenAI 正在研發一個名為 Voice Enunciation 的工具,可以用15秒的錄音重現某人的聲音。
它將能夠創建一個人用另一種語言說話的錄音。因為產品經理告訴《紐約時報》,這是一個敏感的問題,需要做得正確。為什么你們要開發這個?我經常對科技人員說,如果你們開發的東西像黑鏡里的情節,或許就不該開發。
Mira Murati:
我認為這是種無望的態度。這項技術是令人驚嘆的,有著巨大的潛力,我們可以做好它。
主持人:
你說我無望,我可是有四個孩子的,所以我一定是有希望的。
Mira Murati:
總之,我希望我們能做好。我們在 2022 年開發了 Voice Enunciation,但沒有發布。即使現在也是非常有限的方式,因為我們在努力解決這些問題。
但你不能單獨解決這些問題,你需要與各個領域的專家、民間社會、政府和創作者合作,才能真正做好。這不是一個一站式的安全問題,它非常復雜,因此我們需要做大量的工作。
主持人:
我再問你一個最后的問題,然后我們會接受觀眾提問。你今天得到了這個問題的不同版本。你對這項技術非常樂觀,但我想讓你總結一下。如果你是個悲觀主義者,甚至有公司說如果我不阻止 Sam Altman,他會毀滅人類,我覺得這有點夸張。
而其他人則認為,無論如何,這將是最好的事情,我們都會在火星上享受美味的士力架。這感覺就像共和黨和民主黨現在的局面,非常不同的版本。所以我希望你能告訴我,你最擔心的事情和最有希望的事情,然后我們會接受觀眾提問。
Mira Murati:
首先,我不認為這是一個預定的結果。我認為我們在構建和部署這項技術方面有很大的自主權。為了做好這件事,我們需要找到一種創造共同責任的方法。
我認為很多問題在于理解技術并讓它非常容易理解。問題出在誤解技術上,不了解它的能力和風險。我認為這是最大的風險。就具體情境而言,我認為我們的民主如何與這些技術互動非常重要。
我們今天談論了很多這個問題,我確實認為圍繞說服的風險很大,特別是能夠強烈說服人們做特定的事情,你可以控制人們做特定的事情,我認為這非??膳隆?刂粕鐣囟ǚ较虬l展。
就希望而言,我非常興奮的一件事是能夠在任何地方提供高質量和免費的教育。在一些偏遠村莊,真的在中間沒有任何資源的地方。對我來說,教育非常重要。
它改變了我的生活。我只能想象,今天我們有這么多工具可用,如果有電和互聯網,很多這些工具都是可用的。但仍然,大多數人是在一個教室里有一個老師,50 個學生,每個人都學同樣的東西。想象一下,如果教育能夠根據你的思維方式、文化規范和具體興趣進行定制,這將極大地擴展知識和創造力的水平。
如果我們能夠真正掌握這個,在很年輕的時候就學會如何學習,我認為這非常強大,并能推動人類知識的進步,從而推動整個文明的進步。
觀眾:
關于數據的選擇,顯然有一個關于谷歌的問題,它采集了所有發布的帖子,并告訴人們在披薩上涂膠水,這樣它們就粘在一起了。
這顯然是個需要解決的問題。但如果你不是《紐約時報》,你不能雇傭律師提起訴訟,有沒有辦法選擇不讓你的網上數據被公司抓取并用于訓練 AI ?
Mira Murati:
是的,這就是為什么我們正在構建這個內容媒體管理器。它是為出版商設計的,但我們正在尋找任何人都可以識別他們不希望被用于訓練的數據的方法,或者他們對這些數據的使用有具體要求。
我們將嘗試多種不同的方法來做這件事。我認為讓人們能夠控制他們的數據非常重要。但還有一個問題是,“你今天在數字世界中按照自己的意愿運作的能力如何?”問題陳述應該是什么?是說你不希望你的數據出現在任何地方?
這是一個可以考慮的問題陳述,另一個可以考慮的問題是“你不希望 AI 系統對你的思維方式、操作方式和與信息互動的方式產生影響。”我認為這也是我們在考慮隱私和數據使用時需要考慮的問題。
觀眾:
我想問一個問題,ChatGPT 是一個大型語言模型,我們之間的交流往往依賴于上下文和情感,以理解彼此的來意。Mira,你提到你在另一個國家長大,不了解流行文化。
ChatGPT 的模型截止到 2021 年 9 月,然后你們依賴網絡搜索來補充數據。所以當我們談論虛假信息和確保正確性時,我輸入一個搜索請求時,如果它誤解了當前的政治背景,例如,如何確保你們從正確的參考資料中獲取正確答案?由于你們授權的受信任來源是商業秘密,我們如何知道你們提供的信息是正確的?
Mira Murati:
實際上,有趣的是,ChatGPT 項目最初是一個關于真實性的研究項目。我們希望能夠表達不確定性,并希望能夠在大型語言模型中引用信息,然后它轉變成了不同的研究項目。
所以,我們今天在平臺上所做的事情,我們有瀏覽器和工具,我們引入了工具和瀏覽功能,可以查找內容,我們也在與出版商合作,以便將新聞和額外內容帶到平臺上,提高準確性。
我們還在處理幻覺問題,幻覺問題正在逐步減少,這顯然是大型語言模型的一個主要問題。我認為它不會完全消失,但隨著模型變得更聰明,它們會變得更好,我們應該期待它們的可靠性提高,不會編造東西。虛假信息問題非常復雜,因為你有幻覺問題,需要知道信息的來源,我們也在努力解決這個問題。
我們希望信息來源盡可能廣泛,同時還需要考慮產品的應用場景,不同的應用場景會有所不同,比如在學習過程中與在購買推薦過程中所需的信息不同。
觀眾:
如果你再次成為一天的CEO,你會選擇向政府發布這些信息,以確保我們能夠創造一個保護公眾的監管環境,這不僅符合美國的利益,也符合全球的利益嗎?
主持人:
你說你想保留一些專有信息,但你如何看待其中最重要的信息?
Mira Murati:
你必須考慮哪些信息對做出改變實際上是最重要的。比如,如果你要讓政府了解某些事情,你打算發布競爭信息,那么你想要達到什么目的?政府會如何處理這些信息?你分享的最有影響力的信息是什么?我們與美國政府有非常好的關系,并且與其他政府密切合作,特別是美國的安全機構,我們會給他們早期訪問技術的權限,讓他們可以進行反向測試,并了解未來的預期。我更關注的是技術的路線圖和早期視圖,而不是具體的數據細節。
觀眾:
我想了解一下在這種情況下, OpenAI 如何看待安全問題,因為 OpenAI 和一些競爭對手非常關注安全,特別是在美國和歐洲,但我們仍處于技術監管的“狂野西部”,數據科學家可以離開公司并自己創業,這可能會導致安全性較差的公司崛起。OpenAI 如何看待在監管不嚴格且有大量資金的世界里 AI 安全問題?
Mira Murati:
關于監管,我一直非常直言不諱,我認為找到靈活性和平衡點非常重要。你不希望在技術進步如此迅速的情況下有過于僵化的監管,但你需要足夠的靈活性,使監管實際有效并適應技術變化。同時,你也需要早期設置好保護措施和指導,以最大化公眾利益。
私營公司賺錢并擁有豐富的商業生態系統是好的,但需要確保這一切發生得足夠早,以最大化公眾利益,而不僅僅是公司的利潤。
至于具體的監管措施,我有些猶豫,但我們與監管機構的接觸方式是我們做了很多事情,我們知道什么有效并有影響,我們會自愿分享這些承諾,有時會成為行業標準。
我們需要確保這些措施能夠實際操作并產生安全的影響,而不僅僅是看起來好。因此,行業和監管機構之間需要非常緊密的合作,我們需要政府中真正理解 AI 的人。特別是在最近幾個月,美國 AI 安全研究所的建立帶來了更多這方面的專家。
主持人:
好的,我問最后一個問題。作為領導職位上的女性不多,而你可能是現在科技界最杰出和有影響力的女性之一,你認為這有重要意義嗎?你仰慕誰?
Mira Murati:
當我去學校與學生交流時,聽到他們說受到我的啟發,這讓我感到非常高興。確實,科技界仍然是男性主導,但我認為多樣性有不同形式,不僅僅是性別。
思考問題的方式和文化背景也很重要。我們希望有非常多樣化的團隊,特別是當我們處理影響整個社會的 AI 問題時。
這需要盡可能多的多樣性,才能做出偉大的工作。至于我受到誰的啟發,很多人,我每天與之密切合作的同事,以及我過去共事過的人。我非常幸運能與如此高密度的優秀人才一起工作,他們充滿好奇心并將公司的使命放在首位。這是一個非常特殊的特權。
觀眾:
那么你在十年后會在哪里?
Mira Murati:
我希望到那時我們已經在科學領域取得了一些驚人的突破。
本文由人人都是產品經理作者【江天 Tim】,微信公眾號:【有新Newin】,原創/授權 發布于人人都是產品經理,未經許可,禁止轉載。
題圖來自約翰·霍普金斯大學現場對話截圖
- 目前還沒評論,等你發揮!