AGI加速到來,但無人真正關心
在數字化時代,人工通用智能(AGI)的概念如同一股不可阻擋的潮流,不斷沖擊著科技界的邊界。然而,隨著AGI的腳步愈發臨近,我們是否真正準備好迎接這一變革?
AGI 很快就會到來,但這不會是一個大事件。
AGI的實際定義變得更加謹慎,通常指的是“人類水平的智能”,而不是超級智能。許多AI專家認為,AGI不會帶來科幻小說中描述的那種顛覆性變化,而是更像是一位聰明的大學生,能夠完成某些復雜的任務,但遠未達到超越人類的水平。
我們把ChatGPT作為一個整體來考慮,你可能會覺得它給出的某個特定問題的錯誤答案確實令人失望,但這對于大多數ChatGPT的用戶來說,其實并不是什么大問題。
過去兩年的跡象表明,平均每四周就會出現產品的更新迭代,每個發展階段都在迅速推進。你的周圍充滿虎視眈眈的競爭者。這些公司都在拼命告訴你,他們在研發更大、更好的東西,他們準備改變一切。
有人告訴我,初級工程師不應該使用ChatGPT進行編程,但高級工程師可以,因為高級工程師知道哪里出了問題、可以修正ChatGPT給出的不完美的答案。
?The Verge?是一家成立于2011年的美國科技媒體網站,總部位于紐約曼哈頓。該網站提供新聞、產品評論、播客和視頻等內容。本期訪談是兩位知名的記者關于AGI和近期AI事件的討論。
OpenAI 首席執行官薩姆·奧特曼多年來一直在說——多年!——人工通用智能(AGI)將類似于奇點。當我們實現 AGI 時,奧特曼和其他人表示,它將從根本上重塑社會。
在本周紐約市的紐約時報DealBook 峰會上,奧特曼說沒關系。他表示,AGI 很快就會到來,但這不會是一個大事件。
一、AGI 的炒作與現實
Nilay Patel: 歡迎來到RichCast,嗨,我是Nilay Patel。
David Pierce: 我是David Pierce。
Nilay Patel: 今天Kylie Robison將加入我們進行討論。有很多關于AI的事情,所有這些都歸結為一個問題:如果它不像我們說的那樣好怎么辦?
David Pierce: 很多人都在談論這件事,這是本周我真正注意到的事情。
Nilay Patel: Kylie 會和我們談談人工智能到底發生了什么。Kylie,你好。有很多關于你負責報道的 AI 領域的消息。作為高級 AI 記者,這意味著每周都有很多人談論我們的機器人主宰。本周他們都突然決定 AGI即將來臨。這讓我感覺就像是大家突然說“這事要發生了”,然后人們可以根據自己的理解來解讀。你覺得他們有一個群聊嗎?
David Pierce: 我記得在疫情初期,有一些科技公司的 CEO 們在一個 WhatsApp 群里,試圖弄清楚該怎么做,如何管理各種事情。我想知道現在是不是也有一個關于 AGI 的群聊?里面是不是有 Sam Altman 在問“我們做到了嗎?我們應該現在說出來嗎?”
Nilay Patel: 誰在這個群聊里,誰不在,這真是個有趣的問題。也許這就是問題所在。只要讓你重新加入,所有的訴訟都會消失。你知道《紐約時報》的訂閱產品主要是為了視頻游戲,我們是不是可以把訂閱改為“誰在 AI 群聊里,誰不在”,就像 MySpace 的前 10 名好友一樣?我們每天都可以眾包這個問題,然后它會在現實中發生。比如今天,聽眾決定 Sam 不在群里,他醒來后發現“我不在群里”。
David Pierce: 是的,這主意不錯。
Nilay Patel: 這值得每月 7 美元。讓我們開始吧。Sam Altman 在 DealBook 會議上宣布了一些東西,我們之前有過獨家報道,但他后來宣布了這件事,所以我們只是跟進了。讓我們從 OpenAI 的 12 天計劃開始吧,他們稱之為“Shipmas”(ZP注:“Shipmas”活動是一項為期12天的產品發布季,從2024年12月5日開始,旨在展示新功能、新產品和演示)David,你怎么看?
David Pierce: 我不喜歡這個名字,我不明白“Shipmas”是什么意思。
Nilay Patel: 好吧,有個人會來到你的家里,表面上是來給你們一些東西,實際上他會吃光你所有的餅干,然后我們慶祝他。無論如何,這就是“Shipmas”計劃的一部分,它將包括 Sora 視頻生成器、一個新推理模型,還有今天 Kylie 提到的,他們宣布的第一個“Shipmas”項目是一個每月 200 美元的 OpenAI 計劃。這里到底發生了什么?
Kylie Robison: 是的,你說我們有獨家報道。我在前一天打了十幾個電話,人們都說“Shipmas”,不,是“發布某物”。他們剛剛發布了一個每月 200 美元的新特殊 o1 模型。我提前得到了這個消息,但時間不多,所以我還在消化。
我的第一反應是:這聽起來像一個笑話,給我們 200 美元,你就能得到一些特別的東西,只管信任我們吧。對,這是一個特殊的 o1 模型,據說它在編程和激進研究方面更好。是這樣的嗎?
Nilay Patel: 你知道,某款手表是用鉆石做的,5000 美元,但它似乎并不重要,因為有些人就是想花 5000 美元買一塊 Apple Watch。這到底是怎么回事?它是真的更強大,還是我們只是不知道?
Kylie Robison: 他們發布了內部測試結果。我對內部測試總是持懷疑態度,無論這是否公平。我的自然反應是:我希望看到更多的測試和證據,當然我也想自己試一試,看看感覺如何。我還想聽聽使用它進行編程的工程師們的意見,比如“我確實感覺到不同了”。所以在看到這些指標之前,我自己也不確定,但他們說確實更好。
作為舊金山的 AI 記者,我想象著 Hayes Valley 的那些人,他們會說:“天哪,我要每月支付 200 美元,這太酷了。” 它就像那塊鉆石 Apple Watch,只是為了擁有它。我最近采訪了 ChatGPT 的負責人 Nick Turley,他告訴我有些人有多個付費賬戶,因為他們覺得這很有趣。
David Pierce: 這里面有一種 FOMO(Fear of missing out)和虛假軍備競賽的感覺,我認為這只是其中的一部分。每個人都在這里談論他們買了多少 NVIDIA 芯片,仿佛這是衡量你創業公司有多酷的標志。現在我們會進入一個階段:來我們的創業公司工作,我們將為你提供每月 200 美元的 ChatGPT Pro,而不是去那個只提供 Plus 版本的其他創業公司。順便說一句,OpenAI 之前不是說過要改進品牌命名嗎?結果呢?
我很快忘記了這一點。但無論如何,我認為這有可能會變得有意義。但我感覺 OpenAI 就像是在利用人們對任何微小優勢的渴望,有很多有錢人愿意為此買單。讓我們看看會發生什么。這個詞是什么,當你試圖弄清楚人們愿意為某物支付多少錢時?
Kylie Robison: 價格彈性。是的,AI 世界現在正在進行價格彈性測試。《紐約時報》曾報道說,他們希望獲得數十億美元的收入,現在我們看到他們的計劃是什么。
Nilay Patel: 他們就像 Carl Lagerfeld 會買這個模型,永遠不會設置它,只是把它戴在身上作為一種地位象征,過一段時間再換掉。這非常有趣。我想從這里開始,他們在接下來的 10 到 12 天內會發布一系列新產品。第一個是這個極其昂貴的模型,我們必須看看它表現如何。在這個背景下,很多人說模型的能力不再像去年那樣迅速提升。
自從ChatGPT發布以來已經兩年了,他們推出了 3.5 和 4.0 版本,現在是 o1。這些名字都很糟糕,而且它們似乎已經達到了瓶頸。有一份報告說 Gemini 也遇到了瓶頸,新的 Gemini 實際上不如舊的 Gemini 好。有一種感覺是,最初的大幅進步帶來了大量炒作,但能力的提升并不是線性的。OpenAI 似乎在試圖打破這種瓶頸,說這個新模型非常好,值得 10 倍的價格。我無法完全理解這兩者之間的關系。
Kylie Robison: 我認為這就是我對 Heath 在 DealBook 上關于 AGI 的報道的理解:AGI 實際上不會那么重要。我覺得他們制造了過多的炒作,現在必須面對這個問題。很多 AI 領導者都在說,我們已經習慣了這些技術,公司跟不上炒作的步伐,而過去的進展是由擴展定律帶來的,未來也會如此,但這還有待觀察。我認為他們確實遇到了瓶頸,這就是為什么我們看到的是漸進式的發展,而不是立即推出 GPT-5。顯然,它還沒有準備好。
Nilay Patel: 我想讀一下 Sam Altman 在 DealBook 會議上的一句話。他和 Andrew Sorkin 在臺上,他說:“我的猜測是我們會在比大多數人認為的更早實現AGI,但它的重要性將遠小于人們的預期?!?這是一個令人難以置信的聲明,因為他之前說過:“我們將在現有硬件上實現 AGI?!?這是一個驚人的主張,如果這是真的,我們應該停止所有其他工作,專注于實現這一點。但他又說:“但它會很糟糕?!?所以,你們要創造一個愚蠢的人工智能嗎?這就是你要說的是嗎?
Kylie Robison: 他們說的是人類水平的智能,而不是超級智能。他們經常提到“人類水平的智能”,比如說像聰明的大學生。我覺得他們在這方面制造了太多的炒作,這就是為什么當我看到 DealBook 的那句話時,我覺得他們在調整期望。他們說下一個東西是 AGI,但大家卻說:“這真的是 AGI 嗎?” 感覺他在說:“其實它不會那么重要?!?/p>
Nilay Patel: 實際上,它并不會那么重要。更大的背景是,有報道稱 OpenAI 可以自行決定實現 AGI 后退出與微軟的協議。這與他們之前的結構有關,當時是非營利董事會,董事會的任務是決定是否安全實現 AGI 或解雇 Sam Altman。他們做了前者,而不是后者,解散了整個董事會,現在他們將轉型為營利性公司。因此,微軟在他們的協議中有一個奇怪的條款:如果 Sam Altman 決定實現了 AGI,他可以離開與微軟的協議。這真是一個奇怪的激勵機制。
順便說一下,我會在周一的 Decoders 節目中與 Mustafa Suleyman(ZP注:DeepMind 的聯合創始人之一,現在是 Microsoft AI 的 CEO)討論這個問題。我問他:“我們能在現有硬件上實現 AGI 嗎?” 他并不認同。
David Pierce: 嗯,但他有點含糊其辭,說:“也許有一天會實現?!?這是一次很好的 Decoders 對話,他是個有趣的談話對象,我們互相喜歡,也喜歡挑戰對方。雖然他不同意 Sam 的觀點,但他也在重新定義 AGI 的標準。我問他:“如果我們正在構建奇點,難道不應該停下來專注于這個嗎?” 他說:“AGI 不是奇點?!?這與我們過去經歷的炒作不符,對吧?炒作是說我們必須停止這一切,因為在我們沒有準備好之前實現 AGI 會毀了世界。還記得 Elon Musk 的說法嗎?這就是為什么很多人都離開OpenAI,成立了名為“Safer Superintelligence”的公司。Ilya Sutskever 在今年 6 月的 OpenAI 憲章中描述了 AGI,Sam Altman 也參與了這個憲章并同意。他認為 AGI 是一個可以自動化絕大多數智力勞動的計算機系統。他稱之為一個有用的定義。我們不能讓 Sam Altman 逃避責任。他花了十年時間讓 AGI 成為了一個熱門話題,我們現在使用的“AGI”這個詞就是他推廣的。
Nilay Patel: 完全正確。他還故意提到 OpenAI 和微軟的關系,引用了 Alex Heath 的話。Keith 對此非常興奮,因為 Alex 當時在現場發了一條即時消息,Sam 說:“我不認為我們正在與微軟脫鉤?!?我也問了他同樣的問題,他說:“我們會看看情況如何發展?!?他重復了三次,直到我說:“你已經說了三次‘我們會看看情況如何發展’。” 他才說:“哦,沒關系?!?/p>
David Pierce: 這就像 Chris Martin 和 Gwyneth Paltrow 說的“我們沒有分手,我們是有意識地解耦?!?是的,這就是微軟。
Kylie Robison: 我可以戴上我的陰謀論帽子。今天我一直在關注 OpenAI 的新聞,他們顯然有一個巨大的發布會和直播。我在 Twitter 上設置了所有 CEO 的通知,所以我會收到他們的動態。Satya 納德拉轉發了許多微軟今天的公告,而 Tom Warren 也爆料了一些內容,但 Sam 沒有轉發任何東西。
這感覺像是一個接班人風格的動作,就像是在說:“這是我最喜歡的男孩?!?這個時機真的很奇怪,Satya 似乎在忽略整個聊天機器人的話題。
Nilay Patel: 所以,一個月內,你可以把 Sam 從一個好的局面中踢出去。這些事情都不是偶然的。
David Pierce: 這確實是一個陰謀論,但當你像 Satya Nadella 這樣的人,不會隨便做決定。除了 Elon Musk 之外,大多數科技 CEO 都是有目的的行動。
200條AI生成內容就有153條有錯
Nilay Patel: 這是一個非常好的點。我們現在來鋪墊一下背景:OpenAI 將在接下來的 12 天內宣布一系列新項目,包括一個他們認為如此優秀的模型,值得每年 200 美元。Sam Altman 正在將 AGI 的目標重新定義為明天的事情。
他說:“我可以在 NVIDIA 4060 上用 20 美元做到這一點。給我一臺 Xbox 和足夠的汽油,我就能給你一個通用人工智能?!?這就是他的心態。然而,現實是目前的產品遠未達到那個水平。哥倫比亞大學數字新聞研究中心本周發布了一份報告,要求 Chachapiti 識別來自 20 家出版物的 200 條引言的來源,結果它根本做不到。它通過胡編亂造完成了這項任務,在 153 次回答中部分或完全錯誤,只有 7 次承認自己無法準確回答。
David Pierce: 它被問了 200 個問題,答錯了 153 個。
Nilay Patel: 是的,而且它只承認自己可能錯 7 次。
David Pierce: 不是承認自己錯了,而是承認有可能可能會錯 7 次。
Nilay Patel: 在文化層面,人們在使用這些工具時幾乎沒有思考。Liz Lopato 寫了一篇文章,她似乎在五分鐘內就完成了,因為她當時并沒有在寫這個故事。文章非常好。她提到Woodrow Wilson總統赦免了他的姐夫Hunter deButts,這種說法顯然是網絡謠言——當看到Hunter deButts這個名字時,我就明白這是典型的網絡謠言。Reddit上有個帖子,詳細描述了Hunter deButts的背景故事,好像這個人、這件事真的發生過似的,這些網絡內容甚至為Hunter deButts增添了一層傳奇色彩。但是在進行網絡檢索的時候,機器人會對這些內容感到困惑。后來Liz對這個謠言進行了深入調查,她試圖追溯這一說法的來源。結果發現,網上的信息完全無法解答“哪些總統赦免過家庭成員”這一問題——而作為記者,她把這場鬧劇甩鍋給ChatGPT。
我們正在快速用這些所謂的“答案引擎”取代傳統的搜索引擎,而這恰好是谷歌一直以來的目標——想讓我們把它視為答案提供者,就像Google Ads那樣。作為搜索引擎,Google過去會提供上百個鏈接,告訴用戶:“這是信息來源,你可以自行閱讀并決定是否信任它們?!比欢F在它直接給用戶一個答案,并附上幾個腳注鏈接。問題是,幾乎沒有人會點擊這些鏈接。他們只會簡單地轉發像Hunter deButts這樣的詞組,在沒有上下文或驗證的情況下傳播錯誤信息。
Kylie Robison: 在這里我想替專業記者說句話。我確實很喜歡用AI搜索,因為它能幫助我快速找到答案,但其實我并不會關注它直接呈現的答案。我會花更多的時間去點擊它文后的引用鏈接,然后自己閱讀這些內容,因為Google在公開信源方面做得非常糟糕;而通過點擊鏈接,我可以自己去查看信息來源、信息內容的具體情況,所以,在實際工作流程上,我其實并沒有認真關注AGI給出的答案,這在我們進行新聞報道的過程中是很重要的一點。
此外,我最近采訪了ChatGPT的負責人,并在寫一個關于他們起步歷程的故事。他們一開始就說:“沒人會喜歡這個產品,因為它的錯誤率太高,而且過于自信。” 他們覺得不應該發布這個產品,因為用戶會討厭它,它經常自己憑空捏造信息。但最終,他們還是決定發布預覽版本,以觀察人們會如何使用它。結果,人們非常喜歡它。兩年后,盡管它仍然充滿自信地給出錯誤答案,但卻賺取了數十億美元的收入;雖然OpenAI還未實現盈利,但這一切似乎已經不重要了。問題是,它仍然頻繁地產生“幻覺”,但人們依然喜愛它。這一點確實讓人費解。
Nilay Patel: 如果你還記得一年前,大家都在說會解決AGI捏造事實的問題。他們聲稱已經控制住了這一問題、知道該如何去做。但實際上,他們完全沒有控制住?,F在“Hunter deButts”這種似是而非的詞匯大量出現在互聯網上。如果他們稍微有些理智,就應該在宣布這個東西是AGI之前按下暫停鍵。而我認為,這其實是所有這些工具的核心問題:這項技術真的能夠實現他們所聲稱的功能嗎?目前來看,它顯然做不到。甚至連分辨什么是真實、什么是虛假、什么是純粹的“幻覺”都無法做到。
二、AGI加速到來,但卻無人關心
David Pierce: 是的,這也是為什么AGI應用到信息檢索領域特別有趣的一個原因。我們把ChatGPT作為一個整體來考慮,你可能會覺得它給出的某個特定問題的錯誤答案確實令人失望,但這對于大多數人ChatGPT的用戶來說,其實并不是什么大問題——我不完全認同這種說法,你也可以對此持有不同的觀點,但這的確是目前比較流行的一個想法,很多AI相關的討論也常常出現這種說法:人們在測試時發現,用戶并不太擔心這些虛假信息的問題。
這同任務的性質有關。當涉及到搜索時,任務的本質就是要找到互聯網上相關且真實的信息。因此,用ChatGPT寫代碼和用ChatGPT搜索信息,這是兩個完全不同的情況。寫代碼是一個真實的場景,盡管ChatGPT會犯錯誤,但這些錯誤是可以忍受的,它能高效地寫出代碼,這對很多職業編程人員來說是不錯的選擇;但如果任務是準確檢索信息,情況就變得不盡相同了;這種情況下如果ChatGPT犯錯,而背后的開發公司卻冠冕堂皇地聲稱“它已經為你解答了問題”,這就不可接受了——因為你已經將產品建立在“它能夠完成這項工作”這個基礎假設之上,但顯然,它完成不了這一使命。
Kylie Robison: 有人告訴我,初級工程師不應該使用ChatGPT進行編程,但高級工程師可以,因為高級工程師知道哪里出了問題、可以修正ChatGPT給出的不完美的答案。高級記者也是類似,作為一名記者,我需要做的只是快速找到信息,而Google在這方面做得很差。所以,我對ChatGPT的態度也比較模糊,我知道我必須點開它給出的鏈接,考證它的信息來源是什么、它的可靠性如何。
在一次采訪中,GPT的負責人說:用戶一開始就知道,他們必須檢查這些信息;他們知道如何寫出提示詞,因此他們也對此感到非常滿意——這樣來看,使用 GPT 的人都很清楚如何使用ChatGPT、該在什么時候信任ChatGPT。但盡管如此,我依舊認為ChatGPT這種行徑是不負責任的:我們作為高級從業者當然知道正確的信息是什么樣子,但90%的時間里ChatGPT并沒能給出正確答案——這是不可以被用戶接受的。
David Pierce: 拋掉所有哲學意義上的風險斗爭不談,ChatGPT只是一個糟糕的產品。這一方面它和Google很像:你去Google檢索信息,但是它只是給了你一堆毫不相干的鏈接。
Nilay Patel: 我想針對你說的“糟糕產品”給出一個例子——這個例子就發生在本周。斯坦福大學的某位研究員,也是斯坦福大學社交媒體實驗室的創始人,他的專長是研究虛假信息,因支持明尼蘇達州一項反深度偽造法案而陷入麻煩。明尼蘇達的這項法案規定,在政治競選期間,不能偽造政客的言論。盡管有很多法案強調相關內容,但近年來他們也不斷被一些保守派質疑和挑戰。在法院上,這位研究員為這項法案寫了一份聲明支持書,結果發現,他使用ChatGPT來幫助整理引用文獻,而ChatGPT捏造出了一些毫不存在的引用。
最荒唐的是,他自己明明知道這一點,但他卻自信地寫下了聲明:“我已經編寫并審核了這份聲明的實質內容,堅定地支持其中所做的每一項主張,這些主張得到了該領域最新學術研究的支持,并反映了我作為一名專家對人工智能技術、虛假信息及其對社會影響的看法?!?接著,他還表示,他使用了Google Scholar和ChatGPT來“識別可能與聲明相關的文章”,以便將已有研究與新學術成果結合起來——問題是,這些所謂的新學術成果完全是編造的。
David Pierce: 不過,開個玩笑,我太太正在讀研,她花了大量的時間來做整理引用文獻格式這樣的事情,但她的論文依舊被扣分了,因為她把頁碼和出處的順序放錯了。所以她有一年半的時間一直都在怒斥論文引用格式。所以我想,如果人工智能只想幫我引用一些東西,我甚至都不用擔心引用帶來的麻煩事了,它不必是真的,因為沒人會檢查它們的真實性,也沒人關心它們的真實性。
三、AGI本質是大公司之間的競爭
Nilay Patel: 在紐約時報的DealBook的訪談中,Google的Sundar Pichai提到,他對Microsoft的大模型和Google自己的模型做了橫向比較,他發現他們幾乎一直在“借鑒”其他人的模型。他的言外之意是Microsoft自己研發的模型非常糟糕,所以他們不得不借鑒OpenAI的模型。這也意味著,如果Sam Altman認為OpenAI的模型是AGI,那么更加有競爭力的Google模型也是AGI。
Kylie Robison: 這讓我想到Elon Mask說的一句話。有人問Elon你們會率先實現AGI嗎?Elon說:“不一定,我們或許會步調一致,同時實現AGI?!?/p>
David Pierce: 過去兩年的跡象表明,平均每四周就會出現產品的更新迭代,每個發展階段都在迅速推進。比如OpenAI做了某些事,接著Anthropic做出一個更好的成果,比之前的基準高出10%;然后Meta也推出了更好的成果,比之前的基準又高出10%;緊接著Google更新了WhatsApp、Gemini,然后這一切又開始循環。
你會發現,前后左右都有十好幾個人虎視眈眈。我認為這是一場競爭激烈且迅速商品化的過程。這些公司都在拼命告訴你,他們在研發更大、更好的東西,他們準備改變一切,會比其他公司更快地將其產品化、市場化。我認為對于Google來說,他們的策略就是“我們能更快地開發這些產品,其他公司趕不上我們”。
就像Sundar出來說:“我們的模型很棒,我們今年會推出更多產品,預計會有更大突破?!钡麄兊膽B度就是:“無所謂,我們是Google,我們已經將它集成到Gmail和Google Drive中了,Sam,你有什么?”
Kylie Robison: ?完全同意,像亞馬遜這樣的企業也有自己的模型。有報道指出OpenAI正在努力將ChatGPT打造成一個可定制的企業產品供人們使用,他們在這種競爭中確實占有優勢。但在這種炒作周期中,我唯一學到的一件事就是:不要相信他們說的任何東西。他們會告訴你:“我們不會提高價格”,“我們接近AGI了”,或者類似的說法。我只相信已經發布并且可以直接使用的內容,至少,眼前可以用到的才是最值得信任的。
David Pierce: 如果Sam Altman希望讓自己看起來更酷,他或許應該公布說:我們兩年前就實現AGI了,ChatGPT就是AGI,誰能夠阻止我們?
Nilay Patel: 人們相信ChatGPT就是AGI。我真的覺得,這些研發者和設計者很大程度上依賴于那些喜歡“能言善辯”的人——如果你的語言表達流暢又自信,在美國確實能走得很遠。悲哀的是,人們就在這些花言巧語中接受了OpenAI。比如,我的侄女甚至直接把它叫做Chat,在感恩節期間,她不停地說:“讓我問問Chat?!蔽覅s心想,它明明是在騙你,她卻對此不以為然,“無所謂啊,差不多就行了。”
這很可怕,但同時也反映了人們對這個產品的關系模式。在某種程度上這些產品設計師正是利用了這種模棱兩可的關系進行交易,某些時候不會產生負面后果,但是這不意味著這些負面后果不會發生——可能又有研究人員在文獻引用上出問題,或者某位律師因為使用虛假的引用被曝光。等到足夠多人因為這些問題陷入困境時,市場上那些愿意出錢投資的公司就會停下腳步,直到這些產品能保證可靠性、準確性,或者至少是有效性。我們目前創造的只是一些看似下一代接口的自然語言工具,但實際上并沒有真正創造出可用的產品。
David Pierce: 沒錯,正如你提到的,云端服務供應商之間的大戰即將一觸即發。這周亞馬遜推出了新模型,成為人工智能工具的云端服務供應商將會是斗爭的核心利益點,而競爭者名單我們也很熟悉:Google對陣Amazon,對陣Microsoft,某種程度上也在對陣OpenAI——OpenAI和微軟之間的商業關系很復雜,但這就是戰場。這些斗爭暗流涌動,雖然不似其他領域那么吸引眼球,但我們不得不承認,人工智能的業務核心就是這些公司之間的競爭。
Kylie Robison:完全同意。作為一名關注云服務和企業技術的新聞從業者,我很熟悉這類競爭重現,一切最終都會回到SaaS模式,這就是競爭的焦點,所有的資金都會涌入這里。如果這些公司想賺取數十億美元并訓練他們的百億美元模型,他們就需要大額企業合同來支撐這一切。
Nilay Patel: 我可以在這里做個總結。第一,我們應該回頭看看所有的AI生成內容的引用鏈接,找到那些“幻覺”并驗證其真實性了。第二,無論我們如何定義AGI,假如你創造的東西只是看起來像一個聰明的大學生,但40%的時間都在編造東西,200次中有153次說謊,你會放心讓ta處理重要的任務嗎?這顯然存在著脫節。盡管這些工具帶來了很多樂趣,但它們與真正的知識之間有本質的差距。我們拭目以待吧。你覺得接下來的趨勢是什么?OpenAI會不會在明年完全轉向營利模式?
Kylie Robison:是的,這很可能就是主要方向。我一直在腦海中思考國防合同的問題。如果這些人工智能工具一直錯誤百出,而它們又開始與像Anduril (美國國防技術公司) 這樣的公司簽署合作協議,那真的令人擔憂。風險會越來越高,而我不確定這些模型是否已經準備好應對這些高風險場景。這確實令人焦慮。如果它們想把這些代理工具引入大型企業,進一步涉足國防領域,然后建立更多數據中心,那到了2025年,風險只會進一步提升,而這些公司會繼續賺錢。正如你提到的,我們可能會看到一些嚴重的后果。當然,目前來看,我們已經看到了一些負面后果,但AI的從業者似乎并沒有因此停止了他們手里的工作。
編譯:Spring Liu & Elena Chen
本文由人人都是產品經理作者【產業家】,微信公眾號:【產業家】,原創/授權 發布于人人都是產品經理,未經許可,禁止轉載。
題圖來自Unsplash,基于 CC0 協議。
盡管AGI的概念被廣泛討論,但實際的AI技術進步是逐步和連續的,而非一次性的顛覆性事件。