深度|吳恩達最新 Ark Invest 洞察:AI 基礎模型競爭激烈,訓練成本每年下降75%,推理下降86%,大廠優勢難長期保證

0 評論 2427 瀏覽 1 收藏 36 分鐘

吳恩達(Andrew Ng)與ARK Invest的首席投資策略師Charlie Roberts和首席未來學家Brett Winton進行了一次深入的對談,分享了他對Agent Systems和開源技術的深刻見解。吳恩達對Agent Systems持有高度信心,并認為開源技術在推動技術進步中具有巨大潛力。

近日,吳恩達(Andrew Ng)與 ARK Invest 首席投資策略師 Charlie Roberts 以及首席未來學家 Brett Winton 展開了一次對談,吳恩達分享了關于 Agent Systems 和開源技術的一些極具啟發性的觀點。

吳恩達表示,他對 Agent Systems 的高度信心,認為這些系統不僅已經出現,而且在技術層面幾乎沒有太多的風險,主要挑戰在于如何有效執行。

此外,他認為開源所帶來的優勢遠遠超越了潛在的風險,引用 GPT-2 的例子來說明,即使當初被認為太危險而無法公開的技術,如今卻被廣泛應用,證明了開源在推動技術進步中的巨大潛力。

吳恩達還特別強調了分銷渠道在 AI 系統部署中的關鍵作用。他指出,擁有強大的分銷渠道不僅能夠加速系統的發布,還能在實際應用中快速驗證和改進這些系統,這對于 AI 技術在商業化進程中的競爭優勢至關重要,也預示著在未來,渠道的有效性可能會成為決定 AI 技術成敗的關鍵因素。

ARK 預測,到 2030 年 AI 軟件將會是一個 13 萬億美元的收入市場,相比之下,但今天的整個 IT 支出大約為 4~5 萬億美元。

吳恩達最新 Snowflake DevDay 演講:除了下一代基礎模型,Agent 工作流如何推動更多 AI 進步?

吳恩達紅杉美國 AI 峰會談 Agent Workflow 以及 4 種主流設計模式,相比 LLM 更強調迭代與對話。

以下為這次對話的主要內容:

Charlie Roberts

Andrew 是 AI 領域最具影響力的研究人員和教育家之一,他在多個高調的角色中都取得了巨大成就,如 Google Brain 的聯合創始人和領導者、百度的首席科學家、 Coursera 的聯合創始人,以及在 Coursera 上教授了許多最受歡迎的課程,同時還是 AI Fund 和LandingAI 等多家公司的聯合創始人和董事。

我覺得最讓我感動的數據是你告訴我,全球每千人中就有一人參加過你的 AI 課程,這對整個社區和生態系統來說都是一個巨大的貢獻,真是令人鼓舞。所以,我很高興能夠與你討論 AI 的未來和其他相關話題。

Brett Winton

非常高興見到你,我想或許可以請你從概述一下你對當前 AI 發展階段的看法開始。關于 AI 的討論很多,其實已經有一段時間了。

有人說 AI 遇到了瓶頸,或者我們在性能上的進步不會帶來實際的生產力提升。你怎么看目前 AI 的能力和未來的發展軌跡?你如何評估這個問題?

Andrew Ng

在過去的 10~15 年里,總有少數聲音在說 AI 遇到了瓶頸,我覺得這些說法一次又一次地被證明是錯誤的。我們距離碰到瓶頸還很遠,我甚至驚訝有人在這個時候會認真這么說。

AI 是一種通用技術,它的發展已經非常迅速,現在有一些新的突破即將出現,未來我們將看到 AI 在多個領域的應用快速增長。

目前,大家對生成式 AI 和 LLM 非常關注,我們已經能夠讓這些模型完成的任務,遠遠超過了目前已經部署的內容。很明顯,更多的推理能力、更多的 GPU 或其他類型的硬件是將更多 AI 推向世界的瓶頸,這個問題我們知道將會得到解決。

為了供應鏈、 GPU 和其他硬件的供應,有非常強的經濟動機來解決這個問題。因此,即使 AI 不再發明任何新技術,在未來幾年中 AI 的部署量仍會大幅增加。

當然,更好的消息是,還有更多的新技術正在研發中,并將疊加在現有技術之上,推動未來更多的應用。

Brett Winton

總結一下,你的意思是我們現在擁有的能力實際上還沒有真正進入商業市場,所以僅僅通過部署這些能力就能帶來大量的生產力提升。此外,在技術架構方面的改進還會進一步提升能力,這是正確的理解方式嗎?

Andrew Ng

是的,事實上,我與一些有想法甚至是已經開發出原型的人交談過,他們希望通過 AI 實現顯著的投資回報率,但由于各種原因,他們無法獲取 GPU ,或者成本有點高,或者他們沒有足夠的軟件工程師來實現這些想法,所以這些項目還沒有真正落實。

因此,已經有很多經過驗證的想法可以帶來顯著的投資回報率,但由于硬件限制或其他原因,這些項目還沒有被部署。我百分之百相信,未來一到兩年內,這些問題將會得到解決,這就是為什么我對未來將有更多有價值的 AI 項目感到非常有信心。問題在于如何獲取和部署 GPU ,以及解決供應鏈問題。

一旦這些問題得到解決,更多的項目將會落地。我對即將到來的技術感到非常興奮,比如 AI Agent 或我們稱之為 Agentic Workflow 的技術?,F在很多人使用的 LLM 的方式是,你輸入一個提示,它輸出一個結果,然后就結束了。這就像讓一個人寫一篇文章,但要求他一次性完成,不允許使用退格鍵。

當然,人們可以這樣寫作,但我們最好的寫作并不是這樣完成的。我們更傾向于使用迭代的工作流程,比如在線寫作,先寫一個初稿,然后進行編輯、研究等等,這是一個更加迭代的過程,可以幫助人們交付更好的工作成果。Agentic Workflow 也類似,它能顯著提高很多 AI 應用的準確性。

當然, Agentic Workflow 的一個瓶頸是我們需要更快的推理能力,因為你需要多次調用它,反復迭代產品。然而,許多人正在努力解決這個問題,我非常有信心,隨著更好的硬件上線,這些工作將會得到更大的改進,不僅在 AI 訓練方面,而且在 AI 推理方面,更多的工作將會完成。

我受到你們的報告的啟發,其中你們估計訓練成本每年下降 75%,推理成本每年下降 86%。雖然我不確定這些確切的數字是否準確,但我確實看到成本在迅速下降,這對于進一步的創新是非常有利的。訓練和推理成本的下降將會推動更多的應用。

Brett Winton

是的,我們的基本觀點是,不僅成本在下降,還有大量投資資金涌入,因此你將成本下降和投資資金相結合,最終在兩到三年內預期能力提升一百倍甚至一千倍。

你認同像 John Locond 所說的那樣,系統在運行時會有一定的錯誤率,即使是 Agent Systems ,這個錯誤率會隨著時間的推移而累積,實際上你正在處理的工作流程越長,生產力就越會受到影響,因為錯誤在累積。

你認為在當前的架構下,這個問題是可以克服的嗎?還是我們需要新的架構來讓 Agentic Workflow 真正穩定地工作?

Andrew Ng

如果你在做開放式工作流,那么是的,每一步都需要完美無缺,但是一旦你實現了 Agentic Workflow ,你就可以回顧步驟并修復錯誤,那么累積問題就會大大改善。舉個例子,我曾經設定了一個非常簡單的 Agent 來進行在線研究,它的任務是撰寫一份報告。

我記得我在斯坦福大學做現場演示時,由于某些原因,那個時候調用的網絡搜索失敗了,我當時心想“糟糕,演示要失敗了”,但出乎我意料的是, Agent 說“網絡搜索失敗了,讓我用維基百科搜索代替吧”,而我完全忘了我還給它設置了維基百科搜索的備用方案。所以, Agent 在面對失敗時能夠自主切換到備用方案,演示仍然成功了。

Agentic Workflow 雖然不是魔法,也會犯錯,但它們有能力在出錯時回顧并修復,這使得系統更加穩健。我不想過分類比 AI 和人類,它們有很大不同,但就像人類一樣,我們在做事情時第一次可能不會成功,但我們有反思和修復的能力,這使得人類在執行任務時更加穩健。AI Agent 也能夠做到這一點。

Brett Winton

你認為要實現真正的 Agentic Workflow ,我們是否需要一個像 Transformer 那樣的架構級別的改進?還是說可能通過有效結合現有的工具,比如 LLM,加上強化學習,甚至可能再加上擴散模型,已經足夠了?你覺得目前這些工具能幫助我們實現這一目標嗎?

Andrew Ng

Agentic Workflow 在現有的 Transformer 模型下已經工作得很好了。我知道有研究人員在探索 Transformer 替代模型,這些模型很有前景,值得進一步研究和測試。雖然擁有更好的模型會很棒,但我并不認為這是絕對必要的。

然而,有一個方面被低估了,那就是快速推理和快速生成控制的能力。直到最近,很多大公司都在花費巨額預算購買 GPU 用于訓練,這很好,因為它為我們帶來了大規模的基礎模型,包括專有和開源的模型。

但我發現,快速推理的能力正成為許多應用的瓶頸。當 Meta 發布 Llama 3 70B 模型時,這是一個非常出色的開源模型,如果我們能將推理速度提高 10 倍,我們就能讓這些 Agentic Workflow 運行得更快。

對于人類來說,閱讀速度大約是每秒 6 個 token ,所以你不需要生成比每秒 6 個 token 更快的內容。但對于 Agentic Workflow 和 AI ,可能需要草擬草稿并修復錯誤,這意味著它需要生成大量的 token ,可能需要在人工干預之前完成大量工作。

有時, Agentic Workflow 可能需要花費 25 分鐘的時間來處理工作,如果我們能將這 25 分鐘的處理時間壓縮到2分鐘,這將是一個改變游戲規則的突破。

這會顯著改變客戶體驗,從20到25分鐘縮短到1到2分鐘,因此在快速生成 token 方面還有很多工作要做,這將有助于推動下一波 AI 的應用。

Brett Winton

這些工作與訓練密切相關,對吧?AI 推理和訓練中的一個有趣動態是,如果我在系統上投入更多的訓練資金,像 Meta 正在做的那樣,我可以將更多的信息壓縮到一個更小的參數模型中,從而可以更快、更便宜地運行。

這使得性能提升和成本下降同時發生,這就是一個有趣的動態,這取決于你在訓練計算上投入了多少資金。

Andrew Ng

是的,這些都會有所幫助。即使你使用一個大型模型,比如一些商用網站上的 LLM 可能每秒生成 10 個 token 左右,這個速度已經非??炝?。

我們大多數人每秒閱讀大約 6 個 token ,所以每秒 6~10 個 token 的速度已經足夠了。雖然模型不同,但我們可以生成更多的 token ,而且有些公司也在生成每秒數百個 token 的內容。還有一些公司在私下里分享說,他們也在開發便宜且超快的 token 生成技術。

這些公司的工作將解鎖許多新的能力,而這種超快的 token 生成技術,每秒超過100個 token 對于大模型來說是非常重要的,這讓我們能夠做出非常復雜的事情。我實際上很高興看到更多的半導體制造商認真對待推理,因為推理現在是很多應用的瓶頸。

另一個有趣的現象是,一些大公司完全合理地投資了 GPU 基礎設施用于訓練,他們擁有非常出色的 GPU 團隊,建立了卓越的訓練基礎設施,然而,這些團隊也傾向于說“我們已經建立了最佳的訓練基礎設施,那么我們也來建立推理基礎設施吧”,因為他們在訓練方面做得很好,所以自然就去做推理了。

但是,我們現在應該認真思考,訓練和推理基礎設施是否應該是同一套基礎設施?還是說它們之間有足夠的差異,甚至需要新的架構?這是一個值得討論的問題。

Brett Winton

當然,如果是在終端設備上,它們肯定是不同的,對吧?例如,如果我要在特斯拉車輛中安裝芯片,這就是完全不同的架構棧了。你可以辯稱,從消費者的實用性角度來看,有很多令人信服的理由說明為什么有些甚至大部分的處理應該轉移到終端設備上。

Andrew Ng

是的,在設備上的確如此,即使是在云端,訓練和推理工作流之間也存在足夠的差異,這值得我們從架構和軟件堆棧的角度進行思考。

Brett Winton

Andrew ,在教學方面,你的一大貢獻之一就是強調人們和開發人員在學習機器學習時需要關注 MLOps ,不僅是研究方面,還有實際應用。我想知道,在 MLOps 中,你是否看到未來有可能將推理與訓練分開進行的趨勢?

Andrew Ng

是的,因為 LLM 應用還是很新,所以 LLM Ops這個領域還在探索階段,如何構建、部署和維護 LLM 仍然是一個相對新的領域。

AI 堆棧正在發生巨大變化,云服務提供商正在推出有趣的編排層,比如 Harrison Chase 在 LangChain 上做得很好,Jerry Liu 在 LlamaIndex 上也做得很好,這些都是編排層。

還有其他應用程序構建在這些基礎之上,另一個即將出現的有趣框架是 Agentic Framework,這可能是另一種編排層。

我花了很多時間在應用層,因為我發現有很多機會,比如在 AI Fund,我們與企業合作,他們帶給我們很多用例,我們環顧四周,發現幾乎沒有競爭對手。這說明在應用層面仍然有很多新機會,而且競爭沒有基礎模型層那么激烈。

Brett Winton

對于那些應用層面的公司,他們如何思考自己接入的底層模型,比如基礎模型?他們是選擇使用現成的 GPT-4 ,還是會設計成能夠切換到另一個基礎模型?或者他們會對 Llama 進行微調?你怎么看待應用層面在競爭中的策略,以及它將如何影響底層堆棧的競爭?

Andrew Ng

這個領域變化非???。在很多項目的初始階段,團隊往往會使用 GPT-4 ,最近幾周, Llama 3 變得越來越有競爭力,我聽到很多團隊使用 GPT-4 ,這在當前是最常見的選擇。

但一個瓶頸是評估,開發成本和時間比以前大大縮短,你可以在一天內構建出一個有吸引力的應用程序,但評估可能需要花費更多的時間,這使得人們不太愿意切換模型。

如果你開始使用 GPT-4 ,但無法有效評估其他模型,你可能會繼續使用最初的選擇。但我看到很多人正在努力開發更好的評估工具,以便更高效地比較不同的模型。

Brett Winton

我們對 Claude 的發展感到非常興奮, Claude 是我們從風險投資基金中最早投資的公司之一,我們與公司保持密切聯系,非??春盟那熬?。

您對當前關于開源的討論有何看法?這似乎是一個非常兩極化的討論,尤其是在數據科學和機器學習領域,許多人對這個問題有非常強烈的看法。

Andrew Ng

開源非常重要,我們應該盡力推動開源,因為它會讓世界變得更好。我對去年反對開源的強烈游說活動感到非常驚訝,這些活動實際上會扼殺美國的創新,也會壓制全球的創新。

你可以理解,當有人在大規模訓練基礎模型上投入了數十億美元,然后發現其他人通過開源稀釋了這些昂貴投資的價值,這讓他們感到非常沮喪。游說活動開始時的主要論點是 AI 可能會失控并關閉系統,這一論點在華盛頓特區失去了信譽。

游說者沒有放棄,他們轉而聲稱 AI 可能會被用來制造生物武器,但隨后出現了報告顯示, AI 并不比電子表格更容易被用來制造生物武器。

AI 不太可能制造生物武器的恐懼并沒有得到證實,這讓生物武器的論點失去了很大一部分信譽。

然而,游說者沒有放棄,他們現在的論點是國家安全問題,認為開源可能會讓歐洲競爭對手受益。我對這些游說活動的力度感到驚訝,他們不斷改變論點以推動關閉開源的議程。

開源是全球 AI 技術供應鏈的一部分,它反映了各國的價值觀。例如,很多國家使用 Google Docs ,而 Google Docs 在共享文檔時非常容易,但它在鎖定文檔時相對較難。這反映了 Google 內部開放的文化。

而 iMessage 的端到端加密則反映了注重隱私的價值觀。每個國家的技術往往會反映其價值觀,如果民主國家不參與 AI 的供應鏈,那么其他國家將會填補這一空白。

Brett Winton

撇開對開源的監管壓力不談,你認為在未來的狀態下, Meta 投下數十億美元訓練這些模型并將其公開發布的努力,是否會削弱封閉的 LLM 基礎模型類玩家的經濟效益?這是否會對 OpenAI 和 Anthropic 等公司的商業盈利能力構成威脅?

Andrew Ng

目前,在基礎模型層面確實存在挑戰。根據你們的報告,成本每年下降 75%,這使得保持領先地位變得非常困難。

令人沮喪的是,你可能花費了 1 億美元來訓練一個模型,但一年后,競爭對手只需要 2500 萬美元就能做到,接著再過一年,這個成本可能又會下降四分之一。那么這種情況下的動力在哪里呢?

不僅僅是純粹的基礎模型層面,其他層面可能會有所不同,也許對消費者來說會有所變化。今天來看, LLM 的成本優勢非常明顯,或許有些問題需要重新審視,但變化不大。

我們會看到這些技術的進一步發展,未來可能會有其他技術組件來增強基礎模型的競爭力。如果只看基礎模型,而沒有其他內容,我不知道這種模式能有多大的護城河。

Brett Winton

你認為 Meta 之所以能夠進入這個領域,是因為在 ChatGPT 推出之前,團隊樂于公開他們的研究成果,他們會說“這是我們的配方,這是我們構建它的方法”,有一種公開的精神。即使模型是封閉的,它們也是出于安全原因而封閉的,并且共享了架構和方法。

隨著 GPT-4 的推出,情況發生了變化,現在人們不再愿意公開分享他們的方法。所以,是否有更多的機會讓團隊之間的性能差異更加明顯,因為現在這些配方不再公開共享了?

Andrew Ng

各個公司之間的人才流動和想法傳播仍然很強烈,因此很難長期保守住秘密。你可能會在短期內獲得一些優勢,但長期來看,防御性的作用不大。

我看到的情況是,在大科技公司之間的競爭中,尤其是在 AI 和云業務方面,確實可以獲得短期優勢,但長期優勢我不確定能否持續。

你提到人們以安全的名義保守秘密,這確實很有趣。在過去的十年中,每當有人說“我的技術太危險了,我要保密”時,通常過了一兩年,類似的技術就被開源了,而且帶來的好處遠遠超過了潛在的危害。

我并不是說沒有危害存在,確實有一些不良分子利用開源技術,但總體上,每當有人說“我的技術太危險了”,通常過不了多久就會有開源版本出現,而開源帶來的好處遠遠超過了潛在的危害。

以 Llama 3 為例,最初的版本有一個有限的上下文窗口長度,但因為它是開源的,現在開發者已經修改了 Llama 3,擴展了它的上下文窗口長度。我們無法在封閉模型中實現這一點。所以開源創新的力量非常強大。我們現在能夠以非常低的成本提供這種恐懼感,這是開源帶來了大量的創新。

Brett Winton

Llama 開源的商業邏輯并不神秘。實際上,我看到 Meta 在開發 PyTorch 時也采取了類似的策略。Meta 意識到自己需要一個開源的平臺來構建業務,而不是依賴于競爭對手的專有平臺,比如 TensorFlow 。

Andrew Ng

是的, Meta 對依賴其他平臺的敏感性并不令人意外。例如,當 iOS 更改其隱私規則時,這會影響 Meta 的業務,因為 iOS 是一個專有平臺。

當我的前團隊在 Google Brain 開發 TensorFlow 時,我們實際上雇傭了 Reggie Monger,他是一個出色的領導者,負責開發 TensorFlow 。

Reggie 和我都是出色的工程師,當你意識到主流的深度學習開發平臺可能會被競爭對手的專有平臺控制時, Meta 的做法非常聰明。

Meta 沒有試圖擁有這個平臺,而是創建了開源的 PyTorch ,隨后它獲得了大量的動能,并且大大降低了被其他人控制深度學習平臺的風險。

由于 Meta 并沒有運營大型云業務,因此它只需要一個開源的平臺來構建社交網絡和通信業務。

從商業角度來看, Meta 確保有一個開源的基礎模型和生態系統是非常理性的,因為這樣一來, Meta 就可以在此基礎上進行構建,而不必擔心依賴于封閉的平臺,比如 iOS 可能在某個時候改變規則。

因為 Meta 沒有運營大型云服務,所以它沒有動機保持封閉狀態以銷售 API 調用??偟膩碚f,這是一個非常理性的商業決策。但這也不影響我們對 Meta 開源這一寶貴舉動的感激之情,即使它背后有著非常合理的商業模式。

Brett Winton

你認為對于 AI 應用公司來說,比如某家公司如果設計的能力水平達到了 GPT-4 的水平,那么他們其實可能是在犯一個大錯,因為我們很快就會有更強大的能力,也許就在今年或明年。

那么,你是否預見到這樣的戰略格局:OpenAI 推出非常有意義的進步,然后其他公司大約六個月后才跟上?在 AI 應用方面,這種技術進步的速度是否會改變你對可能具有商業化潛力的 AI 應用的看法或做法?

Andrew Ng

聽起來這是一個很好的領導者,自從他還是本科生時,我就認識他了。他當時在我父親的實驗室工作,很久以前的事了。我非常尊重 OpenAI 的一點是,他們在推動 AI 方面非常積極進取。他們確實很大膽,做出了很多賭注。

當你這樣做時,并不意味著每一個賭注都會成功,但只需要少數幾個成功的賭注,你就可以取得巨大的成果。所以 OpenAI 確實在做很多不同的事情。

我不想猜測他們所有的計劃,但我確實認為訓練基礎模型是非常重要的,我很期待看到 GPT-5 的發布,我確信它將比 GPT-4 更強大得多。但我也相信,GPT-5 仍然會有很多事情做不到,很多其他應用仍然需要在它之上構建。

我的團隊做了一個小研究,表明在編碼問題上使用 GPT-3.5 與使用 ?Agentic Workflow 的 GPT-4 相比, GPT-3.5 的表現其實更好。所以雖然從 GPT-3.5 到 GPT-4 的進步非常令人興奮,但使用 Agentic Workflow 帶來的改進實際上超過了這個進步。

我非常樂觀地認為,不管是 GPT-5 還是 Gemini 2,當它們發布時,我都很期待它們的表現,但我也相信,現有模型的 Agentic Workflow 和其他創新仍然能在解決非常有價值的業務問題和應用問題上走得很遠。

Charlie Roberts

關于這個問題, Andrew ,我記得你多年來對醫療保健非常感興趣,我相信你家里也有醫學背景的人。

Mustafa Suleyman 在他的書《 Becoming Human 》中提到了他對現代圖靈測試的看法,他舉的例子是,如果你能給一個 Agentic 系統 10 萬美元,并讓它生成 100 萬美元的年收入,這將是一個令人驚嘆的成就,比如它需要去設立一家公司,編寫營銷計劃,并開始執行這些任務。

你有沒有想過,無論是在醫療領域還是其他領域,有沒有一個現代版的圖靈測試是你希望看到的,可能在不久的將來 Agentic 系統能達到的目標?

Andrew Ng

AI 和人類智能是非常不同的。兩者都非常有價值,我們總是試圖將 AI 與人類可以做的事情進行比較,這沒什么壞處,但,由于人類智能如此獨特,實際上很難讓 AI 做所有人類可以做的事情。

當然,我們希望 AI 能夠做到,希望我們有生之年能看到這一天的到來,但即使在我們試圖讓 AI 達到人類水平之前, AI 已經能夠在很多領域遠遠超越任何一個活著的人類,這本身就具有巨大的價值。

所以我更關注的是一步步的進展,這種進展正在非常迅速地發生,這個進展包括 AI 能夠做的事情的范圍,以及各個行業的應用,而不是僅僅試圖達到某種類似圖靈測試的標準。當然,對于研究人員來說,這樣的測試也是很好的研究方向。

Brett Winton

最終來說,基準測試有用之處在于它們能夠指示某種可以商業化并大規模應用的實際應用,這樣才能變得真正有意義和現實化。而你非常專注于將 AI 帶入市場的實際應用。

你對語言生成之外的應用有何看法?你怎么看待語言以外的應用,比如機器人技術、自動駕駛出租車和醫療領域?你對這些領域的進展速度有何期待,你認為這些是值得關注的領域嗎?

Andrew Ng

我們正在朝著那個方向前進。文本革命首先通過 LLM 到來,但我看到圖像處理革命也將隨后到來。我指的不僅僅是生成圖像,而是分析圖像。

比如,LandingAI 正在進行關于大型視覺模型的工作,在未來很短的幾年內,我們將在 AI 分析圖像的能力上取得很大進展。不僅僅是文本分析,圖像分析也會迅速發展。

至于應用和 AI Fund 所涉及的領域,我們實際上試圖保持行業中立。因此,我們重新設計了我們的戰略,目的是通過視覺表達 AI 技術。我們知道 AI 的能與不能,但由于 AI 是一種通用技術,適用于醫療保健、金融服務、物流、教育等多個領域,我們無法同時掌握或關注所有這些領域。

因此,我們在 AI Fund 中的策略是,我們非常喜歡與擁有專業知識的企業合作,這些企業通常是我們的 LP,也可能不是LP。

我們與擁有深厚行業專業知識的大型公司合作,這些公司在特定領域有深厚的市場知識和技術知識,我們通過合作,共同開發出一些非常獨特的東西。

我們確實在醫療保健領域有所涉足,這是我們的一個示例。在我們最近的醫療保健項目中,我們與在某些地理區域擁有深厚專業知識的合作伙伴合作,他們不僅在市場和市場進入方面有深厚的知識,而且還能與我們的技術知識相輔相成,讓我們嘗試在美國以外的醫療保健市場中構建一些非常獨特的東西,因為我們認為這些市場可能更容易首先攻克。

有趣的是,每當我們與大型公司合作并進行頭腦風暴時,我們總是會得到比我們或他們能夠實施的想法多得多的創意。創意的數量總是讓人既高興又煩惱,因為它遠遠超過了我們能夠動用的資源。

Charlie Roberts

從你在 AI Fund 中的經驗和與大型企業的對話中,你對 AI 的應用和商業案例有著非常深刻的理解。

在未來五年內,你認為市場上哪些大問題 AI 可能仍無法解決?反之,哪些大問題可能會因為 AI 的出現而完全消失,而這些問題是市場或大眾尚未意識到的?

Andrew Ng

這些變化會需要時間。許多行業的轉型都需要時間。在深度學習和 AI 浪潮中,我們正在做很多工業自動化的重復性任務。

眾所周知,物質的轉移是緩慢的,所以當我們處理涉及到現實世界中物質重新配置的事情時,我們會有所進展,但這通常需要時間。

同樣,當涉及到文化變革和內部變革管理時,這種轉型也可能出人意料地緩慢。然而,我依然對我們能夠幫助許多企業重新思考工作流程的速度持樂觀態度。

雖然在改變物質配置時,這可能是一個緩慢的過程,但當涉及到比特和變革管理流程時,有時仍然需要幾年時間。

所以,盡管我們已經大幅度地變革了許多知識型工作,每個知識型工作今天都可以通過生成式 AI 獲得效率提升,這令人興奮。而我們也將繼續推動這些可能性的發展。

本文由人人都是產品經理作者【江天 Tim】,微信公眾號:【有新Newin】,原創/授權 發布于人人都是產品經理,未經許可,禁止轉載。

題圖來自Pexels,基于 CC0 協議。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!