必須了解的8大AI術語

0 評論 3201 瀏覽 11 收藏 18 分鐘

在人工智能迅速發展的今天,理解AI領域的基礎術語對于我們至關重要。本文精選了8大AI術語,從AI的起源到現代應用,為您提供了全面的解讀。

一位朋友去B2B公司面試產品銷售,回來后有點迷茫。

他說:

HR聊到前幾段履歷情況,以及所做出的成果和離職原因后,就沒說其他的;但業務負責人面試完,我自信的狀態突然沒有了。

因為在雙方交流過程中發現,他用到很多英文、專業術語,這些我都似懂非懂,盡管對方沒有具體做到問我某些什么意思,可我總認為,自己在該方面還有很多課要補。

是的,新技術發展,必然會有大量術語、概念產生。

這些術語好處是,能將復雜、冗余的表述簡化為幾個詞,從而極高交流效率;然而,劣勢也同樣明顯,你對術語不熟,就沒辦法跟客戶把產品講明白,甚至導致溝通失效。

那么,面對此類情況,該怎么辦呢?有兩個方法,一,日常在工作中多積累;二,集中系統性學習。

第二種很難,畢竟人工智能廣泛還復雜,涵蓋細分場景也比較多;因此,我特意選取了一些容易混淆,提及比較多的通用詞匯。

01 第一個關于AI。你怎么一句話給人解釋它?

我會這么說:

AI,是人工+智能。一種讓機器能像人一樣思考、解決問題的技術,它能用在多個領域和場景中,想象一下,智能手機,智能家居設備,這些都是AI技術的應用。

這很簡單吧。

不過,要說起它的由來,就得提到一個專業詞匯:神經元(Neuron)。在生物和神經科學領域,它是神經系統的基本單位,負責接受、處理和傳遞信息。

早在1943年,有兩位科學家,名叫McCullouch和Pitts,他們發表一篇非常重要的論文,名字叫做:

《A Logical Calculus of the Ideas Immanent in Nervous Activity》

論文中,提到了一個數學模型,叫做“McCulloch-Pitts神經元”,也就是人工神經元的早期形式。通過模型,我們可以模擬,并解釋生物大腦是如何傳遞信號的。

這不難理解吧?有了對神經元的理解,科學家能更深入的知道如何模擬一個生物的大腦系統。

隨著不斷研究,7年后(1950年),一位英國學家艾倫·圖靈(Alan Turing)發表一篇論文,探討了“機器能思考嗎?”圖靈通過著名的「圖靈測試」,探索機器會不會更智能。

到了1956年,在一個叫達特茅斯學院(Dartmouth College)的地方,幾位研究計算機和自動化的科學家聚在一起,討論預測機器是否能模仿人類學習的行為;麥卡錫在會議中提出一個想法:

希望在夏天的1-2個月內,憑借10幾個人的努力,讓機器能夠使用語言、形成抽象概念和解決各種問題的方法,最終達到與人類相似的智能水平。

因此,這次會議上:AI才作為一個獨立學科被成立。一晃之間,又7年過去了,1960年左右,多名研究者對人工智能的發展做出了貢獻。

比如:

斯坦福大學研究者們,開發了珀西瓦爾(Perceptron),基于神經元結構,展示機器如何學習;著名的邏輯理論家赫伯特·西蒙(Herbert Simon)和他的團隊,基于數學定理,開發出一套自動推理的程序。

還有很多……

但是,到了70年代中期(1974年),因為技術發展沒有達到大家希望的水平,加上經濟壓力,美國政府才開始削減對AI領域的資助,這導致了所謂的歷史上第一個:AI寒冬的出現。

直到又過了7年后,專家系統的商業成功讓AI研究有了復蘇的標志,市場才對AI領域有了新關注和投資機會??吹竭@里,你可能會問:什么是專家系統呢?

千萬不要誤解,專家系統不是管理專家的。

它是一套特別的計算機系統程序,它能學習各種規則、知識、模仿人類專家做決定;可以把人類專家的知識,轉變成計算機能理解和使用的形式,讓它在市場上真正派上用場。

可是,好景不長,7年后(1987年),AI又引發了第二個更長的寒冬。

失敗的結論無法用一句言語來表達,不過,有幾個關鍵節點,一,專家系統看起來有前景,但不賺錢,不能廣泛使用;二,技術所依賴的Lisp編程語言,有性能瓶頸,要消耗大量硬件成本;三,Lisp編程所用的計算機系統過時了,導致市場潰敗。

這不僅影響到上游制造商,還涉及到人工智能的研究。

所以,許多研究項目停滯不前,導致市場對人工智能大幅度降溫,這一寒冬,持續小10年。

直到1990年,互聯網算法興起,人工智能才算恢復活力,同年,一位非常有影響力的計算機教授Yann LeCun,貢獻了卷軸神經網絡(CNN)的發展,才推動了神經網絡的實際運用。

到了2000年,AI背后所承載的技術才被運用到各領域。

這一段60年的脈絡,只為讓你清晰展示AI的發展,它從一條神經元,到成為系統,經歷了什么。

02 第二個,關于AI怎么更像人

想象一下:

如果我們想讓人工智能更像人類,是不是要先給它構建一個類似于人類大腦的模型,讓它擁有一個「操作系統」,能夠模擬人腦的工作方式。

這意味著,我們得不斷挖掘它,讓它有注意力機制,讓它會能夠學習,還能看得見周圍的一切,甚至說,還得自我優化。沒錯,這正是人工智能專家們正在做的事情。

你知道嗎?

2000年以后,AI技術越來越廣泛,不管做什么,只要和智能相關,都會給它貼上人工智能標簽,不同技術之間的差異,到底該如何有效區分就成了一個問題。

2002年,人工智能領域有兩位科學家,Ben Goertzel和Cassio Pennachin合著一本書《Artificial General Intelligence》,翻譯成中文是《人工通用智能》。

它提到了AI的子領域,也就是AGI。

G是 General的縮寫。意思是通用的、全能的。這意味著,它的通用智能水平能和人類相媲美,不僅能執行特定任務,還能在多種環境、情境下學習知識,進行自我改善。

看到這,你興許更困惑。

我們一般覺得,既然叫做人工智能,AI能力應該比AGI廣泛,實際上情況并非如此。它倆區別在于,AI被特別訓練來完成某個具體任務,學習能力和適應性都有明確的限制。

而AGI,具備自主智能,可以理解和解決之前未遇到的問題,不僅限于單一任務。簡單來說,AGI像可以在任何情況下都能夠應對的智能,而AI則更像只擅長特定領域的專家。

圖片

圖譯:便于理解,畫了一張示意圖,供你參考,未來AI的終極目標,讓它像人一樣

因此,該怎么給別人一句話介紹AGI?

我會說:AGI是通用人工智能,讓機器能像人一樣,在很多不同事情上能自己想辦法解決;它跟AI區別在于,AI專門為某個任務設計,而AGI則可以處理任何問題,像人一樣,更強大。

有一個與AGI相似的詞,叫Gen AI了。

Gen背后英文是General,AGI中的G也是General,不要驚訝,它倆意思相同。那么,市面為什么有人喜歡叫GenAI,有人叫AGI?

有兩點:

一,源于發展。不同地域差異,大家叫法不同;二,和產品有關。商業環境中,大家喜歡用一些不同的叫法來突出自己的產品特色;不過,在全球范圍和學術文獻場景下,目前AGI稱呼更為普遍。

所以,這10年的故事中,AGI發展不僅讓機器在復雜環境中,有了更深層次的學習能力,還讓特定任務的窄AI(也稱為弱AI(Weak AI),也變得更智能了。

03 第三個,關于大模型(Large Model)

討論不同模型,了解2010年到2017年的AI發展至關重要。從2010年開始,AGI領域越來越多投資者進入,深度學習也就成了研究和應用的焦點。

2015是注意力轉折點,得益于硬件進步和大數據的支持,DeepMind開發的AlphaGo擊敗了世界圍棋高手李世石。這一事件后,讓大家更相信AGI會變得更強、更像人類。

同年,OpenAI在美國成立,為后來大模型發展奠定了基礎。那么,什么是大模型呢?

“大”,指,模型處理信息量很大,在人工智能中,我們稱信息為“參數”(Parameters),模型,像小時候玩的玩具,雖然是虛擬的,卻能執行真實的任務,當你問它一個問題時,它能迅速給出答案。

我通常這樣解釋:大模型是,能夠處理大量復雜數據的高級程序,像一個超級聰明的大腦,可以學習和處理許多不同的事情。

那么,小模型(Small Model)是什么呢?

與大模型相對,小模型參數數量少,結構簡單,計算資源需求也不高。這些模型專為特定領域設計,比如營銷自動化、兒童早教、或幫助孩子學習古文等,更專注于解決特定類型的問題。

雖然在2015年左右,大模型還不為大眾知曉,但到了2017年,谷歌發表了《Attention Is All You Need》這篇論文后,徹底改變了大語言模型(Large Language Model, LLM)領域的面貌。

因為,這篇論文介紹一種基于multi-head自注意力機制的深度學習Transformer架構。這種架構,推動了處理語言的模型的發展,它能更加靈活的能模仿人類的情感和語言風格。

大語言模型和大模型,最主要的區別是:大模型能處理很多不同類型的任務,比如圖像識別、數據分析等;而大語言模型,主要是用來處理文字,比如,幫我們寫文章或翻譯語言。

另外,值得一提的是:

自然語言處理(NLP)技術是AI領域中的一個核心分支,它包括自然語言理解(NLU)和自然語言生成(NLG)。

當我們在和AI對話時,輸入的每一個字或詞叫做token。AI會把文本分割成最小的單位來學習,這個過程稱為tokenization(分詞);例如:句子,”你吃了嗎“,一個常見的分詞方法將其分為三個tokens,“你 / 吃了 / 嗎”。

還有一個與大語言模型經?;煜脑~:GPT。

GPT是Generative(生成式)、Pre-trained(預訓練)Transformer(一種模型架構)三者的縮寫,ChatGPT和GPT不是同一回事,不要混淆。

ChatGPT是OpenAI公司基于GPT模型,開發的特定產品,主要用于生成文本,而GPT本身代表一種廣泛的模型系列,像sora也是GPT模型的產品之一。

所以,當別人問起時,我會說:

大語言模型像一個操作系統,它為處理、理解語言提供了基礎框架;GPT更像系統上的一個應用程序,它利用框架來執行任務;至于ChatGPT,是基于GPT模型開發的一款具體產品,就像電腦上的聊天工具。

明白它非常重要,國內一些產品,某種程度上,也可以稱它為類似GPT的模型。

畢竟,它們同樣基于自注意力架構進行預訓練,也能生成文本;所以,雖然優化方法不同,但技術核心上,基本一致。

這7年,讓大模型、大語言模型(LLM)發生了關鍵變化。通過時間脈絡,你也能理解到幾者有何不同。

04 第四個,關于AIGC。什么是AIGC?

這里的”C”代表Content,中文意思是“內容”。AIGC的全稱是“人工智能生成內容”,涵蓋文本、圖像、視頻和音樂等多種形式。

因此,AIGC包括四個方面:文生文、文生圖、文生視頻、文生音樂。

說起來,你也許不信,歷史時間脈絡中,并沒有哪位科學家首次提出該術語,它是在人們不斷討論中,逐漸形成的一種通用描述。

想徹底了解AIGC,不妨再看7年。

從2018年到2020年的3年里,一項調查顯示,全球有72個活躍的AGI研發項目,分布在37個不同的國家;本質上,是研究openAI、DeepMind、Anthropic等公司。

這些公司都在做什么?簡單說,DeepMind是專注創造AGI的公司,目標讓機器的智能能夠和人類相媲美;而OpenAI,則因其開發的大型模型,引起廣泛關注。

再看最近4年,AIGC技術幾乎在各行業的涌現?,F在,照片不僅能一鍵美顏,還能一鍵摳圖,并且處理的更精細;做PPT,不僅能根據大綱生成內容,還能直接匹配的配圖素材。這背后都得益于小模型,多模態發展。

多模態(Multimodal)技術,即:一個AI模型能處理不同類型的數據(文本、圖像、音頻),還能將不同形式的信息,整合在一起,從而進行更全面的分析和理解。

因此,一個最重要啟發在于:

未來更加垂直領域的信息,將會被開發出來,這些信息反哺給模型,模型經過參數調整后重新學習,將變得更加聰明,這種發展,越來越逼近AGI的目標。

作為個人,理解整個AI發展,能有一個宏觀框架在心里,下次看到不同產品時能知道,公司處在哪個賽道中。

當然,每個細分賽道里,還有更多更專業的術語,像AI+營銷領域還有很多小模型,如:動態定價模型、情感分析模型、用戶流失模型、ROI預測模型等等,這些像人的思維模型一樣,被格柵化在多模態里。

好了。

四個大概念講完了。關于AI、AGI、大模型、小模型、大語言模型(LLM)、GPT、AIGC、多模態,按照時間軸加在一起,共計發展了81年。

這81年中,幾乎7年一個小變化,但也不是絕對,你有什么感受?

總結而言

有大視角,才不會被細節迷惑。

隨著AI發展,未來,舊工作會被加速迭代,新行業雖然沒起來,但必有新機會出現,了解AI,才能迎接新的時代,更好的駕馭它。

本文由人人都是產品經理作者【王智遠】,微信公眾號:【王智遠】,原創/授權 發布于人人都是產品經理,未經許可,禁止轉載。

題圖來自Unsplash,基于 CC0 協議。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!