一篇文章了解“機(jī)器學(xué)習(xí)”和“深度學(xué)習(xí)”
這是一份寫給非技術(shù)崗的產(chǎn)品經(jīng)理/運(yùn)營的機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的簡單指南,幫助我們可以聽到技術(shù)人員的話~
在“大熱的AIGC究竟是什么”的文章中,我們聊到了人工智能以及生成式人工智能。這篇文章我們想繼續(xù)聊下兩個(gè)經(jīng)常會(huì)和“人工智能”一起被提到的概念,那就是機(jī)器學(xué)習(xí)(Machine Learning)和深度學(xué)習(xí)(Deep Learning)。
一、什么是機(jī)器學(xué)習(xí)(Machine Learning)
機(jī)器學(xué)習(xí)(ML)是人工智能的一個(gè)研究領(lǐng)域,主要涉及開發(fā)和研究統(tǒng)計(jì)算法,這些算法可以從數(shù)據(jù)中學(xué)習(xí),并泛化到未見過的數(shù)據(jù),從而在沒有明確指令的情況下執(zhí)行任務(wù)。
請(qǐng)記一下關(guān)鍵字:學(xué)習(xí)。
機(jī)器學(xué)習(xí)到底在學(xué)什么呢?
我們?cè)谥暗奈恼轮幸灿刑岬?,機(jī)器學(xué)習(xí)的本質(zhì)就是要讓機(jī)器找一個(gè)函數(shù)。我們讀書的時(shí)候都學(xué)過,y=f(x)=ax+b,其中a和b就是參數(shù)(Parameter),也就是我們要找出來的未知數(shù)。當(dāng)我們找到這兩個(gè)未知數(shù)之后,我們?cè)佥斎離,自然而然就能得到y(tǒng)。是不是勾起了你讀書時(shí)的回憶了?
機(jī)器學(xué)習(xí)其實(shí)就在學(xué)習(xí)怎么自動(dòng)把這些參數(shù)找出來,但是通常它的函數(shù)非常復(fù)雜,所以要找的參數(shù)量也非常大,可能是上萬個(gè)參數(shù),可能是數(shù)十萬個(gè)參數(shù),甚至可能更多。
那機(jī)器如何學(xué)習(xí)呢?
舉個(gè)例子:
還是用我經(jīng)常用的例子,我要做一個(gè)應(yīng)用,當(dāng)輸入一個(gè)圖片,這個(gè)應(yīng)用可以分辨出圖片里的是柯南還是新一。那我就要找一個(gè)函數(shù),這個(gè)函數(shù)輸入是一張圖片,輸出要么是柯南,要么是新一。這個(gè)函數(shù)顯然會(huì)非常復(fù)雜,復(fù)雜到有大量的參數(shù)。假設(shè)有上萬個(gè)參數(shù)。
我們會(huì)告訴機(jī)器,輸入第一張圖,輸出是柯南,輸入第二張圖,輸出是新一……
有了這些輸入輸出,機(jī)器就可以把上萬個(gè)參數(shù)找出來,學(xué)習(xí)把上萬個(gè)參數(shù)找出來的過程,也叫做訓(xùn)練(Training)。而幫助你把這上萬個(gè)參數(shù)找出來的輸入輸出,叫做訓(xùn)練資料。
但當(dāng)機(jī)器找到這上萬個(gè)參數(shù)后,也就意味著我們找到了這個(gè)函數(shù)。當(dāng)我再輸入一張新的圖片,看看機(jī)器能不能回答對(duì),這叫做測(cè)試(Testing)。當(dāng)嘗試輸入如下圖片,機(jī)器會(huì)給出“新一”的輸出。正解!
這就是概念中所說的“泛化到未見過的數(shù)據(jù),從而在沒有明確指令的情況下執(zhí)行任務(wù)”。因?yàn)榭赡軝C(jī)器以前也沒有見過這張圖片。
所以,如果說人工智能是一個(gè)目標(biāo),因?yàn)槊總€(gè)人對(duì)于機(jī)器做到什么程度才算是“智能”可能都會(huì)有自己的理解,那機(jī)器學(xué)習(xí)就是實(shí)現(xiàn)這個(gè)目標(biāo)的手段。
二、什么是深度學(xué)習(xí)(Deep Learning)
深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支,主要利用神經(jīng)網(wǎng)絡(luò)執(zhí)行分類、回歸和表征學(xué)習(xí)等任務(wù)。該領(lǐng)域的靈感來源于生物神經(jīng)科學(xué),其核心是將人工神經(jīng)元堆疊成層,并 “訓(xùn)練 ”它們處理數(shù)據(jù)。形容詞 “深度 ”指的是在網(wǎng)絡(luò)中使用多層(從三層到數(shù)百或數(shù)千層不等)。
關(guān)鍵詞:神經(jīng)網(wǎng)絡(luò)(Neural Network)
在今天機(jī)器學(xué)習(xí)的領(lǐng)域,有大量參數(shù)的函數(shù)往往會(huì)被表示成一個(gè)神經(jīng)網(wǎng)絡(luò),而把這些參數(shù)解出來的技術(shù),就叫做深度學(xué)習(xí)(Deep Learning)。也就是如果你用神經(jīng)網(wǎng)絡(luò)來表示,你就是在做深度學(xué)習(xí)。
所以,如果說機(jī)器學(xué)習(xí)是實(shí)現(xiàn)人工智能目標(biāo)的手段,那深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一種,是一種更厲害的手段。
而現(xiàn)在絕大多數(shù)生成式人工智能都是用深度學(xué)習(xí)來達(dá)成的。
舉個(gè)例子,大家最耳熟能詳?shù)腃hatGPT。
如果我們把ChatGPT想象成一個(gè)函數(shù),它的輸入是一段文字,輸出是ChatGPT給你的回復(fù)。如果要達(dá)到你問什么都可以得到不錯(cuò)的回復(fù),那背后的參數(shù)非常之巨大。我們需要準(zhǔn)備非常非常多的輸入和輸出,才能找出這個(gè)函數(shù)里巨大量的參數(shù)。這個(gè)有大量參數(shù)的函數(shù)表示成一個(gè)神經(jīng)網(wǎng)絡(luò),在這個(gè)場(chǎng)景下會(huì)有一個(gè)專門的名字,叫Transformer,感興趣的小伙伴可以自己去學(xué)習(xí)相關(guān)的內(nèi)容~
本文由 @AI 實(shí)踐干貨 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)作者許可,禁止轉(zhuǎn)載
題圖來自 Unsplash,基于CC0協(xié)議
該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺(tái)僅提供信息存儲(chǔ)空間服務(wù)
機(jī)器學(xué)習(xí)就是瞬時(shí)記憶,會(huì)隨著時(shí)間的流逝消失的,但深度學(xué)習(xí)不會(huì),無論什么時(shí)候都會(huì)想起。