【入門科普】必了解的 20 個 AI 術語解析(下)
AI領域的基礎概念和相關技術有很多,這篇文章里,作者就深入淺出地介紹了相應的內容,感興趣的同學們,不妨來看一下。
本文專為非技術背景的AI愛好者設計,旨在深入淺出地介紹AI的基礎概念和關鍵技術,帶您一步步解鎖AI技術的奧秘。建議先閱讀【入門科普】必了解的 20 個 AI術語解析(上)再閱讀本文。
十一、生成對抗網絡
想象一下有兩位藝術家:一位是偽造者,另一位是鑒賞家。偽造者試圖創作出看起來像真正藝術品的作品,而鑒賞家則試圖區分出哪些是真正的藝術品,哪些是偽造的。他們不斷地相互學習會使得偽造者變得越來越擅長創作逼真的作品,而鑒賞家則變得越來越擅長識別真偽。
生成對抗網絡GAN由兩部分組成:一個是生成器(偽造者)和一個是判別器(鑒賞家)。
十二、強化學習
如果說對抗網絡是真假孫悟空之間的1對1的斗智斗勇,目標是戰勝對方,那么強化學習就是1對多的一路斬妖除魔,設定一個去西天的目標,取經隊伍總會去想辦法在真實環境中排除萬難,那些牛魔王、火焰山、蜘蛛精、女兒國等等都是在環境中遇到的不同的挫折,磨煉的是取經隊伍內在的佛性。
十三、主成分分析
假設你有一個非常雜亂的書桌,上面堆滿了各種物品。如果你想用一張照片抓住書桌的“精華”,但又不想讓照片顯得太雜亂,你可能會選擇從一個角度拍攝,這個角度能最好地展示書桌上最重要的幾樣東西。PCA就是在做類似的事情:它試圖找到最能代表整個數據集“精華”的幾個方向(主成分),然后用這些方向來簡化和描述數據集。
十四、交叉驗證
交叉驗證是機器學習中的一種評估方法,旨在測試模型對新數據的預測準確性。它通過將數據集分成多個部分來工作。在k-折交叉驗證中,整個數據集被分成k個等大小的子集。然后,模型會進行k次訓練和測試的循環,每次循環中,選擇一個不同的子集作為測試集,而剩余的k-1個子集用作訓練集。通過這種方式,每個數據子集都有機會作為測試集使用。完成這k次循環后,通過平均所有循環的測試結果來評估模型的整體性能。
十五、梯度下降
想象你在一座山上,目標是找到山谷的最低點。由于山上濃霧彌漫,你看不清整座山,所以無法直接找到最低點。梯度下降就像是你決定每次都沿著當前位置最陡峭的下坡方向走一步,期望這樣可以帶你到達山谷的最低點。在機器學習中,梯度下降幫助模型“學習”到最佳參數,即找到能讓模型預測誤差最小的參數。
十六、遷移學習
假設你已經是一個鋼琴高手,現在你想學習吉他。由于你已經掌握了很多關于音樂的知識,如音階和節奏,你可以把這些知識應用到新的學習中,這樣你學吉他的速度就會更快。在AI中,遷移學習就是這個原理,它讓一個已經在一個任務上訓練好的模型,用于另一個相關但不同的任務。這樣可以節省大量的訓練時間和資源。
十七、特征工程
模型的學習能力很大程度上取決于我們給它提供的信息質量。如果信息選得好,模型就能學得快,預測得準;如果信息選得不好,模型就可能學不會,或者學錯了。這個過程包括數據預處理、特征選擇、特征構造、特征轉化、降緯 等等,比如訓練一個顏值打分模型,訓練數據是一堆照片,那么特征的工程就是提取眼睛、鼻子、嘴巴的位置、構造出新的特征比如面部比例數據、并選擇具體哪個面部特征的顏值權重更高 等等。
十八、超參數調優
超參數是在開始訓練之前設置的參數,它們不能通過訓練過程本身得到。比如決定每次訓練模型時輸入的數據量的“批大小”、決定每次權重更新幅度的學習率等等。如果把模型訓練過程比喻成西天取經的過程,那么超參數調優就是在取經出發前,唐僧從觀音或唐太宗那里獲得的 通關文牒、錦襕袈裟。
十九、增強檢索
在大語言模型通常會發生“模型幻覺”的問題,就是在處理復雜事物是產生與事實不符甚至完全捏造的信息,就像說人有時候也會說夢話一樣胡說八道。增強檢索可以緩解這個問題,通過引入外部知識來源來提高回答問題的準確性和豐富性。以一個法律咨詢的場景為例,如果用戶詢問關于最新稅法的問題,傳統的語言模型可能只能提供基于其訓練數據的答案,而這些數據可能不包括最新的稅法變化,這是需要增強檢索的典型應用場景。
二十、通用人工智能
馬斯克在24年4月時說:比人類更聰明的AGI將在兩年內實現。通用人工智能是指不需要人為干預而可以自我學習、自我調整從而完全像人類一樣可以執行原本只有人可以從事的任務,甚至機器人可以自行進行科學理論探索。這將是地球智能發展的奇點。
本文由 @李文杰 原創發布于人人都是產品經理。未經作者許可,禁止轉載。
題圖來自Unsplash,基于CC0協議。
該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。
- 目前還沒評論,等你發揮!