OpenAI英偉達Hugging Face同期推出小模型,AI開卷新方向?

0 評論 376 瀏覽 1 收藏 10 分鐘

HuggingFace、OpenAI和Mistral AI三家先鋒公司聯(lián)合英偉達推出的三款小型語言模型,這些模型以更低的成本、更高的效率和更廣的可訪問性為特點,預示著AI行業(yè)的重大轉(zhuǎn)變。本文將深入探討這些小模型的特點、優(yōu)勢以及面臨的挑戰(zhàn),為讀者提供一個全面的了解。

過去一周,人工智能領(lǐng)域的三家先鋒公司HuggingFace、OpenAI、Mistral AI聯(lián)手英偉達相繼推出小型語言模型(SLM),新發(fā)布的三款小模型SmolLM、GPT-4omini和Mistral Nemo都有一個共同目標:以更低的價格,為更廣泛的設(shè)備和應用程序帶來強大的語言處理能力,預示著人工智能行業(yè)的重大轉(zhuǎn)變。

01 小模型什么樣?能做到什么?

小模型相比于大模型,價格更低、效率提升、更環(huán)保、可訪問性更高,但無法在所有任務(wù)中與大模型的原始功能相匹配。

近期推出的三個小模型能力如何呢?分別來看看。

1. SmolLM:直接在移動設(shè)備上運行

Hugging Face的 SmolLM 可能是三者中最激進的。SmolLM 被設(shè)計用于直接在移動設(shè)備上運行,有三種大?。?.35 億、3.6 億和 17 億參數(shù)。該系列將 AI 處理推向邊緣,解決了數(shù)據(jù)隱私和延遲的關(guān)鍵問題。

SmolLM 的影響遠遠超出了單純的效率提升。通過將 AI 功能直接引入邊緣設(shè)備,它為新一代應用程序鋪平了道路,讓這些應用程序以最小的延遲和最大的隱私運行。這可能會從根本上改變移動計算的格局,以前由于連接問題或隱私限制而不能實現(xiàn)的復雜的AI驅(qū)動功能,因為SmolLM成為可能。

2. GPT-4omini:超高性價比的高能力小模型

OpenAI的GPT-4omini主打一個高性價比,被很多評論認為是市場上最具成本效益的小模型。

GPT-4o Mini 的輸入價格僅為每百萬token 15 美分,輸出價格為每百萬token 60 美分。GPT-4omini的定價比GPT-3.5 Turbo便宜60%以上,也比其它小模型更便宜,如谷歌的谷歌的Gemini 1.5 Flash(0.35美元/ 0.70美元)和Anthropic的Claude 3 Haiku(0.25美元/ 1.25美元),大大降低了AI集成的財務(wù)障礙。

不僅是節(jié)省成本,GPT-4o mini 非常聰明。它在數(shù)學、編碼和多模態(tài)推理方面優(yōu)于其他小型模型。在 MMLU 基準測試(通用智能)上,它的得分為 82%,超過了 GPT-3.5 和一些更大的模型。

GPT-4omini小模型可以處理一個巨大的 128K 令牌上下文窗口并輸出 16k 令牌,開辟了大量新的可能性。像 Ramp 和 Superhuman 這樣的公司已經(jīng)在實際任務(wù)中使用它取得了巨大成功。

此外,它是多模態(tài)的,就像它更大的兄弟 GPT-4o 一樣,支持文本和視覺輸入,還有更多內(nèi)容即將推出。

安全也得到了照顧。OpenAI 已經(jīng)融入了“指令層次結(jié)構(gòu)”等新技術(shù),以保持模型的安全性并抵御越獄。

但GPT-4omini無法在手機或游戲機等移動設(shè)備上運行,它必須像 OpenAI 的所有其他模型一樣在云中的服務(wù)器上運行。

3. Mistral-NeMo:瞄準大規(guī)模云模型和超緊湊移動 AI 之間的中間地帶

Nvidia 和 Mistral AI 合作推出Mistral NeMo,這是一個 120 億參數(shù)模型,具有令人印象深刻的 128,000 個token上下文窗口,意味著與窗口較小的模型相比,它可以讀取和處理更長的文本塊。

例如,具有小上下文窗口的模型,可能難以準確總結(jié)冗長的新聞文章,因為它一次只能處理幾個句子。然而,Mistral NeMo 可能會將整篇文章作為一個整體來理解,從而得出更連貫和準確的總結(jié)。

Mistral Nemo 在 Apache 2.0 許可下發(fā)布,以臺式計算機為目標,將自己定位為大規(guī)模云模型和超緊湊移動 AI 之間的中間地帶。

多語言能力同樣讓人印象深刻。Mistral NeMo 不僅限于一種語言;它在包含 100 多種語言的海量數(shù)據(jù)集上進行訓練,在英語、法語、德語、西班牙語、意大利語、葡萄牙語、中文、日語、韓語、阿拉伯語和印地語方面特別出色,能在語言之間進行翻譯、構(gòu)建可以與世界各地用戶交談的聊天機器人,以及分析多種語言的文檔以提取全球見解。

例如跨國企業(yè)可以使用 Mistral NeMo 來分析來自不同國家/地區(qū)的客戶評論,即使這些評論是用不同的語言編寫的,以全面了解全球的客戶反饋。

此外,Mistral NeMo 使用一種名為 Tekken 的新分詞器,該分詞器專為速度和效率而設(shè)計。Mistral NeMo 使用 FP8 推理,F(xiàn)P8 是一種低精度數(shù)字格式,與傳統(tǒng)格式相比,它需要更少的內(nèi)存和處理能力,這使得 Mistral NeMo 能夠在更廣泛的設(shè)備上運行得更快,單個英偉達L40S就能跑起來Mistral NeMo。

02 為什么卷小模型?

1. 更快、更便宜的模型可能是下一代人工智能應用程序的競爭焦點

模型的性能很重要,但速度和成本同樣重要,三大巨頭向小模型發(fā)力,反映了人工智能領(lǐng)域的開發(fā)越來越重視效率、可訪問性、專業(yè)性的趨勢,而不是簡單地構(gòu)建更大的網(wǎng)絡(luò)。

這種趨勢會讓AI朝更有針對性、有效性更強的解決方案方向發(fā)展,針對特定任務(wù)和行業(yè)進行更有效率的優(yōu)化,而不是以包羅萬象為目標。

2. 更環(huán)保,更高的能源效率和可持續(xù)性

人工智能對環(huán)境的影響日益受到關(guān)注,發(fā)展小模型符合對環(huán)保的呼聲。較小的模型需要更少的能量就能完成訓練和運行,從而減少人工智能的碳排放。

另一方面,各行業(yè)面對的環(huán)保壓力也在日益增大,采用更高效的小模型可以節(jié)省能源,會提高企業(yè)對人工智能的接受度。這些環(huán)保方面的積極作用,會讓人工智能成為綠色創(chuàng)新的領(lǐng)導者,而不是氣候惡化的參與者。

3. 更廣泛的人工智能集成

為什么說向小模型的轉(zhuǎn)變是人工智能領(lǐng)域的巨大演變?因為隨著這些小模型的不斷改進和廣泛應用,我們可能會看到一個支持人工智能設(shè)備和應用程序的新時代,復雜的人工智能服務(wù)不只存在于云端,而是服務(wù)在具體的終端設(shè)備和應用程序里,服務(wù)于更多的用戶,帶來更多的用例。

對于企業(yè)而言,小模型的發(fā)展意味著會有更多智能的、高效的人工智能解決方案可以更容易地集成到現(xiàn)有系統(tǒng)中。隨著人工智能的規(guī)模縮小,它對企業(yè)和社會的影響會越來越大。

03 隱憂與挑戰(zhàn)

雖然小模型的興起帶來了很多優(yōu)勢,但也存在隱憂和挑戰(zhàn)。

首先,小模型無法在所有任務(wù)中與大型模型的原始功能相匹配,發(fā)展小模型要注重模型專業(yè)化、多樣性,而不是追求一刀切的想要用小模型解決所有問題,要在模型大小、性能和特定應用要求中找到平衡。

此外,小模型對人工智能的道德問題也提出了新挑戰(zhàn)。更低的使用門檻意味著更多的偏見、問責和道德問題,在每個細分的領(lǐng)域深度應用人工智能,都會帶來新的AI倫理問題。對小模型的研究和開發(fā)要和與之相關(guān)的道德準則、法規(guī)和監(jiān)管機制保持同步,才能確保小模型的發(fā)展和應用符合公共利益。

本文由 @數(shù)字前站 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載

題圖來自Unsplash,基于 CC0 協(xié)議

該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!