"SLM"相關(guān)的文章
AIGC
少即是多!10億參數(shù)「小巨人」擊敗ChatGPT

少即是多!10億參數(shù)「小巨人」擊敗ChatGPT

只有10億參數(shù)的xLAM-1B在特定任務(wù)中擊敗了LLM霸主:OpenAI的GPT-3.5 Turbo和Anthropic的Claude-3 Haiku。上個(gè)月剛發(fā)布的蘋(píng)果智能模型只有30億參數(shù),就連奧特曼都表示,我們正處于大模型時(shí)代的末期。那么,小語(yǔ)言模型(SLM)會(huì)是AI的未來(lái)嗎?