醫療AI應用為什么選Qwen

0 評論 254 瀏覽 0 收藏 6 分鐘

在醫療AI領域,選擇合適的底層模型對于應用的成功至關重要。作者在本文分享了為什么在醫療AI應用中選擇Qwen模型,而不是其他如百川智能或llama模型的原因。

Qwen2,上線僅1天,下載量已經超過3萬次。而且最近使用率一直飆升,隨著AI應用的落地數據應該還會比現在多幾百倍,未來的使用率這些也會是個不小的數據。不過即便這樣,大模型目前能賺的錢也不會太多,其根本原因是大類應用還沒出現。

話說回來,同樣在醫療領域為什么不選擇百川智能或者llama來做我們的底層模型。

在我們初期選定技術方案的時候是有考慮過Llama405B來做的,我們也嘗試過用這個快速做了一個MVP的前期產品,出現的BUG率還蠻多的,偶爾還有很多妖魔鬼怪的問題出現,有的時候并不是技術上面的問題,也有可能是我們技術團隊的問題。

第二個原因就是Llama對中文的語義分析有歧義。

而Qwen2對于醫療類的AIagent來說可以用其超大規模的算力和多輪交互能力,為用戶提供邏輯推理和代碼編寫的強大支持。最主要能快速的理解我們國內的一些真實場景。

那么對比Baichuan,擅長跨領域知識融合與自然語言理解,為用戶提供全面的知識問答和信息整合服務。更多的場景應該是選擇導診和問診方面的,解決一些深化的醫療問題。

第三個原因是我們目前面對的場景一般是數據不出庫的情況下,并且要求私有化部署的商業化應用。Qwen2開源許可都換成了Apache 2.0,也就是說可以更加自由地商用。這是Llama 3系列都沒做到的。

第四個原因是他們的開源 RAG 和代理框架QwenAgent,最初是作為內部實用程序代碼來促進模型開發的,最近經歷了快速開發。他們已經在框架中發布了上述長上下文代理的實現。

這種友好的框架是我們解決RAG幻覺問題很好的基礎。

雖然Baichuan也有很好的RAG方案,百川自研的 Think Step-Further方法對原始用戶輸入的復雜問題進行拆解、拓展,挖掘用戶更深層次的子問題,借助子問題檢索效果更高的特點來解決復雜問題檢索質量偏差的問題。用到的是Query拓展,Query拓展按照我的理解會影響回答的速度,按道理是需要經過幾次分類模型和分析模型的,目前使用雖然沒有影響回答速度,畢竟我還在測試這里面的優化邏輯,等我研究出來再告訴大家。

對于我們這種項目來說多種RAG方案我們肯定選擇最容易解決問題的那一個,而我們團隊中有人是擅長知識圖譜的,所以我們還是選擇了QwenAgent的框架畢竟開源。

第五個原因,嗯,說句可能被打臉的。

我認為Qwen的商業模式跟我們發展路線其實是一致的,可以共同成長。后續對我們最有幫助的點是一個重要的理論工具是Scaling Law,它而可以幫助我們理解和預測大模型的性能表現,并指導我們在模型設計和訓練中做出更合理的決策。Scaling Law一定Agent里面核心的一環,推理邏輯的強大對工作流來說可以幫助穩定其主要的輸出。

三個月創業來,我第一次有謹慎樂觀的感覺。我的現在開始有點講道理了,至少會推理出醫生需要的是什么工作流了需要幫他干什么了,但是現在還是不會干。很多人以為AiAgent就是單純的調用API,Agent有提示詞可以對細分領域或者任務進行處理,按照接口對接程序中寫好提示詞不也是一樣的嗎?如果是這樣理解的話,咱們做個腳本就可以了。

這種方法我們一般用在發布會上,比如演示Demo的時候失敗了,立馬換一個寫死的程序,能演示。但我們做的是一款產品,它需要不斷的對醫生工作流思維進行交互,如果操作過autogen的話,就很容易明白這里面的區別了,區別是這里無法形成多代理。

看起來做醫療類的AIAgent似乎成了大佬們的一個共識,就是不知道這個共識是否能星火燎原。

本文由人人都是產品經理作者【羅福如】,微信公眾號:【羅福如】,原創/授權 發布于人人都是產品經理,未經許可,禁止轉載。

題圖來自Unsplash,基于 CC0 協議。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
海報
評論
評論請登錄
  1. 目前還沒評論,等你發揮!