訂閱
糾錯
加入自媒體

深度丨國內(nèi)開源AI份額增至30%,中國思路改寫全球格局

前言

美國風(fēng)投a16z與全球模型聚合平臺OpenRouter聯(lián)合發(fā)布的《State of AI》研究顯示,中國開源AI模型的周使用量占比已從2024年底的1.2%飆升至2025年后期的近30%,全球下載量正式超越美國。

100萬億Token的背后,是數(shù)千萬開發(fā)者的用腳投票,是從模式預(yù)測到機(jī)器思考的技術(shù)躍遷

圖片來源 |  網(wǎng) 絡(luò) 

圖片

中國開源AI的爆發(fā)式增長

2024年底,在OpenRouter平臺的全球流量池中,中國開源模型的身影幾乎可以忽略不計(jì),1.2%的周使用量占比,讓其只能徘徊在全球AI生態(tài)的邊緣。

彼時,行業(yè)共識依然是閉源模型定調(diào)技術(shù)上限,開源模型只是廉價平替,Meta的Llama系列、OpenAI的GPT家族牢牢掌控著話語權(quán)。

誰也沒有想到,這場力量對比的反轉(zhuǎn)會來得如此迅猛。

2025年,隨著DeepSeek V3、Qwen 3 Coder、Kimi K2等模型密集發(fā)布,中國開源AI開啟了指數(shù)級增長模式。

每一次重要版本更新都伴隨著使用量的顯著躍升,且增長極具持續(xù)性,表明這些模型已深度融入真實(shí)生產(chǎn)工作流。

2025年后期,部分周度的使用量占比已逼近30%,全年平均份額穩(wěn)定在13%左右,與其他地區(qū)開源模型的平均份額基本持平。

更具里程碑意義的是,中國開源模型的全球下載量在2025年中完成了歷史性反超。

Hugging Face數(shù)據(jù)顯示,截至2025年8月,中國開源模型的累計(jì)下載量已超越美國

僅阿里Qwen系列就貢獻(xiàn)了月度40%以上的新衍生模型,衍生模型總數(shù)突破18萬,遠(yuǎn)超Meta Llama系列的15%占比。

DeepSeek模型更是以1.28萬次點(diǎn)贊成為Hugging Face平臺最受歡迎的開源模型,是Llama頭號模型點(diǎn)贊數(shù)的兩倍。

這場爆發(fā)式增長的背后,是中國開源生態(tài)從單點(diǎn)突破到集團(tuán)軍作戰(zhàn)的進(jìn)化。

2024年底,DeepSeek家族曾占據(jù)超50%的開源Token量,形成一家獨(dú)大的格局。

而到2025年底,市場已演變?yōu)槲鍙?qiáng)爭霸的戰(zhàn)國時代,沒有任何單一開源模型能持續(xù)占據(jù)超過25%的市場份額。

流量均勻分布在DeepSeek、Qwen、Kimi K2、MiniMax M2、GPT-OSS等五到七個主要競爭者之間。

這種健康的多元化態(tài)勢,既為開發(fā)者提供了更豐富的選擇,也迫使模型提供者通過持續(xù)創(chuàng)新維持競爭力,推動整個生態(tài)螺旋式上升。

圖片

中型模型崛起與推理能力革新

報告數(shù)據(jù)顯示,中國模型在核心技術(shù)維度實(shí)現(xiàn)了三大關(guān)鍵突破,徹底打破了開源模型性能不如閉源的刻板印象。

中型模型的崛起過去,開源模型市場呈現(xiàn)兩極分化,要么是參數(shù)少于150億的小型模型,雖輕便但能力有限;要么是參數(shù)超700億的大型模型,雖強(qiáng)大但成本高昂。

中國團(tuán)隊(duì)率先找到了破局之道參數(shù)在150億到700億之間的中型模型,在能力與效率之間實(shí)現(xiàn)了最佳平衡。

2024年11月Qwen2.5-Coder-32B發(fā)布后,Mistral Small 3、GPT-OSS 20B等模型迅速跟進(jìn),共同催生了中型模型這一新興賽道。

這類模型足夠聰明,能處理復(fù)雜邏輯推理和代碼生成,又足夠輕盈,推理成本低廉,成為支撐100萬億Token處理量的中流砥柱。

圖片

推理范式革新2024年12月OpenAI發(fā)布o(jì)1模型,標(biāo)志著AI從文本預(yù)測邁入機(jī)器思考時代,而中國開源模型快速跟進(jìn)并實(shí)現(xiàn)超越。

DeepSeek R1、Qwen3等模型引入擴(kuò)展的推理時計(jì)算過程,包含內(nèi)部多步思考、潛在規(guī)劃和迭代優(yōu)化,在數(shù)學(xué)推理、邏輯一致性和多步?jīng)Q策等方面實(shí)現(xiàn)系統(tǒng)性提升。

報告顯示,推理模型的Token處理量已占總量的50%,其中DeepSeek R1、Qwen3均躋身推理模型使用量前列。

而馬斯克xAI旗下的Grok Code Fast 1雖占據(jù)推理流量榜首,但中國模型的追趕速度讓行業(yè)矚目。

更關(guān)鍵的是成本效率的顛覆性突破,GPU資源受限的背景下,中國團(tuán)隊(duì)通過極致優(yōu)化的數(shù)據(jù)處理、稀疏注意力等前沿架構(gòu),將大模型訓(xùn)練成本壓縮至原來的10%。

Kimi K2為例,其256K上下文、200-300次工具調(diào)用的強(qiáng)大能力,訓(xùn)練成本僅460萬美元,而美國同規(guī)模閉源模型的訓(xùn)練成本預(yù)估高達(dá)3億美元。

DeepSeek-V3僅用2048個GPU在57天內(nèi)完成訓(xùn)練,成本約557.6萬美元,僅為其他主流模型的1/10。

這種成本優(yōu)勢轉(zhuǎn)化為市場競爭力,中國開源模型的每百萬Token成本普遍低于0.4美元,而OpenAI的GPT-4/5高達(dá)35美元,Anthropic的Claude系列約2美元。

英偉達(dá)CEO黃仁勛直言,DeepSeek和Qwen是[開源AI模型之中最好的]。

Airbnb CEO布萊恩·切斯基公開表示,公司核心應(yīng)用大量依賴Qwen,其[OpenAI的產(chǎn)品更好更便宜]。

硅谷80%的初創(chuàng)公司選擇中國開源模型,只因每月1億Token的使用成本能從30萬美元暴跌至1400美元,成本優(yōu)勢直接決定了企業(yè)的生存能力。

圖片

編程與角色扮演的[雙引擎]驅(qū)動

100萬億Token的數(shù)據(jù)揭示了一個反直覺的真相AI的核心價值不僅在于生產(chǎn)力提升,更在于情感連接與創(chuàng)造性表達(dá)。

編程與角色扮演兩大場景,共同構(gòu)成了中國開源AI的增長雙引擎,合計(jì)占據(jù)了大部分開源模型Token使用量。

編程場景的爆發(fā)式增長尤為引人注目,2025年編程相關(guān)的查詢量從年初占總Token量的11%攀升至年底的超過50%,成為第一大應(yīng)用場景。

這一趨勢背后是AI對開發(fā)工作流程的徹底重構(gòu),如今的編程任務(wù)不再局限于簡單的代碼補(bǔ)全,而是擴(kuò)展到復(fù)雜的系統(tǒng)設(shè)計(jì)、調(diào)試優(yōu)化和多步驟問題解決。

中國開源模型在編程領(lǐng)域的表現(xiàn)尤為亮眼Qwen3-Coder在多項(xiàng)國際編程測試中表現(xiàn)出色,甚至能與Anthropic的Claude系列掰手腕,迫使Claude在OpenRouter上的編程場景市場份額從7月的46%一個月內(nèi)降至32%。

DeepSeek、MiniMax等模型也在開源編程領(lǐng)域快速崛起,形成對西方模型的有力沖擊。

圖片

而在開源模型的使用中,角色扮演場景的占比更是高達(dá)52%,超過了編程場景,成為最受歡迎的應(yīng)用方向。

中國開源模型在這一領(lǐng)域占據(jù)絕對優(yōu)勢,DeepSeek的流量中,有驚人的三分之二來自角色扮演和休閑聊天。

對于海量C端用戶而言,AI首先是[情感投射對象],其次才是工具。

這種被主流敘事忽略的需求,在開源社區(qū)得到了充分釋放,形成了巨大的[供需真空]。

編程與角色扮演的雙輪驅(qū)動揭示了AI生態(tài)的多元性閉源模型更像[穿著西裝的精英],專注于嚴(yán)肅的生產(chǎn)力場景

而中國開源模型則兼具[工程師][游吟詩人]的雙重特質(zhì),既能夠高效處理代碼邏輯,又能靈活滿足情感與創(chuàng)意需求。

這種全場景覆蓋能力,讓中國開源模型獲得了更廣泛的用戶基礎(chǔ),也為生態(tài)增長提供了源源不斷的動力。

圖片

水晶鞋效應(yīng)與回旋鏢效應(yīng)

在模型迭代速度日新月異的AI行業(yè),吸引用戶不難,留住用戶才是真正的核心競爭力。

報告提出的[灰姑娘水晶鞋效應(yīng)]與中國模型獨(dú)有的[回旋鏢效應(yīng)],揭示了中國開源AI高粘性的底層邏輯。

[灰姑娘水晶鞋效應(yīng)]的核心是:當(dāng)一個新模型恰好滿足了一類長期未被解決的高價值需求時,就會形成[完美契合],用戶會將其深度融入工作流和業(yè)務(wù)流程,形成強(qiáng)大的鎖定效應(yīng)。

即使后續(xù)出現(xiàn)更優(yōu)的替代方案,高昂的遷移成本也讓用戶難以割舍,中國模型精準(zhǔn)把握了這一邏輯,契合了中小企業(yè)的降本需求。

更具中國特色的是DeepSeek展現(xiàn)出的[回旋鏢效應(yīng)],部分用戶在嘗試其他模型后,會重新回歸DeepSeek。

這種現(xiàn)象背后,是中國模型在特定維度建立的難以替代的優(yōu)勢可能是成本效率、特定領(lǐng)域的性能,或是對中文場景的深度適配。

用戶在探索其他選項(xiàng)后發(fā)現(xiàn),在角色扮演、中文編程、長文檔處理等場景中,中國模型依然是[無可替代的舊愛]。

這種基于獨(dú)特體驗(yàn)的留存,比單純依靠技術(shù)參數(shù)堆砌的競爭力更加堅(jiān)固。

中國模型的高留存,還得益于對用戶行為變化的敏銳捕捉。

報告顯示,2025年用戶發(fā)送給AI的平均提示詞長度從1500個Token增長到6000多個,增長了近4倍

AI的輸出內(nèi)容從平均150個Token增長到400個,增長了近3倍。

這一變化反映了AI角色從[助手][協(xié)作者]的轉(zhuǎn)變,而中國模型早早就布局了長上下文處理能力。

圖片

從硅谷主導(dǎo)到多極共生

中國開源AI的崛起,正在打破全球AI發(fā)展的[西方中心論],推動形成全球分布式創(chuàng)新的新格局。

報告數(shù)據(jù)顯示,亞洲在全球AI使用量中的份額已從約13%顯著提升至31%,北美份額則從50%以上首次跌破50%,標(biāo)志著AI使用正從美國主導(dǎo)轉(zhuǎn)向全球共享。

全球企業(yè)對中國開源模型的接納,正在突破地緣的壁壘。

Airbnb的客服AI由13個模型組成,在很大程度上依賴阿里Qwen。

硅谷初創(chuàng)公司紛紛將推理任務(wù)、RAG應(yīng)用遷移到Kimi K2。

Meta甚至在最新的[牛油果]模型訓(xùn)練中,蒸餾了阿里Qwen的開源模型。

這種接納的背后,是商業(yè)邏輯的必然選擇,AI研發(fā)成本高企、商業(yè)化壓力增大的背景下,中國模型[又好又便宜]的優(yōu)勢幾乎無法抗拒。

對于中小企業(yè)和初創(chuàng)公司而言,中國開源模型的低成本意味著[活下去]的可能。

對于大型企業(yè)而言,中國模型的高適配性和靈活性能夠降低試錯成本、提升創(chuàng)新效率。

目前,在LMArena、Artificial Analysis等多個開源模型排行榜上,前10名幾乎全部來自中國團(tuán)隊(duì),中國已成為全球開源AI技術(shù)標(biāo)準(zhǔn)的重要制定者之一。

圖片

推理即服務(wù),生態(tài)定勝負(fù)

中國開源AI的成功,正是在于找到了自己的獨(dú)特定位不是成為閉源模型的[平替],而是成為AI普及的[基礎(chǔ)設(shè)施],就像Linux、MySQL一樣,通過開放共享推動整個行業(yè)的進(jìn)步。

中國開源AI正在通過技術(shù)普惠+生態(tài)共建的路徑,構(gòu)建一個全球性的開發(fā)者社區(qū)。

當(dāng)大量開發(fā)者和企業(yè)基于中國開源框架構(gòu)建應(yīng)用時,其背后的工具鏈、評測基準(zhǔn)、安全規(guī)范將潛移默化地成為全球產(chǎn)業(yè)的一部分。

部分資料參考:騰訊科技:《a16z 100萬億Token研究揭示的真相:中國力量重塑全球AI版圖》,算泥:《一百萬億Token里的AI現(xiàn)狀:OpenRouter和a16z重磅研究帶你透視AI江湖》,快刀青衣:《100萬億token背后六大洞察:效率與創(chuàng)意并重》,鳳凰網(wǎng)科技:《昔日開源霸主承認(rèn)蒸餾阿里千問,世界進(jìn)入中國AI時間》,紫金財(cái)經(jīng):《AI浪潮之下,國產(chǎn)大模型趕超了嗎?》,奇偶工作室:《80%美國小公司,都在使用中國開源模型!成本是生死線》

       原文標(biāo)題 : 深度丨國內(nèi)開源AI份額增至30%,中國思路改寫全球格局

聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號