中國最大AI開源社區,在北京辦了第一場開發者大會


智東西
作者 | 陳駿達
編輯 | 云鵬
智東西6月30日報道 , 今天 , 國內AI開源社區魔搭在北京舉辦了其首屆開發者大會 。 截至2025年6月 , 魔搭社區已經擁有超500家貢獻機構 , 模型總量超7萬個 , 并服務了36個國家超1600萬開發者 。 此外 , 已經有超過4000個MCP服務在魔搭MCP廣場上發布 , 支持開發者超過1億次的調用 。
魔搭社區如今已是中國最大的AI開源社區 , DeepSeek系列模型、MiniMax多款模型、騰訊混元系列模型許多業界頭部模型選擇在魔搭社區開源 。 這一社區可提供模型體驗、下載、調優、訓練、推理、部署等服務 , 覆蓋LLM、對話、語音、文生圖、圖生視頻、AI作曲等多個領域 。
為進一步激勵開發者對社區的參與 , 周靖人在大會現場發布了“魔搭開發者勛章激勵計劃” , 為在平臺上作出貢獻的開發者賦予榮譽和獎勵 , 勛章獲得者可以獲得平臺免費GPU算力支持 , 以及AIGC專區高階訓練券、高階生圖券等獎勵 , 用于模型生成、模型訓練、應用搭建等場景 。
大會期間 , 還有多位嘉賓分享了他們對具身智能、端側AI等行業重要趨勢的見解 。 通義千問負責人林俊旸更是提前預告 , 該團隊將于下個月推出編程能力更強的Coder模型 。
會后 , 周靖人接受了智東西等少數媒體的采訪 。 周靖人向智東西說道 , 魔搭既是一個社區 , 也是一個技術產品 , 要隨著AI技術的發展而發展 。 魔搭正在快速迭代其對新技術、新產品、新工具的支持 , 也希望有更多開發者能加入到魔搭社區本身的開發過程中 。

一、魔搭周靖人:模型已成重要生產元素 , 要幫開發者“找、用、學、玩”周靖人認為 , 模型現已成為重要的生產元素 , 并成為了新一代應用的核心 。 在大模型技術快速迭代的過程中 , 開源開放是大模型生態發展的核心力量 。
魔搭在成立之初就遵循了開放、中立、非盈利的原則 , 這一理念吸引了諸多開發者和企業共同參與生態建設 。 回顧發展歷程 , 魔搭見證了許多頂尖開源模型的發布 。
2023年 , 業界第一個文本生成視頻的開源模型在魔搭社區發布 。 同年 , 百川智能、上海人工智能實驗室書生系列大模型、零一萬物Yi模型等業界領先模型均在魔搭社區開源首發 。
【中國最大AI開源社區,在北京辦了第一場開發者大會】2024年 , 魔搭社區面向AI創作者與設計師群體推出AIGC專區 , 提供圖片、視頻創作和模型訓練等服務 。
2025年 , DeepSeek系列模型、階躍星辰開源的Step-Video-T2V視頻生成模型和Step-Audio語音交互模型在魔搭社區首發 。
開源開放降低了開發者和企業使用先進AI技術的門檻 , 并且無需擔憂因為使用某一項技術而被綁定 。 模型開發者能從中獲取社區反饋和建議 , 從而形成正向循環 。
具體到服務層面 , 魔搭能在找模型、用模型、學模型、玩模型這四大領域為模型算法開發者、AI應用開發者和模型愛好者提供幫助 。
社區對模型家族進行了分類 , 并配備豐富的案例和API接口 , 幫助用戶快速將模型集成到實際業務中 。 同時 , 云端Notebook功能提供了低成本的開發環境 , 便于用戶高效探索業務場景 。
為簡化大模型與工具的對接流程 , 魔搭推出了MCP廣場 , 匯聚數千款MCP服務及托管方案 , 并開放第三方集成接口 。 支付寶、MiniMax等創新服務在此獨家首發 , 進一步拓展了生態應用 。
在開發支持方面 , 魔搭提供了涵蓋訓練、推理、微調和評估等流程的SDK工具包 , 目前裝機量已突破900萬次 。
周靖人分享 , 在這樣一個技術變革的時代里 , 能夠讓更多的人使用AI , 能夠讓AI的使用觸手可及 , 普惠到社會的方方面面 , 是魔搭與開發者努力的重要方向 。

二、無問芯穹汪玉:端側AI面臨算力能效困局 , 軟硬件協同設計可實現突破大會主論壇上 , 清華大學電子工程系系主任、無問芯穹發起人汪玉從硬件與算法的協同優化角度 , 探討了端側AI的挑戰與未來 。 汪玉認為 , AI技術正經歷從云端向終端設備的遷移 , 隨著AI模型規模的擴大 , 端側設備在算力和能效上面臨巨大壓力 。
與云端側重多用戶并發不同 , 端側AI更強調低延時響應和單用戶體驗 , 當前端側AI的理想推理速度大約為100-1000token/s , 但端側AI硬件的能力離這一目標還存在顯著差距 。
汪玉為上述問題提出了多個突破方向:通過芯片架構創新和存算一體技術提升硬件性能 , 采用模型壓縮技術開發高效小模型 , 以及針對具體應用場景進行算法優化適配 。
他特別強調 , 國內產業需要打通從算法設計、軟件開發到硬件制造的全棧協同創新 。 在硬件層面 , 其團隊已在FPGA上實現55token/s的推理速度 。
汪玉特別看好具身智能的發展前景 , 認為這是將數字智能延伸至物理空間的重要方向 。 他呼吁產業界通過軟硬件協同設計、共建數據生態 , 共同推動端側AI和機器人技術的創新發展 , 構建面向未來的智能算力基礎設施 。

三、星海圖趙行:機器人硬件形態趨于收斂 , 具身智能需要自己的“ImageNet”主論壇上 , 清華大學特別研究員、星海圖聯合創始人趙行進一步分享了具身智能相關的話題 。 他認為 , 當前以ChatGPT為代表的離身智能(Disembodied AI)已通過圖靈測試 , 但具身智能(Embodied AI)仍處于早期階段 , 其核心瓶頸在于如何在正確的機器人本體上獲取高質量數據 , 并構建可泛化的模型 。
趙行強調 , 具身智能的突破需要類似計算機視覺領域ImageNet的標準化數據集 , 但由于機器人需要進行閉環測試 , 且硬件形態各異 , 數據采集和模型開發更為復雜 。
標準化的硬件平臺是突破上述問題的關鍵 。 星海圖已經發布了3款機器人本體 , 計劃在今年年底前采集超過1萬小時的真實世界數據 , 涵蓋工業、家庭、商業等多樣化任務 。
在模型架構上 , 星海圖提出了“快慢雙系統”的具身基礎模型(Embodied Foundation Model) , 結合多模態大語言模型(慢思考)和輕量化執行模型(快執行) , 實現任務規劃與實時閉環控制 。
展望未來 , 趙行預測機器人硬件形態將趨于收斂 , 基礎模型的泛化能力將在2026年迎來爆發 , 世界模型技術將增強機器人的預測與自主學習能力 。 他呼吁全球開發者共同構建具身智能生態 , 推動其在真實場景的大規模落地 。

四、通義千問林俊旸:預訓練技術仍有空間 , Qwen Coder模型下月發布在下午的主題論壇上 , 通義千問負責人林俊旸分享了他們的開源模型實踐經驗 。
今年4月底 , Qwen3系列模型迎來發布 。 模型參數量從0.6B到-235B不等 。 林俊旸稱 , 這一代模型主要有三大特點:
混合推理模式:Qwen3全系列都支持混合推理 , 也就是說在一款模型內實現推理和非推理模式 , 并允許開發者自主選擇模型的推理長度 。 但林俊旸認為 , 這還不是推理模型的理想形態 , 未來模型還需要具備自己決定是否進行推理的能力 。
更多語言支持:Qwen從1.5系列就開始關注多語言 , 目前Qwen3支持119種語言和方言 , 在下一版本Qwen會擴展對非洲地區語言的支持 。
MCP增強:Qwen3在訓練數據方面針對MCP進行了增強 , 這本質上提升了模型的Agent能力 。
林俊旸透露 , Qwen團隊內部更加關注MoE模型Qwen3-30B-A3B和稠密模型Qwen3-4B 。 Qwen3-30B-A3B在能力和部署難度上實現了平衡 , 在Qwen團隊的內部測試中甚至超過了14B的稠密模型 。
Qwen3-4B專為手機端側設計 , 做了極致的剪枝和蒸餾 , 在許多場景的性能已經接近Qwen上一代72B模型的表現 。
除了Qwen3之外 , 今年Qwen團隊還帶來了Qwen-3系列的嵌入模型、重排序模型以及全模態模型Qwen2.5-Omni、多模態模型Qwen-VLO等等 。
談及未來 , 林俊旸稱 , 業內已經從訓練模型的階段逐漸轉變到訓練Agent的階段 , 預訓練技術發揮的空間仍然很大 , 可以通過打造強大的teacher超大型模型 , 最終做出適用于API調用的模型 。
通義千問計劃通過環境反饋的強化學習 , 教會模型實現長時程的推理 。 在輸入和輸出側 , 模型的模態也會不斷增加 。 下個月 , 通義千問將會發布適用于編程場景的Coder模型 。

結語:中國開源AI生態狂飆 , 魔搭想成為“首選社區”作為國內代表性的開源AI社區 , 魔搭的發展也可謂是中國開源AI的縮影 。 過去2年多以來 , 中國AI開源生態迅猛發展 , 諸如阿里、DeepSeek等企業的開源模型在世界范圍內都具有較強的影響力 。
同時 , 中國的開發者們也在為開源生態不斷貢獻新工具、新技術 , 相關開源成果在魔搭等平臺開放獲取 , 最終給全球開發者都帶來了實實在在的價值 。

    推薦閱讀