日本免费全黄少妇一区二区三区-高清无码一区二区三区四区-欧美中文字幕日韩在线观看-国产福利诱惑在线网站-国产中文字幕一区在线-亚洲欧美精品日韩一区-久久国产精品国产精品国产-国产精久久久久久一区二区三区-欧美亚洲国产精品久久久久

一文看懂!各家大模型發(fā)布時間線暗藏的科技密碼

一文看懂!各家大模型發(fā)布時間線暗藏的科技密碼

在科技日新月異的今天 , 人工智能領(lǐng)域正經(jīng)歷著前所未有的變革 。 其中 , “大模型”作為AI技術(shù)的新高地 , 正逐步成為推動行業(yè)創(chuàng)新與社會發(fā)展的關(guān)鍵力量 。 這些擁有數(shù)以億計參數(shù)、能夠處理復(fù)雜任務(wù)的巨型模型 , 不僅深刻改變了我們對智能的理解 , 更在諸多領(lǐng)域如自然語言處理、計算機(jī)視覺、推薦系統(tǒng)等展現(xiàn)出巨大的應(yīng)用潛力 。


梳理大模型發(fā)布時間線 , 能清晰洞察人工智能發(fā)展脈絡(luò) 。 從早期探索到如今百花齊放 , 大模型的每一次迭代都推動著科技浪潮 。 下面 , 讓我們一同回溯各家大模型的發(fā)布時間線 , 見證這場激動人心的科技變革 。
1
OpenAI
1. 2016 年4月:OpenAI Gym 發(fā)布 , 強(qiáng)化學(xué)習(xí)訓(xùn)練平臺 , 提供了一套工具用于開發(fā)和比較強(qiáng)化學(xué)習(xí)算法 , 促進(jìn)了AI社區(qū)的算法研究 。


2.2016 年8月 , Nvidia 向 OpenAI 贈送了其首款 DGX-1 超級計算機(jī) , 以幫助訓(xùn)練更大、更復(fù)雜的 AI 模型 , 并將處理時間從 6 天縮短到 2 小時 。


3. 2016 年12月:Universe 發(fā)布 , 通用AI開發(fā)與測試平臺 , 支持AI在各種環(huán)境中進(jìn)行訓(xùn)練和測試 , 拓展了強(qiáng)化學(xué)習(xí)的應(yīng)用領(lǐng)域 。


4.2017年:OpenAI 在云計算上花費(fèi)了 790 萬美元 , 占其功能性支出的四分之一 。 相比之下 , DeepMind 在 2017 年的總支出為 4.42 億美元 。


5. 2018 年6月:GPT-1 發(fā)布 , 這是首個將 Transformer 架構(gòu)與無監(jiān)督預(yù)訓(xùn)練結(jié)合的大型語言模型 , 參數(shù)量約 1.17 億 。 【標(biāo)志著大規(guī)模預(yù)訓(xùn)練語言模型時代的起步】


6. 2019 年2月:GPT-2 發(fā)布 , 參數(shù)量達(dá) 15 億 , 顯著增強(qiáng)了文本生成的質(zhì)量和多樣性 。


7. 2020 年6月:GPT-3 發(fā)布 , 參數(shù)量 1750 億 , 基礎(chǔ)大型語言模型 , 用于生成文本 , 引入了上下文學(xué)習(xí)技術(shù) , 能夠執(zhí)行多種任務(wù) , 如翻譯、問答和代碼生成 。


8. 2021年1月:DALL?E 發(fā)布 , 這是圖像生成模型 , 能夠根據(jù)文本描述生成逼真的圖像 , 展示了多模態(tài)生成的潛力 。
CLIP 發(fā)布(對比語言-圖像預(yù)訓(xùn)練)是一種模型 , 旨在分析文本和圖像之間的語義相似性 。 它特別適用于圖像分類任務(wù) 。


9. 2021年8月:Codex 發(fā)布 , 專為代碼生成設(shè)計 , 它在 GPT-3 基礎(chǔ)上針對編程語言微調(diào) , 能夠?qū)⒆匀徽Z言描述轉(zhuǎn)換為代碼 , 成為 GitHub Copilot 的核心技術(shù) 。
【一文看懂!各家大模型發(fā)布時間線暗藏的科技密碼】

10. 2022年4月:DALL?E 2 發(fā)布 , 采用擴(kuò)散模型進(jìn)行圖像生成 , 提供更高分辨率的圖像生成 , 支持編輯現(xiàn)有圖片 。


11. 2022 年9月:Whisper 發(fā)布 , 是多語言語音識別模型 , 接近人類水平的識別精度 , 支持多語言語音識別、語音翻譯和語言識別 。


12. 2022年11月:ChatGPT 發(fā)布 , 基于 GPT-3.5 系列進(jìn)行對話優(yōu)化 , 提供更自然流暢的聊天體驗 。 【標(biāo)志著生成式 AI 應(yīng)用的普及】


13. 2023年2月:推出 ChatGPT Plus 訂閱服務(wù)(每月 20 美元) , 為用戶提供更快響應(yīng)和優(yōu)先使用最新功能


14. 2023年3月14日:GPT-4 發(fā)布 , 支持多模態(tài)輸入 , 能夠分析文本和圖像 , 處理復(fù)雜任務(wù)的能力更強(qiáng) , 在推理、編碼等方面性能提升 。


15. 2023年3月24日:ChatGPT Plugins 推出 , 對第三方插件的支持 , ChatGPT Plugins是進(jìn)一步生態(tài)變革的開端 , 基于ChatGPT的改進(jìn)包括:能夠訪問互聯(lián)網(wǎng)實時數(shù)據(jù)、創(chuàng)建并編譯代碼、調(diào)用和創(chuàng)建第三方程序等等 。


16. 2023年5月18日:ChatGPT iOS 版發(fā)布


17. 2023年8月28日:ChatGPT Enterprise 版發(fā)布 , 面向企業(yè)的ChatGPT版本 , 提供企業(yè)級安全和數(shù)據(jù)隱私保護(hù) , 提供無限速的GPT-4訪問權(quán)限 , 支持32K上下文輸入 , 高級數(shù)據(jù)分析功能 , 自定義選項等所有高級功能


18. 2023年9月26日:GPT-4V (Vision)視覺增強(qiáng)版 發(fā)布 , 加強(qiáng)了圖像處理與理解能力 , 使模型在多模態(tài)任務(wù)上更具競爭力 , 可以執(zhí)行更復(fù)雜的視覺分析任務(wù) , 如詳細(xì)的場景描述、物體識別、視覺推理等


19. 2023年11月6日:GPT-4 Turbo、DALL·E 3、GPTs 發(fā)布 , 在 GPT-4 基礎(chǔ)上進(jìn)行了性能優(yōu)化 , 減少了推理時間和資源消耗 。


20. 2024年2月:Sora 預(yù)告 , 專注于視頻生成的大規(guī)模預(yù)訓(xùn)練模型 , 可以生成高質(zhì)量、長時間的視頻內(nèi)容 。


21. 2024年5月14日:GPT-4o 發(fā)布 , 進(jìn)一步擴(kuò)展多模態(tài)處理能力 , 支持文本、音頻和圖像組合輸入 , 響應(yīng)速度提升 , 引入情感計算技術(shù) 。


22. 2024年6月25日:Mac 版ChatGPT 發(fā)布


23. 2024年7月18日:GPT-4o-mini 發(fā)布 , 相當(dāng)于是能力更強(qiáng)的\"GPT-3.5\" , 同時支持文本和圖像 , GPT-4o mini 成本比 GPT-3.5 Turbo便宜超過60%


24. 2024年7月25日:ChatGPT Android 版發(fā)布


25. 2024年9月12日:o1預(yù)覽版、O1-preview、O1-mini 發(fā)布 , O1 旨在進(jìn)一步推進(jìn)多模態(tài)處理能力和智能交互;O1-preview 為開發(fā)者和研究人員提供的早期版本;O1-mini 針對邊緣設(shè)備和移動應(yīng)用進(jìn)行了優(yōu)化 。


26. 2024年10月3日:Canvas 發(fā)布 , 在寫作和代碼方面展開協(xié)作 , 為ChatGPT引入新的寫作和編程界面 , 提升用戶與AI協(xié)作的體驗 。


27. 2024年10月18日:Windows 版ChatGPT 發(fā)布


28. 2024年10月31日:ChatGPT搜索功能 發(fā)布 , 僅在ChatGPT Plus等付費(fèi)套餐中可以使用 , 實時網(wǎng)絡(luò)搜索 , ChatGPT整合了實時互聯(lián)網(wǎng)信息 , 提升了回答的準(zhǔn)確性和時效性


29. 2024年12月5日:o1 完整版& ChatGPT Pro 發(fā)布 , o1 支持圖像輸入 , 比 o1-preview 思考時間更短 , 但響應(yīng)更快 。 ChatGPT Pro 。 200 美元/月的會員訂閱費(fèi) 。 不限制使用次數(shù)(包括o1、o1-mini、語音模式等等) , 另外也會有更智能的 o1 使用模式 。


30. 2024年12月6日:強(qiáng)化微調(diào)技術(shù)(Reinforcement Fine-Tuning ,RFT)發(fā)布 , 與監(jiān)督微調(diào)不同 , 監(jiān)督微調(diào)的目標(biāo)是讓模型復(fù)制在輸入文本或圖像中提取出的特征 。 強(qiáng)化微調(diào) RFT 不只是讓模型學(xué)會模仿輸入 , 而是學(xué)會以全新的方式進(jìn)行推理 , 僅需要幾十個例子即可做到 。


31. 2024年12月10日:Sora Turbo 發(fā)布 , 相比初代Sora , Sora Turbo生成視頻速度更快 。 該工具不僅可以通過文本提示生成視頻 , 還能夠基于靜態(tài)圖片和已有視頻創(chuàng)建新的內(nèi)容 。


32. 2024年12月14日:推出 Projects 功能, 通過項目可以你可以上傳文件、設(shè)置自定義指令 。


33. 2024年12月20日:o3 & o3-mini 預(yù)告 , 據(jù) OpenAI 官方消息 , 25 年 1 月底上線了 O3-mini 。


34. 2025 年1月15日:OpenAI上線ChatGPT Tasks模型發(fā)布 , 是一個未來的“定時任務(wù)助手” , 能讓你的ChatGPT在未來某個時間點(diǎn)執(zhí)行你設(shè)定的任務(wù) 與蘋果Siri、谷歌Assistant、亞馬遜Alexa這些語音助手不同 , Tasks由強(qiáng)大的GPT-4o模型驅(qū)動 。


35. 2025年1月23日:Operator 發(fā)布 , Operator 由名為 Computer-Using Agent (CUA) 的新模型驅(qū)動 。 這是 OpenAI 發(fā)布的第一個 Agent , 旨在通過模擬人類在瀏覽器上的操作(如打字、點(diǎn)擊和滾動)來完成各種重復(fù)性任務(wù) , 從而擴(kuò)展 AI 的實用性 , 幫助用戶節(jié)省時間和為企業(yè)創(chuàng)造新的互動機(jī)會 。 (第一個智能體)


36. 2025年1月31日:O3-mini 發(fā)布 , 與 OpenAI o1 類似 , OpenAI o3-mini 針對 STEM 推理進(jìn)行了優(yōu)化 。 在中等推理強(qiáng)度下 , o3-mini 在數(shù)學(xué)、編程和科學(xué)方面的表現(xiàn)與 o1 持平 , 同時響應(yīng)速度更快 。


37. 2025年2月2日:Deep Search 發(fā)布 , OpenAI 發(fā)布的第二個 Agent 。 Deep Research基于 o3的微調(diào)版本 , 它能夠在數(shù)十分鐘內(nèi)完成人類研究人員需要花費(fèi)數(shù)小時才能完成的工作 , 極大地提高了研究效率 。
2
MiniMax
1. 2022 年 10 月:推出了首款面向用戶的產(chǎn)品 “Glow” , 主打虛擬角色創(chuàng)建與對話體驗 , 短時間內(nèi)獲得了約500萬用戶 。 【后續(xù)因備案或運(yùn)營問題 , “Glow”在2023年3月終止 , 并為后續(xù)產(chǎn)品重塑做準(zhǔn)備】


2. 2023 年 3 月:MiniMax 開放平臺 推出 , 面向 B 端用戶的大語言模型技術(shù)平臺 。


3. 2023 年 6 月:abab 5.5 版本開始嘗試 MoE 架構(gòu) , 第一版是 Dense 稠密架構(gòu) 。


4. 2023 年 6 月:“Glow”在國際市場以 “Talkie” 品牌重新上線 , 一款虛擬聊天機(jī)器人應(yīng)用程序 , 主打國際市場 。


5. 2023 年 8 月:MiniMax 大模型全面開放 , 適用于邏輯推理、文本續(xù)寫等文本處理場景 , 開放平臺還提供聲音大模型能力 。


6. 2023 年 9 月:針對中國市場 , “Glow”被重新命名為 “星野” , 定位更貼合國內(nèi)用戶 , 繼續(xù)延續(xù)基于大模型的對話和內(nèi)容生成功能 。


7. 2023 年 10 月:abab 5.5 第二代正式轉(zhuǎn)為 MoE 架構(gòu) 。


8. 2024 年1 月:abab 6 發(fā)布 , 全量大語言模型, 為國內(nèi)首個數(shù)千億參數(shù)級別 MoE 大語言模型 。


9. 2024 年1月 30日:Minimax 的 AI 對話機(jī)器人問答產(chǎn)品「海螺問問」上線 。


10. 2024 年4 月 17日:abab 6.5系列 發(fā)布 , 推出萬億參數(shù) MoE 大語言模型 abab6.5 和 6.5s 模型 , 支持高達(dá)200K tokens 的上下文長度 , 性能接近GPT-4等世界領(lǐng)先模型 。


11. 2024 年 4 月:基于 abab-6.5 模型開發(fā)的生產(chǎn)力工具 “海螺 AI” 推出 。


12. 2024 年 5月 15日:正式發(fā)布原生應(yīng)用「海螺 AI」 , 并在官網(wǎng)以及應(yīng)用端 APP 上線 。


13. 2024 年8月 31日:發(fā)布視頻模型 abab - video - 1 、音樂模型music-01、生成式語音合成大模型speech-01 , 并集成在海螺 AI 中 , 該模型為文本到視頻生成模型 , 支持以文字生成6秒2K視頻(25幀率) , 與國際上 Sora 產(chǎn)品形成對比 。


14. 2024 年11 月:計劃發(fā)布對標(biāo) GPT-4o 的 Realtime API 服務(wù) , 提升端到端實時多模態(tài)處理能力 。


15. 2025 年 1月15日:MiniMax-01系列, 包括基礎(chǔ)語言大模型MiniMax-Text-01和視覺多模態(tài)大模型MiniMax-VL-01 。 采用混合專家(MoE)架構(gòu) , 支持400萬token的上下文處理 , 可輸入長度是GPT-4o的32倍 , Claude-3.5-Sonnet的20倍 , 綜合性能比肩GPT-4o和Claude-3.5-Sonnet 。


16. 2025 年 1月 20日:發(fā)布全新升級的 T2A-01 語音模型 , 同時上線「海螺語音」產(chǎn)品 。
3
月之暗面
1. 2023 年 10 月 9 日:推出首個支持輸入 20 萬漢字的智能助手產(chǎn)品 Kimi Chat(后更名為Kimi 智能助手) , 這是全球市場上能夠產(chǎn)品化使用的大模型服務(wù)中所能支持的最長上下文輸入 。


2. 2024 年 3 月 18 日:Kimi 智能助手啟動 200 萬字無損上下文內(nèi)測 , 超越了 GPT-4turbo-128k 約 10 萬漢字和 Claude 3200k 約 16 萬漢字的能力 。


3. 2024 年 4 月 18 日:Kimi最新版本 , 模型能力提升 , 支持語音輸入/播報 , 搜索引用溯源 。


4. 2024 年 7 月 8 日:Kimi瀏覽器插件 , 上線瀏覽器插件 , 具備劃選文字和網(wǎng)頁總結(jié)功能


5. 2024 年 10 月 11 日:Kimi探索版 , 正式上線具備AI自主搜索能力的Kimi探索版 , 一次搜索可精讀500個頁面 。


6. 2024 年 11 月 16 日:Kimi Chat 宣布推出新一代數(shù)學(xué)推理模型 k0-math , 其數(shù)學(xué)能力可對標(biāo)全球領(lǐng)先的 OpenAI o1 系列可公開使用的兩個模型:o1-mini 和 o1-preview 。


7. 2024 年 12 月 16 日:k1視覺思考模型 , 發(fā)布AI視覺思考模型k1 , 支持端到端圖像理解和思維鏈技術(shù) 。


8. 2025年1月15日:moonshot-v1-vision-preview , 發(fā)布多模態(tài)圖片理解模型 , 完善moonshot-v1模型系列的多模態(tài)能力 。


9. 2025 年 1 月 20 日:發(fā)布 k1.5 多模態(tài)思考模型 , 在 short-CoT 模式下 , Kimi k1.5 的數(shù)學(xué)、代碼、視覺多模態(tài)和通用能力大幅超越了全球范圍內(nèi)短思考 SOTA 模型 GPT-4o 和 Claude 3.5 Sonnet 的水平 , 領(lǐng)先達(dá)到 550%;在 long-CoT 模式下 , Kimi k1.5 的數(shù)學(xué)、代碼、多模態(tài)推理能力也達(dá)到長思考 SOTA 模型 OpenAI o1 正式版的水平 。
4
百川智能
1. 2023 年 6月 15日:發(fā)布第一款免費(fèi)商用的大模型 Baichuan-7b 并開源 。


2. 2023 年 7月11日:發(fā)布第二款開源可免費(fèi)商用的大語言模型 Baichuan-13b 。


3. 2023 年 8月 8日:發(fā)布第三款閉源大語言模型 Baichuan-53b, 開啟第一批內(nèi)測 。


4. 2023 年 9月 6日:發(fā)布 Baichuan2-7b、Baichuan2-13b 兩款免費(fèi)可商用的開源模型 , Baichuan-7b 升級到 2.0 版本 。


5. 2023 年 9月 25日:Baichuan2-53B , 發(fā)布閉源大模型 , 開放API接口 , 開啟商業(yè)化 。


6. 2023 年 10 月 30日:發(fā)布 Baichuan-192K 大模型 , 上下文窗口長度為當(dāng)時全球最長 。


7. 2023 年 11月 16日:與鵬城實驗室合作研發(fā)基于國產(chǎn)算力的 128k 長窗口大模型 “鵬城 - 百川?腦海 33b” 。


8. 2024 年 12 月19日:開放基于搜索增強(qiáng)的 Baichuan2-Turbo 系列 API 。


9. 2024 年1月9日:發(fā)布角色大模型 Baichuan-NPC 。


10. 2024 年1月29日:發(fā)布超千億參數(shù)的大語言模型 Baichuan3 。


11. 2024 年 5月 22日:發(fā)布最新一代基座大模型 Baichuan4 , 推出首款 AI 助手 “百小應(yīng)” , 開放 Baichuan4、Baichuan3-Turbo、Baichuan3-Turbo-128k、Assistant API 四款 API 。


12. 2025 年 1月 24日:發(fā)布全場景深度思考模型 Baichuan-M1-preview、開源醫(yī)療增強(qiáng)大模型 Baichuan-M1-14B 。
5
階躍星辰
1. 2024 年 3 月 23 日:在 2024 全球開發(fā)者先鋒大會上發(fā)布 Step-1 千億參數(shù)語言大模型、Step-1V 千億參數(shù)多模態(tài)大模型、Step-2 萬億參數(shù) MoE 語言大模型(預(yù)覽版) , 提供 API 接口給部分合作伙伴試用 。


2. 2024 年 7月 4日:在 2024 世界人工智能大會上發(fā)布 Step-2 萬億參數(shù)語言大模型(正式版)、Step-1.5V 多模態(tài)大模型、Step-1X 圖像生成大模型 。


3. 2025 年 1 月:批量更新 6 款模型 , 包括多模態(tài)理解模型 Step-1o vision、語音模型 Steo-1o Audio 升級、視頻生成模型 Step-Video V2 版、推理模型 Step Reasoner mini(Step R-mini)、Step-2 文學(xué)大師版等 。
6
零一萬物
1. 2023 年 11 月 :發(fā)布首款預(yù)訓(xùn)練大模型 Yi-34B15 , 參數(shù)量340億 , 支持200K超長上下文窗口 。


2. 2024 年 1 月 22日:Yi Vision Language(Yi-VL)多模態(tài)語言大模型正式面向全球開源 。 據(jù)悉 , Yi-VL 模型基于 Yi 語言模型開發(fā) , 包括 Yi-VL-34B 和 Yi-VL-6B 兩個版本 。


3. 2024 年 3月 6日:開源 yi-9b 模型 , 開源模型 , 代碼和數(shù)學(xué)能力突出 。


4. 2024 年 3月 14日:正式發(fā)布 Yi 大模型 api 開放平臺 , 提供通用Chat、超長上下文、多模態(tài)交互等模型 。


5. 2024 年 5月 7 日:推出 萬知 , 一站式AI工作平臺 , 支持會議紀(jì)要、寫作助手等功能 。


6. 2024 年 5月13日:發(fā)布千億參數(shù) Yi-Large 閉源模型 , 同時將 Yi-34B、Yi-9B/6B 中小尺寸開源模型版本升級為 Yi-1.5 系列 。


7. 2024 年 6 月:Yi-Large 等一系列大模型登陸阿里云百煉平臺 , 包括Yi-Large、Yi-Large-Turbo等 。


8. 2024 年 10月 16日:發(fā)布新的預(yù)訓(xùn)練模型 Yi-Lightning , 新旗艦?zāi)P?, 性能進(jìn)一步提升 。
7
智譜AI
1. 2021 年9月:推出 100 億參數(shù)的 GLM-10B 模型 。


2. 2022 年 8 月:發(fā)布高精度千億大模型 GLM-130B 并開源 , 同時推出 ChatGLM 對話模型及多模態(tài)模型產(chǎn)品矩陣 。


3. 2022年9月:發(fā)布代碼生成模型 CodeGeeX 。


4.2022年10月:發(fā)布開源的100+語言預(yù)訓(xùn)練模型mGLM-1B 。


5. 2023 年 3 月:發(fā)布千億基座的對話模型 ChatGLM 及其單卡開源版本 ChatGLM-6B , 針對中文進(jìn)行了優(yōu)化 。


6. 2023 年 5 月:開源多模態(tài)對話模型 VisualGLM-6B(CogVLM) 。


7. 2023 年 6 月:發(fā)布全面升級的 ChatGLM2 模型矩陣 , ChatGLM2-6B 是與清華大學(xué) KEG 實驗室在對話 AI 領(lǐng)域的合作成果 , 在繼承前代模型特性的基礎(chǔ)上 , 進(jìn)行了一系列的技術(shù)更新和優(yōu)化 。


8. 2023 年 8 月:作為國內(nèi)首批通過《生成式人工智能服務(wù)管理暫行辦法》備案的大模型產(chǎn)品 , AI生成式助手“智譜清言”正式上線 。


9. 2023 年 10 月:發(fā)布第三代 ChatGLM3 系列模型及相關(guān)系列產(chǎn)品 , 推出新一代多模態(tài)大模型 CogVLM , 同時開源 ChatGLM3-6B 。


10. 2024 年 1 月:推出性能提升的 GLM-4 大模型 , 整體性能相比上一代大幅提升 。


11. 2024 年 2 月:推出超擬人大模型 CharacterGLM , 開源部分模型 。


12. 2024 年 7 月:在世界人工智能大會上發(fā)布 CodeGeeX4-ALL-9B 代碼生成大模型 。


13. 2024 年 9 月:在 KDD 國際數(shù)據(jù)挖掘與知識發(fā)現(xiàn)大會上發(fā)布包含新一代語言基座大模型 GLM-4-Plus 在內(nèi)的一系列產(chǎn)品 , 還推出了圖像 / 視頻理解模型 GLM-4V-Plus 和文生圖模型 CogView-3-Plus , 并開源視頻生成模型 CogVideoX 5B 版本 。


14.2024年10月14日:智譜技術(shù)團(tuán)隊宣布開源文生圖模型CogView3及CogView3-Plus-3B , 該系列模型的能力已經(jīng)上線“智譜清言”App 。


15.2025年1月16日:推出 GLM-Realtime、GLM-4-Air-0111、GLM-4V-Plus 以及 Flash 系列模型 。
8
Deepseek
1.2023年11月2日:發(fā)布DeepSeek-Coder 。 支持多種編程語言的代碼生成、調(diào)試和數(shù)據(jù)分析任務(wù) , 免費(fèi)供商業(yè)使用且完全開源 。


2.2023年11月29日:發(fā)布DeepSeek LLM 67B 。


3.2024年2月6日:發(fā)布DeepSeekMath 。 在競賽級 MATH 基準(zhǔn)測試中取得 51.7% 的優(yōu)異成績 , 接近 Gemini-Ultra 和 GPT-4 的性能水平 。


4.2024年3月11日:發(fā)布DeepSeek-VL 。 拓展在視覺語言領(lǐng)域的技術(shù)能力 。


5.2024年5月7日:發(fā)布DeepSeek-V2 。 總參數(shù)達(dá) 2360 億 , 推理成本低 , 引發(fā)行業(yè)關(guān)注 。


6.2024年6月17日:發(fā)布DeepSeek-Coder-V2 。 在代碼特定任務(wù)中達(dá)到與 GPT4-Turbo 相當(dāng)?shù)男阅?。


7.2024年9月5日:更新 API 支持文檔 , 宣布合并 DeepSeek Coder V2 和 DeepSeek V2 Chat , 推出 DeepSeek V2.5 。


8.2024年12月13日:發(fā)布用于高級多模態(tài)理解的專家混合視覺語言模型DeepSeek-VL2 。


9.2024年12月26日:正式上線DeepSeek-V3首個版本并同步開源 。


10.2025年1月20日:正式發(fā)布DeepSeek-R1 , 性能對標(biāo) OpenAI o1 正式版 , 并同步開源模型權(quán)重 。


11.2025年1月28日:Janus-Pro發(fā)布 , 進(jìn)一步改進(jìn)多模態(tài)理解與圖像生成 。

    推薦閱讀