日本免费全黄少妇一区二区三区-高清无码一区二区三区四区-欧美中文字幕日韩在线观看-国产福利诱惑在线网站-国产中文字幕一区在线-亚洲欧美精品日韩一区-久久国产精品国产精品国产-国产精久久久久久一区二区三区-欧美亚洲国产精品久久久久

Meta 發(fā)布 Llama 4:禁止歐盟使用或分發(fā)

Meta 發(fā)布 Llama 4:禁止歐盟使用或分發(fā)

文章圖片

Meta 發(fā)布 Llama 4:禁止歐盟使用或分發(fā)

文章圖片

Meta 發(fā)布 Llama 4:禁止歐盟使用或分發(fā)

文章圖片

Meta 發(fā)布 Llama 4:禁止歐盟使用或分發(fā)

文章圖片

2025 年 4 月 6 日 , Meta( 偏偏挑在周六)發(fā)布了其 Llama 家族的新一批 AI 模型:Llama 4 。

這次共有四種新模型:Llama 4 Scout、Llama 4 Maverick 和 Llama 4 Behemoth 。
Meta 表示 , 所有模型都使用“大量未標記的文本、圖像和視頻數(shù)據(jù)”進行了訓(xùn)練 , 從而獲得“廣泛的視覺理解” 。
DeepSeek 的開放模型大獲成功 , 其性能比肩甚至勝過 Meta 之前的旗艦 Llama 模型 , 據(jù)稱這刺激了 Meta 加快開發(fā) Llama 。
【Meta 發(fā)布 Llama 4:禁止歐盟使用或分發(fā)】據(jù)說 Meta 已緊急設(shè)立作戰(zhàn)室來解密 DeepSeek 如何降低運行和部署 R1 和 V3 等模型的成本 。
Scout 和 Maverick 已在 Llama.com 上公開可用 , 包括 AI 開發(fā)平臺 Hugging Face , 而 Behemoth 仍在訓(xùn)練中 。
Meta 表示 , 廣泛用于WhatsApp、Messenger 和 Instagram 等應(yīng)用程序中的 AI 助手 Meta AI 已經(jīng)過更新 , 可在 40 個國家或地區(qū)使用 Llama 4 。
目前 , 多模態(tài)功能僅限于美國市場的英文版 。
一些開發(fā)人員可能會對 Llama 4 許可證提出異議 。
“注冊地”或“主要營業(yè)地點”在歐盟的用戶和公司被禁止使用或分發(fā)這些模型 , 這可能是歐盟地區(qū)的 AI 和數(shù)據(jù)隱私法律規(guī)定的治理要求的結(jié)果 。 (過去 , Meta 曾炮轟這些法律過于繁瑣 。 )

此外 , 與之前的 Llama 版本一樣 , 月活躍用戶超過 7 億的公司必須向 Meta 申請?zhí)厥庠S可證 , Meta 可自行決定授予還是拒絕許可證 。
Meta 在一篇博文中寫道:“這些 Llama 4 模型標志著 Llama 生態(tài)系統(tǒng)開始迎來一個新時代 。這只是 Llama 4 系列的開始 。 ”

Meta 表示 , Llama 4 是其第一批使用混合專家(MoE)架構(gòu)的模型 , 這種架構(gòu)擁有更高的計算效率 , 便于訓(xùn)練和回答查詢 。
MoE 架構(gòu)基本上將數(shù)據(jù)處理任務(wù)分解為多個子任務(wù) , 然后將它們交給更小、更專門的“專家”模型處理 。
比如說 , Maverick 共有 4000 億個參數(shù) , 但只有 170 億個活躍參數(shù) , 卻有128 個“專家” 。 (參數(shù)大致對應(yīng)于一個模型解決問題的技能 。 )Scout 有 170 億個活躍參數(shù)、16 個專家和 1090 億個總參數(shù) 。
據(jù) Meta 的內(nèi)部測試結(jié)果顯示 , Maverick 在某些編程、推理、多語言、長上下文和圖像等基準測試中的表現(xiàn)超過了 OpenAI 的 GPT-4o 和谷歌的 Gemini 2.0 等模型 。
該公司聲稱 , Maverick 最適合創(chuàng)意寫作等“一般助理和聊天”用例 。
然而 , Maverick 還無法與谷歌的 Gemini 2.5 Pro、Anthropic 的 Claude 3.7 Sonnet 和 OpenAI 的 GPT-4.5 等功能更強大的最新模型相提并論 。

Scout 的優(yōu)勢在于處理文檔摘要和大型代碼庫推理等任務(wù) 。 其獨特之處在于 , 它有一個非常大的上下文窗口:1000 萬個 token 。 (token 代表原始文本的片段 , 比如說“fantastic”這個單詞分成了“fan”、“tas”和“tic” 。 )

簡而言之 , Scout 可以接收圖片和多達數(shù)百萬個單詞 , 從而能夠處理篇幅極長的文檔 。
據(jù) Meta 估算 , Scout 可以在單單一塊英偉達H100 GPU 上運行 , 而 Maverick 需要英偉達 H100 DGX 系統(tǒng)或同等系統(tǒng) 。
Meta 尚未發(fā)布的 Behemoth 將需要功能還要強大的硬件 。
據(jù)該公司聲稱 , Behemoth 擁有 2880 億個活躍參數(shù)、16 個專家和近兩萬億個總參數(shù) 。

Meta 的內(nèi)部基準測試顯示 , 在衡量 STEM 技能(比如數(shù)學(xué)問題解決)的幾項評測中 , Behemoth 的表現(xiàn)壓倒 GPT-4.5、Claude 3.7 Sonnet 和 Gemini 2.0 Pro(但不如 2.5 Pro) 。
值得注意的是 , Llama 4 模型中沒有一個像 OpenAI 的 o1 和 o3-mini 那樣采用正宗的“推理”模型 。 推理模型會核對答案的真實性 , 并且通常能更可靠地回答問題 , 但因此需要花比傳統(tǒng)的“非推理”模型更長的時間來提供答案 。

值得關(guān)注的是 , Meta 表示 , 它對所有 Llama 4 模型進行了調(diào)整 , 以便不再頻繁地拒絕回答“有爭議”的問題 。
據(jù)該公司聲稱 , Llama 4 會回答“有爭議”的政治和社會話題 , 而之前的那批 Llama 模型拒絕回答 。 此外 , 該公司表示 , Llama 4 在拒絕回答哪些提示方面“明顯更加平衡” 。
Meta 發(fā)言人稱:“您可以指望 Llama 4 提供有幫助的、事實性的回答 , 它并不做出任何判斷 。 我們正繼續(xù)提高 Llama 的響應(yīng)能力 , 以便它能夠回答更多的問題 , 能夠回應(yīng)各種不同的觀點 , 并且不會偏袒某些觀點 。 ”

    推薦閱讀