別再迷信 Mac 了:用 AMD “暴力馴服”本地智能體OpenClaw

別再迷信 Mac 了:用 AMD “暴力馴服”本地智能體OpenClaw

文章圖片

別再迷信 Mac 了:用 AMD “暴力馴服”本地智能體OpenClaw

文章圖片

別再迷信 Mac 了:用 AMD “暴力馴服”本地智能體OpenClaw

文章圖片

別再迷信 Mac 了:用 AMD “暴力馴服”本地智能體OpenClaw

文章圖片

別再迷信 Mac 了:用 AMD “暴力馴服”本地智能體OpenClaw

文章圖片

別再迷信 Mac 了:用 AMD “暴力馴服”本地智能體OpenClaw

文章圖片

別再迷信 Mac 了:用 AMD “暴力馴服”本地智能體OpenClaw

文章圖片

別再迷信 Mac 了:用 AMD “暴力馴服”本地智能體OpenClaw

文章圖片

別再迷信 Mac 了:用 AMD “暴力馴服”本地智能體OpenClaw

文章圖片

別再迷信 Mac 了:用 AMD “暴力馴服”本地智能體OpenClaw

文章圖片

別再迷信 Mac 了:用 AMD “暴力馴服”本地智能體OpenClaw

文章圖片

別再迷信 Mac 了:用 AMD “暴力馴服”本地智能體OpenClaw

文章圖片


在 2026 年的今天 , 如果你還在對著 ChatGPT 或者 Claude 的聊天框發呆 , 那你可能錯過了一個新的交互形式 。
不管是GPT-4o還是最新的 Gemini , 無論它們在服務器端被調教得多么聰明 , 終究只是被困在瀏覽器里的“缸中之腦” 。 它們可以為你寫出一段完美的代碼 , 但卻無法幫你把這段代碼保存到桌面 , 無法幫你點擊運行 , 更無法幫你整理硬盤里亂七八糟的文件 。
這就是為什么OpenClaw在GitHub上會如此火爆的原因 。 它不是一個單純的聊天機器人 , 而是一個Agent(行動智能體) 。 簡單來說 , OpenClaw就是給大模型裝上了“手”和“腳” , 讓 AI 第一次擁有了直接操作操作系統的權限 。
前段時間 , 社交媒體上關于本地部署OpenClaw的教程紛紛刷屏 。 在本地運行一個足夠聰明、能寫代碼的大模型需要巨大的顯存 , 而在傳統PC陣營 , 即便是臺式機中的RTX 5090用戶 , 也常常被32GB的“顯存墻”卡得死死的 。 難道Windows用戶就不能擁有自己的本地 Jarvis 嗎?帶著這個“不信邪”的疑問 , 我把目光投向了 AMD 。
可能有人對 AMD 的印象還停留在“玩游戲選 AMD”這種純性能維度上 , 但其實AMD在移動端還有一個大招 , 就是銳龍AI Max系列處理器 。 這一代處理器最革命性的革新 , 就是要把蘋果引以為傲的“統一內存架構”帶入 x86 世界 。
為了驗證這塊CPU的本地部署能力 , 我搞到了這臺搭載AMD 銳龍 AI Max+ 395的abee AI Station 395 Max 。 今天 , 我就要用這臺機器 , 從零開始 , 給大家分享如何在地表最強的移動端SoC上 , 暴力馴服OpenClaw 。
在上手折騰軟件之前 , 咱們得先聊聊這臺機器的底氣 。 這顆AMD銳龍AI Max+ 395采用chiplet小芯片設計 , 在塞進16個全血Zen 5 CPU 核心的同時 , 還集成了規模接近中高端獨顯級別的GPU單元 。 對喜歡玩AI的用戶來說 , 最讓人興奮的不僅是核心數 , 而是128GB LPDDR5x-8000 的統一內存 。
與PC陣營相比 , 以前統一內存是蘋果Mac獨有的優勢 , 在本地AI部署上相應的占優 。
而AMD這次也在X86陣營帶來了統一內存架構技術 , CPU、GPU和NPU共享同一個巨大的內存池 , 還可以在系統中通過使用VGM可變顯存技術 , 靈活調整內存與顯存的分配比例 , 最高可以預留高達96GB的內存空間供GPU專屬使用 。 現在市面上有些銳龍AI Max系列工作站甚至還支持2U+甚至更多臺的并聯跳線設計 , 內存空間更是能直接翻倍增長至192GB乃至更高 。 這種架構上的質變 , 讓 Windows 陣營也能真正跑起超大參數模型 , 相比于Mac機型而言 , 用銳龍AI Max系列機型進行本地部署 , AI性能更加強大 , 同時單體購置成本也更低 。 就拿最近大火的Claudecode來說 , 輸入百萬token需要5美元 , 輸出百萬token又得25美元 。 長期使用本地部署顯得勢在必行 , 長期使用總成本更經濟 。
頂級芯片得配個好機身 , 今天介紹的就是這臺abee AI Station 395 Max 。
abee這個牌子DIY的用戶是非常熟悉的 , 鋁材工藝可以說是天花板級別了 , 所以在機身上 , 我們依舊能感受到abee獨有的工業設計風格 。
這臺機器他們沒定位成普通的Mini PC , 而是桌面級Mini AI工作站 。 它的個頭比Mac Studio稍微大一圈 , 但這多出來的體積換來的是實打實的散熱效率 。
它內部這套多島式全覆蓋液冷散熱系統 , 能保證在AI這種高強度的滿載推理下 , 機器不因為過熱而掉速 , 它本身也是一個巨大的散熱片 , 全鋁機身不僅是好看 , 對可靠性、防護性和耐用性都有所增強 。 對于既看重性能穩定性 , 又對桌面審美有要求的極客來說 , 這臺機器算是把硬件性能給封裝得恰到好處 。
硬件到位了 , 接下來就是軟件實戰 。 直接打開OpenClaw官網 , 點擊Quick Start , 復制那行PowerShell命令到終端 。
在PowerShell中輸入:curl -fsSL https://openclaw.ai/install.sh | bash(需在WSL或Git Bash環境下執行)
一切都很順利 , 腳本可以拉取環境、配置依賴 。
模型選擇上 , 我測試的是Qwen3-Coder , 在96GB統一內存預留空間下可以完整加載并保持流暢推理 。 通過Verbose指令我們能看到實際推理速度還是非常快的 , 在本地環境下已經進入流暢使用的區間 , 統一內存架構的優勢就直接體現出來了 , 充足的顯存空間允許上下文完整駐留 , 減少頻繁換入換出 。
在部署完成后 , 我們可以直接在PowerShell中輸入:OpenClaw Dash進入它的網頁端界面 。
部署成功只是第一步 , 它到底能不能干活才是關鍵 。 為了測試這臺機器的極限 , 我直接給它下達了一個復雜的編程指令:“使用Python的Pygame 庫 , 幫我寫一個賽博朋克風格的貪吃蛇游戲 , 寫完后直接在桌面上運行它 。 ”此時觀察性能 , GPU占用率會直接飆升 , 本地的Qwen3-Coder迅速給出了響應 。
由于省去了云端傳輸的環節 , 代碼的生成過程非常利落 , 沒有那種斷斷續續的遲滯感 , 而且無需任何Tokens費用成本 。 不到一分鐘 , 程序生成完畢 , 終端自動調用Python , 游戲窗口彈出并穩定運行 。
【別再迷信 Mac 了:用 AMD “暴力馴服”本地智能體OpenClaw】當然 , Agent的能力遠不止于此 , 它還可以用來做很多工作 , 變成你的個人員工 。 我讓OpenClaw幫我生成一個每日自動執行的計劃任務:讀取桌面文件夾中的任務文本 , 篩選帶有“#緊急”標簽的事項;并讀取支出的賬單 , 計算總金額并找出最大開銷;最后生成一份日報文件 。
OpenClaw生成了腳本 , 寫入本地目錄 , 并協助配置計劃任務 。 任務被成功寫入調度系統 , 能夠在指定時間自動執行 。 在這個過程中 , 模型不再只是工具 , 而更像一個自動化協作者 。 它理解任務目標 , 生成執行邏輯 , 并參與系統層面的配置 。
圍繞這種能力 , 應用場景自然展開 。 有人用它定期抓取日志并生成分析報告 , 有人讓它整理下載目錄 , 有人將其接入本地開發環境 , 自動構建項目并運行測試流程 。 它的價值并不在于“多聰明” , 而在于“能否穩定執行” 。
這種穩定性 , 與統一內存架構之間有直接關系 。 當模型完整駐留在充足的顯存空間中 , 長時間運行不會因為內存不足而頻繁抖動 , 上下文也不容易丟失 。 對于 Agent 這種需要持續執行多步驟任務的系統來說 , 這種結構層面的優勢尤為重要 。
經過這一番折騰 , 我們終于可以回答文章開頭的問題了:如果不用Mac Studio , 我們能擁有完美的本地 AI 體驗嗎?答案是肯定的 , 而且購置成本更具優勢 , 這就是AMD給出的這個答案 , 甚至比蘋果更加“極客” 。
OpenClaw只是無數AI應用中的一個縮影 , 它代表了未來人機交互的方向 , AI將深度介入我們的系統底層 。 在超大模型場景下 , 傳統CPU+獨顯架構的顯存瓶頸愈發明顯 。
AMD 銳龍 AI Max+ 395的出現 , 實際上是開辟了一條新賽道 。 它用128GB統一內存簡單粗暴地解決了本地大模型最大的痛點 , 同時用創新的Zen 5架構保證了通用計算的性能 , 再輔以XDNA 2 NPU為未來的低功耗場景兜底 。
對于程序員與創作者來說 , 本地AI的意義不僅在性能 , 更在于可控性與數據主權 。 當模型運行在自己的機器上 , 隱私、響應延遲、調用權限都掌握在自己手中 。 在當前 Windows 陣營中 , 擁有128GB統一內存架構的銳龍 AI Max+ 平臺 , 提供了一種不同于傳統獨顯路線的解法 。 它證明了一件事:在大模型時代 , 內存規模開始成為新的核心競爭力 。

    推薦閱讀