高通Nakul Duggal:邊緣AI深度落地 具身智能引領人工智能發展新范式

高通Nakul Duggal:邊緣AI深度落地 具身智能引領人工智能發展新范式

【環球網科技報道 記者 心月】MWC2026展會期間 , 高通技術公司執行副總裁兼汽車、工業及嵌入式物聯網與機器人事業群總經理Nakul Duggal在2026世界互聯網大會巴塞羅那論壇上 , 發表題為“推動工業AI與具身智能的規?;l展”的主旨演講 。 他稱 , 全球工業生態正迎來AI驅動的深度變革 , 智能正從云端向邊緣側深度下沉 , 邊緣AI已在多場景實現落地 , 而具身智能作為人工智能發展的全新范式 , 正推動智能向物理世界深度嵌入 , 高通正通過技術創新與生態構建 , 助力工業AI與具身智能的規模化發展 。


高通技術公司執行副總裁兼汽車、工業及嵌入式物聯網與機器人事業群總經理Nakul Duggal
Nakul Duggal認為 , 過去產業發展的主流路徑是將智能遷移至云端完成處理 , 而隨著AI大規模部署 , 邊緣側正變得愈發智能 , 模型能力持續提升 , 這一趨勢覆蓋幾乎所有的垂直行業生態 , 推動AI解決方案在多平臺落地 。 如今AI在邊緣側的部署場景已十分廣泛 , 涵蓋移動應用、固定場景應用、無人化應用等各類應用場景及不同尺寸終端 , 行業正迎來根本性轉變:邊緣側已具備環境感知能力 , 可直接自主做出決策 , 而這一能力在過去完全依賴云端實現 。
他提到 , 過去五年間AI模型不斷進化 , 不僅智能程度持續提升 , 更與運行的數據環境高度貼合 , 憑借更強的模式識別能力和真實場景中的持續學習優化能力 , 智能體在各應用場景中的能力不斷增強 。 與此同時 , 機器到機器(M2M)應用也發生重大轉變 , 從原本的云端數據采集處理 , 逐步實現獨立智能運行;而大語言模型的發展 , 更讓人機交互變得直接簡單 , 將人納入系統閉環后 , 這一輪由AI驅動的產業轉型 , 正在各產業生態中全面展開 。
據Nakul Duggal介紹 , 在邊緣AI的落地實踐中 , 高通已將XR技術成功引入工業、消費及商業應用生態 , 如今智能眼鏡等終端已經能本地運行小型AI模型 , 可實現本地拍照、查詢、處理并反饋結果 , 無需依托云端 , 這一技術進步徹底改變了一線工作人員的工作模式 , 也重構了邊緣側智能能力的部署與應用方式 。 而要實現邊緣AI的廣泛落地 , 需要全新的技術工具作為支撐 , 這類工具需具備處理結構化、半結構化、非結構化及合成數據的能力 , 能完成多類型數據的融合與整合 , 并基于這些數據完成模型的訓練、微調與實際部署 。
為推動邊緣AI的規?;l展 , Nakul Duggal強調生態系統構建的重要性 , 這也是高通的核心策略之一 。 過去六個月 , 高通完成對Arduino的收購 , 核心目的是將邊緣AI與邊緣計算技術交到數百萬開發者手中 , 覆蓋教育、商業、消費等多個領域 。 高通為開發者提供從硬件開發平臺到開發工具鏈的完整能力 , 打造低成本的邊緣硬件平臺 , 讓開發者能夠實現數據訪問、模型編程與邊緣部署 , 同時通過反饋閉環完成模型的持續訓練優化 , 最終推動復雜邊緣AI應用在工業生態中落地 。
在他看來 , 計算機視覺技術的演進正為邊緣AI發展注入新動能 , 其正從傳統形態逐步演進到視覺語言模型 , 并進一步邁向視覺-語言-行動模型(VLA模型) 。 這一演進重構了系統設計邏輯 , 實現了攝像頭與連接能力的協同工作 , 可對場景完成完整的態勢感知與分析 , 并將信息實時賦能整個產業生態 。 目前這類能力已在邊緣固定攝像頭、工業網關攝像頭、無人機攝像頭等多場景推進 , 依托專用、公共等各類無線網絡實現連接 , 支持本地、云端或混合部署模式 , 而這些能力的實際落地 , 僅在過去24個月內快速實現 , 技術發展速度遠超預期 。 同時他也表示 , 邊緣智能的全面普及 , 還需要整個產業生態完成大量的能力建設與協同配合 , 推動網絡架構的持續升級 。
在演講中 , Nakul Duggal重點闡釋了具身智能這一人工智能發展的新范式 。 他稱 , 具身智能是智能被深度嵌入物理世界的全新發展方向 , 當下行業正朝著在機器人中實現通用智能的目標邁進 , 而生成式AI的出現成為關鍵驅動力 , 讓智能系統擺脫了傳統基于規則的模式 , 得以在云端、邊緣側、機器人等多場景構建具備持續學習能力的智能體系 。
同時他也坦言 , 將具身智能應用于機器人領域仍面臨諸多挑戰 。 機器人運行于真實的物理非結構化環境 , 而非虛擬場景 , 在高精度操作、高速度響應以及人機協同工作等場景中 , 仍有大量工作需要完成 , 包括物理環境的定義、機器人的針對性訓練等 。 目前行業仍處于這一轉型的早期階段 , 但人工智能技術的迭代速度 , 以及AI算法在特定任務上的精度和能力提升速度 , 已呈現明顯加快的趨勢 。
Nakul Duggal稱 , 高通在ADAS智能駕駛領域深耕多年 , 而智能駕駛本質上是一種運輸機器人 , 核心是完成從A點到B點的運輸任務 , 遵循既定規則并避開障礙物 , 基于規則的智能駕駛技術已發展多年 , 而Transformer人工智能技術的引入 , 正加速這一領域的創新發展 。 但物理機器人與運輸機器人存在本質區別 , 其需要解決精度、操作范圍、執行等核心問題 , 完成對物體的物理操作與具體任務 , 這也推動了技術架構的全新變革 , 模型正越來越依賴視覺、語言和行動的結合 , 并在此基礎上持續提升系統的物理智能 。
談及具身智能系統的架構設計 , Nakul Duggal稱 , 具身智能系統中的物理硬件如同大腦和神經系統 , 這一“神經系統”此前并未被納入人工智能生態系統的核心考量 , 而高通正投入大量精力探索統籌硬件組件的系統架構 , 并借鑒Daniel Kahneman提出的系統1思維 , 梳理系統需要構建的基礎能力與核心組件 。 他認為 , 硬件本身、硬件的數據基礎獲取能力、硬件對機器人實際運行環境的接入能力 , 是具身智能發展的關鍵基礎 , 這些因素決定了機器人任務相關數據的采集、模型的訓練以及技能能力的轉化 , 而結合持續的數據采集、技能訓練與任務定制化硬件 , 將推動具身智能邁向全新發展階段 。
Nakul Duggal稱 , 當下正處于人工智能發展的黃金時代 , 邊緣AI的深度落地與具身智能的全新探索 , 為產業發展帶來了無限機遇 , 未來行業將在這一領域不斷突破 , 推動人工智能與物理世界的深度融合 。
以下為演講全文:
大家上午好!感謝各位的邀請 。 各位的發言非常精彩 , 很高興能與在座各位同仁共聚一堂 。
我們正看到 , 隨著各行各業開始擁抱人工智能 , 整個工業生態系統正在經歷一場巨大的變革 。 過去幾年 , 當我們思考網絡如何構建、產業如何發展以及解決方案如何部署時 , 主流路徑是將智能遷移到云端 , 并在云端完成處理 。 然而 , 隨著人工智能開始大規模部署 , 越來越多的行業正在重新思考:AI在日常工作中發揮的作用 。 正如多位同仁此前所提到的 , 邊緣正變得越來越智能 , 模型能力也在不斷提升 , 這使我們能夠在多個平臺上推動解決方案的落地 。 這一趨勢幾乎適用于所有垂直行業生態 。
此外 , 我們開始看到AI在邊緣側部署的環境非常廣泛 。 這些場景涵蓋移動應用、固定場景應用 , 以及在許多情況下的無人化應用 , 當然還包括各種尺寸的終端 。
當我們從更宏觀的角度思考這一變化究竟意味著什么、究竟發生了哪些改變時 , 可以看到一個根本性的轉變:隨著邊緣側變得越來越智能 , 它正在具備環境感知能力(situational awareness) , 并能夠在邊緣側直接做出決策 , 而在過去這需要依賴云端來完成 。 過去五年間 , 模型變得越來越智能 , 并且越來越貼合其運行的數據環境 。 隨著模型具備更強的模式識別能力 , 并能夠在真實世界運行中不斷學習和優化 , 智能體正在各類應用場景中變得越來越智能 。
與此同時 , 我們也正在看到機器到機器(machine-to-machine M2M)應用的重大轉變 。 過去 , 這類應用更多是采集數據并發送到云端處理;而現在 , 它們正逐漸在實現獨立智能運行 。 除了機器之間的交互之外 , 隨著大語言模型(LLM)的發展 , 當人被納入系統閉環后 , 機器與人之間進行溝通和交互也變得非常直接和簡單 。 而這一整輪轉型 , 正在我們所處的每一個產業生態系統中展開 。
在過去幾年中 , 高通一直在一個重要領域表現突出 , 那就是將XR技術引入工業應用、消費應用以及商業應用生態之中 。 如今 , 人們已經可以在智能眼鏡等設備上運行小型模型 。 例如 , 當你看到某個事物時 , 可以讓眼鏡拍下一張照片 , 并直接向設備提出問題 。 隨后 , 這個查詢請求可以被發送到你的手機 , 或同一系統中的本地設備 , 無需通過云端進行處理 , 然后再將答案返回給你 。 這種能力在過去是無法實現的 。 在與客戶的交流中我們發現 , 這類技術進步正在徹底改變一線工作人員的工作方式 , 同時也在改變智能能力在邊緣側部署和應用的方式 。
要讓這一切真正發生 , 實際上需要使用全新的工具 。 你需要能夠以新的方式處理數據——無論是結構化數據、半結構化數據 , 還是各種形式的非結構化數據 , 都必須具備處理能力 。 同時 , 還需要能夠處理真實世界數據 , 在許多情況下還包括合成數據 , 并在不同場景中對數據進行很好地融合與整合 。 通過這些數據對模型進行訓練 , 并進一步微調 , 最終將這些模型部署到實際應用中 。
隨著這一工具在越來越多的應用場景中運行 , 其能力正變得越來越強大 , 發展勢頭也在不斷增強 。 通過這種方式 , 我們就有可能將人工智能真正推進到邊緣側 。 除了持續推出各類產品之外 , 我們采取的一個重要策略 , 是專注于構建生態系統 。 在過去六個月中 , 高通完成的一項重要收購就是Arduino 。
我們意識到 , 當開始思考AI和邊緣計算時 , 未來可能出現的應用場景幾乎是無限的 。 實際上 , 很難提前預測或判斷未來究竟會出現哪些具體應用 。 因此 , 我們采取的方法是:確保能夠將技術交到數百萬開發者手中 。 這一策略可以覆蓋教育領域、商業領域以及消費領域 。 從硬件開發平臺到開發工具鏈 , 我們為開發者提供完整的能力 , 使他們能夠在邊緣側構建應用 。
通過這樣的方式 , 我們正在把這一整套能力整合起來 , 使開發者生態能夠獲得數據訪問能力——無論是示例應用(sample apps) , 還是連接他們自己的數據庫 。 同時 , 開發者還可以編程模型、在邊緣硬件平臺上部署模型 , 并且這一平臺具有較低成本 。 這些模型隨后可以通過反饋閉環不斷訓練與優化 , 并最終在廣泛的工業生態系統中部署應用 。 正是通過這種方式 , 我們能夠推動非常復雜的應用真正落地 。
在這個例子中 , 我們可以看:計算機視覺正逐步演進到視覺語言模型 , 并進一步邁向視覺-語言-行動模型(VLA模型) 。 這一演進讓我們能夠以一種全新的架構方式來思考系統設計——例如攝像頭與連接能力如何協同工作 , 從而對攝像頭所看到的場景進行完整的態勢感知與分析 , 并將這些信息實時提供給整個生態系統使用 。
目前 , 我們正在多個應用場景中推進這類能力的發展 。 例如:部署在邊緣側的固定攝像頭、安裝在工業網關上的攝像頭 , 以及安裝在無人機上的攝像頭 。 這些設備可以通過各種無線網絡進行連接 , 無論是專用無線網絡、公共無線網絡 , 還是其他類型的專有或開放網絡 , 都可以支持相關應用的運行 , 應用既可以結合云端能力 , 也可以使用本地部署的計算設備 。 因此 , 各種不同的部署模式都是可行的 。 而令人驚訝的是 , 這些能力真正變得現實 , 其實只是在過去大約24個月甚至更短的時間內發生的 , 發展速度非???。
對我們來說 , 一個重要的認識是:客戶正在采用的網絡架構將會發生變化 。 正如大家剛才提到的 , 要讓智能能力真正下沉到邊緣側 , 整個生態系統還需要完成大量的能力建設與協同 。
我們正處在一個非常令人振奮的時代 。 我相信大家都會同意 , “具身智能”(Embodied AI)是一個相對新的概念 。 我們過去并未充分認識到智能正被嵌入進物理世界 , 而如今 , 讓物理實體具備智能、能夠學習 , 并在學習過程中持續改進 , 已經成為一個全新的方向 。 我們正在朝著在機器人中實現通用智能的道路邁進 。
從根本上看 , 生成式AI的出現帶來了重要變化 。 它使我們能夠擺脫傳統基于規則的系統 , 轉而構建能夠適用于各種環境的智能系統——無論是在云端、邊緣側 , 還是在機器人之中——都能具備持續學習的能力 。
當把這一能力應用到機器人領域時 , 一個非常有意思、但同時也充滿挑戰的問題是:機器人需要面對的環境往往并不是結構化環境 。 機器人并不是運行在虛擬世界中 , 而是運行在真實的物理世界里 。 因此 , 在很多方面仍然有大量工作需要完成 , 例如:如何定義機器人所處的物理環境 , 以及如何對機器人進行訓練——尤其是在需要高精度操作、高速度響應 , 以及與人協同工作的場景下 。
目前 , 我們仍處在這一轉型的早期階段 。 但人工智能發展的速度 , 以及AI算法在特定任務上不斷提升精度和能力的速度 , 已經開始明顯加快 。
【高通Nakul Duggal:邊緣AI深度落地 具身智能引領人工智能發展新范式】從高通公司的角度來看 , 這段發展歷程其實非常有意思 。 我在高通負責多個業務領域 , 其中我們已經在ADAS智能駕駛領域深耕多年 。 我們逐漸認識到 , 從根本上來說 , 智能駕駛就是將人或貨物從 A 點運輸到 B 點 。 某種意義上 , 它其實是一種運輸機器人 。 這種系統并不需要具備很高的靈活性 , 它主要需要做的是在遵循既定規則的前提下避開障礙物并完成路徑行駛 。 因此 , 從智能駕駛的定義來看 , 可以說基于規則的智能駕駛其實已經存在了很長時間 。 而隨著基于 Transformer 的人工智能技術開始應用 , 如果將這些能力引入其中 , 這一領域的發展正在開始加速 。
但如果把這些能力進一步應用到真正的物理機器人上 , 就會出現許多不同之處 。 機器人需要面對的是精度)、操作范圍以及執行等問題 。 在這種情況下 , 目標不再只是從 A 點移動到 B 點 , 而是要真正對物體進行物理操作 , 并完成具體任務 。
正是在這一背景下 , 我們發現架構層面正在發生新的變化 。 模型將越來越依賴于視覺、語言和行動的結合 , 而在此基礎之上 , 我們還將進一步提升系統能力 , 使其具備物理智能 。
所有這些發展也帶來了一個新的問題:我們是否可以在不考慮物理硬件形態的情況下 , 直接為具身對象部署人工智能?我們認為 , 具身智能系統中的物理硬件 , 其實類似于大腦和神經系統 。 這套“神經系統”在過去并沒有被我們真正視為人工智能生態系統中的一部分 。 因此 , 我們正在投入大量時間思考:未來應該構建怎樣的系統架構 , 去統籌身體各個部分 , 例如四肢、雙手以及各種執行啟等 。
在這一過程中 , 我們看到 Daniel Kahneman 提出的系統1(System 1) 思維——也就是說 , 需要思考哪些能力屬于類似“系統1”的能力 。 這些能力幫助我們更好地理解 , 未來系統中哪些基礎能力和核心組件需要被構建 。
從根本上來說 , 我們認為硬件本身以及不同類型的硬件 , 再加上硬件對數據的基礎獲取能力以及對機器人實際運行環境的接入能力——也就是機器人真正存在并執行任務的環境——都將成為關鍵基礎 。 這些因素將決定我們如何采集任務相關的數據、訓練機器人 , 并將任務訓練逐步轉化為我們所構建的技能能力 。 隨著時間推移 , 通過持續的數據采集和技能訓練 , 并結合針對具體任務設計的硬件 , 我們將能夠推動具身智能邁向新的階段 。
我們確實生活在一個非常令人興奮的時代 。 很高興今天能在這里與大家交流 , 非常感謝大家的時間 。

    推薦閱讀