看衰蘋果 AI?發布會 AI 缺席,是保守還是蓄勢待發?

看衰蘋果 AI?發布會 AI 缺席,是保守還是蓄勢待發?

文章圖片

看衰蘋果 AI?發布會 AI 缺席,是保守還是蓄勢待發?

文章圖片

看衰蘋果 AI?發布會 AI 缺席,是保守還是蓄勢待發?

文章圖片


相信有不少朋友都是熬夜觀看了昨天的蘋果發布會 , 對于關注 AI 的朋友來說 , 可能睡前都還在想:蘋果的 AI 到底去哪了?
【看衰蘋果 AI?發布會 AI 缺席,是保守還是蓄勢待發?】所以今天我們就來盤一盤本次新品發布會上一些“藏起來”的AI 功能 。

首先就是 Airpods Pro 3 , 更好的音質和空間音頻、新增的心率傳感器這些不必再提 , 主要看一個功能——實時翻譯 。 發布會上Airpods Pro 3 演示的實時翻譯效果可以說是相當驚艷 , 可以將對方說的話實時翻譯成語音在耳朵里聽到 , 也可以將自己說的話實時翻譯成文本呈現在手機上給對方看 , 如果雙方都是 Airpods Pro 3 , 那就可以實現雙人同步的實時翻譯 。 這不僅對于耳機的硬件性能有要求 , 也需要 AI 算法足夠優秀 , 所以在這一點上 , 我們可以暫時認為蘋果AI 在耳機端側的應用取得了一些進展 。

其次就是手機上的 AI 體現 。 這次iPhone 17全系都支持Center Stage功能 , 除了正方形傳感器的功勞以外 , 蘋果的 AI 也隱藏其中 。 它會自動檢測畫面中的人臉位置 , 自動調整到畫面中間 , 如果是多人場景 , 也會自動切換到廣角畫面 。 看似平平無奇 , 但卻能大大改善我們的自拍體驗 。

另外 , 蘋果這次的計算攝影能力也得到了升級 , 全新的Photonic Engine , 通過更多機器學習模型發揮作用 , 在降噪、自然細節保留和顏色準確性方面有顯著提升;搭配 Visual Intelligence 視覺識別功能 , 用戶可以獲得更好的影像體驗 , 這何嘗不是 AI 的作用呢?

最為關鍵的就是承載蘋果 AI 的這顆芯片——A19 Pro 。 6 核CPU+6 核GPU+16 核神經網絡引擎 , 峰值計算能力是 A18 Pro 的 4 倍 , 為蘋果 AI 的端側部署提供了充足的算力支持 。 一旦后續蘋果的 Apple intelligence 取得進展 , 那么極有可能快速成為全球領先的端側 AI設備 。

當然 , 以上只是我們的美好期待 。 Apple intelligence 還處在困境之中 , 大陸版遙遙無期 , 海外版體驗平平 。 如今 , 除了正在打磨的 AI Siri 外 , 蘋果也在積極尋求外界 AI 大模型的幫助如ChatGPT、Gemini 等 , 國內則是選擇了阿里的千問、百度的文心一言 。 但是未來具體用哪家、怎么用 , 仍然是未知數 。

短期來看 , AI 功能的“缺席”讓蘋果在輿論上略顯保守 , 甚至被部分用戶認為落后于競爭對手 。 但從長期戰略角度看 , 蘋果可能正在為更大規模的 Siri 升級、iOS 系統的智能化迭代 , 甚至 Vision Pro 的生態拓展蓄勢 。
有業內觀察人士也表示:“蘋果的風格一向如此 , 它不會在技術尚未打磨成熟前貿然推出 。 等到真正發布 AI 功能時 , 極可能是一次閉環式的整合 , 而非零散的功能堆砌 。 ”

    推薦閱讀