無論是希望看到 Apple 跌落神壇,或者是真的對於他們的生成式 AI 有所期待。
總而言之,原本各方預期將會在今年全面到位,並帶來繁體中文語言支援的 Apple Intelligence 蘋果的生成式 AI 服務。隨著 WWDC25 的落幕,我們卻只有看到繁體中文確認將會在今年稍晚登場的承諾。
雖說這樣的消息早在 WWDC25 舉辦之前就已經被媒體爆料。不過當確認沒有 One More Thing 的驚喜翻轉後,也確實引發了不少失望的聲音。
被視為 Apple Intelligence 的最後一塊拼圖:個人化或是大型語言模型生成式 AI 強化版的 Siri。
在 Apple 軟體工程資深副總裁 Craig Federighi 於發表會乃至於後續各大媒體的採訪裡,都已經確認將至少要等到 2026 年才會有進一步消息。
至於這其中的原因,Apple 則是多次重申「要達到我們的高標準,還需更多時間」這樣的說法。
Siri 遲到 = Apple Intelligence 未完成 = 蘋果跟不上 AI 時代?
必須說,更個人化的 Siri 不能在這次 iOS 26 / iPadOS 26 / macOS 26 等系統中登場,確實跌破了筆者的眼鏡。
不過個人認為如果因為一個 Siri 功能的遲到,就直接將結論導至「蘋果跟不上時代」卻又好像有一點怪怪的。
首先,讓我們回顧去年 WWDC 時,Apple 所承諾的 Apple Intelligence 版 Siri 的幾個功能。其中當然有提到可以處理「更個人化資訊」的 Siri 功能 - 這是目前卡關最嚴重的部分。
不過可以注意到去年發表會示範中,當初被歸類在「Siri 功能」的其他展示,如:針對螢幕中資訊提供搜尋體驗的「視覺智慧」功能;可透過 Siri 即時追蹤航班即時動態的功能;可從電子郵件、網站等來源主動辨別資訊歸類的「提醒事項」與能夠分析訊息主動提議投票選項的 Apple Intelligence 功能。
這些功能在這次好像都低調被分配在了「Siri」之外的發表範圍中,此一同時也都確認將在今年秋季預計上線的「26」版更新上線。
這也讓人感到有點詫異,為什麼 Apple 會好像有點刻意避免讓大家發現,他們先前所強調的進階版 Siri 功能,其實在今年的時間點,便已經接近全面到位的這個事實。
這也讓筆者心中萌生了一個疑問,就是 Apple 現在是真的苦苦追趕的「棋差一著」狀態,還是已經站在「棋高一著」的角度尋找最佳的出手時機?
面對瞬息萬變的 AI 時代,Apple 選擇專注「基礎(Foundation)」
確實,個人化 Siri 的遲到真的讓很多買了支援 Apple Intelligence 裝置的消費者感到相當失望,甚至蘋果近來也遇到了對此不滿的消費者的廣告不實官司問題。所以只要是可以的話,個人相信蘋果根本不可能會刻意拖延完全版 Apple Intelligence 的上線時間。
不過若是從這次 WWDC 所發表的各種 AI 整合功能以及後續被開發者驗證,功能已經相當全面的 Foundation Models 框架來觀察的話。也會覺得,Apple Intlligence 似乎就只剩下開放個人隱私資料,也就是「個人化 Siri」功能,就已完整了當初 Apple 所繪製的全部計畫藍圖。
這中間會被認為最直覺的理由,就是 Apple 還在完善從裝置端,到會倚賴雲端算力的 Private Cloud Compute 整套自有 AI 模型的最佳化表現。其中的重中之重「隱私」這個課題。
不過,從本屆 WWDC 陸續發表的功能方向來看,個人倒是覺得蘋果之所以還希望再等到明年再推出完全版 Apple Intelligence 的主要原因,可能不僅僅是在於要讓 Apple Intelligence 足夠隱私安全的這點。而是除了安全之外,他們還想要讓自己的 AI 更為實用,甚至是可以被更廣泛的運用。
這樣的方向可以從 WWDC25 推出的 Foundation Models 框架以及在 macOS 上提供的 Shortcuts 智慧捷徑與最新 Spotlight 功能可窺探一二。
這裡一方面是,後續看到「目前」提供給開發者在 Xcode、捷徑等功能之中,可離線取用的基礎模型的表現,被評價為可用度相當不錯,被認為已經是相當可用的模型。
這次宣布將這樣的模型開放給開發者,除了可以在享受裝置端模型具備的快速、智慧、隱私以及免費的優勢,吸引大家一同完善這套模型的表現。另一方面也可以讓開發者把更靈活的生成式 AI 運算能耐或是對語言的理解能力融入自家應用,帶來更不同的功能可能性。
這某種程度也可以看做是蘋果當初發力完善 App Store 的友善環境,希望匯集開發者一同壯大生態系的策略方向。
當開發者後續接納這個框架再加上 App Intents 的完整支援後,基本上也等同於個人化 Siri 上線的第一天,這些 App 將可以完全融入新世代的 Apple Intelligence 生態系,為自己製造更高的體驗優勢。
除了 App 本身可以透過 Foundation Models 獲得更靈活的應用開發可能,個人認為 Apple 也希望能透過使用者探索利用生成式 AI 模型能採取的各種動作的不同想像。
透過 macOS 與 iPadOS 上,具備更多自動化功能與融入 Intelligence Actions 的各式捷徑功能的增進。在「26」世代的 Apple 裝置上,使用者將可以進行許多運用到生成式 AI 智慧的自動化功能。
個人認為,這也讓所謂的更自動化的 Siri 功能,與前述的個人化 Siri 相同,站在了只差臨門一腳的位置上。
舉例來說,WWDC25 期間我們《Jorsindo Tech》就在實際展示中,體驗到了可以透過自然語言描述希望如何歸類檔案的自動化功能。這部分,就是利用了新的捷徑的自動化功能搭配內建的 Foundation Models 以自然語言下指令即可完成。完全可以看出,在搭配這樣的自動化功能下的 Siri 將會有多強大的應用可能性。
除此之外,macOS 26 所升級的 Spotlight 功能,也能視為蘋果希望能一步加強透過 AI 來更深度檢索搜尋彙整資訊的意圖 - 接下來 Apple 也非常有機會將這套檢索系統放到行動系統之中。
仔細想想,當 Apple 裝置上的捷徑變得越來越強大且更能對應自然語言的指令。這也代表著,未來 Siri 不僅可以直接執行這些捷徑或是檢索你的個人資料,甚至也能透過 Foundation Models 輕鬆透過口語化的指令改變功能或者是多裝置、多應用協作。
而這些,都會成為接下來個人化 Siri 所擁有的指令與應用的「基礎」。不再像以往的 Siri 等功能那樣,會侷限於官方所能想到與開發出來的應用方式。
這樣的流程與功能雖然在捷徑的介面之中看似分別獨立,但都可視為從 Foundation Models 骨幹所長出的「肌肉」,未來將可望支撐起完整版 Apple Intelligence 的良好體驗。
結語:打好基礎才有機會後來居上
也許在某一個時空之中,Apple 可以在 WWDC25 就正式推出具備個人化 Siri 功能的完全版 Apple Intelligence。並且同時宣布前面幾段所提到,像是 Foundation Models、更智慧的捷徑動作與 Spotlight 等,並循序漸進壯大專屬 Apple 的生成式 AI 生態系的發展策略。
但相對於這樣的走向,在我們的時空裡 Apple 卻選擇要先打好基礎。這中間的理由,個人會認為是因為他們自認擁有良好的生態系統體質底氣,所以還可以等到隱私、功能與模型等要素全面達到他們所認可的標準時,才打算向所有使用者正式提供個人化 Siri 的功能。
這樣的策略不僅可以讓接下來首發的應用可以準備得更為周全。個人認為 Apple 也是希望能在最佳化 Foundation Models 後,可以為本機模型與 Private Cloud Compute 的運算比例做出最後的調整(雲端的運算成本也是很大的重點啊)。
當然,這樣的做法也是一種豪賭。畢竟無論如何,當到了明年 Apple Intelligence 完全版登場時,蘋果將完全無法逃避,只能正面面對驗證自己的實力是否如過去一年來,他們所主打的 Apple Intelligence 廣告那樣強大。
可以在 iPhone、iPad、Mac 甚至是 Apple Watch 與 HomePod 上啟動。出張嘴就能讓 Siri 整理好你所有聊天、信件、瀏覽過的網站、拍過的照片內的資訊,貼心的根據你「個人」的「上下文」來「自動」提供對應的「動作」的這種彷彿科幻片一般的數位助理,或者是現在大家很愛說的 AI 代理人(AI Agent)世代。
--
本篇圖片來源:Apple
--
延伸閱讀:
名為「永續」的進化,犀牛盾 CircularNext 100% 循環再生手機殼開箱體驗
![[WWDC25]個人化Siri是被迫延後,還是真・蘋果智慧的巧妙佈局?6645]()
-- |