
這一週的 AI 圈相當熱鬧。Cursor 正式發布第三代產品,宣告軟體開發進入「代理時代」;OpenAI 持續推進 Agents SDK 和網路防禦生態系;Anthropic 則聯手 AWS、Apple、Google、Microsoft、NVIDIA 等科技巨頭推出 Project Glasswing,目標是保護全球最關鍵的軟體基礎設施。同時,Google 把 Gemini 帶進 Mac 桌面,Stanford 的 2026 AI Index 報告則揭示了使用者對 AI 的分裂態度。讓我們來看看這些發展背後的產業脈絡。
Cursor 3:軟體開發的第三個時代
如果你過去一年有用 AI 寫程式,應該能感受到巨大的變化。從手動編輯檔案,到跟代理協作讓它寫大部分程式碼,開發者的工作方式已經徹底改變。Cursor 團隊認為,我們正在進入軟體開發的第三個時代:fleet of agents 自主運作、承擔更大規模任務的時代。
Cursor 3 正是為這個時代設計的整合式工作空間。新介面從零打造,以代理為中心重新構思。最核心的改變是「所有代理集中在一個地方」——本地和雲端代理都出現在側邊欄,包括從手機、網頁、桌面、Slack、GitHub、Linear 等各處發起的代理任務。
雲端代理會產生 demo 和截圖供開發者驗證,這跟 cursor.com/agents 的體驗一致,現在整合進桌面應用程式了。更方便的是本地與雲端之間的無縫切換:想親自編輯測試時,可以把代理 session 從雲端搬到本地,用 Composer 2 快速迭代;想離線或處理下一個任務時,又可以把 session 從本地推到雲端,讓代理繼續執行長時間任務。
這背後反映的是開發者角色的轉變。在 AI 時代,工程師不再是逐行寫程式的人,而是「管理代理人」的人。Cursor 3 的多代理介面、diff 視圖、PR 管理功能,都在回應這個趨勢——你需要一個更高的抽象層次來審視代理產出的程式碼,同時保留深入細節的能力。
Cursor 團隊同步推出了 Composer 2 技術報告。這是他們自有的前沿程式碼模型,在 CursorBench 上展現出色的成績,token 效率更高,預設版本也更快。他們還分享了如何用混合式線上-離線評估流程確保模型品質與實際使用情境一致,這對關心模型評測的開發者來說是值得參考的做法。
另一個有趣的發展是 Bugbot。這個工具現在可以透過學得的規則自我改進,意味著 AI 不只是幫你寫程式,還能從錯誤中學習、最佳化自己的行為。這是「代理時代」的重要一環:工具本身也會進化。
從產業角度來看,Cursor 的演進軌跡代表了一個更大的趨勢。IDE 正在從「編輯器」變成「代理協作平台」。微軟的 Copilot、JetBrains 的 AI Assistant 都在往類似方向發展,但 Cursor 選擇了一條更激進的路——直接從 VS Code 分支出發,打造全新的代理優先介面。這個賭注能否成功,要看開發者是否願意接受全新的工作流程。
OpenAI:Agents SDK 演進與網路防禦生態系
OpenAI 這一週的新聞重心放在兩個方向:讓 AI 更會「做事」,以及讓 AI 更「安全」。
4 月 15 日,OpenAI 發布了 Agents SDK 的下一個進化版本。這不是單純的 API 更新,而是反映了 OpenAI 對 AI 應用未來的判斷:大型語言模型的下一個戰場不是「更聰明的模型」,而是「更會執行任務的代理」。
Agents SDK 讓開發者能夠建構能夠自主規劃、執行多步驟任務的 AI 系統。從聊天到代理,聽起來只是功能的擴展,但實際上是範式的轉變。聊天模型回答問題,代理則是要完成目標。這意味著你需要處理工具呼叫、記憶管理、錯誤處理、跨服務整合——這些複雜度正是 Agents SDK 試圖抽象化的。
對企業來說,Agents SDK 的成熟代價重大。試想一個客服場景:傳統聊天機器人只能回答預設問題,但具備代理能力的系統可以查訂單、排維修、發退款通知。OpenAI 的 bet 是:未來企業的「數位員工」會越來越多,而 Agents SDK 是這些員工的「作業系統」。
同一天,OpenAI 也宣布了「Accelerating the cyber defense ecosystem」 initiative。這不是單純的安全產品發布,而是一個產業聯盟式的計畫,目標是讓 AI 成為網路防禦的加速器而非漏洞。隔日 4 月 14 日,又發布了「Trusted access for the next era of cyber defense」,進一步闡述如何讓 AI 安全地存取敏感系統以執行防禦任務。
這一系列動作背後是 OpenAI 對「AI 安全」定義的擴展。過去的安全討論集中在「如何防止 AI 被濫用」,現在則必須面對「如何讓 AI 成為防禦方的主力」。這是一個微妙的轉變:AI 不再只是需要被保護的資產,而是保護企業基礎設施的工具。
4 月 10 日,OpenAI 也回應了 Axios developer tool 的安全漏洞事件,展示了他們在實際資安事件中的應對能力。這類即時回應對建立企業客戶信任至關重要。
另外值得注意的還有 4 月 8 日的一系列公告:OpenAI 發布了全新兒童安全藍圖、推出 Safety Fellowship 計畫、收購 TBPN,並宣布 Codex 為團隊提供按用量付費模式。這些動作圍繞著同一個主題:OpenAI 正在建立一個更完整的生態系,從開發者工具到企業服務,從安全標準到產業聯盟。
GPT-5.3 Instant 和 GPT-5.3-Codex 的命名也透露了一些訊息。「Instant」暗示速度優化,「Codex」則延續了程式碼生成的品牌。這代表 OpenAI 不只想有一個最強的模型,而是要提供針對不同場景最佳化的模型家族。模型商品化時代已經來臨,差異化來自於特定任務的調教而非單純的「更聰明」。
Anthropic 領軍 Project Glasswing:科技巨頭聯手保護關鍵軟體
4 月 7 日,Anthropic 發布了 Project Glasswing,這可能是本週最重要的產業新聞。這個計畫聯合了 AWS、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorganChase、Linux Foundation、Microsoft、NVIDIA、Palo Alto Networks——基本上就是矽谷和華爾街的 Who's Who。目標是保護全球最關鍵的軟體基礎設施。
為什麼這件事重要?過去幾年的供應鏈攻擊(SolarWinds、Log4j、3CX)讓產業醒悟到:軟體供應鏈的脆弱性不是「某一家公司的問題」,而是「整個產業的問題」。當攻擊者可以透過一個流行的開源函式庫影響數千家企業,防禦的責任就不能只落在個別公司身上。
Project Glasswing 的做法是:讓 AI 來掃描、分析、保護這些關鍵軟體。參與的每家公司都有深厚的安全或基礎設施經驗,而 Anthropic 貢獻的則是 Claude 的分析能力——能夠理解程式碼邏輯、識別潛在漏洞、提出修補建議。
這種產業聯盟模式有幾個值得觀察的地方。首先是「競爭對手合作」:Anthropic 和 OpenAI 在 AI 模型市場直接競爭,但在安全議題上,Anthropic 選擇與 Google、Microsoft 合作。這反映了一個產業共識:安全是「桌棍基礎設施」,不是競爭優勢。如果你家的安全漏洞影響了整個生態系,最終所有人都會受害。
其次是「開源 vs 專有」的平衡。Linux Foundation 的參與意味著 Project Glasswing 的成果有一部分會回饋給開源社群。這是聰明的做法:關鍵軟體大部分是開源的,不跟開源社群合作等於切掉自己的影響力。
第三是「AI 治理」的先例。Project Glasswing 在某種程度上是在設定「AI 可以安全地存取和修改關鍵程式碼」的標準。如果成功,這會成為未來 AI 參與基礎設施維護的示範案例;如果出問題,則會成為反對 AI 自主性的新論據。
另外,Anthropic 在 3 月 18 日發布的「What 81,000 people want from AI」研究也值得關注。這是迄今規模最大、語言最多樣化的 AI 使用者調查。研究團隊邀請 Claude.ai 使用者分享他們如何使用 AI、夢想 AI 能做什麼、以及擔心 AI 可能做什麼。81,000 人參與,產出的洞察對理解「真實使用者需求」而不是「科技公司的想像」非常有價值。
Claude Sonnet 4.6 和 Opus 4.6 的發布則是產品面的續航。Sonnet 4.6 在程式碼、代理和專業工作場景提供前沿效能,Opus 4.6 則是他們最聰明的模型。模型版本號的快速推進反映了當前的競爭強度:每幾個月就要有實質進展,否則就會被對手超越。
Gemini 登陸 Mac:Google 的桌面戰略
Google 在 AI 領域的策略一直很清晰:讓 AI 無處不在。Gmail 有 AI、Docs 有 AI、Search 有 AI,現在 Mac 也有 Gemini 了。
4 月 16 日左右,Google 正式推出 Gemini Mac 應用程式。你可以在桌面任何地方呼叫 Gemini,也可以分享視窗讓 Gemini 看到你正在做什麼。這聽起來像是一個簡單的桌面應用,但實際上是對 OpenAI ChatGPT Mac 應用的直接回應。
桌面 AI 應用的戰略意義在於「使用情境切換成本」。當你正在寫文件、寫程式、看網頁時,如果要用 AI 助手,傳統做法是切到瀏覽器、打開分頁、輸入問題。這聽起來只是幾秒鐘的事,但在認知負荷的角度,每一次切換都是對心流的打擊。桌面應用把 AI 變成「隨傳隨到」的背景服務,大幅降低了使用的摩擦。
Google 的優勢在於生態系整合。Gemini 不只是一個獨立的 AI 助手,它可以存取你的 Gmail、日曆、文件、照片。當你問「我今天的會議有哪些」或「幫我總結這封郵件」,Gemini 的回答會比競爭對手更準確,因為它能拿到更多關於你的 context。
Mac 市場長期被視為「難攻打的堡壘」。Apple 有自己的生態系,使用者忠誠度高,第三方 App 被嚴格審核。但 AI 是一個新維度:Apple Intelligence 到目前為止的評價褒貶不一,這給了 Google 一個切入點。如果你的 Mac 的 AI 體驗不夠好,為什麼不試試 Gemini?
從產業角度,這是「平台 AI」對「獨立 AI」的戰爭。Apple Intelligence 嵌入作業系統,ChatGPT 和 Gemini 則是獨立應用。兩種模式各有優勢:平台 AI 更深度的整合,獨立 AI 則有跨平台的便利。使用者的選擇會決定未來的產業格局。
同時,Google 也在印度舉辦 AI Impact Summit 2026,宣布了一系列全球合作夥伴關係和資金投入。這反映了 Google 的全球佈局:印度是下一個 AI 使用者增長的關鍵市場,Google正在透過投資、教育、產品本地化來建立影響力。
Stanford AI Index 2026:AI 意見的分裂
Stanford 的 AI Index 是產業界最權威的年度報告之一。2026 年的版本揭示了一個有趣的現象:AI 使用者正在兩極化。
根據 MIT Technology Review 的報導,「AI power users are pulling away from everyone else」。重度使用 AI 的人越來越熟練、越來越依賴,而輕度使用者則逐漸落後。這不是技術問題,而是使用習慣和能力的問題。當 AI 工具的學習曲線越來越陡峭(新功能、新介面、新模型),「用得好」和「用不來」之間的差距只會越來越大。
這對企業和政策制定者有重要啟示。如果 AI 确實能大幅提升生產力,但只有部分人能真正發揮其效益,那麼 AI 的普及不會自動帶來生產力的整體提升,反而可能加深不平等。企業需要投資於培訓,政府需要思考數位落差的 AI 版本。
報告也提到 AI 發展「不會很快撞牆」。Mustafa Suleyman(Microsoft AI 執行長)的觀點是:計算資源的爆炸性增長意味著模型能力還有很大的提升空間。這反駁了「AI 已經遇到天花板」的主流懷疑論。Suleyman 的立場當然有利益衝突——他的公司正在大量投資於 AI——但他的論點值得思考:當每年投入的計算資源以倍數增長,模型能力不太可能突然停滯。
從產業角度,這意味著「AI 競賽」還在加速。Google、OpenAI、Anthropic、Meta、xAI 都在燒錢訓練下一代模型。這場比賽的終點不是「做出最聰明的模型」,而是「做出能夠持續產生商業價值的最聰明模型」。誰能在研發成本和商業變現之間找到平衡,才能活到最後。
AI 安全與治理的進展
安全議題在本週持續發燒。OpenAI 的網路防禦生態系、Anthropic 的 Project Glasswing 都在回應同一個問題:如何讓 AI 更安全,以及如何用 AI 讓世界更安全。
但不只是科技公司在意安全。4 月 8 日,OpenAI 發布了「兒童安全藍圖」,這是一個針對未成年使用者保護的框架。AI 產品越來越多地進入家庭和教育場景,如何在便利性和保護之間取得平衡,是一個複雜的政策難題。OpenAI 選擇主動提出框架,而不是等監管機構來制定,這是一個聰明的策略:自己定義標準,而不是被標準定義。
同日推出的 Safety Fellowship 則是人才投資。OpenAI 正在招募對 AI 安全有熱情的研究員,提供資源和社群支援。這反映了產業對安全人才的爭奪:頂級安全專家有 OpenAI、Anthropic、DeepMind 等多家選擇,提供有意義的研究場景和價值認同變成關鍵吸引力。
AI 治理的另一面是「產業自律 vs 政府監管」。Project Glasswing 是產業聯盟式的自律嘗試,試圖證明「我們會自己管好自己」。這種模式在美國政治環境下尤其重要:如果產業能展示有效的自我治理,政府監管壓力可能會減輕。但反過來說,如果產業治理失敗,監管可能會以更嚴格的形式來臨。
如果只記一件事
本週最重要的發展是 Cursor 3 和 Project Glasswing。前者宣告了軟體開發進入「代理時代」——開發者將從寫程式碼的人變成管理代理人的人;後者則展示了 AI 產業在安全議題上的聯盟合作模式——競爭對手在基礎設施安全上願意合作,因為這不是競爭議題而是生存議題。這兩件事共同指向一個未來:AI 不再只是「對話的工具」,而是「執行任務的代理人」,而這個轉變需要全新的安全框架和治理模式。企業和開發者現在應該開始思考的不是「如何用 AI」,而是「如何管理 AI 代理人」。




















