Meta: Muse Spark
Introducing Muse Spark: Scaling Towards Personal Superintelligence
Meta Superintelligence Labs 推出的第一個代表性模型
多模態推理模型,可以處理語音、文字、圖片,還有一個偏深度思考的模式,會用多代理方式處理較難問題。
打算把 Muse Spark 放進 Meta AI app、Meta.ai
之後再推到 WhatsApp、Instagram、Facebook、Messenger、AI 眼鏡...
重點不是只做一個模型,而是要把 AI 塞進 Meta 自己所有大型產品裡。
Z.ai: GLM-5.1
zai-org/GLM-5.1 · Hugging Face
GLM-5.1 - 智谱AI开放文档
open-source model
可以在單一任務上連續工作很久,最久可到數小時等級
現在主要推向可以長時間執行任務
Anthropic|Claude Managed Agents
主打的是「把 agent 上線需要的基礎設施平台化」,而不是只提供模型 API
重點是讓任何人都能做客製 agent
Claude Managed Agents: get to production 10x faster
只需要定義 任務、工具、guardrails
剩下像是何時呼叫工具、怎麼管理 context、怎麼從錯誤中恢復,交給內建的 orchestration harness 處理
官方列出的核心能力有四個:
- 安全執行環境:包含 sandboxing、驗證、工具執行
- 長時間執行 session:agent 可以自主運作數小時,且斷線後進度與輸出仍會保留
- 多 agent 協作:agent 可以再叫其他 agent 分工處理複雜任務 (research preview)
- 治理與權限控管:包含 scoped permissions、identity management、execution tracing
Anthropic 想往 Agent 平台層走
-> 解決大家 runtime、sandbox、狀態管理、權限與 tracing
OpenAI 發布 $100 的版本
目前我是用 $20 的版本, Codex 本身需要稍微注意一下用量,一周還是可以的
但是強度稍微高一點的使用者可以選擇中間的版本,畢竟 $200真的太貴了
- 給 5 倍於 Plus 的 Codex 使用量
- 適合比較長、比較高 effort 的 Codex 工作
- 同時保留 Pro 原本的其他功能,包含專屬 Pro model、Instant / Thinking models 的存取
5 月 31 日前
100 美元的 Pro 用戶在 Codex 上可拿到 最高 10 倍於 ChatGPT Plus 的使用量
TorchTPU
目標是讓 PyTorch 可以更原生地跑在 TPU 上
希望開發者把原本的 PyTorch script 改成用 "tpu" 初始化後,就能跑既有 training loop
TorchTPU: Running PyTorch Natively on TPUs at Google Scale - Google Developers Blog
- Debug Eager:逐 op 同步執行,慢但方便 debug
- Strict Eager:逐 op 非同步執行,比較接近一般 PyTorch 體驗
- Fused Eager:把多個步驟自動融合成較大的計算塊,官方說相較 Strict Eager 可帶來 50% 到 100% 以上 的效能提升












