今天的 AI 新闻有两条清晰的主线。
第一条是企业 AI Agent 全面开闸。OpenAI 推出 Workspace Agents(Custom GPTs 的继任者),Google 在 Cloud Next 上密集发布 Gemini Enterprise Agent Platform、Chrome auto browse、Workspace Intelligence,Microsoft 紧随其后在 Word/Excel/PowerPoint 中上线 Agent Mode——三大巨头在同一天集中释放企业 agent 能力,标志着 AI 正式从"对话助手"升级为"后台执行者"。与此同时,Stanford 研究却泼了一盆冷水:在相同算力预算下,单 agent 往往不输多 agent 架构,多数企业可能在为架构复杂度白交"群体税"。这提醒我们,agent 热潮中,"该省略什么"比"能做什么"更值得思考。
第二条是Google 的芯片独立宣言。第八代 TPU 首次将训练与推理拆分为两块专用芯片(TPU 8t / 8i),推理性能跃升近 10 倍,训练可扩展至百万芯片规模。Google 正用垂直整合策略构建一条不经过 Nvidia 的 AI 算力路径,cost-per-token 的护城河正在成形。这不只是一个硬件发布,而是一场关于谁控制 AI 经济底层成本结构的权力博弈。