很多开发者对 Agent 安全的理解,还停留在“别让模型乱说话”。这个理解已经明显落后了。真正麻烦的,不是模型说错一句话,而是它能执行命令、读不可信内容、调用外部工具、连接 MCP 服务之后,系统会出现什么级别的连锁风险。 GitHub 最近把 Agent 安全训练做成了一套 Secure Code Game,我觉得这件事比很多“安全白皮书”更值得…
2026 年如果你在看 Agent 相关资料,很容易产生一种熟悉的疲惫感:MCP、A2A、UCP、AP2、A2UI、AG-UI,缩写越来越多,讨论越来越热,但真正落到工程实践里,很多团队还是在重复写各种私有胶水层。 我对这件事的看法很直接:这些协议最值得关注的地方,不是“会不会只剩一个赢家”,而是它们开始逼开发者认真回答一个长期被糊弄过去的问题——…
过去很长一段时间,很多所谓 Agent 框架给我的感觉都差不多:表面上在讲“智能体编排”,本质上还是把提示词、工具调用和一点状态管理缝在一起。能演示,能跑 demo,但离真正的工程执行环境还差一层东西。 OpenAI 2026 年 4 月更新 Agents SDK 之后,我第一次觉得这个方向开始更像“执行框架”而不是“提示词外壳”了。原因不是它又多…
最近 Linux 内核项目给出了面向 AI Coding Assistants 的正式文档。很多人看到这个消息,第一反应可能是:连 Linux 内核都接受 AI 代码了,说明 AI 编程已经彻底进入主流。 但我看完文档后的感觉刚好相反:这份文件最重要的不是“接受”,而是“划线”。它真正表达的是,AI 可以参与,但责任、人类签署和法律归属不能外包。这…
这段时间,大家都在讨论怎么把 Agent 接进业务流程,怎么让它调用工具、访问 API、跑多步骤任务。但我越来越强烈的感受是:Agent 这件事,真正短缺的已经不是“能力”,而是“治理”。能做事的 Agent 越来越多,能被安全地放进真实环境里的 Agent 其实并不多。 所以微软 2026 年 4 月初开源 Agent Governance To…
过去一年,很多 AI 编程产品都还停留在“给编辑器加一个更聪明的对话框”。Cursor 3 这次不太一样。它公开表达的方向,已经不是让你在 IDE 里更高效地补全代码,而是把开发者往一个新的位置上推:从亲自敲每一行代码的人,变成同时调度多个 Agent、审查结果、决定取舍的人。 这也是我觉得这次更新值得写的原因。它不只是一个产品版本升级,而是在提醒…
这几年,不管你是在看大模型、做 AI 应用,还是只是在用各种 AI 编程工具,几乎都会碰到一个词:Transformer。 很多介绍一上来就讲注意力机制、矩阵运算、位置编码,讲得没错,但对大多数开发者来说,问题其实更基础:Transformer 到底解决了什么问题?它为什么突然成了今天大模型的底座? 这篇文章不打算把你变成论文作者,而是想用工程视角…