标签: AI

7 篇文章

为什么我建议开发者现在就补 Agent 安全这门课:GitHub 这套练习比大多数教程都更有用
很多开发者对 Agent 安全的理解,还停留在“别让模型乱说话”。这个理解已经明显落后了。真正麻烦的,不是模型说错一句话,而是它能执行命令、读不可信内容、调用外部工具、连接 MCP 服务之后,系统会出现什么级别的连锁风险。 GitHub 最近把 Agent 安全训练做成了一套 Secure Code Game,我觉得这件事比很多“安全白皮书”更值得…
别再把 MCP、A2A、UCP 当成热词了:2026 年 Agent 协议真正解决的是“边界”问题
2026 年如果你在看 Agent 相关资料,很容易产生一种熟悉的疲惫感:MCP、A2A、UCP、AP2、A2UI、AG-UI,缩写越来越多,讨论越来越热,但真正落到工程实践里,很多团队还是在重复写各种私有胶水层。 我对这件事的看法很直接:这些协议最值得关注的地方,不是“会不会只剩一个赢家”,而是它们开始逼开发者认真回答一个长期被糊弄过去的问题——…
OpenAI Agents SDK 这次终于像一个“能落地干活”的执行框架,而不只是 Prompt 封装
过去很长一段时间,很多所谓 Agent 框架给我的感觉都差不多:表面上在讲“智能体编排”,本质上还是把提示词、工具调用和一点状态管理缝在一起。能演示,能跑 demo,但离真正的工程执行环境还差一层东西。 OpenAI 2026 年 4 月更新 Agents SDK 之后,我第一次觉得这个方向开始更像“执行框架”而不是“提示词外壳”了。原因不是它又多…
Linux 内核接受 AI 辅助代码,这不是 AI 的胜利,而是开源社区对责任边界的重申
最近 Linux 内核项目给出了面向 AI Coding Assistants 的正式文档。很多人看到这个消息,第一反应可能是:连 Linux 内核都接受 AI 代码了,说明 AI 编程已经彻底进入主流。 但我看完文档后的感觉刚好相反:这份文件最重要的不是“接受”,而是“划线”。它真正表达的是,AI 可以参与,但责任、人类签署和法律归属不能外包。这…
Agent 已经能干活了,但大多数团队还没准备好治理:我为什么关注 Agent Governance Toolkit
这段时间,大家都在讨论怎么把 Agent 接进业务流程,怎么让它调用工具、访问 API、跑多步骤任务。但我越来越强烈的感受是:Agent 这件事,真正短缺的已经不是“能力”,而是“治理”。能做事的 Agent 越来越多,能被安全地放进真实环境里的 Agent 其实并不多。 所以微软 2026 年 4 月初开源 Agent Governance To…
Cursor 3 不只是升级 IDE,它在把开发者推向“调度多个 Agent”的新工作台
过去一年,很多 AI 编程产品都还停留在“给编辑器加一个更聪明的对话框”。Cursor 3 这次不太一样。它公开表达的方向,已经不是让你在 IDE 里更高效地补全代码,而是把开发者往一个新的位置上推:从亲自敲每一行代码的人,变成同时调度多个 Agent、审查结果、决定取舍的人。 这也是我觉得这次更新值得写的原因。它不只是一个产品版本升级,而是在提醒…
Transformer 到底是什么:一篇写给开发者的通俗技术科普
这几年,不管你是在看大模型、做 AI 应用,还是只是在用各种 AI 编程工具,几乎都会碰到一个词:Transformer。 很多介绍一上来就讲注意力机制、矩阵运算、位置编码,讲得没错,但对大多数开发者来说,问题其实更基础:Transformer 到底解决了什么问题?它为什么突然成了今天大模型的底座? 这篇文章不打算把你变成论文作者,而是想用工程视角…