VS Code 将机器控制权全盘交给 AI 后,竟警告用户不要信任它
作者:互联网
2026-03-24
十年按月更新,只用一周,就把整个开发关系改写了。
2026 年 3 月 9 日,微软发布了 VS Code 1.111,这是它第一次以“每周稳定版”的节奏对外推送更新。微软杰出工程师 Kai Maetzel 当时提到,原本集中进行的 endgame 测试,将被“折叠进每周工作流程里”。更耐人寻味的是,这个版本里几乎所有新增内容都和 AI 有关。最受关注的功能,正是 Autopilot 模式:AI 代理会持续自主执行任务,自动批准工具调用、自动重试错误、甚至会自己回答自己提出的问题,从而“避免代理因为等待用户回复而停滞”。
我从 2000 年代初就开始用各种 IDE 写代码。Eclipse 怎么一步步卡成“慢动作播放器”,IntelliJ 怎么吃下整个 Java 世界,VS Code 又是怎么变成一代开发者默认编辑器的,这一路我都看在眼里。但这一次,真的不一样。
这不是简单地加了一个新功能。
这是在重新定义:开发者和工具之间,到底谁在掌控谁。
三种权限级别,最吓人的那个,居然已经摆在你面前了
VS Code 1.111 为 Copilot Chat 带来了三种权限模式:Default、Bypass Approvals 和 Autopilot。
你可以把它想象成请人来你家装修。
Default,像是工人每动一下都会先敲门,等你点头才继续。
Bypass Approvals,像是你把钥匙给了对方,但对方要砸墙前,至少还会先打电话知会你一声。
而 Autopilot,则更像是你不但给了钥匙,还顺手把信用卡也塞了过去,再留下一张纸条:你看着办吧,怎么合适怎么来。
等你回家时,可能厨房已经焕然一新;当然,也可能承重墙都被拆了。
问题就在这里——你在回来之前,根本不知道发生的是前者,还是后者。
Default 是大家最熟悉的模式。AI 会提出建议,但每一次工具调用,都必须得到你的明确确认。
Bypass Approvals 则取消了这一步。代理可以直接读文件、搜代码、执行命令,不再逐项征求你的同意。不过,一旦它遇到需要你回答的问题,还是会停下来等你。
Autopilot 更进一步。所有工具调用都会被自动批准,报错会被自动重试,而当代理提出问题时,系统还会自动代你回应,目的只有一个:让它继续干,别停。
你把任务一丢,转身离开;回来时,也许会看到结果,也许会看到灾难。可在你真正检查之前,你不会知道它到底替你做了什么。

更让人后背发凉的是,微软已经默认把 Autopilot 这个选项放在了所有 VS Code 用户面前。也就是说,用户不需要额外改什么复杂配置,就可以直接把权限级别切到这个模式。
可与此同时,微软自己的官方文档又写得非常直白:他们建议在 macOS 和 Linux 上启用“实验性的终端沙箱”,并明确提醒,“AI 系统容易受到提示注入攻击”。文档甚至进一步建议开发者使用沙箱或 dev container,而不是单纯依赖自动批准规则。
说白了,就是一家公司一边把 Autopilot 模式端出来,一边又反复告诉你:别太信它。
这话听着,实在很难让人安心。
如果你看到这里,已经开始重新审视自己的 VS Code 设置,那说明你至少比很多人先意识到问题了。真正值得警惕的,不是功能强不强,而是它被包装得太像“提高效率的自然升级”,以至于很多人根本不会第一时间想到安全边界。
谷歌第二天就跟上了,但态度同样微妙:功能给你,风险自己扛
几乎就在 VS Code 1.111 发布一天后,谷歌也在 Gemini Code Assist 里上线了 Auto Approve Mode。
更讽刺的是,VS Code 自己关于全局 Auto Approve 设置的说明里,已经明确写着:这个功能“极其危险,永远不建议使用”,因为它“会禁用关键安全保护”。而谷歌那边的官方文档,口气也同样不含糊,直接提醒开发者:在启用自动批准变更时,必须“极度谨慎”。
两家公司都做了同一件事:把功能推出去。
两家公司也都说了同一句潜台词:出了事,别怪我没提醒你。
这几乎就是 AI 军备竞赛在代码编辑器领域最真实的样子。谁都不想慢,谁都不想看起来落后。两边都知道这里面有风险,两边也都决定先把枪发下去再说。
你可以把它想象成两家餐厅比赛谁家的菜更辣。谁都不希望真把顾客辣进医院,但谁也不愿意因为“不够刺激”而把客人让给对面。
于是,大家都选择继续加料。
从按月更新改成每周更新,很多人低估了这件事有多危险
真正被不少人忽略的,其实不是 Autopilot 本身,而是 VS Code 更新节奏的变化。
过去十年里,VS Code 基本维持着按月发布的节奏,并配套一个结构化的 endgame 测试阶段。社区知道它什么时候会稳定,扩展开发者也能提前留出窗口去做兼容验证。
可现在,周期被压缩到了每周。
这意味着,扩展开发者手里的验证时间,从原来的几周,被挤压成了几天;用户面对每个新版本时,也几乎失去了原本那段“烘焙时间”。那些原本会在 endgame 测试周里被发现的问题,如今更有可能直接进入稳定版,落到真实用户头上,然后才被人意识到。
开发者社区对此的反应其实非常快。有人在 Reddit 上直接问:那 Insider 构建现在还有什么意义?也有人开始关心,自己该怎么留在旧版本,不被每周更新节奏拖着跑。还有人把这事评价为“让人困惑,也让人不安”,因为每周都要审视一轮设置变化,本身就是一种额外负担。
老实说,扩展兼容性这种事,平时大家往往不觉得重要,直到它真坏了,你才会发现自己有多依赖它。我见过太多企业团队,被迫锁死在某个特定版本的 VS Code 上,只因为某个关键扩展在新版本里出了问题。
以前这种事一个月来一次,就已经够烦了。
现在,如果变成每周一次,情况只会更糟。

微软把这种更快的发布节奏归功于 AI:AI 协助测试,AI 参与缺陷分诊。于是,一个很耐人寻味的闭环出现了——让每周更新成为可能的,是 AI;而让风险迅速放大的,同样也是 AI。
这当然很“高效”。
你的 SSH 密钥、云凭证、API Token,也许只差一次提示注入
把一个带自动批准工具调用能力的 Autopilot 模式,放进代码编辑器里,从安全语义上说,本质上就是:你把任意代码执行权,交给了一个 AI 代理,而且运行环境还是你的开发机器。
这不是一个轻飘飘的小功能,而更像是:你把家门钥匙、车钥匙、保险柜密码全交给了一个陌生人,然后自己出门度假。
而一台开发机里通常有什么?SSH 密钥、云平台凭证、API Token、数据库访问权限、内部系统入口,甚至还可能直连生产环境。
真正的问题在于,提示注入并不是“理论上的、遥远的、以后可能会发生”的事。它早就是一种被反复验证、文档里写得明明白白的攻击路径,甚至已有对应编号:CVE-2025-53773。
一个恶意 README,一段精心构造过的错误信息,一个被投毒的依赖包,都可能向 Copilot 代理注入指令,让它去导出环境变量。而在 Autopilot 模式下,这样的工具调用,系统还会很勤快地替你自动批准。
微软当然知道这一点。
所以它才会建议沙箱。
可微软也同样知道,大多数开发者并不会真的去配沙箱。他们更可能做的,是看到“Enable Autopilot”这种听起来很高效、很先进的选项时,顺手一点。至于这里面的安全后果,很多人往往要等到真的出事了,才会第一次认真思考。
我做了二十多年生产系统,类似的模式看得太多了:便利性总是先赢,安全性总是先让步;直到事故发生,所有人才突然表现得像第一次知道这东西有风险。
所以,只要你的公司在用 VS Code——而从概率上看,大多数公司都在用——那么你的安全团队就必须尽快对 Autopilot 模式形成明确态度。它绝不是一个单纯的“开发体验优化项”。
它首先是一个安全姿态问题。
这一枪打出去,所有竞争对手都必须跟上
VS Code 的这一步,也会逼着整个 IDE 市场继续往同一个方向狂奔。
JetBrains 早就把 AI Assistant 塞进 IntelliJ 体系里;Cursor 从一开始就是 AI-first;Windsurf 在 OpenAI 那笔 30 亿美元收购出价流产后,被 Cognition 接走,也在走自己的 agent 路线;Zed 也在不断推送自己的智能代理能力。
如今 IDE 市场越来越像一场集体失速的军备竞赛。大家最在意的差异点,已经不再是编辑体验、启动速度、插件生态,而是:谁的 AI 更自主,谁的 agent 更激进,谁更敢让机器替人做决定。
几乎每隔几周,就会有人上线一个新的“代理式功能”;然后剩下的人立刻跟进,生怕显得自己慢了一步。
结果就是,IDE 正在从“文本编辑器”变成“AI 运行环境”。
编辑器本身,越来越像一个壳。真正的产品,变成了那个能够读代码、写代码、执行命令、跑测试、甚至部署变更的 AI 代理,而人类开发者,则逐渐退到监督者的位置。
从这个角度看,VS Code 改成每周发布,其实也就不难理解了。因为 AI 能力需要的迭代速度,远比传统的人类交互功能更快。它服务的节奏,已经不再完全围绕开发者,而是开始围绕 AI 代理本身展开。
这才是更大的变化。
今天的 VS Code,看上去还在服务开发者;可明天的 VS Code,可能首先服务的是 AI,而开发者只负责盯着别出大事。
如果是我,现在只会给一个建议:先停在 Default,别急着把方向盘交出去
如果你正在工作中使用 VS Code,那么我现在最建议做的事情,其实并不复杂。
第一,不要在团队尚未讨论清楚安全影响之前,贸然启用 Autopilot。 第二,如果你的工作流对稳定性要求很高,那就考虑固定 VS Code 版本,别让每周更新牵着你走。 第三,只要你在使用任何 Copilot 代理能力,就尽快把终端沙箱配起来。 第四,主动和安全团队沟通,明确哪些 AI 权限级别是可接受的,哪些不行。 第五,先在非关键项目里测试每周更新,确认没问题之后,再考虑团队范围推广。
坦白说,眼下这波自治能力的发布速度,真的太快了。每周迭代、默认自动批准、厂商自己还在文档里反复警告提示注入风险——这一切都在说明,我们前进的速度,已经开始超过现有安全基础设施的承受能力。
问题从来不是 AI 能不能做更多事。
问题是,在我们还没想清楚边界之前,它已经被允许做太多事了。
你们团队,真的认真讨论过开发环境里的 AI 代理权限吗?你们到底能接受哪个权限级别?说实话,我非常想知道答案。因为从我看到的情况来看,大多数团队,甚至还没有开始这场本该尽快发生的讨论。
相关标签:
相关推荐
专题
+ 收藏
+ 收藏
+ 收藏
+ 收藏
+ 收藏
最新数据
相关文章
NanoClaw 开源轻量级个人AI助手 安全可靠的OpenClaw替代方案
MonsterClaw 采用 OpenClaw 技术打造的本地化AI运行平台
TinyClaw 由TinyAGI推出的开源轻量级多智能体协作框架
携程酒店业务借助NebulaGraph实现月均风控止损逾百万元
稀宇科技开源MiniMax Office Skills生产级办公文档引擎
ToClaw由ToDesk打造的专业定制AI智能体
TypeNo 免费开源的中文AI语音输入法 无需配置直接使用
Sub2API 开源人工智能API中转网关平台 具备多账户管理功能
阿里通义推出视频生成音频框架PrismAudio
Luma AI发布Uni-1模型实现图像理解与生成一体化
AI精选
