AI 动手的代价
Claude Code 不是在沙盒里回答问题——它在你的真实项目中修改文件、执行命令。一个失误可能意味着:- 覆盖了你还没提交的工作
- 执行了危险的
rm -rf命令 - 推送了包含 bug 的代码到远程仓库
- 泄露了
.env文件中的密钥
安全设计的核心理念
最小权限原则
AI 默认没有任何”动手”权限,每项能力都需要显式授予
可逆优先
优先执行可逆操作(读文件、搜索),对不可逆操作(删除、推送)严格审批
人在回路
关键操作必须经过人类确认,AI 不能绕过用户自行决定
纵深防御
多层安全机制叠加——权限规则、沙箱、计划模式、预算上限——任何一层都能阻止危险操作
安全 vs 效率的平衡
如果每个操作都要确认,AI 就变成了一个不停弹窗的烦人助手。Claude Code 的设计在安全和效率之间找到了平衡:- 低风险操作自动放行:读取文件、搜索代码——这些不会改变任何东西
- 中风险操作规则放行:编辑指定目录的文件——用户可以预设”允许”规则
- 高风险操作人工确认:删除文件、执行未知命令——必须手动审批