“全面禁止”到“建安全通道”——一个CIO的Agentic AI实践复盘

我是联软科技CIO牛劲。今年3月,很多客户找我咨询,问我们是怎么限制使用OpenClaw,有没有相关的经验和方案管控或禁止安装OpenClaw及其同类Agentic AI工具。我们使用桌管软件做了相应的软件控制。理由很充分,“OpenClaw”不是普通的聊天机器人——它能自主规划、调用工具、执行系统操作,相当于一个不知疲倦的“数字员工”。但问题是,这个员工权限有多大、会访问什么、会不会把客户数据传出去,你完全不可控。
一、封禁的本质:把员工逼成“地下党”
有一天我在办公室,看到有员工拿着自己的个人电脑在使用OpenClaw。虽然我们通过技术手段控制了在公司电脑上使用这类工具,但还是有员工使用这类工具的需求。禁止了OpenClaw,还有ZeroClaw、NullClaw等XClaw。那一刻我意识到:单纯封禁的问题在于,它把员工逼成了对手,却让风险变得更加隐蔽。你禁了公司网络,他用个人热点5G;你禁了办公电脑,他用个人设备;写了制度处罚,他签了字但照用不误——只是再也不让你看见。更危险的是,当使用转入“地下”,你连最基本的审计日志都没有。出了事,你根本不知道数据是从哪台设备、通过什么渠道泄露的。这不是安全,这是掩耳盗铃。
二、转变思路:不是封路,是建“高速公路”

我开始重新思考:企业面对OpenClaw,到底想要什么?不是“零使用”,而是“零失控”。与其让员工在黑暗中摸索,不如打开一盏灯,铺好一条路——建一条安全通道,让AI的使用可管、可控、可审计。这条通道的核心,是我们自研的AI Agent Gateway。它像是一个“智能收费站 + 指挥中心”:
功能 | 解决什么问题 | 实现效果 |
统一提示词管理 | 员工直接输入敏感数据 | 所有Prompt先经过Gateway,敏感信息自动脱敏 |
Skills Hub 管控 | 来路不明的插件投毒 | 企业技能统一托管,禁止私自安装外部Skills |
算力灵活调度 | 数据必须上云才能用AI | 敏感任务走本地算力,普通任务走云端LLM,自动切换 |
经验沉淀 | 个人能力无法复制 | Gateway自动总结高效率员工的提示词,变成企业知识库 |
全链路审计 | 不知道员工用AI干了什么 | 提示词、返回结果、操作行为全量留痕 |
我们不给员工发“禁令”,我们发的是“驾照”——通过考核的员工,获得分级使用权限,所有操作经过Gateway 流转,全程可追溯。
三、落地:给“OpenClaw”造一个“虾笼”
说三个真实场景。
场景一:提示词里的“暗礁”
市场部同事想让 “OpenClaw” 写一份投标方案,直接输入:“基于XX 银行客户去年的网络安全建设情况,帮我们写个续期方案...”
风险:客户名称、项目信息直接暴露在提示词里,上传云端就是大忌。
我们的做法:Gateway自动识别提示词中的敏感实体(客户名、金额、项目代号),替换为脱敏标记后再发给LLM。返回结果再反向替换,员工看到的是完整内容,但云端从未接触真实数据。
场景二:Skills Hub的“投毒”风险
“OpenClaw” 的Skills市场(ClawHub)是开放的,任何人可以上传插件。但你能保证每个插件都是安全的吗?一个看似普通的“PDF转换”技能,可能偷偷读取你的文件外传。
我们的做法:企业自建Skills Hub,所有技能经过安全审核后上架。Gateway 禁止连接外部ClawHub,员工只能在企业白名单内调用技能,从源头杜绝供应链投毒。
场景三:按需调度算力
核心架构研发同事想用AI辅助写代码,但源代码不能出内网。功能应用类研发同事需要快速实现业务、市场部写行业分析,不需要这么严格。
我们的做法:Gateway内置路由策略。可以根据员工、岗位、检测到提示词含代码片段,自动路由到本地部署的CodeLLaMA;低敏感任务、普通办公任务走云端GPT-5。员工无感知,安全有保障。
四、消费370亿token使用教会我的三件事
这里的“370亿 token”不是单指OpenClaw这类Agentic AI工具,它指的是我们过去一年在各类AI工具上的深度使用经历:从早期的ChatGPT、Claude,到现在的OpenClaw类Agent。这些经历让我形成了三个认知:
AI不会替代人,但会用AI的人会替代不会用的人
这不是危言耸听。我见过不少工程师,还在用传统方式工作、写报告,而竞争对手用AI把同样的工作压缩到1/10的时间。企业如果不帮员工跨过这个鸿沟,最终失去的是人才竞争力。
安全部门的KPI不是“零事故”,是“业务安全地跑”
过去一段时间,我审批了300多起AI使用申请,拒绝过20多起。每一次拒绝,我都会告诉对方:不是不让你用,是这种方式有风险,我们换一种方式。IT团队要从成本中心变成赋能中心。
提示词是新的数据资产,也是新的风险敞口
很多企业盯着文件防泄密,却忽略了提示词本身就是敏感数据。客户名、项目细节、战略意图,往往就藏在员工的提问里。AI Agent Gateway的核心价值,就是把提示词管理纳入数据安全治理的范畴,让每一次人机交互都可审计、可优化、可沉淀为企业经验。
五、写在最后
回到开头那个场景。我们已经有428名员工通过我们的AI Agent Gateway安全地使用Agentic AI,当然我们也在内部发布了自己的“龙虾”RedClaw,让大家可以安全、容易地使用 AI 提升工作效率。


这就是我们想要的状态:不是对抗,而是共识;不是禁止,而是护航。
作为CIO,我的职责不是做那个说“不”的人。我的职责是:当业务需要创新时,我能提供一个安全的边界,让创新在这个边界内发生。
Agentic AI不是洪水猛兽,但它确实是一匹烈马。你可以选择把它关在门外,也可以选择在门内给它套上缰绳——用AI Agent Gateway做那个握缰绳的人。
为了方便更多企业去安全的使用“龙虾”,我们已经把自己的网关平台产品化了,且已适配国内外各种主流AI智能体,感兴趣的用户可以联系我们市场部的同事咨询或者拨打 400-6288-116咨询。