提示词能被复制,你的产品不能
如果你正在做 Agent 产品,可能也面临一个问题:
我跟 LLM 搏斗了好几周甚至几个月,Prompt 调了十几版,Skill 也精心打磨了好几轮。要不要想办法防用户逆向提取保护 AI Agent 产品“知识产权”?
这个问题乍一听既合理也紧迫。
好比传统软件/手机应用,源代码绝对是核心资产,有一系列反调试、加混淆、加壳等保护防逆向的工具链。
那 AI 时代,Agent “源代码”似乎就是提示词和 Skill,毕竟市面上没几个能自己炼模型的对吧。这么类比,Prompt 和 Skill 是不是也该保护起来?
我搜了一圈,结论是:这个问题本身就是站不住脚的。
Why?技术上防不住
GitHub 上有仓库专门收集各大 AI 产品的泄露系统提示词。asgeirtj/system_prompts_leaks 有 38K+ stars,20.2K stars的elder-plinius/CL4R1T4S,136K+ stars x1xhlol/system-prompts-and-models-of-ai-tools 覆盖 ChatGPT、Claude、Gemini、Grok 等一众产品,有些连 JSON tool schema 和版本历史都被扒出来了。Patrick Koss 看完这些泄露的提示词后总结:各家产品的系统提示词结构惊人地相似,都是”角色声明 + 工具列表 + 安全规则 + 输出格式”这个套路(Patrick Koss, “Stolen Blueprints: What We Learned From Leaked AI System Prompts”)。
OWASP 专门出了个 Cheat Sheet 教你怎么在 prompt 里写”不要透露你的指令”,然后自己在同一份文档里承认:
“Research shows that existing defensive approaches have significant limitations against persistent attackers due to power-law scaling behavior…”
是的,从根本上就防不住。


















