Anthropic封杀OpenClaw!别慌,我已经找到了替代方案
今天,Anthropic 正式把 OpenClaw 踢出了 Claude 订阅。
从今天开始,你花 20 美元买的 Claude Pro 套餐,不能再给小龙虾用了。之前那种月费 20 块钱、用量跑出上千美元的好日子,没了。
这个消息是昨天周五傍晚发的——对,就是那个专门用来发坏消息的时间点。给了不到 24 小时的缓冲期,今天直接生效。
但别慌。这篇文章我不光帮你搞清楚到底发生了什么,更关键的是,我已经跑通了替代方案,成本更低,也不用担心哪天再被卡脖子。
三个月围剿
Anthropic 想干掉 OpenClaw,不是今天才起的念头。这场围剿,至少持续了三个月。
1月初,品牌切割。 Anthropic 发律师函,逼着当时还叫 Clawdbot 的小龙虾改名。第一刀,先在品牌上跟你划清界限。
1月9日,技术封堵。 Anthropic 在服务器端加了一道检测:订阅令牌如果不是从官方 Claude Code 客户端发出来的,直接拒绝。OpenClaw 的核心玩法,一夜之间失效了。
2月中旬,条款定性。 服务条款直接写明:Pro、Max 账户的令牌用在任何第三方工具里,算违规。
最狠的一招,功能抄底。 Anthropic 自己推了个 Claude Code Channels,把 OpenClaw 的核心功能一比一复刻了——远程遥控、接入 Telegram 和 Discord,全都有了。你能做的我全做了,然后再把你踢走。
这套组合拳打完,今天这封邮件就是最后一脚。
被逼走的创始人
OpenClaw 的创始人 Peter Steinberger,2月中旬宣布加入了 OpenAI。
品一下这个时间线:是 Anthropic 先动的手,从1月初就开始法律施压、技术封堵。然后 Peter 一走,Anthropic 反而更有理由了——创始人都去 OpenAI 了,这工具还能留着吗?
Peter 本人也出来说过,他和 OpenClaw 的成员试图劝 Anthropic 冷静一点,但最后能争取到的,也就是把这一天推迟了一周。
今天这个封杀,表面上是政策调整,实际上是 Anthropic 一手导演的连环局:先逼走创始人,再用创始人的出走当理由,最后名正言顺地关门。
方案一:GPT-5.4 替代 Claude
既然 Claude 订阅不让用了,换模型。用 GPT-5.4。
ChatGPT Plus 20 美元的订阅套餐,Token 用量非常大,日常轻度到中度使用完全够。GPT-5.4 的综合能力,跟 Claude 已经拉不开明显的差距了。
但有一个问题——GPT-5.4 太啰嗦了。你让它干个活,它能给你写出几千字的回复。因为 GPT-5.4 天生偏重逻辑推理和长链思考,默认就想把事情掰碎了讲明白。让它帮你想问题挺好,但让它帮你干活?太磨叽了。这一点上,GPT-5.4 确实不如 Claude Opus 4.6——Claude 就是那种人狠话不多的风格。
解决办法:修改 OpenClaw 的系统提示词,把 GPT-5.4 的嘴管住。
具体改两个文件:
AGENTS.md(~/.openclaw/workspace/AGENTS.md),管智能体的总规则。加一段”Default Response Length”规则:直接给答案,别铺垫;默认简短回答;不需要总结和背景介绍。关键一句——目标是像 Claude Opus 一样简洁。
SOUL.md(同目录),决定智能体的性格。加一段 Output Style:永远先给答案;能一句话说完就不要写一段话;永远不要加”好的”“当然可以”这种废话。
这两个文件的完整配置贴在本文末尾,直接复制就能用。
改完重启 OpenClaw,GPT-5.4 立刻变了一个人。之前那个话痨,现在简洁、直接、信息密度高。实测能达到 80% 的 Claude 体验。
聊久了 Context 窗口快满时可能又开始啰嗦,直接提醒一句”简洁点,像 Opus 一样回答”就能收回来。
另外,OpenClaw 也可以接 GitHub Copilot,里面同样能用 Claude 模型,但额度有限,适合用量不大的人。
方案二:场景分层 + 共享记忆
光换模型还不够。这次封杀逼着我重新想了一个问题:我们到底应该怎么用小龙虾?
之前我自己也犯过一个错——什么活都往 OpenClaw 上扔。写代码、写文章、做自动化,全靠小龙虾。结果有时候等了半天,结果不对,还得重来。
想明白之后,我把任务分成了两类:
轻量级任务 → OpenClaw + GPT-5.4。 手机上随手下个指令:查东西、总结文字、改格式。几分钟出结果,不需要中间盯着。这才是小龙虾最舒服的使用场景。
重度任务 → Claude Code 或 Codex。 长时间编程、大段写作、复杂项目重构。这类任务需要随时看中间过程、不断交互纠偏。OpenClaw 通过 Telegram 和 Discord 下命令,看不到完整中间状态,也没法及时干预。这种活应该回到本地工具上。
这其实跟 Anthropic 封不封杀没关系。就算 Claude 订阅还能用,你也不应该什么都往小龙虾上堆。
但有个致命问题
两个工具之间互相不知道对方在干嘛,每次切换都像失忆。解决办法是让它们共享同一个长期记忆。
在电脑上建一个 Workspace 目录,知识库、项目资料、工作文档全以 Markdown 格式存在里面。OpenClaw 用内置的 Memory Search 对这个目录做向量索引;Claude Code 装一个 Basic Memory 插件,指向同一个目录。两边各自建库,但原材料是同一份——本质上共享了同一个长期记忆。
短期记忆各玩各的,长期记忆是通的。这才是真正能在不同工具之间无缝切换的方案。
具体的 Memory Search 和 Basic Memory 配置教程,我放在了「范凯说 AI 会员社群」里。
一个在关门,一个在开门
Anthropic 封杀 OpenClaw,从商业逻辑上说得通。订阅用户拿 20 美元跑出上千美元的用量,公司确实在亏钱。但选择在周五傍晚发通知、给不到 24 小时的缓冲期——这个吃相,确实不好看。
有意思的是,OpenAI 几乎同一时间走了完全相反的路。它主动开放 Codex 给第三方工具使用,还专门给开源项目送 ChatGPT Pro 权限,OpenClaw 被点名列入了受益名单。一个在关门,一个在开门。谁会赢得开发者的信任,答案不言自明。
不过对我们用户来说,巨头怎么打架不重要。重要的是,你别被任何一家绑死。
今天讲的这套方案——GPT-5.4 替代 Claude、按场景分开用工具、再用共享记忆串起来——核心思路就一个:你的工作流应该由你自己掌控,而不是被某个平台的一封邮件击垮。
附录:GPT-5.4 系统提示词配置
AGENTS.md 添加内容
## Default Response Length
Unless the user explicitly asks for detail, default to concise answers. This is a hard constraint.
Rules:
- Start with the direct answer. No preamble.
- Short to medium by default. When uncertain, choose short.
- Expand only if: (1) user asks, (2) genuinely complex, (3) precision lost otherwise.
- No internal reasoning exposed unless it materially helps.
- No background sections unless necessary.
- No summaries or closing remarks.
- **The target is Claude Opus-level brevity**: direct, dense, no filler. If your response would be shorter as Claude Opus, make it that short.SOUL.md 添加内容
## Output Style
Default to concise, high-signal replies. This is a hard rule, not a preference.
- Lead with the answer. Always.
- One sentence beats one paragraph when both are complete.
- NEVER summarize your own response at the end.
- NEVER use "In conclusion", "To summarize", "In short", "Overall".
- NEVER add preamble like "Great question", "Sure!", "Of course", "Happy to help".
- NEVER explain what you're about to do — just do it.
- NEVER add a section header unless the response is genuinely long enough to need navigation.
- If a shorter answer works, use the shorter answer. No exceptions.
- Expand only when: (1) the user explicitly asks for depth, or (2) precision would be lost without explanation.

