范凯说 AI · 周日晚聊14期 - AI 时代的个人工作站
主题:AI 时代的个人工作站
日期:2026年4月5日
开场
大家好,这里是《范凯说 AI · 周日晚聊》,我是范凯。
今天是第14期,我们主要聊这几件事:
第一,Claude Code 源代码泄露,51万行代码裸奔,社区狂欢;随后 Anthropic 正式宣布不允许 OpenClaw 小龙虾使用 Claude 模型订阅套餐。
第二,OpenAI 完成1220亿美元融资,估值8520亿,冲刺 IPO。
第三,AI 时代的个人工作站——怎么搭建一个完整的个人 AI 生产力工作流。
第一部分:本周 AI 新闻
新闻一:Claude Code 源代码泄露
本周最炸裂的新闻又是 Anthropic。Claude Code——全球最炙手可热的编程智能体,全部源代码泄露了。
3月31号,一位安全研究员发现 Anthropic 在发布 Claude Code 的 npm 包(2.1.88 版本)时,包含了源代码的压缩包,里面有 Claude Code 完整的源代码——大约1900个源文件,超过51.2万行代码。具体原因就是人为操作失误,不是安全漏洞。
消息一出,GitHub 上无数人 fork 这个源代码,用各种 AI 编程工具去拆解它,看看 Claude Code 里到底有什么不为人知的秘密。
对中国用户来说,最关心的自然是 Claude Code 到底怎么追踪用户、怎么避免订阅套餐被封号。通过反向阅读源代码,可以确认它有非常多的数据上报——设备信息、操作系统信息、交互内容,这些会形成一个很强的指纹信息。所以要避免被封号,其实只有一个办法:养号。号养的时间越长,越不容易被封。像我的 Claude 账号从2023年就注册了,随便怎么用都不封号。有时节点是香港,它提示该地区不支持,但也不封号。关键就是别一个新号注册好才两天就往死里薅羊毛,那肯定被封。
社区发现了什么:
最有意思的还是工具系统——40多个内置工具,shell 命令执行、网页抓取、文件读取,基础工具的定义就有2.9万行源代码。还有查询引擎负责所有 API 调用,是核心系统。还有多代理编排——多 Agent 的并行调度做得非常好。以及50多个斜杠命令的支持。
源码里还有一个反蒸馏机制——有一个叫 ANTI_DISTILLATION_CC 的标志,会在系统提示词中注入虚假信息,目的是污染竞争对手的训练数据。确实被中国的模型蒸馏得太多了,所以才有这个机制,挺有意思的。
Claude Code 的竞争优势会因此丧失吗?
不会。原因很简单:Anthropic 的竞争力,模型排第一位,编程工具排第二位。编程工具本身有一个很强的工程团队在快速迭代,就算别人学到了一些东西,拉高了自己的水平,但整体架构没法百分之百复制。只要 Anthropic 持续快速迭代,很快就能把差距重新拉开。
需要强调的是,泄露的是 Claude Code 这个编程工具的源代码,不是 Claude 模型的源代码。模型的训练数据、训练代码和检查点,量非常大,很难一次性泄露。
Anthropic 封禁 OpenClaw 使用 Claude 模型订阅套餐
紧接着 Claude Code 源码泄露,Anthropic 正式宣布 Claude 模型订阅套餐不允许用在 OpenClaw 小龙虾上了。
替代方案有三个:
第一,GPT 20美元订阅套餐(最推荐)。 量大管饱,唯一让人不爽的是 GPT 模型比较啰嗦,但可以通过修改系统提示词让它的回答风格更像 Claude 模型。
第二,GitHub Copilot 订阅。 一个月9到10美元,里面包含 Claude、Gemini、GPT 等多个模型。缺点是用量不大,适合轻量级使用。
第三,区分场景使用不同工具。 重度任务、长程任务用 Claude Code 配 Claude 模型;轻量级任务在手机上用 OpenClaw 小龙虾配 GPT 模型。
关于长期记忆共享的问题: 不同工具之间不共享记忆怎么办?OpenClaw 这边打开 memory search,用向量检索保存长期记忆库;Claude Code 这边装一个 Basic Memory 插件,同样用向量检索保存长期记忆。两边都把长期文件显式保存到硬盘的同一个公共目录下——同一份原材料,两边各自向量检索,就共享了同一份记忆库。我现在就是这样用的,非常爽。
新闻二:OpenAI 1220亿美元融资,冲刺 IPO
3月31号,OpenAI 宣布完成了1220亿美元的融资,估值8520亿美元。
投资人阵容:Amazon 投了500亿美元(其中350亿以 IPO 或达成 AGI 为条件),Nvidia 和 SoftBank 各投了300亿,加上其他投资机构,总计1220亿美元。OpenAI 年化收入已经超过250亿美元。
但 Anthropic 其实更厉害——Anthropic 的年化收入已经超过300亿美元,更多面向企业市场。Anthropic 的企业 LLM 市场份额从2023年的12%上升到了32%,占据了三分之一;而 OpenAI 从50%下降到了25%。全球财富前十的企业有8家在使用 Claude 模型。在企业市场上,Anthropic 已经超过了 OpenAI。
Anthropic 目标是2026年10月在纳斯达克上市,估值目标5000亿美元以上。
现在全球 AI 头部竞争格局: OpenAI 估值8520亿,Anthropic 估值3500亿,Google 市值2万亿。OpenAI 上市后至少万亿美元,Anthropic 上市至少5000到8000亿美元。
OpenAI 用户量更大、消费端更强,但 Anthropic 在智能体、编程和企业市场上占据遥遥领先的优势,而且份额还在持续扩大。
另外还有两家有点落伍:xAI 联合创始人走光了,马斯克在重组;Meta 的下一代模型至今还没有训练出来。
新闻三:Google Gemma 4 开源 + 国内 AI 动态
Google Gemma 4 开源:
4月2号,Google 开源了 Gemma 4——基于 Gemini 3 技术的开源模型,四个尺寸(2B、4B、26B、31B),上下文窗口256K,可以在手机、树莓派等设备上运行。31B 模型刷榜刷得很厉害。
不过,如果是用来跑智能体,效果不一定好。Google 的模型更擅长大文档处理和多模态,Gemma 本身也不是专门针对智能体做优化。而且 Google 和 Meta 的开源模型训练数据中英文占比特别高、中文训练数据很少,在中文语境下不如国内的千问模型好用。就像炒菜一样——国外模型是西餐配比,也能做中餐,但味道就差一些。
现在头部厂商的策略都一样:顶级模型绝对不开源,推出一个相对小的开源模型去吸引社区使用,扩大市场份额。阿里千问3.6 也是如此。
国内动态——智谱 GLM-5.1:
智谱发布了 GLM-5.1,据说非常强,Coding Plan 套餐一上线就被抢光了。但国内厂商普遍算力短缺,疯抢的时候跑后台任务会在日志里看到大量出错信息——连不上、超时、API 被限流。
坦率地说,把国产模型的稳定性也作为参数考量的话,GPT 20美元的订阅套餐真的是性价比最高的。如果用量很大,GPT 200美元的套餐绝对超值。另一个省钱方案是注册3个 GPT Plus 账号(共60美元),用开源的 API Proxy 合并三个套餐给小龙虾用,量大管饱,性价比极高。
DeepSeek V4:
DeepSeek 从去年春节发布之后已经一年了,V4 跳票好几次,说4月份可能发布。规格很猛:万亿参数的专家模型,每次推理激活37B,100万上下文窗口,原生多模态,深度适配国产芯片。
DeepSeek 出得慢,一个重要原因是为了深度适配华为昇腾910芯片。这周跟一个华为供应商吃饭,了解到华为910芯片目前良率最高只能达到60%,相比台积电80%-90%的良率差了很多。而且芯片面积大、发热量大、耗电量高——用更大的电力换取相应算力。所以第一成本更高,第二运营费用也更高。但 DeepSeek 过去一年为国产芯片适配做出了巨大贡献。
当然 DeepSeek 也走了一些人,罗福莉去了小米,还有人去了字节。
关于 AI 编程工具的选择:
目前能力最强的就两个:Anthropic 的 Claude Code 和 OpenAI 的 Codex。
两者使用习惯不同:Claude Code 适合喜欢折腾的人——加载很多 Skill、MCP 插件,越用越强;Codex 反而是不要折腾,不需要搞很多 Skill,给它一个任务让它跑就行。
我更喜欢 Claude Code,因为 AI 编程只占我工作的20%-25%,大量时间用 AI 做写作、工作规划、社群管理、知识管理、联系人管理等。Codex 在编程上很好,但多面性不如 Claude Code。
我现在的用法是三套班子:最复杂的任务交给 Claude Code 配 Claude 模型;日常轻量级任务交给 GPT 模型配 OpenClaw 小龙虾;兜底的简单但量大的任务交给 Open Code 加本地千问 Code Next 模型。
如果不差钱,最推荐的组合是两个200美元的套餐:Claude 200美元套餐 + GPT 200美元套餐。Claude Code 做架构设计和重活,Codex 做 Code Review,一个月400-450美元,看起来不少,但大量节省时间和精力,绝对超值。
第二部分:AI 时代的个人工作站
先说一个反思:磨刀磨了两个半月
在讲工作站之前,先坦诚说一个反思。
从1月下旬到现在,两个半月时间——搭算力平台,在 Mac Studio 上部署两个千问模型,配网络、搭梯子、Tailscale 组网,安装 OpenClaw、Claude Code、Codex,装一堆 Skill 和插件,两边的长期记忆库都要配好并共享……一通折腾下来,一半以上的时间花在了折腾工具上。
磨刀磨了两个多月,干活没干多少。所以我反思了一下:基础设施建设到现在已经非常顺滑,不需要再画蛇添足了。后面的时间和精力要放在真正的产出上——创作内容、做软件产品、用 AI 规划每天的工作。
我的个人 AI 工作站全貌
硬件: Mac Studio M4 Max,128G 内存,2T 硬盘,7×24小时在线。为了防止它进入休眠,专门装了一个叫 Amphetamine(安非他命)的软件——一个兴奋剂,让 Mac Studio 永远保持清醒。
远程访问: 通过 Tailscale 把不同互联网节点放在一个虚拟专用网络里,不暴露公网 IP,同时可以远程访问。在同一城市内直连延迟只有20-30毫秒,跟本地机器一样。但在外面用手机热点时,无法直连就要走中继服务器,Tailscale 最近的中继在香港,一来一回延迟200-300毫秒,很慢。为了解决这个问题,我在腾讯云 VPS(南京节点)上自建了一个中继,延迟瞬间从两三百毫秒降到了50毫秒。现在在国内任何地方都能以五六十毫秒的延迟连到 Mac Studio,操作极度流畅。
自建中继节点的方法也很简单:把 Tailscale 中继节点搭建文档和腾讯 VPS 的登录信息都给 Claude Code,让它帮你配,一通操作就全部搞好了。
Mac Studio 上跑了什么:
OpenClaw 小龙虾——7×24小时在线,通过 Telegram 或 Discord 随时对话
Claude Code——通过
/remote control命令,可以在笔记本电脑的浏览器、Claude APP,甚至手机上远程给 Mac Studio 上的 Claude Code 下命令,指挥它干活两个本地模型:通义千问3 Code Next(80B 专家模型,用于写代码)和通义千问3.5 35B(多模态模型,可以读文档)。两个模型一个需要40G 内存,一个需要19G 内存,加上 cache 差不多60多G。模型端口在 Tailscale 内网里暴露出来,变成了个人专用的、不花钱的远程本地模型。在笔记本或手机上都可以连上去用,国内直连延迟20-30毫秒,比调海外模型还快。
OpenAI Whisper——语音转文字,把视频转成文字、整理稿件,丢一个视频链接它就能自动下载、抽取语音、转成文字、保存到知识库,全自动完成
BGE-M3 嵌入模型——向量化模型,给知识库做向量索引,也为 OpenClaw 提供长期记忆库的向量索引
Basic Memory 插件——给 Claude Code 提供长期记忆
文件同步: SyncThing,一个开源的点对点文件同步工具。不用 iCloud(太垃圾),不用 Google Drive(不支持带版本化的同步、不支持排除目录)。Mac Studio 和 MacBook 之间整个工作目录实时同步,延迟5秒之内。AI 在 Mac Studio 上改了文件,几秒后笔记本上就能看到。相当于我跟 AI 永远在跨互联网实时协作,整个文件状态全部同步。
知识库: 整个 Workspace 目录下900多个 Markdown 文件,全部向量化,存进本地 SQLite 数据库。OpenClaw 和 Claude Code 都可以进行语义检索。
本周新增:个人 CRM。 通过 Telegram 跟小龙虾说”今天跟谁见面了,这个人什么关系、什么背景、哪个城市、哪家公司、什么 title、未来有什么业务机会”,小龙虾就会自动在 Personal CRM 目录里创建一个 Markdown 文档——上面是结构化的属性信息,下面是非结构化的联络记录。Obsidian 的 DataView 插件会自动生成不同视图:按城市、按最近联系、按行业等。
联系人多了以后,还可以说”明天我要到北京出差,帮我看看北京某个行业的联系人,哪些人应该联系一下,帮我推荐推荐,攒几个局”,它都能帮你拉出来。而且因为联系人之间可能互相认识,只要提供线索,它还会建立联系人之间的关系——变成一个联系人知识图谱。
我每天的工作流
早上通过 Telegram 跟小龙虾说今天要做什么,它帮我规划
写内容时语音口述,把素材丢给它,说清选题和观点,它帮我整理成文字、写提纲,我不断调整修正
需要查资料时,它先从900多篇知识库里检索,再 Web Search 做事实核查
见了人,口述一下,CRM 自动更新
需要跑代码任务,界面开发在 MacBook 上做,长程后台任务远程 SSH 到 Mac Studio,下发任务后退出,它自己跑一两个小时,完全不用管
一个人,相当于有了一个24小时在线的助理团队。这就是 AI 时代超级个体应该有的基础设施。
核心理念:你的电脑不应该只是你坐在面前时才能用的工具,它应该是一个永远在线的、随时随地可以调用的 AI 工作站。 这是我在 X 上分享时大家最有共鸣的一句话。
关于 AI 语音输入法的思考
我现在90%的工作已经不是用全键盘了,大量通过语音口述完成。我配了一个6键小键盘:唤起 AI 语音输入法、回车提交、Shift+Enter(不提交换行)、ESC 取消、空格、删除,再加一个旋钮(复制粘贴、光标移动)。基本上 AI 编程、AI 干活,就靠这个小键盘。
正因为大量使用语音输入法,我下定决心要自己做一个 AI 语音输入法。为什么现有的都不满意?豆包语音输入法是”垃圾”,微信语音输入法是”垃圾 Pro”,就连我每天在用的 Typeless(我是年度付费会员),也有很多让我无法忍受的缺点。
我对 AI 语音输入法的核心认知:
它不只是一个输入法,它是 AI 时代最重要的入口。人口头表述时思维是混乱的——说到一半发现说错了要重说,思维碎片化,中英文混杂。一个好的 AI 语音输入法应该根据我的个性化表达习惯、常用的专业术语,把混乱的口头语言整理成更准确、更有条理的内容——它不仅是输入法,它在帮我整理思维,最大程度降低大脑思考到交给 AI 之间的门槛。
这个软件一边要知道怎么跟 AI 沟通(AI-friendly),另一边要足够了解我这个人——了解到即便我说的都是碎片信息,它也能像肚子里的蛔虫一样 get 到我思想中很细微的地方,然后组装成好的信息交给 AI 智能体。
这就是重新定义下一代交互——最懂 AI,同时最懂人,在中间把交互打通。所以哪怕这个方向看起来很红海,我也要做。哪怕没人用,我自己用了效率提高5倍10倍也值了。
第三部分:观众互动
问:本地部署大模型编程用什么模型?
取决于硬件配置。我自己用的是千问 Qwen3 Code Next,800亿参数的专家模型,每次推理用到30亿参数,在 Mac Studio 上占大约41G 内存。加上 cache 大概需要60G 内存。如果内存更大,也可以用千问3.5 122B(1220亿参数),效果更好,但内存需要80多G。建议不要上来就用特别大的模型,跑得很慢会很难受。
问:Gemma 4 开源模型怎么样?
Google 和 Meta 的开源模型训练数据中英文占比非常高,中文训练数据量很少。如果以中文使用为主,用千问模型可能更好。
问:Claude Code 还是 Cursor?
Cursor 是一个 IDE 工具,不如智能体功能全面。
问:Claude 老封号怎么办?
就一个办法:养号。先用 free 版本,每天用一用,在 chatbot 里聊很多话题,增加用户数据,然后慢慢在 Claude Code 里也用一点,别每天用很多,一点一点增加用量。养个半年时间,号的权重就好了,就不容易封号。
问:Google Stitch 是什么?
Google 推出的在线服务,通过聊天来设计页面。设计好之后可以导出成一个 design.md 文件,放到项目根目录下,让 Claude Code 或 Codex 读取它,就会按照这个风格设计出满意的 UI 界面。
问:关于 Harness Engineering / Context Engineering 这些概念?
从最早的 Prompt Engineering 到 Context Engineering 再到现在的 Harness Engineering,其实都是一回事——怎么更好地让 AI 理解用户意图,基于意图更好地完成任务。不要被大词和方法论框死。我现在 Claude Code 只装了4个 MCP(Chrome CDP、GitHub、Basic Memory、Context7)和1个 Skill(Superpower),尽量简单,不搞太复杂。
AI 变化很快,应该更灵活,更多尝试,不要用文档化流程化的方式限制 AI 的潜力。简单问题不要复杂化,当模型足够智能,很多中间层的概念都会被吃掉。我们要更有创意,更勇敢地打破常规,不要用大词、概念、文档、流程去禁锢想象力。
收尾
今天的分享就到这里,我们聊了一个多小时。想了解这些 AI 工作流的具体实操——创作写作工作流、AI 编程开发运维流程、知识管理工作流、个人 CRM 工作流——欢迎加入范凯说 AI 会员社群。
也欢迎加入公开的免费 Telegram 社群(已接近1000人),搜索 FANKAISHUOAI 即可找到。
晚安,下周日见。

