范凯说 AI · 周日晚聊 第13期 - AI 公司的自我加速——当 AI 开始给自己写代码
主题:AI 公司的自我加速——当 AI 开始给自己写代码
日期:2026年3月29日
开场
大家好,这里是《范凯说 AI · 周日晚聊》,今天是第13期。
上周我们聊了一个话题:AI 编程智能体是新一代操作系统之争。这周发生了一连串的事情,让我更加确信这个判断。而且我想到了一个更深层的问题——为什么编程智能体是所有 AI 能力中最关键的那一个?
今天聊三件事:
第一,OpenAI 关闭 Sora,砍掉一切”副业”,全力押注编程和企业应用;第二,Anthropic 双重暴击——Claude 可以接管你的电脑了,还泄露了一个比 Opus 强一个量级的新模型;第三,也是本周最想聊的——当 AI 开始给自己写代码,AI 公司正在进入”递归加速”的临界点。
在正式开始之前,先补充一下上周的话题。我这周用了一下 Claude Code 的 Channel 功能,体验非常好。过去用 OpenClaw(小龙虾)的时候,如果通过 Telegram 给它下任务,它在执行长程任务时,你不知道中间发生了什么,有可能执行很长时间最后告诉你失败了。像我这种工程师出身的人,就特别希望能够监控过程、中间能够干预。而 Claude Code 的 Channel 功能恰好解决了这个问题——我既可以用 Telegram 远程下命令,又可以通过远程终端连上去看到所有详细信息。两种交互方式兼得,非常不错。
第一部分:本周 AI 新闻
新闻一:OpenAI 关闭 Sora——副业全砍,聚焦编程和企业
本周最大的新闻:3月24号,OpenAI 正式宣布关闭 Sora App。
Sora 是去年最火的 AI 视频生成工具,上线5天下载量破百万,比 ChatGPT 还快。迪士尼砸了10亿美元投资 OpenAI,把授权的漫画角色全部开放给 Sora 使用。结果半年多时间,OpenAI 自己把它关了。
Sora 为什么留不住人?
第一,版权问题。一开始用户可以随意使用任何风格做视频,后来因为版权限制越来越多,用户能做出的惊艳视频大幅减少,兴趣直线下滑。其实 Seedance(字节跳动的视频生成模型)也碰到了同样的问题——刚出来的时候特别惊艳,各种武打动作换脸视频刷屏,但这些背后都是训练了有版权的电影数据,后来被各个电影公司起诉,加上算力不足,体验也平淡了很多。
第二,太烧算力。每生成一条视频消耗的 GPU 资源是文本对话的几十倍甚至上百倍。OpenAI 自己的说法是:”每一块用在 Sora 上的 GPU,都是从编程和企业业务那边抢过来的。”编程智能体那边在快速增长,这边烧一块 GPU 就少一块,从经济上不划算。
第三,Sora 的累计收入只有140万美元。对一家估值7000多亿美元的公司来说,这个数字约等于零。
但 Sora 之死只是表面,真正的信号是 OpenAI 整体战略的大转向。
这周不止砍了 Sora,还有一连串动作:
第一,整合桌面超级 App。 把 ChatGPT、Codex 编程工具、Atlas 浏览器统一合并成一个桌面应用,不再维护分散的产品线。
第二,退出电商。 ChatGPT 里之前嵌入的购物支付功能现在完全放弃,不自己做交易,只做产品推荐。这是非常明确的 C 端战略收缩。
第三,产品部门改名为”AGI Deployment”。 目标非常明确地冲着 AGI 方向发展。
第四,全力聚焦编程智能体。 包括2月份以招聘方式收购了 OpenClaw(小龙虾)的作者 Peter Stanberger 加入 OpenAI,本质上是一次并购。
把这些信号拼在一起,结论很清楚:OpenAI 过去一年四处出击——C 端、B 端各个方向。现在它发现 Claude 已经跑到前面去了,终于意识到在 Agent 领域如果再不加把劲,很有可能会被超越。
为什么 Claude 能跑到前面?因为如果你是编程智能体的重度用户,毫无疑问最想用的是 Claude 模型。我自己的体感是:Opus 排第一,Sonnet 有一些差距但也还不错,都在水平线之上。切到 GPT 5.4 之后感觉直线下降,必须用提示词强行约束,而且上下文一长就开始变弱。所以在智能体领域,Claude 模型遥遥领先,GPT 勉强可以接受,其他的只能作为备胎。
新闻二:Anthropic 双重暴击——接管你的电脑 + 泄露下一代超级模型
说完 OpenAI 的收缩,再说 Anthropic 的扩张。这周 Anthropic 放了两个大招。
第一个大招:Claude Dispatch + Computer Use——AI 可以直接控制你的电脑了。
Claude 的桌面版应用 Cowork 新增了 Computer Use 功能,配合 Dispatch,你可以在手机上给 Claude 下命令,它就能操控你桌面上的电脑——打开浏览器、发帖、登录邮箱、打开桌面软件,所有操作全部可以完成。配置方法也非常简单,拿手机扫一下桌面上的码就行了。
我自己亲自试过。我让它打开我 Mac Studio 上的浏览器,登录 YouTube 后台。前几天我发了一个视频播放量不好,就在手机上跟它说:”你看一看我最近发的 YouTube 视频播放量怎么样。”它说播放量不好。我说那为什么不好,你给我分析一下。它一通分析后建议我改标题,说标题应该告诉读者看了这个内容能获得什么。我说好,那你直接帮我改了。它就真的打开 YouTube 后台把标题改了,然后重新提交。
这意味着什么?以前 AI 只是在聊天框里帮你,你问问题它给答案,然后你自己去执行。现在它可以直接上手干活了。这是 AI 从”顾问”变成”员工”的分水岭。当然,目前 Computer Use 的缺点是比较消耗 Token,速度也不快,但能力已经实实在在地具备了。
第二个大招:Claude Mythos 泄露——下一代超级模型意外曝光。
3月27号,Fortune 独家报道:Anthropic 官网出现了配置失误,大量内部文件被公开暴露。其中最劲爆的是一篇未发布的博客文章草稿,提到了一个新模型——Claude Mythos。
这个模型比现在的 Claude Opus 4.6 还要高一个等级,在编程、学术推理和网络安全测试上的分数大幅超越所有现有模型。据说已经有部分 Claude Code 的尝鲜用户能够使用这个模型了。
Anthropic 被问到这件事后没有否认,官方回应是:”我们正在开发一个通用模型,在推理、编程和网络安全方面有显著进步。我们认为这是我们迄今为止最强的模型。”
之所以还没有正式发布,是因为这个模型在网络安全方面的能力太强了,强到 Anthropic 自己都觉得需要谨慎。它可能帮助人们发现大量软件漏洞,被利用发起网络攻击。所以 Anthropic 计划先小范围测试,然后逐步开放,不会一次性全量上线。
把 Anthropic 这两件事放在一起看——Computer Use + Mythos——你会发现一个清晰的战略闭环:
更强的模型带来更强的编程工具,更强的编程工具产出更多更好的产品,更好的产品反过来加速自身迭代,甚至加速训练更好的模型。这是一个正向循环。
第二部分:个人感想——当 AI 开始给自己写代码
一、Anthropic 的迭代速度突然变了
有人统计了 Anthropic 的产品发布节奏,数据非常震撼:从2月1号到3月23号,短短52天,Anthropic 推出了73个产品级发布,平均一天1.4个。
举几个例子感受一下这个密度:
3月9号:Claude Code 多代理上线,一个主 Agent 可以同时指挥几个子 Agent 并行干活。
3月11号:Cowork 打通了 Excel 和 PowerPoint,桌面办公无缝对接。打通的当天,微软股票大跌。
3月12号:Voice Mode 同时在桌面端和 Cowork 上线,可以语音交互了(目前只支持英文)。
3月17到23号:Dispatch、Channel、Loop 循环拉长到7天、Computer Use 研究预览……
一周之内发了这么多东西,而且不是小修小补,每一个都是产品级的功能。回忆一下去年的节奏,大版本更新之间通常隔几周甚至一两个月。但从今年2月开始,节奏完全变了——从按月更新变成按周更新,再变成按天更新。
整个美股 B2B 软件板块因此受到冲击——2月份美国 B2B 软件板块整体下跌了8.3%。市场在重新评估:如果 AI 公司以这种速度迭代,传统软件公司还有活路吗?
那问题来了:为什么 Anthropic 突然变这么快?
二、我的判断:编程智能体的递归加速效应
我的判断是:Anthropic 的迭代加速,很可能是因为它自己的编程智能体 Claude Code 已经在深度参与 Anthropic 内部的产品开发了。 据说 Anthropic 整个公司全部都在用 Claude Code,整体提效至少在50%以上。
上周我和一位20年前的合作伙伴通了电话,他是我合作过的能力最强的程序员。过去几年他每年在 GitHub 上提交代码大约1200到1700次,平均一天4-5次。最近几个月他完全不再手写代码了,全部用编程工具。我看了一下他的 GitHub,从今年2月到3月,不到两个月的时间,他的提交次数已经接近1000次——也就是说不到两个月的工作量已经达到了他过去一整年的80%。效率提升了3-4倍。
而这个顶尖的程序员,我觉得他本身至少相当于4-5个普通程序员的水平。再乘以3-4倍的效率提升,一个人顶15个普通程序员是没有问题的。
如果 Anthropic 内部从2月开始大规模使用 Claude Code 来辅助自身产品开发,而且他们可以用上自己内部最新最强的模型,那它的产出能力理论上可以翻几倍。而这些产出反过来又在改进 Claude Code 本身——让它更强,然后再用更强的 Claude Code 来做下一版产品。
这是一个正反馈循环:AI 帮自己写代码 → 产品迭代加速 → AI 变得更强 → AI 更高效地帮自己写代码 → 产品迭代进一步加速……
这就是”递归加速”。Claude Mythos 的泄露恰好印证了这一点——Anthropic 怎么可能在这么短的时间内训练出一个比 Opus 强一个量级的模型?除了算力和数据,最重要的原因就是它的工程效率在飞速提升。用一个形象的说法——左脚踩右脚在飞升。
这就解释了为什么编程智能体是 AI 竞争的制高点。
不是因为编程工具的市场规模最大,也不是因为程序员付费意愿最高,而是因为——编程智能体是唯一一个能让 AI 公司自己变强的能力。
你做一个 AI 视频工具,它不会让你的公司迭代更快;你做一个 AI 搜索引擎,它不会让你的工程团队效率翻倍。但你做一个 AI 编程智能体,它会直接加速你自己公司所有的产出。
所以 OpenAI 砍 Sora 全力做 Codex,Anthropic 从一开始就 all-in Claude Code。这不只是一个产品线的选择,这是关于谁能先进入指数增长的竞赛。
三、临界点之后会发生什么
如果 AI 公司正在进入递归加速,那接下来会怎样?我认为有三个趋势。
第一,AI 公司之间的差距会急剧拉大。
以前大家觉得大模型之间差距在缩小——DeepSeek 追上来了,Kimi 也不错,开源模型也能用了。但递归加速意味着:一旦某家公司的编程智能体突破了临界点,它的迭代速度会和竞争对手拉开指数级的差距。就像 Anthropic 现在按天更新,别的公司还在按月更新。这个差距只会越来越大。
目前最领先的编程智能体产品就那么几个:Claude Code(加上 Claude Cowork 的整个体系)排第一;其次是 OpenClaw(小龙虾);然后是 OpenAI 的 Codex,在长程任务和 Code Review 上表现也不错。再往后面几乎看不到竞争对手了——Google 的 Gemini CLI 还差得很远,微软的 GitHub Copilot 更是差距巨大。至于国内,我认为最有希望的是字节。
第二,AI 产品的更新速度会超过用户的学习速度。
很多人说还在学提示词呢,MCP 就出来了;MCP 还没学完,就说不行了要用智能体了;智能体还没学呢,又有新东西出来了。
对普通用户来说,最重要的忠告是:不要试图掌握每一个功能,不要追每一个热点概念,而是掌握你自己的核心工作流。 结合你擅长的事情,用 AI 把你的工作流效率提升上去。比如你做内容创业,就思考怎么让 AI 帮你做选题、做数据分析;你做软件开发,就让编程智能体帮你写代码、自动发布;你做跨境电商,就让 AI 帮你选品、上架、做结算。先定义出你的工作流,再拿合适的工具去提升它。天天追工具不落地,就像前面挂着胡萝卜的拉磨驴,永远吃不到。
第三,传统软件公司会加速失去护城河。
如果 AI 公司一天能迭代一个新特性,传统 SaaS 公司按季度发版的节奏就完全跟不上了。
一个很直观的数据:微软今年股价已经暴跌21%,是2008年金融危机以来最差的开局,从去年高点跌了超过25%。 为什么?因为 Anthropic 的 Cowork 推出后可以直接操控 Word、Excel、PowerPoint,正在侵蚀微软最核心的盈利产品——Office 365 和企业软件套件。
有人开玩笑说:”Anthropic 每发布一个新功能,微软的股价就跌一点。”数据印证了这一点——3月24号 Anthropic 发布 Computer Use 当天,微软当天跌了2.6%,整个软件板块 ETF 跌了4%。
护城河不是一天被攻破的,是被每天一个小突破慢慢填平的。
四、对普通人意味着什么
说了这么多行业分析,落到每个人身上,我认为有三点:
第一,现在开始用 AI 编程工具,比以后再用好得多。
不管你是不是程序员。哪怕你只是用 AI 来处理 Excel、写脚本、做自动化,这个能力的价值只会越来越高。AI 编程工具本身在加速进化,今天你花时间学会了基本逻辑和工作流,三个月后工具升级了你就能立刻享受到红利。
选哪几个?小龙虾、Claude Code、Codex,就这三个。如果你喜欢折腾开源工具,还可以加上一个 Open Code。
第二,选一个主力生态,深扎进去。
不差钱的、能解决访问问题的,可以直接用 Claude Code。GPT 生态更友好——不封号、量给得足。你不需要两个都精通,选一个适合你的,把你的工作流建起来——内容创作工作流、产品设计工作流、软件开发工作流、市场营销工作流,都可以。
第三,关注递归加速的信号。
当你发现某个 AI 产品的更新速度突然加快,某个 AI 公司的功能发布变得密集——大概率它的编程智能体已经在帮它自己干活了。这种公司的产品和生态值得优先投入。因为它的进化速度会越来越快,你跟着它,等于搭上了一辆加速的列车。
用一句话总结:在一个 AI 自我加速的世界里,最聪明的策略不是追赶每一个新功能,而是站在加速最快的那个生态上。
第三部分:观众互动
问:很多程序员一直只是写代码完成公司任务,要做 OPC(一人公司)完全不知道做什么产品,束手无策,该怎么办?
很简单,从你能想到的最简单的产品开始做出来。你会说这产品肯定没人用、肯定失败。我告诉你,100%失败,但不重要。因为你在做这个失败产品的过程中会学习、会积累经验。第一个失败了,再做第二个、第三个、第四个。你连续做10个失败的产品,在这个过程中一定会产生想法。
重要的不是怎么想,而是有没有去做。在做的过程中才有想法,不做永远没想法,做得越多想法越多。
有人说程序员就是需求承接方,不是需求的产生方。你不也生活在社会上吗?你不也是消费者、也在用软件吗?不要把自己定义成一颗螺丝钉。我觉得很多国内从小刷题教育长大的人,最可怕的就是自觉自愿地把自己定位成一颗螺丝钉。你先把自己从螺丝钉变成一个活生生的人——打打游戏、出去旅游、跟别人多交谈,慢慢需求就产生了。放松,不放松你哪有需求。
问:AI 可以完成90%的开发,但最后10%会要你的命,有好的解决办法吗?
说得对,现在 AI 编程还没有完全解决最后一公里的问题——本质上是验收的问题。但按照当前 AI 智能体的迭代速度,我认为一到两年内验收环节就能解决。你其实不需要管智能体开发出来的代码是不是屎山,重要的是把验收的测试用例写得足够好,你愿意烧足够多的 Token,它最后一定会交给你一个满意的结果。
这跟下围棋是一个道理。人脑能量有限,只能基于经验和灵感找到自认为最合适的下法。但 AI 不管这些——所有路径全部试一遍,然后找到最好的。就像《复联4》里奇异博士用时间宝石回溯了1400多万次,找到了唯一打败灭霸的方法。这是一种暴力破解法。
问:Minimax 的模型怎么样?GLM 5.1 和 Kimi K2.5 呢?
Minimax 的模型实际上是蒸馏 Claude 蒸馏得最狠的,所以跑起来最像 Claude。但它毕竟是蒸馏模型,基座不强。如果你执行的任务比较浅、两三个回合就完事,它会让你感觉很好。但如果执行一个很复杂的长程任务,就会暴露原形了。
国内这几个模型最大的问题是算力不足。我自己把 GLM 和 Kimi 都用过,当作备用模型放在后台跑量大管饱的任务,基本上都会碰到 API 限流的问题。所以我现在倾向于用自己本地的模型来跑,不存在被限流的问题。
如果硬要排序的话:GLM 5.1 最好,Kimi K2.5 中间,Minimax 最差但也最便宜、速度最快。当然,跟海外的模型相比差距还是很大的。
关于本地模型: 我在 Mac Studio(128G 内存)上跑了两个模型——千问 3.5(35B,多模态,需要处理图片时用)和千问3 Code Next(80B 专家模型,推理时只用3B,用于编程和文本处理)。4比特量化就可以跑,速度跟调云端模型差不多,相当不错。
收尾
今天的内容就到这里。每周周日晚上,《范凯说 AI · 周日晚聊》,跟大家分享本周 AI 行业新闻、个人思考,然后和大家交流互动。晚安,下周见。

