范凯说 AI · 周日晚聊 第12期 - AI 编程智能体大战:新一代操作系统之争
主题:AI 编程智能体大战:新一代操作系统之争
日期:2026年3月22日
开场
大家好,这里是《范凯说 AI · 周日晚聊》,我是范凯。今天是第12期,2026年已经过了12周了。
今天我们重点聊三件事:第一,英伟达 GTC 2026 大会;第二,AI 编程智能体大战的胶着态势;第三,会员社群的最新进展。
会员社群进展速报
上周第11期直播的时候,我正式发布了付费会员社群。目前已经有超过40人付费入群,首批50个名额还剩不到10个。
这一周主要在忙会员社群的交付,做了四件事:
第一,深度内容。 已经交付了第一篇深度文章,希望未来每周至少交付一篇深度内容。
第二,每周会员直播。 会员直播采用 Google Meet 视频会议系统,每个人都可以发言,通过语音和视频直接沟通交流,互动性比视频号直播强很多。
第三,每日经验分享。 每天我都会在会员频道写一些内容,分享自己创业的最新进展和见闻。
第四,相互链接的社区。 今天会员直播有20多人做了自我介绍,有在海外的、在香港的、在法国的、在日本的,未来出海都是可以链接的资源。
今天主要聊三件事:
第一,英伟达 GTC 2026 大会——从卖显卡到卖 Token;
第二,国内大模型的新格局——性价比梯队成型,但算力仍是瓶颈;
第三,AI 编程智能体大战:新一代操作系统之争。
新闻板块
新闻一:英伟达 GTC 2026——从卖显卡到卖 Token
英伟达 GTC 2026 大会,3月16号到19号在美国圣何塞举办。黄仁勋做了一个两个多小时的主题演讲,发布了很多东西——最新的 GPU、集成的 CPU、机器人仿真框架等等。
但我觉得所有这些发布加在一起,都不如黄仁勋演讲中的一句话重要。
他说:数据中心不再是存储和处理数据的地方,而是”AI 工厂”(AI Factory)。这座工厂生产的产品是什么?是 Token。
这意味着英伟达的商业模式发生了重大转变。过去是生产显卡、卖 GPU,现在是卖 Token。
怎么理解这个转型?
黄仁勋给出了一个新公式:AI 工厂的输入是电,输出是 Token。一座 AI 工厂的电力是固定的——一吉瓦就是一吉瓦,你不可能凭空变出两吉瓦。所以决定这座工厂赚多少钱的,是单位电量能产出多少 Token。黄仁勋认为英伟达的解决方案能让每单位电量产出的 Token 最多,所以越买越便宜、越买越赚。
以前英伟达卖的是算力——你买我的 GPU,自己去搭数据中心。现在卖的是 Token 产能——帮你建一座 AI 工厂,这座工厂每秒能吐出多少 Token,就是你的生产力。英伟达不再是卖铲子的,它是直接帮你建金矿。
为什么是现在?
因为推理拐点到了。
黄仁勋在演讲中说了一句话:”The inference inflection has arrived”——推理拐点已经到了。
过去三年,大家讨论 AI 芯片都在说训练——需要多大的 GPU 集群才能训练出多大参数量的模型。但训练是一次性的,训完以后可以用很长时间。而推理是持续性的——每次用户提问、每次 Agent 调用、每次 API 请求,都在消耗推理算力。
特别是从去年下半年开始,Claude Code 出来了,编程智能体的普及使得 Token 消耗量急剧增长。今年年初 OpenClaw 小龙虾推出,进一步推动了推理需求。微信也推出了 Bot,可以直接接入小龙虾——基本上以后人手养一只小龙虾,推理 Token 的需求量在暴增。
黄仁勋用一个数字证明了这一点:过去预估到2026年的订单约5000亿美元,这次直接上调到2027年达到1万亿美元。1万亿美元,全球市值能超过1万亿的上市公司也就10家。
为了吃下推理市场,英伟达做了一件大事。
去年花了200亿美元收购了 Groq——一家专门做推理芯片的创业公司。Groq 做了一个 ASIC 专用芯片叫 LPU(Language Processing Unit),专门为大语言模型的推理做了优化,推理速度极快。
英伟达收购 Groq 后不到一年,就把 LPU 技术整合到了自己的架构里,形成了混合芯片方案:训练时用英伟达自身的芯片,推理时大量使用 LPU 芯片,推理速度可以提升最多十倍。
训练芯片的市场,英伟达已经是绝对领先。接下来的主战场是推理——用最少的电,吐出最多的 Token。
这个趋势其实各家都在尝试。比如 GPT-5.4 也推出了 GPT-5.4 Fast 版本,就是 OpenAI 和硅谷的推理芯片公司 Cerebras 合作,在推理速度上提高了很多倍。
黄仁勋还说了一段值得每个人听的话。
他说:未来英伟达每一位工程师都有一个年度 Token 预算。基础年薪可能是几十万美元,在此基础上再拿出大约一半的金额作为 Token 额度。比如一个年薪50万美元的工程师,英伟达额外再配25万美元的 Token 预算——你每年至少要消耗25万美元的 Token,这样才是一个合格的工程师。你不会消耗 Token,就不是合格的 AI 时代工程师。
以前公司给你配电脑、配工位。以后公司给你配的是 Token 预算。Token 就是 AI 时代的生产资料。
我的判断:
第一,Token 的成本一定会持续下降。 我们当前消耗 Token 的方式是一个过渡时期,有点类似于 iPhone 刚诞生时的 2G 时代。我用第二代 iPhone 的时候,都是先打开 2G 网络加载 Google Reader 的文章,加载好后关掉网络再离线阅读——跟我们现在非常节省 Token 的做法一模一样。但到了 3G、4G 网络时代,谁还去省流量?Token 就是 AI 时代的流量套餐,一定会越来越便宜。
第二,Token 成本下降会加速 Agent 的普及。 这对 OPC(一人公司)是最大的利好——你用 Agent 干活,最大的成本就是 Token。Token 越便宜,创业的运行成本就越低,同时也创造了更大的需求市场。
一句话总结:AI 时代的石油不是数据,是 Token。英伟达要做的,就是 AI 时代最大的流量运营商。
新闻二:国内大模型新格局——性价比梯队成型,但算力仍是瓶颈
国内大模型现在形成了”三小龙”格局,跑 Agent 最受欢迎的三家:智谱、Kimi、MiniMax。
第一,智谱发布了 GLM-5-Turbo。 这个版本据说专门为跑 Agent 进行了优化。同时 API 价格涨了20%,这已经是今年第二次涨价了。2026年一季度,智谱的 API 价格接近翻倍。价格上涨说明一个问题——算力不够。
第二,Kimi 的 K2.5 被 Cursor 封装使用了。 这两天闹得沸沸扬扬,Cursor 号称是自己训练的模型,结果一扒原来是 Kimi 的 K2.5,遭到了 Kimi 的抗议。但这也意味着 Kimi 的模型已经进入海外主流开发工具的生态,得到了全球开发者的认可。
第三,MiniMax 发布了 M2.7。 MiniMax 的模型向来是又快又便宜,据说大量蒸馏了 Claude Opus,是最像 Claude Opus 的国内模型。
这三个模型放在一起看,一个非常明显的趋势:国内大模型的”性价比梯队”正在成型。 不是所有任务都需要用 Claude Opus 或 GPT-5.4 这种顶级模型。在日常对话、文本整理、简单代码辅助等常规场景下,国内模型的性价比非常高。
关于 DeepSeek 的现状。 DeepSeek 目前确实很安静。我听到的说法有两个:一是核心人员罗福丽被小米挖走,最近小米的 MIMO 大模型刷榜很厉害;二是 DeepSeek 在国产昇腾芯片上做深度优化训练下一代模型,但经常训崩,导致进度严重落后于预期。抛开这些原因,DeepSeek 本质上是一个研究型团队,更关心的是在有限硬件条件下能把模型做多强、多接近硅谷最强水平,产品化做得很弱,所以很难进入主流商业市场。
关于模型能力的排序。 以跑编程智能体和小龙虾的实际体验来看:第一梯队是 Claude Opus,第二梯队是 GPT-5.4 和 Claude Sonnet,第三梯队才是国产模型。
不过,经过系统提示词的调优,GPT-5.4 的表现可以大幅提升。我直接跟小龙虾说”你回答问题太啰嗦了,你能不能像 Claude Opus 那种风格给我回答问题?你总结一下 Opus 的风格是什么,你的风格是什么,然后把自己改成 Opus 风格。”经过一番 PUA 之后,它乖乖写了新的提示词,发现确实好用了很多。如果以 Claude 作为100分的标杆,原来 GPT-5.4 只有50分,调优后能达到70-80分。
但问题也很明显:算力不足。 经过我密集使用智谱和 Kimi 的套餐,发现国产模型最大的缺点就是算力不足。重度使用特别是多个并发使用的时候,会频繁触发 API rate limit,拒绝请求。我跑小龙虾后台任务时翻看日志,大量因限流导致的错误信息,最后任务执行失败,非常恼火,最后不得不把这些模型从小龙虾的配置里去掉了。
我的判断:
第一,国内大模型从”价格战”转向了”价值战”。 智谱敢涨价,说明它认为自己的模型有不可替代性了。免费和低价的窗口期正在关闭。
第二,”模型组合”比”押注单一模型”更重要。 简单任务用便宜的,复杂任务用贵的。搭建适合自己的模型组合,比等哪个模型降价更实际。
第三,算力瓶颈仍是国内大模型最大的短板。 最近 Supermicro 的创始人因走私25亿美元货值的英伟达设备到中国而被抓,可能要判25年——算力瓶颈短期内很难彻底解决。
个人感想:AI 编程智能体大战——新一代操作系统之争
核心观点
AI 编程智能体不只是一个工具,它是 AI 时代的操作系统。谁赢了这场仗,谁就拿到了未来十年最大的入口。
大厂都在抢编程工具链
这一年,AI 智能体特别是编程智能体发展非常快。一个明显的趋势是:头部大模型厂商都在把最主要的资源投在 AI 编程智能体上——不是聊天机器人,不是图片生成,而是编程。
先看两个不起眼但非常重要的收购:
OpenAI 收购了 Astral(UV 背后的团队)——UV 是 Python 生态里增长最快的包管理工具。OpenAI 在抢占 Python 编程生态的工具链。
Anthropic 收购了 Bun 背后的团队——Bun 是 Node.js 生态里的新一代运行时和包管理器。Anthropic 在抢占 Node.js 编程生态的工具链。
这两个收购说明:大模型厂商不只是在做 AI 模型,它们在整个软件开发的工具链上不停地加大投入。 它们要的不只是”你用我的模型写代码”,而是”你的整个开发环境都留在我的生态里”。
当前的竞争格局
第一阵营:Anthropic 的 Claude Code——AI 时代的苹果。
Claude Code 是目前做得最早、体验最好的 AI 编程智能体。它的优势:做得最早,有先发优势;做了很多创新,一直引领方向——不管是开源的 OpenCode 还是 OpenClaw,很多功能都是 Claude Code 先出来,然后其他的再去抄;Claude 模型本身的代码能力非常强。
而且 Claude Code 的产品线在快速延伸:Claude Code 本体、桌面应用 Claude Coworker、远程管理能力 Claude Dispatch(可以在手机端的 Claude App 远程指挥电脑上的 Coworker 工作)、Claude Code Channel(在 Telegram 上直接指挥电脑上的 Claude Code 工作)。这两个新功能我这两天都试用了,虽然跟小龙虾比还是差很远,但确实让一个本地的 AI 工具具备了远程访问能力。
但它的问题也很明显:平台非常封闭。 只能用 Claude 的模型(虽然可以通过第三方工具换模型,但它会搞小动作,Claude Code 配 Claude 才能取得最好效果);价格很贵,门槛很高(20美元套餐的五小时限额特别恶心,稍微敞开一点用 Opus,半小时就碰到限额了);对中国用户来说还有动不动封号的致命问题。
Anthropic 非常像苹果:产品体验一流,但生态极端封闭,价格贵。
第二阵营:OpenAI 的 Codex + OpenClaw——AI 时代的安卓。
OpenAI 这边的布局:
Codex 是 OpenAI 自己的编程智能体。Codex 虽然没有 Claude Code 那么 Fancy,但它的特点是默默无闻地工作,很少向你提问题,工作成果也很棒。如果你喜欢跟 AI 不停沟通、做过程干预,你会喜欢 Claude Code;但如果你就想让 AI 把活干完、不想管太多,Codex 非常好用。人狠话不多。
OpenClaw 小龙虾 的作者已经被 OpenAI 招聘,OpenClaw 变成了 OpenAI 生态的一部分。
OpenAI 的策略相对更开放,模型比 Claude 稍微差一档,但量大管饱,各个地方都可以去用。
OpenAI 有点像安卓阵营:没有 iOS 那么精致,但更开放、更灵活、选择更多。
此外,Google 也推出了 Gemini CLI 加 Antigravity,Grok 也提出编程智能体是最重要的方向。但 Google 模型的指令遵循比较差,不太适合跑编程智能体和小龙虾,它的优势在多模态——文生图、文生视频、NotebookLM 的长上下文和知识库管理。
第三阵营:开源社区。
以 OpenCode 为代表的开源编程工具。目前开源社区在这场竞争中只能算辅助位置,不算主力。原因很简单——资源投入不足。编程智能体的开发需要大量的模型优化、工具链整合、基础设施建设,都需要很多工程师参与。OpenCode 的 VSCode 插件很简陋,桌面版迟迟出不来,一直是命令行版本——资源投入的不足非常明显。
为什么是”操作系统之争”
有人可能会问:不就是个编程工具吗?至于上升到”操作系统之争”的高度吗?
我觉得至于。这让我想到历史上的几场战争。
第一场:1980年代的操作系统大战。 苹果的 Macintosh、微软的 DOS/Windows、IBM 的 OS/2。苹果用户体验最好,IBM 的 OS/2 是最早的图形操作系统,但最后笑到最后的是微软的 DOS 和 Windows。
第二场:2000年代的桌面编程工具大战。 微软的 Visual Basic/Visual C++ 对阵 Borland 的 Delphi。Delphi 是当时桌面开发最好用的工具,跟微软抗争了很多年。还有 PowerBuilder、Sun 的 Java 等等。这场战争持续了相当长的时间,最后又是微软胜出,Delphi 没落了。
微软为什么能两次笑到最后?不是因为它的编程工具最好,而是因为它控制了操作系统。Visual Studio + Windows + .NET 形成了完整的闭环。Borland 的工具再好,脱离了这个生态就活不下去。
现在的 AI 编程智能体之争,本质上是同一场战争。
为什么?因为未来的软件形态会被 AI 编程智能体彻底吞噬。以后写软件不是人一行行敲代码,而是人告诉 Agent 要做什么,Agent 来写。改 bug、做测试、部署上线,都是 Agent 在跑。一个人就可以完成过去一个团队的工作量。
而且未来的软件形态会发生根本性变化。过去的软件追求通用性——写代码很贵,所以写完尽可能所有人都能用。但在智能体时代,写代码便宜了,用后即抛。未来的软件追求的是个性化——满足特定几个人的需求,通过智能体快速生成。代码不值钱了,值钱的是你跟 AI 沟通、定义需求规格的过程。 有了这些对话 session,你但凡觉得过去的代码不好了,扔掉,稍微改改优化优化,分分钟就可以复原一个更好的软件产品。
所以我完全不认为非工程师背景的人未来做不了软件——因为未来软件开发的形态彻底变了。
谁占据了编程智能体的市场,谁就拿到了 AI 时代最重要的入口。这不是工具之争,而是平台之争、操作系统之争、生态之争。
我自己的选择和判断
我当前的主力是 OpenClaw 小龙虾,日常使用、轻量级任务、自动化、知识管理、写作、个人管家、工作规划,全部放在小龙虾上。
但涉及到长程的编程任务——可能一跑就跑很长时间的那种,我不会用 OpenClaw 小龙虾。原因是它缺少过程输出,执行过程中不会实时输出,没办法进行过程干预,只能等拿到结果,如果错了再告诉它调整,整个反馈循环比较慢。所以大型编程任务我用 Claude Code 或 Codex,OpenCode 放在第三优先级。
OpenCode 我用得少了一些,不是因为它不好,而是在这场竞争中它是一个跟随者,不是引领者。Claude Code 在创新,Codex 在迭代,它们背后有 Anthropic 和 OpenAI 的资源在推。我的原则是:在技术快速迭代的时期,先关注引领者。 等战争的格局更清楚了,再做长期选择。
总结我的判断:
第一,Claude Code 目前领先。 体验最好,创新最多,先发优势明显。
第二,OpenAI 的 Codex + OpenClaw 组合正在形成有力的竞争。 更开放、更灵活。
第三,最终的竞争格局可能像 iOS vs Android。 Claude Code 像 iOS——封闭、精致、体验好、贵;Codex + OpenClaw 像 Android——开放、灵活、选择多。两个都会活下来。
对于 OPC(个体创业者)的建议: 强烈建议掌握两个东西——一个是 OpenClaw 小龙虾,用它完成绝大部分日常工作和轻量级任务;同时再掌握一个 AI 编程工具(Codex 或 Claude Code),用它完成重度的编程和长程任务。
观众互动
问:编程智能体会把软件架构完全忽略掉吗?
不会。大型软件如果一次性让它生成,一定会出问题。你自己事先要把架构拆分好,一部分一部分地开发。
问:AI 编程出错了怎么办?
出错很正常。关键是你要给它定义好测试用例,然后让它一遍遍跑测试用例,跑到对为止。
问:非 IT 背景想用 AI 编程,需要学一门编程语言吗?
不需要。但你需要具备一些动手操作的能力,比如配一些环境、经常操作终端窗口,这些需要熟悉一下。真正的编程不需要你来写。
问:编程智能体是走瀑布流还是敏捷路线?
当然是敏捷的路线。瀑布流在传统软件工程中就已经被证伪了。
问:学校里的计算机课程(C++、操作系统、数据结构)是否过时了?
传统教材过时了。这些知识当然有用,也需要学,但不要通过传统教材去学了。有任何问题直接问 AI,让 AI 来解释和教你。
问:微信支持了 OpenClaw 小龙虾,腾讯是否拿到了 AI 时代的船票?
没有。AI 时代真正的船票,第一张是 AI 大模型,其次是 AI 智能体的入口——这两个腾讯都没有。它只不过是一个连接的通道(Channel)。
问:Claude 的 Token 中转站可以买吗?
千万别买。第一,中转站不一定都给你用 Claude,中间可能混其他便宜的模型;第二,你图的是 Claude,人家图的是你的数据和隐私。宁愿自己花钱在官网直接购买,千万别用中转站。
问:如何避免 Claude 被封号?
三个要点:第一,不要频繁换 IP,选一个 IP 地址长期持续使用;第二,确保你的 IP 地址干净——可以是机场,但不能太多人在上面用,被标记为可信度有问题的 IP。可以用工具检测 IP 的干净程度;第三,用量稍微克制一下,不要动不动超出限额——Anthropic 的封禁检测系统会先捞头部用的最狠的用户来判断。基本做到这三点,应该不会有问题。
问:必须用 Mac 吗?
AI 入门不一定非要用 Mac。但如果你是一个很严肃地想要用 AI 做事情的人,希望尽量少折腾、尽量多产出,我建议一定要用 Mac。哪怕一个 Mac Mini,去年双十一才2900块钱,家里就相当于有一台长期运行的服务器,可以在上面做很多事情。
收尾
今天的内容就到这里了。下周周日晚上9点,《范凯说 AI · 周日晚聊》直播间再跟大家见面。晚安。

