“小龙虾宿主机”捧红了Mac mini,但机会窗口留给了中国芯片产业

OpenClaw(俗称龙虾)的火爆意外引爆了Mac mini的市场。

近日,AI搜索公司Perplexity也迅速跟进,推出了名为 Personal Computer 的产品,在 Mac mini 上预装自家AI代理Comet,提供持续在线的本地智能体服务,直接对标OpenClaw的使用场景。

OpenClaw是一个开源 AI 智能体平台,用户可以在本地部署一只始终在线的“AI 小龙虾”,接入微信、飞书、钉钉等入口,自动完成网页浏览、文件操作、命令执行等任务。要跑这类应用,前提是有一台 24 小时开机、并具备系统级权限的设备。

Mac mini很适合这个角色。它功耗低、体积小、运行安静,放在角落里就能长期在线。MacOS 还原生集成了日历、备忘录、iMessage、快捷指令等能力,Agent 获得权限后可以直接调用,这一点是 Windows 和 Linux 很难完全替代的。

还有一个现实原因:大多数用户并不放心把一个可能“犯错”的 AI 放在自己的主力电脑上。Mac mini 刚好可以作为一台独立、低成本的“隔离沙箱”。

但是Mac mini的走红只是 OpenClaw 早期扩散的表象,不会是长期主流的唯一形态。回顾历史,当用户规模扩大、任务复杂度上升,以及安全与迁移诉求变强,“云”就会应运而生。而当下的OpenClaw,非常符合这些特征,因此,以OpenClaw这种形态为代表的Agent业务,将会逐步扩散到“云端虚拟机”或者VPS:

一个在云端常驻的Gateway或Agent Runtime,只需要在本地有个轻 UI即可,这样用户只需要按照自己的需求接入个人设备就可以随时随地使用了,且不用担心龙虾的数量和设备的安全。

事实上,就在 Mac mini 被疯抢的同一周,阿里云、腾讯云、火山引擎、百度智能云几乎同时上线了 OpenClaw云端一键部署方案,最低68 元一年就能开一台预装好的轻量应用服务器。云端的一台小虚拟机,同样可以是小龙虾的宿主。

如果沿着这条路继续演化,Agent 托管基础设施将大大受益:云虚拟机或VPS、内存型实例、NVMe 状态盘、远程浏览器和沙箱、零信任接入、凭证托管、状态备份、日志审计,以及背后的模型推理服务。

这也再次说明,除了GPU之外,智能体应用将对 CPU、内存、NVME硬盘以及网卡等通用服务器零部件和系统提出更高的数量和比例需求。

这才是“小龙虾宿主机”真正值得关注的更强烈的产业信号,它不仅带火了 Mac mini,更在重塑智能体时代数据中心通用算力组件的需求结构。

纵观全球供应,台积电和intel的产能已经满负荷运作,但随着国产先进工艺的成熟,国产X86CPU将会扩大通用CPU服务器的市场份额,长鑫、长江存储也在源源不断地扩大供应。

中国的半导体企业,已经成长为缓解限制AI发展供应瓶颈的新力量。

01 单机 Mac mini 模式,会向云虚拟机/VPS演进

把 OpenClaw 长期绑在一台固定的Mac mini上,最大的好处是简单,但也要承担更多的问题:

1.可达性问题:

OpenClaw 真正有吸引力的地方,在于它像一个持续在线的数字助手。用户希望它随时可达,手机上能发消息,电脑上能接着用,出门在外也能调用。可 Mac mini 往往放在家里或办公室,这意味着使用者必须额外解决远程 UI、远程访问、网络打通和身份验证问题,这就需要云端虚拟机或者VPS。

实际上,OpenClaw 的设计者从一开始也并没有把固定在单机本地视作唯一,也提供安装到远端VPS的模式。

其实这也很容易理解,当用户从极客走向大众,UI 与执行环境分离几乎是必然的,手机这种随身携带的设备或者电脑就是个入口。

2. 安全问题

一旦你把自己的主力 Mac 或一台长期在线的 Mac mini 交给 OpenClaw,就需要面对问题它会碰你的设备、文件、屏幕和命令执行面,问题是AI的Agent不是一个按照编排好的精确的命令执行的传统程序,它会犯错。社交媒体上已经有多起OpenClaw误操作的事件报道了。

另外,围绕 OpenClaw 的假安装包和恶意 GitHub 仓库传播病毒等情况,也会必然发生。

把 OpenClaw 长期直接放在个人终端盒子上,尤其让它拥有较高系统权限,会让很多用户产生顾虑,也有很明确的担忧:隐私怎么办,凭证怎么办,万一中招怎么办,万一技能或安装包被投毒怎么办。

放在云端托管的VPS上,可以避免很多不必要的安全问题。

3. 迁移与扩展问题

OpenClaw 的负载不会永远停留在单人玩玩的地步。某个用户如果想把自己的养的很好的龙虾复制给其他用户(比如说卖能力),或者想把养好的龙虾迁移到其他电脑上,这就会涉及到可迁移的问题。

一旦任务增多,或者你开始养多个 agent,资源压力会向两个方向扩散:一是浏览器、工具链、日志和多会话状态把这台机器拖重;二是你会开始需要多节点、多实例、分环境、分权限、分用途。这就会涉及一个资源弹性扩展的问题。

这本来就是云计算当初希望解决的问题,把小龙虾养在云端的VPS上,有如下好处:

  • 云端更适合承载“持续在线”的主控角色
  • 云端有利于把高风险面从个人主力设备上剥离出去
  • 云端更容易做迁移、备份和弹性扩缩
  • UI 天然会轻端化
  • 随时可以打包镜像迁移/备份到本地

02 Agent 时代,AI 基础设施的衡量标准正在改变

这就会造成三层变化。

第一,数据中心基础设施未来比拼的重点,会慢慢从模型能力的强弱(GPU)转向同等投资额下,可以支撑长期在线、持续工作Agent的数量(GPU+CPU双芯驱动)。在智能体场景里,决定商业回报的,不在拘泥于单次回答质量,要的是全天候运行下的调用成本、稳定性和资源利用率。

第二,数据中心的优化目标也会跟着变化。过去大家更关注GPU的峰值性能,接下来更重要的会是整个系统在真实业务中的推理吞吐、任务调度效率,以及Agent具备执行能力之后所带来的权限控制、隔离和安全问题。

第三,产业价值也会从模型本身向外扩散。模型当然仍然重要,但真正决定Agent应用能否落地的,还和云平台、工具链、连接器、安全体系、终端形态,以及与企业软件系统的接口能力相关。

未来竞争的不仅仅是模型表现能力,还要看把智能体真正接进生产环境并长期稳定地跑起来的能力。

03 基础设施中,谁会受益

如果OpenClaw上云,那么原来分散在用户家里、办公室、小型宿主机上的持续在线 Agent,会回流到数据中心和托管平台中。如果类似小龙虾这样的Agent应用,逐步成为用户必备的AI应用,这部分对数据中心的需求增量是巨大的,除了模型推理需要的GPU、HBM等传统算力组件之外,CPU、内存、NVME硬盘等将会有较之前者更大的需求。

CPU

OpenClaw不是一个纯AI推理应用,它其实是一个以CPU为主的控制与编排系统,外接一个或多个GPU推理后端。

传统的大模型应用主要是AI对话,消耗的主要是AI推理的算力,一次推理就结束。但Agent 不一样,它是一个循环:推理一下,调用工具,再推理,再调用工具,再写状态,循环多次后,最后回用户。这意味着大量计算发生在系统编排和外部执行上。从工程角度看,CPU在Agent系统里主要承担几类事情:

一是控制与路由。消息从哪里来,落到哪个agent,调哪个工具,走哪条审批链,这些都靠 CPU 侧控制逻辑完成。

二是工具执行与 I/O。浏览器、API、文件、命令行、网页抓取,这些任务大都偏 I/O 密集或系统调用密集。

三是状态持久化与治理。会话、workspace、日志、权限、审计、隔离边界,都是 Agent 平台真正进入企业之前必须补齐的部分。

四是推理外围服务。包括请求整形、RAG 检索、缓存、上下文管理、队列、重试、监控。

OpenClaw 的 Gateway 是一个常驻控制面,并且支持长期运行,到时候数据中心会新增大量典型负载:大量 24/7 在线的小到中等规格实例。我们就算假设云端虚拟机的资源(CPU+内存+硬盘等)是MacMini的一半,作为to C应用,用户量将会是天量级,这合起来就会形成很稳定的容量需求。

从这个角度来说,新增的云端实例,将会对CPU提出更多的需求,不只是CPU核数、还有CPU芯片的颗数。

所以,Agent 越流行,CPU 的总需求就越高。

作者曾在1月份专门写文章分析Agentic AI对CPU需求的巨大推动作用。

内存与硬盘

OpenClaw是有状态系统。根据它的机理,本地session transcript会保存在硬盘里;多agent情况下,每个agent都有自己的workspace、state directory和session store。也就是说,OpenClaw不是一次请求算完就结束,而是要长期维护会话、工具上下文、工作区文件和状态。

更进一步,OpenClaw还有浏览器、multiple sandbox instances、canvas、node、cron等工具,这些能力是一级agent tools;浏览器和node工具一旦频繁使用,或者设置成自动化,内存与硬盘的压力会明显增加。

另外,state和workspace也会留存在VPS里,这就涉及到状态盘、快照和备份服务,这些都会很耗费硬盘。

如果是企业级的安装与部署,还要考虑要做迁移、回滚、灾备和合规审计,块存储、快照、备份和日志归档,这些又是额外的开销。 

04 从缺芯到补链,中国AI基础设施正在补齐关键拼图

现在的数据中心芯片缺货严重,从之前的GPU,到后来的内存、硬盘,以及CPU。而其中,除了内存颗粒以外,GPU和CPU都需要高端制程与先进封装,全球芯片厂商几乎都要依靠台积电及其合作伙伴,因此,intel、AMD的两家CPU的都已经被预定。AI应用的卡脖子,归根结底还是在高端芯片的设计与产能上。

不过好在,国内的产能已经在赶上,中芯国际、华虹的先进工艺在逐步迭代中。更重要的是,海光本身就是X86的CPU,可以轻松切入intel和AMD产能不足所空出来的市场,而不仅仅是传统的信创项目。

更重要的是,随着AI应用的不断演进,智算中心的计算范式与结构会逐步呈现出 CPU池+GPU池的大框架上,叠加越来越多的 CPU-GPU 紧耦合高端节点。在这种情形下,具备CPU+GPU的双组合能力会更适应未来的产业需求。

作为近几年保障供应链安全的成果,中国在多个层面上具备底线思维的能力:

1)海光的X86+AI芯片组合,三星+国产Fab产能保障体系

2)华为的ARM+AI芯片组合,国产Fab+灵活产能保障体系

3)阿里的CPU+AI芯片组合,国际领先的Fab

这三家的业务可以从计算芯片到服务器直至基础设施云,承接AI应用的关键基础设施要素都已具备。

我们可以有理由推测,随着产能的稳步扩大,限制AI发展的供应限制,会逐步缓解。如果地缘政治环境改善的话,说不定类似于海光这样的X86 CPU产能,还可以对外输出,反哺国际市场,融入全球算力共同体。

龙虾不应该在鱼缸里养宠,而应该让它回归池塘与湖泊,国产芯片产业,需要为它们建设好家园。

(注:本文仅为行业分析,不构成任何投资建议)

本文来自微信公众号“腾讯科技”,作者:姚金鑫,36氪经授权发布。

发布时间:2026-03-16 16:23