2025年11月6日,微软宣布成立 MAI 超级智能团队(MAI Superintelligence Team)。这个团队直属 Microsoft AI CEO Mustafa Suleyman 领导,不依赖 OpenAI 模型,自研超级智能。
没有发布会,没有演示。这支被称为世界上最好的 AI 研究团队之一的组织,只做了一件事:定义智能边界。
在对话中,Suleyman 明确表示:
我们永远不想要一个拥有这三种能力的系统:
自我改进、完全自主、独立设定目标。
当 ChatGPT、Claude、Gemini 的竞争日趋激烈,他却选择画出红线。
微软并未终止与 OpenAI 的合作,仍然保持着主要投资方和模型部署平台的角色。但 MAI 团队的成立,意味着微软正式走上一条并行但独立的研发路线。
(《财富》头条:微软不再完全依赖 OpenAI,正式加入“超级智能”竞赛)
与 OpenAI 追求通用平台不同,微软的方向是:不求更强,但求更稳;不求泛化,但求可控。
那么,Suleyman 所说的把人放在中心,到底是什么?
安全、落地、边界,是否真能成为超级智能下半场的主导逻辑?
Mustafa Suleyman 没有用技术术语开场,而是开门见山地宣告了微软开发超级智能的核心原则。
我们永远不想要一个系统,它不仅比我们任何一个人都聪明,甚至比我们所有人加在一起还聪明,并且还具备三种能力:自我改进、完全自主、独立设定目标。
换句话说,微软要避免打造一个最终会失控、脱离人类掌控的系统。
这是立场,不只是技术路线。
很多公司都在研究如何训练出能力更强的 AI,然后通过对齐机制确保它不伤人类。Suleyman 不认同这种做法,他认为应该在一开始就避免那种可能脱离人类掌控的路径。
控制、遏制和对齐,是我们从第一天就写进这个项目里的三个基础。
这是微软成立 MAI 团队的出发点:不再依赖外部通用模型,而是自己建立一条更稳妥、更受控的超级智能研发路线。
与 OpenAI 的合作并未中断,但 Suleyman 给出的信号很明确:微软需要掌握自己对超级智能的设计权和控制权。
因为行业里并不是所有人都同意这一点。
有人相信,只要 AI 和人类价值观保持一致,哪怕它拥有完全自主权,也依然可以被信任。
但在 Suleyman 看来,这种想法太过乐观:
“我认为这是一个非常非常重要的区别。微软的选择,是基于一种不同的风险观念:不把安全寄托于事后补救,而是从源头就规避不可预测的风险。”
这看法的背后非常明确:不是 AI 会不会出问题,而是当问题出现时,人类有没有刹车可踩。
所以,微软另起炉灶,不是因为 OpenAI 不够强,而是因为这套超级智能必须从安全可控开始,就写在“说明书”的第一页。
微软的新团队 MAI,把注意力集中在三件事上:医疗、日常助手、安全护栏。
为什么是这三个方向?Suleyman 说:
“我们是一个平台的平台,很多人会使用我们构建的模型。我们的任务,是提前思考那些未来的用途必须通过哪些测试,才能被信任地使用。”
他用“橡胶正在接触路面”来形容这个转变:AI 不再停留在实验室和概念层,而要进入现实使用场景。
一、医疗:比医生更快,但必须可解释
在访谈里,Suleyman 把医疗诊断放在首位。这个领域既能体现超级智能在高精度、强计算、处理不确定性上的价值,也最容易出事。
微软的目标不是让 AI 取代医生,而是让医生能看懂 AI 的思路。
AI 可以从海量影像中发现早期癌变,也能在药物组合上给出方案,但每一个推荐,都要能被追溯、能被解释。
安全并非空谈,它代表三个核心:系统必须可理解、可解释、受约束。
二、日常助手:帮人做决定,而不是替人生活
Suleyman 说,AI 应该成为用户的助手,而不是主角。
微软希望开发的,是那种能理解你需求、记得你偏好、给出合适建议的智能助理,但它永远不会越界。
我们想要的,是能加速人类潜力的智能,而不是取代人类互动。 这类 AI 会记得你的行程、帮你整理资料、甚至协助创作,但它的设计原则是:帮助不主导,理解不干预。
三、安全护栏:先把防线建起来
谈到安全,Suleyman 指出了一个尴尬的现实:航空、汽车、能源行业都花了几十年建立起层层安全机制,而 AI 领域目前几乎空白。
“今天我们在 AI 中真的没有多少这样的机制。”
MAI 团队正在研究如何提前发现风险,比如通过红队测试、设置蜜罐来诱导异常行为、反复训练模型在极端情况下的反应。
这些手段的根本目的,是将最终控制权牢牢置于人类手中。
微软要让智能变强之前,先变稳。
在 Suleyman 看来,AI 不该成为一个你完全不懂的黑盒,而要成为一个能解释、能被纠错的帮手。
它是一种更稳的智能,永远被人类遏制和对齐。
这也是他口中人本超级智能的真正含义:
先落地服务人,再谈超越人。
Mustafa Suleyman 对哪种无限堆砌算力的技术演进路径表达了质疑。
他说:
“我们愿意放弃某些模型能力提升,只为优先确保人类能理解它在做什么。”
这听起来几乎是逆行业潮流的。别的公司都在追更强模型、更高吞吐量、更复杂架构,Suleyman 却说,不是做不到,而是不该那样做。
为什么?
因为他关注的不只是 AI 能力,而是人类是否还能看懂它,并始终参与其中,保持控制。 控制的核心,是让 AI 使用我们能理解的语言和方式来沟通。
Suleyman 警惕的,是所谓向量到向量的 AI 内部交流方式。模型之间可能用高维数学表达互相沟通,但人类却无法解释中间过程。
微软不接受这种不可追踪的交流。
所以他明确提出: AI 之间的通信,必须使用我们能理解的语言。
这并不是效率最优的做法。Suleyman 也承认,让 AI 用自然语言交流,确实会牺牲部分运行效率。但他坚持,这才是对人类负责的做法。
更深一层的担忧在于:谁来监督负责安全的 AI?如果所有监督都交给另一个 AI,这就只是把问题从一个黑盒转给另一个黑盒。
换句话说,不能让 AI 管 AI,然后告诉人类一切尽在掌握。
OpenAI 追的是多模态通用平台,而微软关注的是:企业用户如何敢用、政府如何能监管、人类如何随时踩住刹车。
Suleyman 的态度很坚决:
我们不能不惜一切代价前进,那将是一个疯狂的自毁任务。
从语言协议、通信透明,到性能让位于可控,微软要的不只是模型,而是人类有解释权的智能工具。
在技术边界尚显模糊的当下,微软必须主动为此划清红线。
这不是一场模型之争。
微软不是不追前沿,而是更早意识到:超级智能的门票,不是参数数量,而是控制能力。
MAI 团队的设立,是为了在模型越来越强时,先设规矩、保可控、划边界。
在 Suleyman 看来,AI 的落点不是接管世界,而是留在可控边界内,把现实的三件事先做好:医疗别出错,助手别越界,系统别脱控。
这听起来克制审慎,但正因为稀缺,才更重要。
超级智能不是未来某一天突然爆发的成果,而是我们现在选择怎么建它、怎么约束它、怎么使用它。
这一次,Suleyman 不是在争谁更快,而是在提醒:
别忘了我们要去哪。
发布时间:2025-11-11 09:02