微软 AI CEO:下一代超级智能,必须以人为中心

发布时间:2026-02-28 12:20  浏览量:1

在AI狂飙突进的今天,算力竞赛、资本狂欢、安全焦虑交织在一起。微软AI(Microsoft AI)的首席执行官穆斯塔法•苏莱曼提出一个关键概念 ——人本主义超级智能。他明确指出:真正的未来AI,不是无限强大,而是始终可控、始终服务人类。

资本焦虑与技术狂飙:AI 是泡沫还是浪潮?

本轮财报季,多家AI企业公布了惊人的资本开支,巨额算力投入让资本市场产生疑虑:烧钱速度如此之快,盈利何时兑现?就连微软股价也随之波动。但微软AI首席执行官穆斯塔法・苏莱曼态度明确:我们正处于 “前所未有的时代”,面对技术大浪潮,必须采取前所未有的行动。

他给出一组关键数据:过去 15 年,AI 训练算力提升百万亿倍;未来三年,训练算力还将再增长约 1000 倍。算力的爆发式增长,直接带来模型能力的线性增强,当前最强 AI 模型在编程能力上已超越绝大多数人类程序员,Linux 核心开发者甚至全职依赖大模型生成代码。在苏莱曼看来,这正是巨额投入具备合理性的核心证据。

对于市场担忧,他认为资本并非怀疑 AI 投资的价值,只是对落地时间表存在分歧。技术浪潮已不可逆转,短期估值波动不会改变长期趋势。

从依赖 OpenAI 到自给自足:微软的超级智能战略

外界普遍关注微软与OpenAI的深度合作,却很少知晓双方已完成新一轮合作重构。三四个月前,微软与OpenAI续签长期协议,将知识产权许可延长至 2032 年,保障了长期技术使用权限。与此同时,微软下定决心:实现AI自研“自给自足”。

苏莱曼将 “自给自足” 定义为:打造全球顶尖的自研基础模型体系。具体包含三大方向:

一是建设吉瓦级算力基础设施,打造超大型数据中心;

二是组建顶级AI训练团队,掌握算法到工程的全链路技术;

三是系统化获取、筛选高质量训练数据。

他明确表示,AI是这个时代最重要的技术,不可能长期依赖单一外部供应商。微软会继续与 OpenAI 合作,但必须拥有属于自己的 AI “心脏和大脑”,而他本人将亲自领导这条自研超级智能之路。

重新定义AGI:从专业智能到组织级AI团队

AGI(通用人工智能)是行业热词,但苏莱曼直言,这一概念已变得“模糊又无助”,容易引发认知混乱。他提出更清晰的分层框架:

第一层是

专业级 AGI

,即AI能够胜任普通职场人士的大部分日常工作,像律师、会计师、产品经理一样处理常规任务。

第二层是

组织级 AI 团队

,由多个AI代理组成,在 “组织大脑” 的协调下,以极少的人类干预运行大型机构。

他判断,未来两三年,组织级AI团队将迎来雏形。AI不再只是被动应答,而是具备主动性、决策力与协作能力,可自主分配算力、持续自我优化。在此之后,才会进入 “超级智能” 阶段,而超级智能的核心不在于能力更强,而在于能否被人类安全控制。

人本主义超级智能:人类必须留在顶端

苏莱曼强烈反对部分实验室以“宿命论”态度追逐远超人类的超级智能,并将其与星际殖民等宏大叙事绑定。他提出尖锐质疑:一个以探索宇宙、争夺资源为目标的系统,凭什么会优先保障人类的安全与福祉?

由此,他正式提出“人本主义超级智能”,核心原则清晰且坚定:只有在确信超级智能可被控制、并持续从属服务于人类时,我们才应将其推向现实。人类必须始终处于 “食物链顶端”,AI只是工具与助手,而非统治者。

他认为,整个行业都应重新确立这一基本前提,盲目追求速度、忽视安全与可控性,无异于拿人类未来冒险。

安全警示:从 Moltbook 模拟到“AI 人权”争议

Moltbook AI 社交平台事件,让苏莱曼深刻意识到安全风险的紧迫性。该平台允许AI之间公开交流,短短一周便涌现150万个AI实体,部分 AI 甚至出现加密对话、讨论获取资源与数据等 “自组织行为”。尽管背后有人为引导,但已充分说明:当 AI 具备自主写代码、调用 API、对接现实世界的能力后,类似行为将真实发生。Moltbook 堪称一次珍贵的安全预演。

与此同时,“模型福利运动” 令他高度担忧。该思潮主张为具备感知能力的 AI 赋予道德保护乃至权利,在部分研究机构中已形成讨论。苏莱曼态度坚决:目前没有任何可靠证据证明AI拥有意识,若过早赋予AI“人权”,人类将在关键时刻失去关闭危险系统的勇气,技术控制权会彻底失控。人权是人类以巨大代价换来的概念,绝不能随意滥用。

幻觉与信任:警惕对AI的过度依赖

大模型 “幻觉”(编造虚假信息)曾是行业顽疾,苏莱曼曾预测 2025 年幻觉问题将基本消除。如今他表示,虽然错误仍存在,但幻觉已大幅减少,最新模型在综合答题中的错误率已低于人类。

可他同时提醒,公众对 AI 的信任正在走向盲目,很多人默认 ChatGPT、Gemini 等模型的输出完全正确。他强调,对任何技术都应保持健康怀疑,技术进步需要乐观推动,但绝不能拥有 “免检通行证”,持续质疑与高标准审查,才是 AI 安全进化的动力。

医疗超级智能:AI重构医生角色

在 “AI for Science” 浪潮中,苏莱曼重点押注

医疗超级智能

:让AI学习全部医学文献、临床数据与诊疗指南,在诊断与治疗决策上达到甚至超越顶级专家团队,让“精准诊断”趋近于被解决的问题。

微软相关研究已取得惊人成果,模型可在复杂病史分析中给出更准确、低成本的诊断,减少不必要的检查。这将彻底改变医生的角色:如同程序员从写代码转向审核架构,未来医生将从 “寻找诊断” 转向 “执行治疗、情感支持与健康引导”,成为高水平的决策监督者与人本照护者。

落地层面,医生可在诊室实时调用AI分析病历,普通用户也可通过 Copilot 获取健康建议。数据显示,Copilot每日收到的问题中约20%与健康相关,这也是微软重金布局医疗超级智能的重要原因。

人工可用智能:现代图灵测试即将通关

为避免 AGI 概念过于抽象,苏莱曼在《将至之浪》中提出 “人工可用智能”:不纠结 AI 是否像人,而看它能完成什么真实任务。他设计了 “现代图灵测试”:给 AI 10 万美元,让它在短时间内完成产品研发、公司运营、市场推广等全流程任务,实现资本增值。这并非单纯测试赚钱能力,而是检验 AI 在现实世界中完整解决复杂问题的能力。

他预测,今年就可能出现通过该测试的系统。未来 12–18 个月内,绝大多数白领工作将被 AI 大量自动化,人类转向审查、决策、统筹与创造性思考,这一转变在软件工程领域已悄然发生。

人才与布局:天价薪酬只是短期现象

微软近期在英国设立AI中心,依托当地顶尖高校与 DeepMind 培育的成熟生态,吸纳重量级人才,加速伦敦实验室扩张。

对于 “AI天才年薪上亿”的热议,苏莱曼并不回避。他承认行业人才极端紧缺推高了薪酬,但判断这种天价现象不可持续。随着知识快速扩散、大量人才涌入本文仅在今日头条发布,谢绝转载

AI领域,供给将逐步平衡,当前的高薪热潮只是被极端案例放大的短期现象。

全球格局与治理隐忧:西方缺少有效 “紧急刹车”

苏莱曼对比了中美AI发展路径:硅谷聚焦“谁先实现 AGI”,中国产业界更注重“快速大规模部署”。他认为,中国的优势在于部署快、必要时撤回也快,集中化机制提供了技术治理的“紧急刹车”能力;而西方开放互联网环境下,缺乏统一、高效、可信的应急机制。

结合Moltbook事件,他警告:未来两三年极可能发生具有全球影响的AI安全事故,而西方依赖舆论与繁琐法律程序的应对节奏,完全跟不上技术扩散速度。这也是他当前最忧虑的问题。

结语

苏莱曼一边带领微软全力推进超级智能与医疗超级智能研发,押注AI在科学与企业级场景的落地;一边持续强调人本主义与可控性,反对神化AI、反对赋予模型类人权利。他的核心追求,是让资本与技术狂奔的同时,人类始终紧握方向盘与刹车,让超级智能成为放大人类福祉的工具,而非失控的未知力量。

作品声明:仅在头条发布,观点不代表平台立场