Google DeepMind CEO:AGI 还差 1–2 个突破?

2025 年 12 月 4 日,Axios AI+ 峰会。最后一场对话,Axios 联合创始人 Mike Allen 对面坐着去年诺贝尔化学奖的获得者, Google DeepMind CEO Demis Hassabis。当被问到离 AGI 还有多远时,他没有回避:我们距离 AGI,只差一到两个 AlphaGo 级别的技术突破。

这句话让整个 AI 圈震动,因为说得太具体。但这不是拍脑袋的预测,而是基于当前技术进展做出的推理。

关键的是,他还把 AI 竞赛的底层逻辑说透了:不是谁烧的钱多、GPU 多,而是谁能把研究、工程、产品全打通。

第一节|AGI 快到了?他凭什么这么说

Hassabis 给出的时间窗口是 5 到 10 年内实现 AGI。 这不是从模型参数规模推断,而是基于几个非常具体的进展:

1、模型从文本专家变成多模态理解系统

Gemini 最让他惊讶的,不是写代码或生成文字,而是能看懂视频,读出动作背后的意图。

他测试 Gemini 时播放了电影《搏击俱乐部》的片段,主角在打斗前摘下戒指。他随口问:

这个动作有什么意义?

Gemini 没有只描述表面动作,而是给出了一段深度解读:这是抛开身份、摆脱规则的象征,是角色从现实到极端的转变。

Hassabis 的评价是:震惊

因为这已经超出了模式识别,开始具备洞察能力。

2、模型有自己的判断,不再只是迎合

Hassabis 特别提到,Gemini 做到了一件小事,但意义重大。就是当你说:你错了,它不会一味迎合,而是会温和地反驳你。

这不只是对错判断,而是模型在理解上下文、纠正偏差的同时,还能控制语气、平衡表达。

Hassabis 说他喜欢 Gemini 的性格:简洁、冷静、有自信,不讨好。

这意味着模型开始摆脱聊天工具定位,向稳定人格型系统靠近。

3、从生成内容到打造产品

Gemini现在能完成两件事:

一键生成可玩的小游戏:以往需要数周开发,现在数小时生成完整原型

生成前端网页:不只写代码,还知道怎么让它好看、好用

这背后是模型对代码结构、设计逻辑、交互体验的整体理解。不只是生成文字,而是能做出可以直接用的东西。

当前模型已经开始具备理解能力、判断能力和创造能力。

所以他说:我们非常接近了,只差一两个 AlphaGo 级别的技术突破。

第二节|但还不是 AGI:差在哪?

这些能力在突破,但他同样承认:我们还没到 AGI,现在的模型还有明显短板。

如果说上一节讲的是它已经能做什么,这一节就是它还做不到什么。

1、不具备持续学习能力

当前大模型不能持续学习,它们只能用训练时的数据一次性学完。

这意味着:它不会在使用过程中成长,不会因与用户互动变得更聪明,不像人类那样用经验改正错误。

在线学习和长期记忆系统,是通向 AGI 的关键突破之一。

2、无法执行长期规划

尽管模型在单轮推理、代码生成方面越来越强,但它无法执行长链式推理,无法制定和执行一个长期目标。

这不是能力不够,而是底层结构未设计为多步决策系统。AGI 需要能完成为期数天的科研任务,适时调整策略,分阶段达成目标。

现阶段的模型更像是即时响应系统,而不是目标驱动系统。

3、 智能体系统仍不稳定

谈到 Gemini 的通用助手目标时,他强调:我们还不能把整个任务交给它们,并确信它们会完成。

现在的智能体还不能在复杂环境中可靠执行多步骤任务。

智能体能否稳健运行,决定了 AGI 能否落地到实际场景中。

4、 缺乏跨对话的稳定记忆

尽管 Gemini 有“性格”,但它只在单次对话中保持一致,而非真正拥有个性记忆的智能体。

真正的 AGI,要能:

保持立场一致(前后不自我矛盾)

记住用户长期偏好(记忆与决策协同)

根据上下文调节行为,而非重新开始

这需要更底层的架构设计,比如长期记忆网络、目标保留机制,而不只是优化提示词。

那么,这些突破会从哪里来?

第三节|关键突破会来自哪?他给了两个方向

Hassabis 没有直接列出那一到两个 AlphaGo 级别突破具体是什么,但他在对话中指出了两条明确路径。

这也是他正在推进的方向。

1、 世界模型:让 AI 理解物理世界的运行规律

DeepMind 有一个叫 Genie 的世界模型,你可以生成一个视频,然后像在游戏里一样在里面走动,保持一分钟的连贯性。

Genie 的意义不只是生成视频,而是建立一个具备物理一致性和时空连贯性的虚拟世界。它不靠数据堆砌,而是模拟世界运行逻辑。

这意味着 AI 正在:

从看懂画面跳到理解物理规律,

从处理文本跨越到推演真实世界。

能构建并理解模拟环境的多模态世界模型,是 AGI 的基础。

2、 智能体系统:从回答问题到完成任务

现在模型虽然能聊天、写代码,但还无法让人放心地把整个任务交给它,并确信能从头到尾完成。

Gemini 的通用助手愿景,就是要解决这个问题,就是下一代智能体:

嵌入到眼镜、生活场景、工作流中,

能记忆、能推理、能代办,

不只回答问题,而是完成目标。

如果能打造出能自主规划、执行任务并根据结果调整的稳定智能体系统,AGI 将不再遥远。

这也是为什么他强调,单纯扩大 LLM 规模不会带来 AGI,真正的突破来自世界建模和智能体系统的技术创新。

第四节|变量:风险与竞赛

不过,5-10 年的预测有个前提:AGI 不是时间到了就能实现,路上还有很多变数。

最大的不确定性,来自技术风险和地缘竞赛。

1、技术风险与防护措施

主持人提出一连串尖锐问题:恶意行为者会不会用 AI 合成病原体?攻击基础设施?智能体会不会脱离控制?

Hassabis 的回答是:

“这些风险都存在,概率不为零,但没人知道确切数字。唯一能做的是认真对待并提前准备。”

他梳理了三种主要风险:

恶意使用:坏人利用 AI 做坏事,特别需要防范黑客和有组织犯罪

智能体跑偏:AI 越复杂越容易偏离指令,但还没到完全失控的程度

安全机制失效:AI 在持续学习中可能逐渐偏离安全边界

但他同时指出,市场本身会形成防护措施:企业不会买不安全的智能体。企业客户会要你证明 AI 可靠,一旦出问题就会换供应商。商业逻辑会奖励更负责任的 AI 公司。

AI 安全竞争的核心是信任,谁能让客户相信,谁就能活下来。

2、 中美竞赛:领先窗口只有几个月

谈到地缘技术格局,Hassabis 说:

西方目前在算法和创新层面仍领先,但中国没有落后太远。

他点名中国的 Qwen 和 DeepSeek 模型,它们技术能力强、进展快,尤其在执行层面、迭代速度、模型规模上跟得很紧。

差距是几个月,而不是几年。

AGI 的竞争窗口正在压缩,中美不是第一对第二,而是在两条平行赛道齐头并进。

安全是前提,速度是关键。谁能在保证安全的前提下跑得更快、做得更全,谁就能在竞赛中领先。

第五节|竞争优势:真正的护城河是科学方法

技术进展可以追,GPU 资源可以买,工程团队可以组。

但对 Hassabis 来说,决定谁能真正走到 AGI 终点的,不是能干什么,而是怎么干。

1、 科学方法,是文明级别的工具

主持人问他为什么总是强调自己首先是科学家。

他说:

“科学方法可能是人类历史上最强大的工具。它催生了启蒙运动,也催生了现代文明。”

开发 AI 也是同样的道理,不是简单的技术进化,而是用科学方法一点点逼近人类智能的本质。

2、 不迷信单一路线,全面试错

DeepMind 早期并不迷信 LLM。他们同时探索强化学习(AlphaGo、AlphaZero)、认知架构、神经科学建模,还发现了后来被广泛应用的 Chinchilla scaling law。

当外界还在争论强化学习好还是 Transformer 好时,DeepMind 的策略是:

全面探索、

严格追踪数据表现、

保留多个可能性并不断验证。

这是 DeepMind 的最大非技术资产:科学决策能力。

3、 真正的优势,把未知问题变成可用产品

当被问到 DeepMind 的优势时,Hassabis 这样总结:我们把世界级的研究、工程和基础设施融合在一起,这是我们独有的能力。

他强调的不是资源规模,而是三者的配合:

研究有原创能力也能落地验证

工程不只写代码而是构建完整方案

基础设施不是烧钱而是让技术以正确方式变现

总的来说,DeepMind 真正的护城河,是怎么把一个从没被解决过的问题,转化为真正可用的产品。

结语|时间窗口正在关闭

Hassabis 给出了时间表:5-10 年,1-2 个突破。

这不是预测,而是基于技术进展的工程判断。竞争窗口正在快速关闭,留给所有人的时间不多了。

你今天的每个选择,都将决定未来的位置。



标签: AGI

添加新评论 »