关于 Demis Hassabis 的清晰传记——他如何从游戏与神经科学走向 DeepMind、AlphaGo 与 AlphaFold,以及这些经历对现代人工智能的启发。

Demis Hassabis 是英国科学家与企业家,最广为人知的是他共同创立了 DeepMind,该研究机构催生了 AlphaGo 和 AlphaFold。他的重要性在于,推动了人工智能从“有趣的演示”走向能够在某些高风险、需要专业技能的任务上超过顶尖人类专家的系统,并且将这些方法在不同领域间复用。
人们说 Hassabis 促成了 AI“能与人竞争”,通常是指任务表现:AI 可以在明确定义的目标上与人类匹敌或超越,例如赢得复杂赛事或预测蛋白质结构。这并不等同于通用智能。
AlphaGo 并不以人的方式理解世界;它只是学会了极其高水平地下围棋。AlphaFold 也不是在“做生物学”;它是从序列预测蛋白质的三维形状,精度令人惊讶。这些系统是狭义的,但影响广泛,因为它们展示了基于学习的方法能够解决曾被认为需要人类直觉的问题。
几个成就解释了为什么 Hassabis 被视为具有决定性影响的人物:
这不是英雄式传记或炒作文章。我们坚持清晰的事实,加入背景让这些突破更易理解,并提炼出可操作的要点——如何看待学习系统,“人类水平”究竟意味着什么,以及当 AI 达到专家级表现时,为什么伦理与安全讨论自然而然地随之而来。
Demis Hassabis 进入人工智能的道路并非始于抽象理论,而是始于游戏——那些可以测试想法、在安全环境中犯错并获得即时反馈的结构化世界。
他小时候在国际象棋和其他策略游戏上表现出色,早早培养了长期规划的思维习惯:你不仅仅选择一个“好走法”,而是选择一个能在若干步之后塑造局势的走法。这种把决策视为序列而非孤立动作的习惯,与现代 AI 系统学习如何随时间做出决策的方式高度契合。
竞技游戏强迫人具备某种纪律性:
这些是实用技能,而非口号。强者不断问自己:有哪些选项?对手下一步可能怎么做?犯错的代价是多少?
Hassabis 也曾从事游戏开发,而不仅仅是玩家。做游戏开发意味着要同时处理许多相互作用的部分:规则、激励、时间限制、难度曲线,以及小改动如何在整体体验中产生涟漪。
这就是具体意义上的“系统思维”——把性能视为整体设置的结果,而不是单一技巧的产物。游戏的行为来自各组件如何契合。后来,这种思路也出现在 AI 研究中:进展往往取决于数据、训练方法、计算、评估与明确目标的正确组合。
这些早期基础——战略性游戏与构建复杂、基于规则的环境——有助于解释为何他后来的工作强调通过交互与反馈来学习,而不是仅依赖手写指令。
Demis Hassabis 并未把神经科学视为脱离 AI 的旁路,而是把它当作提出更好问题的方式:从经验中学习是什么意思?如何在不把一切都记住的情况下保存有用知识?在未来不确定时,如何决定下一步该做什么?
简单地说,学习是根据反馈更新行为。孩子烫到一次杯子后会更小心;AI 系统也可以类似:尝试动作、看到结果、并调整。
记忆是保留对后来有帮助的信息。人类不会像录像一样记录生活;我们保留模式与线索。对 AI 而言,记忆可能意味着保存过去经验、构建内部摘要或压缩信息以便在新情形出现时可用。
规划是通过向前思考来选择动作。当你选路线以躲避拥堵时,你是在想象可能的结果。对 AI 来说,规划通常意味着模拟“如果……会怎样”,并选择看起来最优的选项。
研究大脑可以提示值得解决的问题——比如从有限数据高效学习,或在快速反应与深思熟虑之间权衡。但不要夸大两者的联系:现代神经网络不是大脑,模仿生物学并非目标。
它的价值是务实的。神经科学提供了关于智能所需能力的线索(泛化、适应、不确定下推理),计算机科学则把这些线索转化为可检验的方法。
Hassabis 的背景展示了跨领域融合如何创造杠杆效应。神经科学激发对自然智能的好奇;AI 研究要求构建可测量、可改进、可比较的系统。二者结合,推动研究者把诸如推理与记忆之类的大想法与实际可行的实验联系起来。
DeepMind 的起点是一个明确而不同寻常的目标:不是去做一个聪明的应用,而是创建通用学习系统——能通过经验学习解决不同问题并不断改进的软件。
这种雄心塑造了公司的方方面面。与其问“下个月能发布什么功能?”,创办者更常问的是“什么样的学习机器能够在未见过的情形下持续变得更好?”
DeepMind 的组织方式更像学术实验室而非典型软件初创公司。产出不仅仅是产品,还有研究发现、实验结果和可测试、可比较的方法。
典型的软件公司通常以发布为优化目标:用户故事、快速迭代、收入里程碑与渐进改进。
DeepMind 优化的是发现过程:为可能失败的实验保留时间,深入攻坚难题,团队围绕长期问题构建。这并不意味着忽视工程质量,而是让工程服务于研究进展,而非相反。
大的赌注若无可量化的目标会变得模糊。DeepMind 习惯选择公开、困难且易评估的基准,尤其是那些成功无歧义的游戏与模拟。
这创造了实际的研究节奏:
随着工作吸引更多关注,DeepMind 成为更大生态的一部分。2014 年,Google 收购了 DeepMind,提供了独立难以匹敌的资源与计算规模。
重要的是,早期的文化特质——高远的抱负与严谨的衡量方式——仍然居核心地位。DeepMind 的早期身份不是“制造 AI 工具的公司”,而是“试图理解如何构建学习的地方”。
强化学习是一种让 AI 通过做来学习的方法,而不是被逐一告知“正确答案”。
想象教某人投罚球。你不会给他一张包含所有完美手臂角度的表格,而是让他反复试投,告诉他“更近了”“偏差太大”“多做有效的动作”。随着时间推移,他会调整。
强化学习的工作方式类似:AI 采取动作、看到结果并获得一个分数(“奖励”),它的目标是选择能在长期获得更高总奖励的动作。
关键思想是试错 + 反馈。这听起来慢——直到你意识到这些试验可以自动化。
人类可能在一下午练 200 次投篮;AI 可以在模拟环境中练习数百万次,从而学习人类需要多年才能偶然发现的模式。这是强化学习在游戏对弈 AI 中成为核心方法的原因之一:游戏有明确规则、快速反馈和可量化的成功指标。
许多 AI 系统需要标注数据(带正确答案的示例)。强化学习可以通过自主生成经验来降低这一依赖。
借助模拟,AI 可以在安全、快速的“练习场”中训练;借助自我对弈,它可以与自己的副本对抗,随着自身进步不断面对更强的对手。AI 不再依赖人类标注示例,而是通过竞争与迭代创造训练课程。
强化学习并非魔法。它通常需要大量经验(数据)、昂贵的计算资源与细致的评估——AI 在训练中“赢了”并不代表在稍有不同的条件下也能赢。
还有安全风险:优化错误的奖励可能导致不良行为,尤其在高影响场景中。正确设定目标与充分测试与学习本身一样重要。
2016 年 AlphaGo 与李世石的对弈成为文化分水岭,因为围棋长期被视为计算机的“最后堡垒”。国际象棋复杂,但围棋更为浩瀚:可能的盘面远超计算能力,优秀的着法常常依赖长期影响力与经验感知,而非立即战术。
暴力穷尽式的方法会遇到组合爆炸。即便是强棋手也无法把每个选择都解释为一串干净的计算;很多是建立在经验之上的判断。这使得早期主要依赖人工规则的程序难以胜任围棋。
AlphaGo 既不是“纯计算”,也不是“纯学习”。它结合了两者。它使用在大量人类对局(后又在自我对弈上)训练的神经网络来判断哪些着法有希望,然后用有针对性的搜索去探索变化,由这些学到的直觉来引导搜索。可以把它看作把直觉(学到的模式)与深思(向前推演)配对,而不是单靠其一。
这场胜利证明了机器学习系统可以掌握一个需要创造性、长期规划和微妙权衡的领域——而不需要人类把围棋策略逐条编码。
它并不意味着 AlphaGo 具有通用智能。它无法把围棋技巧迁移到无关的问题上、无法像人一样解释其推理,也不能以人类文化的方式理解围棋。它在一项任务上非凡。
公众兴趣激增,但更深远的影响在研究内部。那场比赛验证了一条路径:大规模学习、自我改进式练习与搜索的结合,是达到并超越精英人类水平的实用途径。
头条式的胜利会让人觉得 AI 问题已被“解决”,但许多在一种情境下表现出色的系统在规则改变后就会失败。突破之后更有意义的故事是从为特定场景量身定制的解决方案向能泛化的方法推进。
在 AI 中,泛化 是指在未专门训练的新情形下也能表现良好。这就像区分死记硬背一场考试与真正理解学科的差别。
一个只在同一套条件下(相同规则、相同对手、相同环境)获胜的系统可能非常脆弱。泛化在问:当约束改变时,它能否不从零开始重新学习就适应?
研究者尝试设计可以跨任务迁移的学习方法,而不是为每个问题工程化一个“诀窍”。实际例子包括:
关键不在于单个模型瞬间什么都能做,而在于解决方案中有多少部分是可以重用的。
基准是 AI 的“标准测试”:它们让团队比较结果、跟踪改进并识别有效方法。它们对科学进步至关重要。
但当基准本身成为目标而非测量工具时,就会误导。模型可能针对基准的怪异性过拟合,或通过利用漏洞获得成功,而这些并不反映真实世界的理解能力。
“人类水平”通常指在特定设定的特定指标上匹配人类——而不是具备人类般的灵活性、判断力或常识。一个系统可以在狭义规则下超过专家,在环境一变就表现不佳。
庆祝性胜利之后真正的研究纪律是:在更困难的变体上测试、测量迁移能力,并证明方法能超越单一阶段的扩展性。
蛋白质是生物体内的微小“机器”。它们由一长串构件(氨基酸)组成,然后链条扭曲并折叠成特定的三维形状——就像把一张纸折成折纸模型。
最终形状很重要,因为它决定了蛋白质能做什么:携氧、抵抗感染、传递信号或构建组织。挑战在于,蛋白质链可以以天文数字般的方式弯曲,要仅凭序列推断正确形状长期以来都很困难,科学家常常依赖耗时昂贵的实验室方法来确定结构。
知道蛋白质的结构就像有了一张详细地图而不是街道名称。它能帮助研究者:
即使不立刻转化为产品,这也会改善许多下游研究所依赖的基础。
AlphaFold 展示了机器学习能在许多蛋白质上以惊人精度预测结构,常常接近实验室技术所揭示的结果。它的关键贡献不是“解决了生物学”,而是让结构预测变得更可靠、更易获得——把一个主要瓶颈变成研究中可以更早处理的部分。
要把科学加速与即时医疗产品区分清楚。预测结构不等于开发出安全药物。药物发现仍需验证靶点、测试分子、理解副作用并进行临床试验。AlphaFold 的影响最好描述为:为研究提供更好的起点并加速进展,而非立即交付治疗方案。
Hassabis 的工作常被新闻化地归结为 AlphaGo 或 AlphaFold 等时刻,但更具可迁移性的教训是 DeepMind 如何组织努力:清晰目标、可衡量的进展与不断迭代的紧密循环。
DeepMind 的突破性项目通常从一个明确目标开始(“解决这一类任务”)并配以诚实的记分牌。记分牌之所以重要,是因为它能防止团队把华丽演示误当作真实能力。
一旦评估体系确立,工作就进入迭代:构建、测试、找出失败原因、调整方法、重复。只有当这一循环奏效后,才进行扩展——更多数据、更多计算、更多训练时间以及通常更大、更精心设计的模型。过早扩展只会加速混乱。
早期许多 AI 系统依赖人工编写的显式规则(“如果 X,则做 Y”)。DeepMind 的成功突出了学习到的表示的优势:系统能从经验中发现有用的模式与抽象。
这很重要,因为真实问题常常具有复杂的边缘情形。规则在复杂度增加时容易失效,而学习到的表示在强训练信号与谨慎评估下更能泛化。
DeepMind 风格的一个标志是跨学科团队协作。理论指引可能有效的方法,工程让它能在规模上训练,实验让大家保持诚实。当结果与直觉不符时,团队跟随数据。
如果你在产品环境中应用 AI,重要的不是“复制模型”,而是“复制方法”:
如果你想快速把这些原则变成内部工具(而不先重建完整工程流水线),像 Koder.ai 这样的 vibe-coding 平台可以帮助你更快原型与发布:你可以在聊天中描述应用,生成 React 前端、添加 Go 后端与 PostgreSQL,并通过规划模式、快照与回滚迭代。对团队来说,源码导出与部署/托管选项能让你更容易从“可运行的原型”过渡到“可掌控的生产代码”,而不会被锁定在演示上。
Demis Hassabis 是英国科学家与企业家,联合创立了 DeepMind。他与 AlphaGo(棋类对弈)和 AlphaFold(蛋白质结构预测)等突破性成果紧密相关,这些工作展示了基于学习的方法在特定、明确定义的任务上能够达到或超越人类专家的表现。
在这里通常指的是在特定、已量化的基准任务上的表现(例如赢得围棋比赛或准确预测蛋白质结构)。
它并不意味着系统具备广泛的常识、能轻易跨领域迁移技能,或以人类的方式“理解”世界。
DeepMind 的设立更像是一个以研究为主的实验室,目标是推动通用学习系统的长期进展,而不是仅仅发布一款应用。
在实践上,这意味着:
强化学习(Reinforcement Learning,RL)是一种通过试错并依据得分信号(“奖励”)来学习的方法。系统不是为每种情形都给出标准答案,而是执行动作、观察结果、并调整行为以在长期内获得更高回报。
当满足以下条件时,它特别有用:
自我对弈指的是系统与自身的复制版本进行对抗,从而生成训练经验,而无需人类标注样本。
这带来的好处包括:
随着模型提升,对手也会自动变强
训练可以在模拟中扩展到数百万盘对局
系统能发现人类未必显式写下的策略
围棋的可能局面数量巨大,使得暴力搜索不可行。AlphaGo 的成功来自于:
这两者的结合表明,在复杂决策环境中,不需要人工编码策略也能实现顶级表现。
泛化(generalization)指的是在未专门训练过的新情形下仍能表现良好——比如规则发生变化、新场景或分布不同。
检验泛化的实用方法包括:
在多样化环境中评估(不同地图、设置或约束)
留出“未见过”的条件作为最终测试
测量迁移能力:适应新变体需要多少额外训练
基准(benchmarks)提供了公共的评分标准,但模型可能针对测试集的细节进行“过拟合”。
避免被误导的做法包括:
应把基准视为测量工具,而非最终目标。
AlphaFold 从氨基酸序列预测蛋白质三维结构,在很多情况下精度很高。
它的价值在于:
但它并不直接等同于药物研发成果——药物仍需大量验证、测试副作用并通过临床试验。AlphaFold 更像是加速研究的工具,而非立刻带来成品药物。
把方法论复制到产品团队比直接复制某个模型更重要:
对于高影响系统,还应加入结构化测试(红队)、明确使用边界与分阶段发布。