KoderKoder.ai
价格企业教育投资人
登录开始使用

产品

价格企业投资人

资源

联系我们支持教育博客

法律信息

隐私政策使用条款安全可接受使用政策举报滥用

社交

LinkedInTwitter
Koder.ai
语言

© 2026 Koder.ai 保留所有权利。

首页›博客›约翰·亨尼斯关于性能扩展的架构思想
2025年4月16日·1 分钟

约翰·亨尼斯关于性能扩展的架构思想

探讨约翰·亨尼斯的核心架构思想:为何“免费”性能不再可得,并行性如何助力扩展,以及塑造现代系统的各种权衡。

约翰·亨尼斯关于性能扩展的架构思想

为什么亨尼斯的思想对现代性能仍然重要

约翰·亨尼斯是那些最清晰解释为什么计算机变快以及为什么这种进步有时会停滞的架构师之一。除了设计有影响力的处理器并推动 RISC 思想的普及外,他还为系统构建者提供了一套实用的话语体系,帮助回答:该优化什么、不该优化什么,以及如何区分两者。

当人们谈论“性能扩展”时,通常指“我的程序运行得更快”。在真实系统中,扩展是速度、成本和功耗/能耗之间的三方博弈。让某个工作负载快 20% 的改动,可能也会让芯片更昂贵、服务器更难散热或电池更快耗尽。亨尼斯的表述重要之处在于将这些约束视为正常的工程输入——而不是让人惊讶的麻烦。

我们将贯穿的三个主题

第一是并行性:同时做更多工作。它既出现在内核内部(指令级技巧)、跨内核(线程)又出现在整台机器之间。

第二是专用化:为任务选择合适的工具。GPU、视频编码器和机器学习加速器的存在,是因为通用 CPU 无法以高效的方式处理所有任务。

第三是权衡:每一个“胜利”都有代价。关键是理解界限在哪里——是计算、内存、通信还是能量。

期待什么

这不是一篇深入的传记。相反,它是一组实用概念,帮助你在阅读基准、选择硬件或设计需要随负载增长的软件时做出判断。

从“免费”提速到现实约束

在计算历史的一段很长时间里,性能提升几乎像是自动发生的。随着晶体管变小,厂商可以在处理器上放更多晶体管,并常常以更高主频运行。软件团队把相同程序放到新机器上就能看到更快的完成时间——无需重写。

“免费性能”时代

那是一个新一代 CPU 经常意味着更高 GHz、每个晶体管更低成本以及日常代码明显加速的时期。大量性能提升不需要开发者改变思路;编译器和硬件升级完成了大部分工作。

为什么“功耗墙”改变了规则

最终,提高主频不再是简单的胜利,因为功耗和热量增长得太快。晶体管变小并不再像以前那样自动降低功耗,推动更高频率会让芯片更烫。在某个点上,限制因素不再是“我们能把它做得更快吗?”,而是“我们能否可靠地为它供电并把热量散掉?”

一个简单类比:汽车发动机与热量和燃油

把它想象成汽车引擎。通过提高转速你可以跑得更快——直到遇到限制:燃料消耗急剧增加、部件过热、系统变得不安全。CPU 遇到类似边界:把“转速”(时钟频率)调高会带来不成比例的能耗并产生比系统能承受更多的热量。

从“免费”提速到更聪明的设计

一旦时钟扩展放缓,性能就变成了你通过设计“赚取”的东西:更多并行工作、更好地利用缓存和内存、专用硬件以及谨慎的软件选择。亨尼斯的信息符合这一转变:现在的大幅收益来自让整个系统(软硬件)协同工作,而不是指望下一代芯片自动拯救你。

指令级并行:收益与递减效应

指令级并行(ILP)是指在单个 CPU 核内“同时做小步子”的思想。即使你的程序是“单线程”的,处理器也常常能重叠工作:当一条指令在等待某些东西时,另一个指令可以开始——前提是它们之间没有依赖关系。

流水线:装配线效应

把 ILP 想象成流水线。一个阶段取指令,另一个阶段解码,再一个执行,最后写回结果。流水线一旦填满,CPU 大致可以在每个周期完成一条指令,尽管每条指令仍需经过多个阶段。

流水线多年来提升了吞吐量,因为它无需程序员重写代码就能带来改进。

分支预测:保持流水线供料

真实程序并非直线执行。它们会遇到分支(“如果这样,那样”),CPU 必须决定接下来取哪条路径。如果等待真实结果,流水线会停顿。

分支预测就是 CPU 猜测下一路径以维持工作流。当猜对时,性能保持高位;猜错时,CPU 丢弃错误路径上的工作,付出代价——浪费周期和能量。

成本:复杂性、功耗与收益递减

进一步推进 ILP 需要更多硬件来发现独立指令、安全地重排序它们,并从错误(如错误分支预测)中恢复。这增加了复杂性和验证投入,提高了功耗,且每代带来的收益通常越来越小。

这是亨尼斯反复强调的教训之一:ILP 有价值,但会遇到实际限制——因此持续的性能扩展需要其他杠杆,而不仅仅是“更聪明”的单核执行。

阿姆达尔定律:重大决策背后的简单数学

阿姆达尔定律提醒我们,加速工作的一部分无法将整体加速到被剩余慢部分所不允许的程度。你不需要复杂的数学来使用它——只需注意哪些部分不能并行化。

一个日常例子

想象一家杂货店和结账流程:

  • 扫描商品可以分摊到多个收银台(并行工作)。
  • 付款(一张卡、一张收据)仍然是一步序列化操作(串行工作)。

如果付款始终占总时间的 10%,那么即使通过增加收银台把扫描时间变为“瞬时”,整体加速也无法超过约 10×。串行部分成为上限。

烹饪也符合相同模式:你可以在水烧开的同时切菜(并行),但不能“并行化”必须在烤箱中放置 30 分钟的蛋糕烘焙过程。

为什么少量串行部分主导整体表现

关键见解是:最后那几百分之几的串行工作限制了整体。一个“99% 可并行”的程序听起来很棒——直到你把它扩展到很多核上,发现那 1% 的串行部分成为瓶颈。

这如何影响架构决策

阿姆达尔定律解释了为什么“只要加核”常常令人失望。只有在存在足够并行工作且串行瓶颈(同步、I/O、单线程阶段、内存停顿)很小时,更多核心才有帮助。

它也解释了为什么加速器不一定能带来巨大收益:如果 GPU 加速了一个内核,但流水线的其余部分仍然是串行的,整体提升可能很有限。

经验法则

在投入并行化之前,询问:**有多少比例是真正可并行的,哪些部分保持串行?**然后把努力投在真正耗时的地方——往往是那些“无聊”的串行路径——因为那决定了上限。

线程级并行:多核转变

多年来,性能提升主要意味着让单个 CPU 核更快。这一路径遇到了实际限制:更高主频带来热量和功耗问题,更深的流水线未必在真实世界中带来成比例的加速。主流答案是把多个核心放在一块芯片上,通过同时做更多工作来提升性能。

让单个任务更快 vs. 同时做更多任务

多核在两方面有帮助:

  • 让单个作业更快:把它拆成并行小片(一个程序,多线程)。
  • 同时运行更多作业:许多程序各自有线程/进程同时运行,提升响应性和吞吐量,即使单个作业并未显著加速。

在规划中,这一差别很重要:服务器可能立即受益于并发处理更多请求,而桌面应用只有在自身工作可并行化时才会“感觉更快”。

软件需要做什么才能受益

线程级并行不是自动获得的。软件需要通过线程、任务队列或框架来暴露并行工作,把一个任务分解为独立单元。目标是让核心忙碌起来,而不是相互长时间等待。

常见实践包括并行化循环、把独立阶段分开(例如解码 → 处理 → 编码)或并发处理多个请求/事件。

摩擦点:协调与共享资源

多核扩展常在以下开销上停滞:

  • 协调成本:锁、争用、调度和同步可能抹消额外核心带来的收益。
  • 共享资源:多个核心争用缓存、内存带宽和 I/O;增加核心并不会自动提升内存速度。

亨尼斯更广泛的信息适用于这里:并行是强大的,但真实加速依赖于精心的系统设计和诚实的测量——而非单纯增加核心数。

内存与隐藏的瓶颈

放心基准测试更改
为每次更改创建快照,便于安全比较前后性能。
使用快照

CPU 只有在手上有数据时才能工作。当数据还在路上(来自内存)时,CPU 就得等待。这种等待时间就是内存延迟,它能把“快”的处理器变成昂贵的闲置机器。

延迟:等待数据的代价

把内存想成城外的仓库。即便你的工人(CPU 核)非常快,如果零件堵在路上,他们也无法装配。现代处理器每秒能执行数十亿次操作,但访问主内存可能需要数百个 CPU 周期。那些间隙累积起来就很可观。

缓存:常用物品的附近货架

为减少等待,计算机使用缓存,即更靠近 CPU 的小而快的存储区——像为常用零件准备的近处货架。当所需数据已经在货架上(“缓存命中”)时,工作顺利继续;若不是(“未命中”),CPU 必须从更远处取回,付出完整延迟的代价。

带宽 vs 延迟(以及为何两者都重要)

延迟是“第一件物品多久到达”,带宽是“每秒能到达多少件物品”。你可以有高带宽(宽公路)但仍遭遇高延迟(长距离)。有些工作负载是流式的(受带宽限制),有些工作负载频繁需要零散小块数据(受延迟限制)。在这两种情况下系统都可能显得缓慢。

内存墙

亨尼斯关于限制的更广泛观点在这里体现为内存墙:CPU 速度多年来提升比内存访问时间快得多,导致处理器越来越多地处于等待状态。这就是为什么性能改进常来自提升数据局部性(让缓存发挥更大作用)、重新思考算法或改变系统平衡——而不是仅仅让 CPU 核更快。

功耗是第一要务约束

长期以来,“更快”主要意味着“提高时钟频率”。当你把功耗视为硬性预算而不是事后的考虑时,这种思路就会破裂。每一瓦额外功耗都会变成你必须移除的热量、消耗的电池或必须支付的电费。性能仍是目标——但决定产品能否发布和能否扩展的是每瓦性能(performance per watt)。

核心权衡:速度 vs 能量

功耗不仅是技术细节;它是产品约束。一台基准表现良好但两分钟后降频的笔记本会感觉很慢。一部能瞬时渲染页面但耗掉 20% 电量的手机是个糟糕交易。即便在服务器中,你可能有空闲计算能力但没有额外的电力或散热余量。

为什么提高频率代价迅速增加

提高频率代价不成比例地高,因为随着电压和开关活动的增加,功率急剧上升。简化来说,动态功耗大致遵循:

  • 更多开关活动(更高频率)意味着每秒消耗更多能量;
  • 更高电压(通常为稳定高频所需)会成倍放大成本。

因此最后 10–20% 的时钟速度可能需要更大幅度的瓦数增长——导致热限制和降频,而非持续收益。

实际结果:移动设备、数据中心与云账单

这就是为什么现代设计强调效率:更广泛地使用并行性、更聪明的功耗管理以及“足够好”的频率配合更优的微架构。在数据中心,电力成本是与硬件成本相当的重要开支。在云端,低效代码会直接推高账单——因为你为时间、核心以及(通常间接的)能耗买单。

软硬件协同设计作为策略

亨尼斯反复强调的点很简单:性能扩展既不是单纯的硬件问题也不是纯粹的软件问题。软硬件协同设计意味着围绕真实工作负载将 CPU 特性、编译器、运行时和算法对齐——让系统在你实际运行的负载上变得更快,而不是在看起来漂亮的规格上。

协同设计的实践样例

一个经典例子是编译器支持解锁硬件能力。处理器可能有宽向量单元(SIMD)、分支预测或融合操作的指令,但软件必须以有利于编译器利用这些能力的方式组织。

  • 自动向量化:如果代码使用清晰的数组循环(并避免复杂的指针别名),编译器更可能生成向量指令。
  • 基于配置文件的优化(PGO):通过使用真实执行配置文件进行编译,编译器可以重新排列代码布局并改善分支行为——帮助 CPU 减少因错误预测而等待的时间。
  • 数据布局选择:从“结构体数组”改为“数组结构体”可以使内存访问更规则,让缓存和预取机制发挥更好作用。

为什么“更快的硬件”常常令人失望

如果瓶颈在内存停顿、锁争用或 I/O,那么更高的主频或更多核心可能几乎无效。系统只是更快地达到相同的限制。没有软件改动——更好的并行结构、更少的缓存未命中、更少的同步——新硬件可能闲置。

实用协同设计检查表

在考虑优化或新平台时,问自己:

  1. 工作负载:最重要的 1–3 项关键任务是什么(请求、查询、帧、作业)?
  2. 瓶颈:时间花在哪儿——计算、内存、同步还是 I/O?
  3. 可度量目标:哪个指标会改进(p95 延迟、吞吐量、每次作业能耗),改进多少?

RISC 与简洁价值

为优化目标制作原型
将性能想法变成可在数分钟内测量的可运行原型。
免费开始

RISC(精简指令集)不是口号,而是一种策略性押注:如果你保持指令集小而规则,每条指令就能快速且可预测地执行。约翰·亨尼斯推动了这一思想,强调当硬件的工作更简单时,性能往往会提升——即便软件使用的指令数更多。

“简单指令”带来的真正收益

精简的指令集通常有一致的格式和直接的操作(加载、存储、加法、分支)。这种规则性让 CPU 更容易:

  • 快速解码指令;
  • 保持流水线饱满(少些时间“弄清楚”指令含义);
  • 在内部单元间高效调度工作。

关键在于:当指令容易处理时,处理器能把更多时间用在有用工作上,减少处理例外和特殊情况的开销。

为什么简单性能同时提高性能与效率

复杂指令可以减少程序需要的指令数,但通常会增加硬件复杂性——更多电路、更多角落情况、更多控制逻辑的功耗。RISC 倡导用更简单的构建块,然后依赖编译器和微架构来提取速度。

这也能转化为更好的能效。一个在开销和控制上浪费更少周期的设计,通常也会浪费更少焦耳数,这在功耗和散热限制系统速度时尤为重要。

RISC 在现代系统中的体现

现代 CPU——无论是手机、笔记本还是服务器——都大量借鉴 RISC 风格原则:规则的执行流水线、围绕简单操作的大量优化以及对编译器的高度依赖。ARM 架构是 RISC 衍生思想广泛进入主流计算的一个显著例子,但更广泛的教训并非“哪个品牌胜出”。

持久的原则是:在能提高吞吐量、更好能效并便于扩展核心思想时选择简单性。

专用化与加速器:当通用 CPU 不够时

专用化意味着使用为一类工作极其高效地设计的硬件,而不是用通用 CPU 来处理所有事情。常见例子有用于图形和并行数学的 GPU、用于矩阵运算的 AI 加速器(NPU/TPU)以及用于 H.264/HEVC/AV1 的定点功能模块。

为什么加速器更快且更“绿色”

CPU 为灵活性而设计:指令多、控制逻辑复杂、善于处理分支密集的代码。加速器以效率换取灵活性。它们把芯片预算更多地投入到实际需要的操作(例如乘加运算),最小化控制开销,并在允许的情况下使用更低精度(如 INT8 或 FP16)。

这种专注意味着每瓦能做更多工作:更少指令、更少数据移动以及更多并行执行。对于以可重复内核主导的工作负载——渲染、推理、编码——这能在保持可控功耗的同时带来显著加速。

不可忽视的权衡

专用化也有代价。你可能失去灵活性(硬件擅长一件事却在其他事上平庸)、支付更高的工程和验证成本,并依赖可能滞后的软件生态(驱动、编译器、库),或被厂商锁定。

何时值得采用专用化

当满足以下条件时考虑加速器:

  • 该工作负载占你的计算预算的主要且经常性部分;
  • 计算模式稳定且已被充分理解(算法变动少);
  • 性能或能耗是硬性约束(电池、热设计、数据中心电力);
  • 你拥有或可以采用成熟的工具链和库。

当工作负载不规则、快速变化或软件成本超过节省时,继续使用 CPU 更合适。

权衡:没有免费的架构决策

计算机架构的每一次性能“胜利”都有账单要付。亨尼斯的工作不断回到一个务实真理:优化系统意味着选择你愿意放弃的东西。

无法回避的核心权衡

一些反复出现的张力包括:

  • 延迟 vs 吞吐:你可以让一个请求更快完成(更低延迟),也可以在单位时间内完成更多请求(更高吞吐)。为交互任务调优的 CPU 可能感觉更“响应”,而面向批处理的设计则追求总完成量。

  • 简单性 vs 功能:简单设计通常更易优化、验证和扩展。功能丰富的设计能帮助某些工作负载,但会增加复杂性,可能拖慢常见情况的表现。

  • 成本 vs 速度:更快的硬件通常更贵——更多硅面积、更多内存带宽、更多散热以及更多工程时间。有时最便宜的“加速”是改变软件或工作负载。

当某一指标改善,另一指标常会变差

容易为了单一数字而优化,却无意中损害用户的真实体验。

例如,提高主频会提升功耗和热量,迫使降频,伤害持续性能。增加核心可能提高并行吞吐,但增加内存争用,使每个核心变得不那么高效。更大的缓存能减少未命中(有利于延迟),但会增加芯片面积和每次访问的能耗(不利于成本和效率)。

为工作负载而设计,而不是为吹嘘而设计

亨尼斯的性能观点是务实的:定义你关心的工作负载,然后为该现实做优化。

一台处理数百万相似请求的服务器关心可预测的吞吐和每次操作的能耗。笔记本关心响应性和电池寿命。数据流水线如果总作业时间改善,可能愿意接受更高延迟。基准和规格有用,但只有在与你的实际用例吻合时才有意义。

一个可稍后实现的注记

考虑加入一张小表,列出:决策、帮助方向、受损方向、适用场景。行可以包括“更多核心”、“更大缓存”、“更高频率”、“更宽向量单元”和“更快内存”。这能让权衡更具体,并把讨论与结果而非噱头连接起来。

在不自欺的前提下测量性能

实时探索 Amdahl’s Law
生成 Go 与 PostgreSQL 后端,测试串行工作如何限制扩展。
构建后端

性能声明的可信度取决于支撑它的测量。一个基准即便“正确”,如果与真实工作负载不相似也会误导:不同的数据规模、缓存行为、I/O 模式、并发度,甚至读写比例都可能颠覆结果。这就是亨尼斯传统中架构师为何把基准视为实验而非奖杯。

真正能解释用户体验的指标

吞吐表示单位时间内完成多少工作(请求/秒、作业/小时),适合容量规划,但用户感受不到平均值。

尾延迟关注最慢的请求——通常以 p95/p99 报告。系统平均延迟可能很好,而 p99 极差,这常由排队、GC 暂停、锁争用或“噪声邻居”引起。

利用率表示资源有多“忙”(CPU、内存带宽、磁盘、网络)。高利用率可以是好事——直到它把你推进长队列,使尾延迟激增。

一个实用评估循环

使用可重复的循环:

  1. 测量:用有代表性的输入和真实并发进行测量。
  2. 只改一件事(编译器参数、线程数、数据布局、缓存策略、硬件设置)。
  3. 再次测量,比较不仅是均值,还有波动和尾部表现。

记录配置、版本和环境以便复现。

避免自我欺骗的常见做法

不要挑选“最佳运行”或最友好的数据集,也不要只看一个让你的改动看起来很漂亮的指标。不要过度推广:在一台机器或一个基准套件上获胜不代表对你的部署、成本约束或用户高峰流量也成立。

关键要点与当下的应用方法

亨尼斯不变的讯息是务实的:性能不会靠愿望扩展——只有当你选择合适的并行性、尊重能量限制并针对真实工作负载优化时,性能才会扩展。

战略性教训

并行是主要路径,但从来不是“免费的”。无论你追求指令级并行、多核吞吐还是加速器,轻松的收益会用尽,协调开销会增长。

效率是一项特性。能量、热量和数据移动常常在峰值 GHz 数字之前就限制了真实世界的速度。一个无法在功耗或内存限制内持续运行的更快设计不会带来用户可见的收益。

聚焦工作负载胜过泛泛优化。阿姆达尔定律提醒在规划早期估算可并行部分的上限:先剖析,后优化。

面向构建者的实用检查表

  • 从测量开始:在决定架构变更前识别最主要的瓶颈(CPU、内存、存储、网络)。
  • 在规划早期使用阿姆达尔定律:估算最大收益再决定是否投资并行化。
  • 偏好简单且可扩展的设计:少些特例通常意味着更好可预测性和更易调优。
  • 把功耗和成本作为从第一天就要考虑的约束,而不是“之后”的问题。
  • 把硬件与产品匹配:仅当工作负载稳定、已知且足够大时再考虑 GPU/NPUs 等加速器。

这些想法如何落到日常软件构建上

这些理念不仅针对 CPU 设计者。如果你在构建应用,相同约束会以排队、尾延迟、内存压力和云成本的形式出现。一种把“协同设计”落地的实际方法是把架构决策与工作负载反馈保持紧密:测量、迭代、发布。

对于使用像 Koder.ai 这种以聊天驱动的构建工作流的团队,这尤其有用:你可以快速原型化服务或 UI,然后用分析和基准决定是否采用并行(例如请求并发)、改善数据局部性(例如更少往返、更紧凑的查询)或引入专用化(例如将重任务卸载)。该平台的规划模式、快照和回滚能让你逐步测试影响性能的改动——避免把优化变成不可回头的决定。

延伸阅读

  • John L. Hennessy 和 David A. Patterson,《Computer Architecture: A Quantitative Approach》。
  • John L. Hennessy 和 David A. Patterson,《Computer Organization and Design》。
  • Gene Amdahl,《Validity of the Single Processor Approach to Achieving Large Scale Computing Capabilities》(1967)。
  • Hennessy 和 Patterson,《A New Golden Age for Computer Architecture》(ACM 图灵讲座)。

如果你想看更多类似文章,请浏览 /blog。

目录
为什么亨尼斯的思想对现代性能仍然重要从“免费”提速到现实约束指令级并行:收益与递减效应阿姆达尔定律:重大决策背后的简单数学线程级并行:多核转变内存与隐藏的瓶颈功耗是第一要务约束软硬件协同设计作为策略RISC 与简洁价值专用化与加速器:当通用 CPU 不够时权衡:没有免费的架构决策在不自欺的前提下测量性能关键要点与当下的应用方法延伸阅读
分享
Koder.ai
使用 Koder 构建您自己的应用 立即!

了解 Koder 强大功能的最佳方式是亲自体验。

免费开始预约演示