务实剖析桑达尔·皮查伊如何引导 Google 将 AI 打造成互联网的基础层——贯穿产品、基础设施与安全治理等方面。

“互联网基元”是你可以假定会存在的基础构件——比如超链接、搜索、地图或支付。人们不会去想它是如何工作的;他们只是期望它随处可用、廉价并且可靠。
桑达尔·皮查伊的重大赌注是:AI 应该成为那种级别的构件:不是仅嵌入在少数产品里的特殊功能,而是支撑许多网络体验的默认能力。
多年来,AI 经常以附加功能出现:这里有更好的照片标注,那里有更聪明的垃圾邮件过滤。皮查伊推动的转变更具结构性。公司不再问“我们在哪儿可以撒一点 AI?”,而是开始问“我们如何在设计产品时假定 AI 始终可用?”
这种思维方式改变了优先级:
这不是对模型架构或训练配方的技术深潜。它关注的是战略与产品决策:皮查伊如何使 Google 将 AI 定位为共享基础设施,这如何影响人们已在使用的产品,以及内部平台选择如何塑造可能性。
我们将梳理把 AI 变成基元所需的实际组成部分:
最终,你会对把 AI 打造成像现代网络其他部分一样基础且无处不在,所需的组织与战略有清晰的理解。
要理解桑达尔·皮查伊对 Google AI 方向的影响,看看成就他职业生涯的那类工作会更容易:那些不仅能赢得用户、还能为他人建立基础的产品。
皮查伊于 2004 年加入 Google,很快就与“默认”体验联系在一起——那些数百万用户在使用时不会去思考底层机制的工具。他在 Chrome 的崛起中扮演了核心角色,不仅作为浏览器,而是作为更快、更安全的上网方式,推动了标准与开发者预期的前进。
后来他负责 Android,意味着在维护一个庞大合作伙伴生态(设备制造商、运营商、应用开发者)的同时保持平台连贯性。这是一种特定的产品领导力:不能只为单个应用或功能优化——必须设定规则、API 与激励,能在规模上运作。
这种平台建设者的心态与让 AI 在网络上变得“正常”的挑战高度契合。
当 AI 被视为一种平台时,领导决策往往优先考虑:
皮查伊于 2015 年成为 Google CEO(2019 年起兼任 Alphabet CEO),这使他有能力推动公司范围内的转变:把 AI 当作共享基础设施而非边缘项目。这一视角有助于解释后续选择——标准化内部工具、投资计算资源,以及把 AI 变成跨产品可重用的层,而不是每次都重新发明。
Google 将 AI 打造成“基础”并非仅靠巧妙模型——而是在于这些模型能驻留在哪些地方。很少有公司坐落于广泛消费者覆盖、成熟产品与长期研究项目的交叉点。这种组合创造了异常快速的反馈回路:发布改进、观察表现并精炼。
当数十亿查询、视频和应用交互流经少数核心服务时,即便是很小的改进也会带来显著影响。更好的排序、更少的无关结果、略有提升的语音识别——在 Google 的规模下,这些增量会转化为用户日常体验中的明显差异。
需要把“数据优势”讲清楚。Google 并非对互联网有魔法般的访问权,也不能因为规模大就保证结果。优势主要是运营层面的:长期运行的产品会生成可用于评估质量、检测回归并衡量有用性的信号(在政策与法律界限内)。
Search 训练了人们期望快速、准确的答案。随着时间推移,自动完成、拼写纠正与查询理解等功能提高了用户对于系统应能预测意图的期待——而不仅仅是匹配关键词。这一思维直接映射到现代 AI:预测用户意图往往比被动响应输入更有价值。
Android 为 Google 提供了一种将 AI 驱动功能在全球范围内分发的实用方式。语音输入、本地设备智能、相机功能以及类似助手的体验的改进可以触达众多制造商与不同价位设备,使 AI 更像内建能力,而非独立产品。
“移动优先”意味着把智能手机作为默认屏幕与情境来设计产品。“AI 优先”是类似的组织原则,但更广泛:把机器学习当作构建、改进与交付产品时的默认成分,而不是在末尾加入的专门功能。
在实践中,AI 优先的公司假定许多用户问题在软件能够预测、摘要、翻译、推荐或自动化时能获得更好解决方案。问题焦点从“我们是否在这里使用 AI?”变为“我们如何设计以便 AI 安全且有帮助地成为体验的一部分?”
AI 优先的姿态会在日常决策中显现:
这也改变了“发布”的含义。AI 功能通常需要持续调优——监控表现、精炼提示或模型行为,并在真实使用暴露边缘情况时添加防护措施。
公司范围的转向若仅停留在口号层面是行不通的。领导层通过重复的公开表述、资源分配与激励来设定优先级:哪些项目获得人手、哪些指标重要、哪些审查问“这如何通过 AI 改善?”
对像 Google 这样的大公司而言,这种信号主要体现在协调上。当团队共享共同方向(AI 作为默认层)时,平台组能标准化工具、产品团队能有信心规划、研究人员能将突破转化为可扩展的产品功能。
要让 AI 感觉像“互联网基元”,它不能仅存在于孤立的研究演示或一次性产品实验中。需要共享基础——通用模型、标准化工具与可重复的质量评估方式——这样团队才能基于同一底层构建,而不是每次都重新发明。
在皮查伊的平台建设者心态下,一个关键转变是把 AI 研究看作供应链的一部分,而非一系列独立项目。这意味着将工作整合进可扩展的流水线:训练、测试、安全审查、部署与持续监控。
当这套流水线被共享时,进展不再是“谁做出最佳实验”,而是“我们能多快把改进安全地推送到各处”。像 TensorFlow 这样的框架帮助标准化模型的构建与服务,而内部的评估与发布实践使得从实验室结果到生产功能的迁移更为容易。
一致性不仅仅是运营效率——它让 AI 显得可靠。
没有这些,用户会觉得 AI 参差不齐:在一个地方很有用,在另一个地方让人困惑,难以依赖。
把它想象成电力。如果每户都要自己发电,电力会昂贵、嘈杂且不可靠。共享电网让电力按需可用,并有安全与性能标准。
Google 的目标类似:构建一张可靠的“电网”——由模型、工具与评估组成——让 AI 能被插入到许多产品中——一致、迅速且有明确的防护措施。
如果 AI 要成为互联网的基础构件,开发者需要的不只是令人印象深刻的研究论文——他们需要让模型训练与部署像常规软件工作那样的工具。
TensorFlow 帮助把机器学习从一门专业手艺变成工程化的工作流。在 Google 内部,它标准化了团队构建与发布 ML 系统的方式,减少了重复工作并让想法更容易在不同产品组间流通。
在 Google 之外,TensorFlow 降低了创业公司、大学和企业团队的入门门槛。共享的框架促成了教程、预训练组件与招聘渠道围绕共同模式形成,从而极大加速了采纳速度,远超任何单次产品发布的影响。
(如果你想在深入之前快速回顾基础,请参见 /blog/what-is-machine-learning。)
开源 TensorFlow 不只是慷慨——它创造了反馈回路。更多用户意味着更多错误报告、更多社区贡献以及对现实世界中重要特性的更快迭代(性能、可移植性、监控与部署)。
它也鼓励了生态兼容性:云提供商、芯片制造商与软件供应商可以针对广泛使用的接口进行优化,而不是各自为政的专有接口。
开放性带来真正的风险。广泛可用的工具会让滥用更容易(欺诈、监控、深度伪造),也可能让模型在未经充分测试的情况下被部署。对于在 Google 这种规模下运营的公司而言,这种张力是持续存在的:分享加速进步,但也扩大了造成伤害的表面。
实际结果是中间道路——开源框架与选择性发布,配合政策、防护措施与更明确的负责任使用指南。
随着 AI 越来越像“基元”,开发者体验也在转变:构建者越来越期待通过自然语言而非仅通过 API 来创建应用流程。这正是像 Koder.ai 这类工具的用武之地——让团队通过聊天快速原型并发布网页、后端和移动应用,同时在需要完全控制时导出源代码。
如果 AI 要显得像网络的基础层,它就不能像偶发的“特别项目”那样表现得不稳定。它必须速度足够快以供日常使用、足够廉价以每分钟被调用数以百万计、并且足够可靠以赢得人们在常规任务中对它的信任。
AI 工作负载异常沉重。它们需要大量计算、频繁移动数据并常常要求快速结果。这带来三大现实压力:
在皮查伊的领导下,Google 的战略倾向于强调“底层管道”对用户体验的决定性作用,与模型本身同等重要。
让 AI 在规模上可用的一种方式是专用硬件。Google 的 Tensor Processing Units (TPUs) 是为更高效地运行 AI 计算而设计的定制芯片。简单来说:与其用通用机器来做每项工作,不如构建特别适合 AI 重复数学运算的机器。
其好处不仅是吹嘘——而是能够以可预测的性能和更低的运营成本交付 AI 功能。
仅有芯片还不够。AI 系统还依赖数据中心、存储与大容量网络,它们能在服务间快速传输信息。当所有这些被作为一个整体系统工程化时,AI 能表现得像“随时可用”的公共服务——产品需要时就准备好。
Google Cloud 是将这些基础设施提供给企业与开发者的一种方式:不是魔法捷径,而是访问与 Google 自身产品背后同等级别的大规模计算与部署模式的实用途径。
在皮查伊领导下,Google 最重要的 AI 工作并不总以华丽新应用形式出现。它体现在日常瞬间变得更顺畅:Search 更能猜测你的意思,Photos 找到合适的回忆,Translate 捕捉语气而不只是字面意思,Maps 在你询问前预测最佳路线。
早期,许多 AI 能力作为附加功能推出:某个特殊模式、新标签或独立体验。转变在于把 AI 作为人们已经使用的产品背后的默认层。这会把产品目标从“试试这个新东西”变为“这应该就能工作”。
在 Search、Photos、Translate 与 Maps 等产品中,目标一致:
一旦 AI 被内建为核心,标准会上升。用户不再把它当作实验去评估——他们期望它瞬时、稳定且对其数据安全。
这意味着 AI 系统必须提供:
之前:查找图片意味着按日期滚动、翻相册或记得保存位置。
之后:你可以自然搜索——“带红伞的海滩”、“三月的收据”或“雪地里的狗”——Photos 会在不需你事先整理的情况下找出相关图片。AI 变得无形:你注意的是结果,而不是运作机制。
这就是“从功能到默认”的样子——AI 成为日常有用性的无声引擎。
生成式 AI 改变了公众与机器学习的关系。早期 AI 功能大多是分类、排序或预测:“这是垃圾邮件吗?”,“哪个结果最好?”,“图片里有什么?”生成式系统可以产出语言与媒体——起草文本、写代码、生成图像并给出看似推理的答案,尽管底层过程仍以模式为主。
Google 明确表示,下一阶段围绕 Gemini 模型 与更贴近人们实际工作方式的 AI 助手展开:提问、精炼、决策。助手不再只是隐藏在单一功能背后的组件,而成为前门——它可以调用工具、搜索、摘要并帮助你从问题走向行动。
这波浪潮带来了消费者与企业产品中的新默认:
生成式输出可能自信但错误。这不是小概率边缘案例——这是核心限制。实用习惯是验证:检查来源、对比答案,并把生成文本视为草稿或假设。能在规模上取胜的产品会让核查变得更容易,而不是把它当作可选项。
让 AI 成为网络的基础层只有在用户能信赖时才可行。在 Google 的规模下,哪怕极小的失败率都可能每天影响数百万用户——所以“负责任的 AI”不能是附带项目。它必须像产品质量与可用性那样被对待。
生成式系统会自信地输出错误(幻觉)、反映或放大社会偏见,并在处理敏感输入时带来隐私风险。还有安全问题——提示注入、通过工具使用进行的数据外泄、恶意插件或扩展——以及广泛的滥用风险,从诈骗与恶意软件到被禁止内容的生成。
这些风险并非理论上的:它们在正常用户行为中出现:比如提出模糊问题、粘贴私密文本或在一个错误回答就会产生后果的工作流中使用 AI。
没有单一的防护能解决所有问题。实用的方法是分层的:
当模型被嵌入到 Search、Workspace、Android 与开发者工具中时,安全工作必须可重复且自动化——更像监控全球服务而不是审查单一功能。这意味着持续测试、快速回滚路径与跨产品一致的标准,从而使信任不依赖于某个团队发布了特定 AI 功能。
在此层面,“信任”成为共享平台能力的一部分——它决定了 AI 能否作为默认行为而非可选实验而存在。
Google 的 AI 优先战略并非在真空中发展。随着生成式 AI 从实验室走入消费产品,Google 面临来自多个方向的压力——每个方向都影响着什么能发布、在哪里运行以及能多快推出。
在模型层面,竞争不只是“谁有最好的聊天机器人”。还包括谁能提供可靠且成本高效的模型(如 Gemini)以及将其整合进真实产品的工具。这就是为什么 Google 强调平台组件——历史上的 TensorFlow、以及如今的托管 API 与模型端点——与模型演示同等重要。
在设备层面,操作系统与默认助手会塑造用户行为。当 AI 功能嵌入手机、浏览器与办公套件时,分发成为战略优势。Google 在 Android、Chrome 与 Search 的布局创造了机会,但也提高了对功能稳定、快速与广泛可用的期望。
在云平台方面,AI 是企业买家考虑的重要差异点。关于 TPU、定价以及模型能在哪儿托管的选择,常反映客户在供应商间进行的竞争比较。
监管带来另一层约束。常见主题包括透明度(什么是生成的,什么是引用的)、版权(训练数据与输出)与数据保护(用户提示与企业数据如何处理)。对于在 Google 规模上运作的公司,这些问题会影响 UI 设计、默认日志策略以及哪些功能在哪些地区启用。
竞争与监管共同推动 Google 采用分阶段发布:有限预览、更明确的产品标注以及有助于组织逐步采用的控制措施。即便公司 CEO 把 AI 框架为平台,广泛发布通常也需要谨慎排序——在速度、信任、合规性与运行准备之间取得平衡。
把 AI 变成“互联网基元”意味着它不再像一个你去寻找的单独工具,而是表现为默认能力——类似于搜索、地图或通知。你不把它称为“AI”;你体验到的是产品用来理解、生成、摘要和自动化的正常方式。
**AI 成为界面。**用户不再在菜单间导航,而是用自然语言描述需求,产品负责完成具体步骤。
**AI 成为共享基础。**模型、工具与基础设施在多产品间复用,使得改进能快速累积。
**AI 从“功能”变为“默认行为”。**自动完成、摘要、翻译与主动建议成为基线预期。
**分发与突破同等重要。**当 AI 被嵌入广泛使用的产品时,采用不是市场营销活动,而是一次更新。
**信任成为核心规范。**安全、隐私与治理不是附加项;它们决定 AI 能否进入网络的“底层管道”。
对用户而言,“新默认”带来便利与速度:更少点击、更多答案以及日常任务的更多自动化。但这也提高了对准确性、透明度与控制的期望——人们会想知道何时是生成内容、如何校正,以及使用了哪些数据。
对企业而言,“新期待”更为苛刻:客户会默认你的产品能理解意图、摘要内容、辅助决策并集成工作流。如果你的 AI 显得是拼凑上去或不可靠,它不会被拿来和“无 AI”比较,而是与用户已拥有的最佳助手比较。
如果你想要一种一致评估工具的方法,可以使用像 /blog/ai-product-checklist 这样的结构化清单。如果你在评估构建或购买 AI 驱动产品,值得测试从意图到可工作应用的速度——像 Koder.ai 这样的平合为“AI 即默认”世界设计,提供基于聊天的构建、部署与源代码导出能力。
互联网基元是一种你可以假定随处可用的基础能力(比如链接、搜索、地图或支付)。在这种框架下,AI 成为一种可靠、廉价、始终可用并且可被许多产品“插入”使用的底层能力,而不是你去寻找的独立功能。
功能通常是可选且孤立的(例如某个特殊模式或标签页)。默认能力则被内置进核心流程——用户期望它在产品中“自动工作”。
AI 成为默认能力的一些实用特征:
因为基元必须对所有人、随时可用。在 Google 级别的规模下,即使很小的延迟或成本增加都会被放大。
团队因此会优先考虑:
在 Google 的 AI 战略里,“分发”是通过人们已经在使用的产品来推送 AI 功能——Search、Android、Chrome、Workspace——这样采用就像普通更新一样发生,而不是“去试试我们的 AI 应用”。
如果你在构建自己的产品,可借鉴的做法是:
这是一种适用于生态系统的领导风格:制定标准、共享工具和可重用组件,从而让许多团队和外部开发者能够一致地构建。
在 AI 方面,这意味着:
把研究成果变成共享基础,意味着把突破性研究转为可重复的生产工作流——训练、评估、安全审查、部署和监控——从而让改进可以广泛发布。
对团队的实用建议:
一致性让 AI 在不同产品间显得可靠,并减少重复工作。
带来的好处包括:
TensorFlow 将模型的构建、训练与服务标准化——在 Google 内部与整个行业内都起到了把 ML 变成常规工程工作的作用。
如果你在挑选开发栈,建议关注:
TPU 是为常见 AI 运算专门设计的芯片。在大规模下,这种高效性能降低成本并改善响应时间。
你并不一定要有自研芯片才能受益,关键是要把工作负载匹配到合适的基础设施:
生成式模型会自信地生成错误信息,而在大规模下小概率故障会影响数以百万计的人。
可扩展的实用防护措施包括: