KoderKoder.ai
价格企业教育投资人
登录开始使用

产品

价格企业投资人

资源

联系我们支持教育博客

法律信息

隐私政策使用条款安全可接受使用政策举报滥用

社交

LinkedInTwitter
Koder.ai
语言

© 2026 Koder.ai 保留所有权利。

首页›博客›塞尔盖·布林的旅程:从搜索算法到生成式人工智能
2025年9月21日·1 分钟

塞尔盖·布林的旅程:从搜索算法到生成式人工智能

探索塞尔盖·布林从早期 Google 搜索算法走向当代生成式 AI 的路径,涵盖扩展、产品影响与未决问题的关键观点。

塞尔盖·布林的旅程:从搜索算法到生成式人工智能

为什么塞尔盖·布林对 AI 和搜索仍然重要

塞尔盖·布林的重要性并非源自名人效应或公司八卦,而在于他描绘出一条清晰路径:从经典搜索问题(如何在开放网络上找到最佳答案?)到如今团队面临的现代 AI问题(如何在不牺牲准确性、速度或信任的前提下生成有用输出?)。他的工作位于算法、数据与系统的交汇点——正是搜索与生成式 AI 相交的地方。

本文是什么(以及不是什么)

这是一篇以概念为主的里程碑巡礼:像 PageRank 这样的想法如何改变相关性、机器学习如何悄然取代手工规则、以及为何深度学习提升了语言理解。它不是八卦、内部戏剧或头条时间线。目标是解释这些转变为何重要,以及它们如何塑造人们使用的产品。

用通俗的话说“规模化的生成式 AI”

生成式 AI 在需要像搜索一样运行时才算“规模化”:数百万用户、低延迟、可预期的成本和一致的质量。这不仅仅是一个巧妙的模型演示。它包括:

  • 在巨量数据上训练,同时面临严苛的算力约束
  • 在高并发下快速提供答案
  • 在需要正确性时将输出落地到可靠来源
  • 在不破坏可用性的前提下加入安全与策略控制

你将收获什么

读完后,你应该能把搜索时代与今天的聊天式产品联系起来,理解为何检索与生成正在融合,并为产品团队借鉴实用原则——测量、相关性、系统设计与负责任的部署——这些都适用于两类系统。

早期根基:学习、研究与搜索问题

塞尔盖·布林进入搜索领域始于学术界,核心问题不是“如何建站”,而是如何管理信息过载。在 Google 成立之前,布林沉浸于数据库系统、数据挖掘与信息检索等计算机科学研究领域——这些学科研究如何存储海量数据并快速返回有用答案。

学术根基与信息问题

布林在本科和研究生阶段学习数学与计算机科学,斯坦福是研究网络规模问题的中心。研究者们当时已经在应对一些今天听起来依然熟悉的问题:数据混乱、质量不确定,以及用户输入与真实意图之间的差距。

90 年代末“搜索”意味着什么

90 年代末的搜索主要靠关键词匹配和基本排序信号驱动。这在网络较小时行得通,但随着页面数量激增、内容创建者学会操纵系统,这种方法就变得脆弱。常见挑战包括:

  • 相关性: 最合适的页面不一定包含“恰当”的关键词。
  • 质量: 并非所有页面都同样值得信赖或有用。
  • 垃圾信息: 像关键词堆砌这样的策略把低价值页面推上来。
  • 规模: 爬取、索引与提供结果必须跟上爆炸式增长。

早期动机:相关性、信任与组织

一个直观的想法是:如果把网络比作一个巨大图书馆,仅靠文本匹配来排序是不够的——你需要反映信誉与重要性的信号。组织网页信息需要从网络结构本身推断有用性,而不是仅仅依赖页面上的词语。

那些早期的研究优先级——衡量质量、抵抗操纵、在极端规模下运行——为后来的搜索与 AI 转变奠定了基础,包括基于机器学习的排序,乃至生成式方法的出现。

从链接到相关性:PageRank 带来的改变

搜索的目标看起来简单:当你输入问题时,最有用的页面应该排在最上面。90 年代末,这比看起来要难得多。网络迅速扩张,许多早期搜索引擎严重依赖页面自身的话语——文本、关键词与 meta 标签。这使得结果容易被操纵,用户体验常常令人沮丧。

用通俗的话解释 PageRank 思想

塞尔盖·布林与拉里·佩奇的关键洞察是把网络的链接结构当作信号。如果一个页面链接到另一个页面,它就是一种“投票”。并非所有投票都相同:来自受认可页面的链接应该比来自默默无闻页面的链接更有分量。

从概念上讲,PageRank 通过问“哪些页面被其他重要页面引用?”来衡量重要性。这个循环性的问题可以转化为在网络规模上计算的数学排序。结果并不是对相关性的“终极答案”,但它成为了一个强大的新成分。

不止一种信号——以及持续的较量

把 PageRank 视为 Google 早期成功的全部秘诀是一种过度简化。实际上,排序是一道配方:算法将许多信号(文本匹配、新鲜度、位置、速度等)组合起来以预测用户真正想要的东西。

而且激励机制是复杂的。只要排名有意义,垃圾就会跟上——链接农场、关键词堆砌和其他看起来相关但无帮助的手段层出不穷。搜索算法变成了一个持续的对抗游戏:改进相关性、检测操纵并调整系统。

为什么排序永远不会“完成”

网络在变,语言在变,用户期望在变。每一次改进都催生新的边缘情况。PageRank 并没有终结搜索——它把领域从简单的关键词匹配推动到了现代的信息检索时代,在那里相关性需要持续测量、测试与精化。

在互联网规模上构建搜索:系统挑战

一个巧妙的排序想法不足以应对整个网络作为“数据库”的场景。早期让 Google 搜索与众不同的不仅仅是相关性——还有在数百万用户面前快速且一致地交付这些相关性的能力。

规模如何改变一切

互联网规模的搜索始于爬取:发现页面、定期回访并应对永不停歇变化的网络。接着是索引:把混乱、各异的内容转成可在毫秒内查询的结构。

在小规模下,你可以把存储与计算当作单机问题处理。到了大规模,每一个选择都变成系统设计的权衡:

  • 存储: 保留多个副本、压缩并将数据分布到多台机器上。
  • 延迟: 结果要足够快,体验才会感觉瞬时。
  • 新鲜度: 索引要快速更新,以便新页面或更改不会长时间缺失。

可靠性与速度也是“质量”的一部分

用户并不以排名分数来感知搜索质量——他们以页面即时加载来感知。如果系统频繁失败、结果超时或新鲜度落后,即便相关性模型再好,实际体验也糟糕。

这就是为什么为正常运行时间、优雅降级与一致性能而工程化,与排序密不可分。一个略差但稳定在 200ms 返回的结果,比一个更好但偶尔超时的结果更有价值。

数据管道与安全变更

在规模下,不能随意“直接发布”更新。搜索依赖于采集信号(点击、链接、语言模式)的管道,运行评估并逐步推出变更。目标是尽早发现回归——在影响所有用户之前。

一个简单比喻:目录与活的网络

图书馆目录假设书籍是稳定、经策划且变更缓慢的。网络则像一本会自我改写的图书馆,书架移动,新房间不断出现。互联网规模的搜索就是那套让这个不断变化目标保持可用目录的机器——快速、可靠并持续更新。

从规则到机器学习:一个悄然的转折点

早期的搜索排序大量倚重规则:如果标题包含某词则提升,如果被多次链接则提升,如果加载快则提升,等等。那些信号重要,但决定每个信号应有多少权重往往依赖人工微调。随着网络和用户期望的快速扩大,这种方式碰到了天花板。

什么是“学习排序”(不讲数学)

“学习排序”是让系统通过大量示例自己“学习”什么是好结果。

你不用写一长串排序规则,而是把大量历史搜索与结果喂给模型——例如用户倾向点击哪些结果、哪些结果很快被弹回、哪些页面被人工评审认为有用。随着时间推移,模型会更好地预测哪些结果该排得更高。

一个简单类比:与其让老师为每节课写详细的座位安排,不如让老师观察哪些座位安排促成了更好的讨论,然后自动调整。

从手动调参到数据驱动模型

这种转变并没有抹去经典信号(如链接或页面质量)——而是改变了它们的组合方式。"悄然"之处在于,从用户视角看,搜索框并未改变;但内部重心从手工配方转向了基于数据的模型。

评估成为方向盘

当模型从数据中学习时,测量就是指南针。

团队依赖相关性指标(结果是否满足查询?)、在线 A/B 测试(改动是否改善真实用户行为?)和人工反馈(结果是否准确、安全、有用?)。关键是把评估当作持续行为——因为人们的搜索习惯和“好”的定义会持续变化。

注: 具体模型设计和内部信号随时间变化且并非公开;重要的结论是心态从手工调参转向严格测试支撑的学习系统。

深度学习进入视野:更好的语言理解

将你的助手带到移动端
为移动场景创建基于 Flutter 的助手移动应用。
构建移动应用

深度学习是一类以多层神经网络为基础的机器学习方法。取代“如果查询包含 X,则提升 Y”之类的规则,这些模型直接从大量数据中学习模式。对于搜索而言,这一转变至关重要,因为语言是混乱的:用户会拼写错误、暗含语境,且同一个词可能有多重含义。

它为何改善了语言(与感知)

传统排序信号(链接、锚文本、新鲜度)很强,但它们并不“理解”查询意图。深度学习模型擅长学习表示:把词语、句子乃至图像转成能捕捉意义与相似性的稠密向量。

在实践中,这带来了:

  • 更好地解释那些字面词汇不足以说明意图的查询(“附近最好的餐馆”依赖位置与意图)。
  • 更好地处理同义词与复述(“低价机票” vs “经济航班”)。
  • 更可靠地把查询匹配到能回答实际需求的页面,而非仅重复关键词。

权衡:成本、数据与可解释性

深度学习并非免费。训练与在线服务神经模型成本高昂,需专门硬件与精细工程。它们也依赖数据——干净的标注、点击信号与评测集,以避免学习到错误捷径。

可解释性也是挑战之一。当模型改变排序时,很难用一句话解释它为何偏好结果 A 而非 B,这给调试与信任带来复杂性。

从“好玩的研究”到核心产品质量

最大的变化是组织层面,而不仅是技术:神经模型不再是边缘实验,而成为用户“搜索质量”体验的一部分。相关性越来越依赖学习模型——通过测量、迭代并投放,而不只是手工信号的微调。

生成式 AI:与经典搜索 AI 的新区别

经典搜索 AI 更多关注于排序与预测。给定查询与文档集,系统预测哪些结果最相关。即便机器学习取代了手工规则,目标仍然是给文档打分然后排序。

生成式 AI 改变了输出方式。模型可以生成文本、代码、摘要甚至图像。产品可以在一次响应中直接回答、起草邮件或写代码片段——这非常有用,但本质上不同于返回链接。

为什么 Transformer 与大模型看起来像飞跃

Transformer 让模型能跨越整个句子与文档关注词与词之间的关系,而不仅仅是局部邻近的单词。在足够的数据与算力下,这些模型学会了广泛的语言与类推行为:改述、翻译、遵循指令并在主题间组合信息。

为什么“规模”重要——以及何处停止有用

对于大型模型,更多的数据与算力往往带来更好的性能:明显错误更少、写作更强、指令跟随能力更好。但收益并非无限。成本快速上升,训练数据质量成为瓶颈,有些失败模式并不会仅靠增大模型而消失。

新风险:自信的错误与可靠性差距

生成式系统会“幻觉”事实、反映训练数据中的偏见,或者被操纵生成有害内容。它们还在一致性上有挑战:两个看似相似的提示可能得到不同答案。与经典搜索相比,挑战从“我们是否排出了最佳来源?”转向“我们能否保证生成的回答准确、有依据且安全?”

扩展生成式 AI:训练、服务与成本现实

测试检索与生成
用 Koder.ai 原型化搜索+聊天体验,实时迭代。
开始构建

生成式 AI 在演示中看起来很神奇,但要为数百万(或数十亿)请求运行它,则大量是数学和运维问题而非纯研究问题。这正是搜索时代的经验仍然适用的地方——效率、可靠性与无情的测量。

训练层面的“规模化”意味着什么

训练大模型本质上是一条矩阵乘法的流水线。“规模化”通常意味着成百上千的 GPU 或 TPU 群集,通过分布式训练把它们串联成一个大系统。

这带来实际约束:

  • 并行与网络: 如果算力间无法足够快地共享更新,硬件会闲置。
  • 失效是常态: 长期训练必须处理机器掉线而不重启全部作业。
  • 成本是持续的: 训练不是一次性账单;在数据、架构与安全上迭代通常意味着多次昂贵的重训。

服务层面:延迟、吞吐与安全

服务与训练不同:用户关心的是响应时间与一致性,而非基准上的峰值精度。团队需要平衡:

  • 延迟 vs. 质量: 更长的生成可能提高答案质量,但损害用户体验。
  • 吞吐: 同一个模型必须在流量高峰时承受住压力。
  • 缓存: 重复提示或重复检索到的片段可以缓存以降低成本。
  • 提示安全过滤: 输入与输出会经过筛查以减少有害或违章内容,这为系统增加了额外步骤与复杂性。

可观测性:及早捕捉回归

由于模型行为具有概率性,监控不仅是“服务器是否在线?”它还需跟踪质量漂移、新失败模式以及模型或提示更新后的细微回归。这通常包括人工审查环节和自动化测试。

真正重要的效率技术

为了把成本控制住,团队依赖于模型压缩、蒸馏(用小模型模仿大模型)和路由(把简单查询发到廉价模型,只有必要时才升级)。这些是让生成式 AI 在真实产品中可行的非华丽但关键的工具。

搜索 vs. 聊天:产品如何融合检索与生成

搜索与聊天看似竞争关系,但更恰当的理解是它们面向不同用户目标的两种界面。

两种目标,两种模式

经典搜索针对快速、可验证的导航:"为 X 找到最佳来源" 或 "把我引到正确页面"。用户期望多个选项、可以快速浏览标题并借助发布者、日期、摘要等线索判断可信度。

聊天则侧重综合与探索:"帮我理解"、"比较"、"起草"或"下一步怎么办?"。价值不仅在于定位页面,而在于把零散信息整理成连贯回答、提出澄清问题并在多轮中保持上下文。

混合模式:检索 + 生成(RAG)

大多数实用产品现在都在两者之间取长补短。常见方法是检索增强生成(RAG):系统先在可信索引中检索(网页、文档、知识库),然后基于检索结果生成有依据的答案。

这种“落地”很重要,因为它弥合了搜索的长处(新鲜度、覆盖度、可追溯性)与聊天的长处(摘要、推理、会话流畅性)。

好的产品设计需要什么

当涉及生成时,用户界面不能只停留在“这是答案”上。好的设计会加入:

  • 引用与摘录,便于用户核验并跳转到来源。
  • 不确定性信号(“我不太确定”、置信区间或“我未找到来源”),替代自信但不可靠的猜测。
  • 编辑控制,用于调整语气、范围与前提(“更短”、“仅使用提供的来源”、“聚焦 2024–2025”)。

信任通过一致性与透明建立

当助手自相矛盾、在交互中改变规则或无法说明信息来自何处时,用户会很快失去信任。一致的行为、清晰的来源与可预测的控制,使得融合的搜索+聊天体验在涉及真实决策时显得可靠。

负责任的 AI 与安全:生成内容的难点

把负责任的 AI 表述为可操作目标会更容易理解。对生成式系统来说,通常意味着:安全性(不生成有害指令或骚扰内容)、隐私(不泄露敏感数据或记忆个人信息)与公平(不以系统性方式差别对待群体并造成伤害)。

为什么生成式评估比排序更难

经典搜索的评估形态相对清晰:给定查询,排序文档,然后衡量用户找到所需的频率。即使相关性有主观性,输出也受限——只是指向已有来源的链接。

生成式 AI 可以产生无限数量看似合理的答案,并伴随微妙的失败模式:

  • 答案听起来很自信但仍然错误。
  • 两个看似合理的回答可能差别巨大,其中一个遗漏了关键的注意事项。
  • 伤害不仅关乎准确性:语气、偏见与不安全建议也会造成危害。

因此评估不再是单一分数,而是基于测试套件:事实性检查、毒性与偏见探测、拒绝行为测试以及针对特定领域(医疗、财务、法律)的期望检查。

人在环中的角色:人为何仍重要

因为边缘情况无穷无尽,团队常在多个环节引入人工输入:

  • 评审者标注示例(有用 vs 有害、安全 vs 不安全)并判断细微质量。
  • 策略制定者定义系统应拒绝的请求、如何表达不确定性以及尽可能引用哪些来源。
  • 红队测试故意尝试攻破模型——探测越狱、提示注入与操纵策略——以便在真实用户遇到之前暴露弱点。

与经典搜索不同的关键转变在于:安全不仅是“过滤不良页面”,而是设计模型在被要求虚构、总结或提供建议时的行为,并用证据证明这些行为在规模下可靠。

构建者能学到什么:从搜索可迁移的原则

交付全流程
从概念到 Web、后端和移动端,无需搭建完整流水线。
创建应用

塞尔盖·布林的早期 Google 故事提醒我们:突破性的 AI 产品很少从炫酷演示开始——它们从明确的待办问题与测量现实的习惯开始。许多这些习惯在你使用生成式 AI 时依然适用。

来自搜索的教训:测量、迭代、以用户为中心

搜索之所以成功,是因为团队把质量当作“可以观测”的东西,而不是争论的对象。他们做无数实验,接受小改进会累积,且把用户意图放在核心位置。

一个有用的心智模型是:如果你无法解释什么对用户来说是“更好”的话,你就无法可靠地改进它。这对排序网页同样适用,也适用于对模型候选回答的排序。

生成式 AI 带来的变化:质量是多维的

经典搜索质量常简化为相关性与新鲜度。生成式 AI 增加了新的维度:事实性、语气、完整性、安全性、引用行为,甚至是对特定上下文的“有用性”。两个同样在主题范围内的回答,其可信度可能大相径庭。

这意味着你需要多重评估——自动化检测、人工审查与真实世界反馈——因为没有单一分数能覆盖完整用户体验。

实用清单:像搜索团队那样发布

  • 定义任务: 你在解决什么用户问题——摘要、起草、解释、决策或检索?
  • 设定指标: 选取领先指标(任务成功率、节省时间)与护栏(幻觉率、策略违规、延迟、成本)。
  • 创建测试集: 包含边缘情况、对抗提示与日常“枯燥”查询。
  • 运行受控上线: 做 A/B 测试、逐步放量,并记录足够的上下文以便调试失败。
  • 闭环改进: 用错误分析驱动提示、检索、模型与 UX 的变化。

团队技能:不仅仅是 ML

从搜索中最可迁移的教训是组织层面的:规模质量需要紧密协作。产品定义“好”的含义,ML 改进模型,基础设施保持成本与延迟可控,法务与策略设定边界,支持团队暴露真实用户痛点。

如果你要把这些原则落到实处,一个实用方法是尽早原型化完整闭环——UI、检索、生成、评估挂钩与部署。像 Koder.ai 这类平台就是为这种“快速构建、快速测量”的工作流设计的:你可以通过聊天界面创建 web、后端或移动应用,在规划模式下迭代,并使用快照/回滚当实验出现偏差时恢复——这在发布具有概率性行为且需要谨慎上线的系统时尤其有用。

展望未来:面向大规模 AI 的未决问题

塞尔盖·布林的故事描绘出一条清晰弧线:从优雅算法(PageRank 与链接分析)开始,转向机器学习排序,如今进入能起草答案的生成系统。每一步都提升了能力,同时也扩大了失败的表面积。

可靠性:现在“正确”意味着什么?

经典搜索主要帮助你找到来源。生成式 AI 常常总结并决定什么重要,这带来更艰难的问题:我们如何衡量真实性?如何以用户信任的方式引用来源?在医疗建议、法律语境或突发新闻等模糊场景中,如何在不把不确定性伪装成自信表述的前提下处理不确定性?

算力约束:谁能买得起“最先进”?

扩展不仅是工程上的装逼,而是经济限制。训练一次大规模模型需要庞大算力,服务成本随每个用户查询增加而增加。这让人有压力去在上下文长度、模型大小与安全检查上做出妥协,或者把能力集中在少数拥有最大预算的公司手中。

治理与竞争:谁来制定规则?

当系统开始生成内容时,治理不再只是内容审核。它涉及透明度(模型由哪些数据塑造)、问责制(谁对损害负责)以及竞争动态(开源 vs 闭源模型、平台锁定与监管可能无意间偏袒既有巨头)。

如何批判性看待 AI 演示

当你看到惊艳的演示时,问自己:在困难边缘案例会怎样?能否显示来源?在不知道时它如何表现?真实流量下的延迟与成本如何——而不是实验室环境?

如果你想更深入,可以考虑阅读与系统扩展和安全相关的主题,或参阅 /blog。

常见问题

当今讨论 AI 与搜索时,塞尔盖·布林为什么“仍然重要”?

他是连接经典信息检索问题(相关性、抗操纵、规模)与今天生成式 AI问题(落地/引用、延迟、安全、成本)的一个有用视角。重点不是传记,而是搜索与现代 AI 面临的相同核心约束:在海量规模下仍然保持信任。

“规模化的生成式 AI”在实践中到底意味着什么?

当搜索需要以低延迟、高可用性并持续更新数据的方式可靠地处理数百万查询时,才能算是“在规模上”。

当生成式 AI 也必须满足相同要求并同时生成文本输出时,它就真正进入了“规模化”的状态,这增加了额外约束:

  • 可预测的推理成本
  • 稳定一致的答案质量
  • 在高并发下的落地与安全控制
20 世纪 90 年代末的搜索引擎有什么问题?

20 世纪 90 年代末的搜索过度依赖关键词匹配和简单的排序信号,而随着网络膨胀这类方法失效了。

常见故障包括:

  • 尽管“匹配”了词汇,结果却不相关
  • 低质量页面排在更好来源之前
  • 垃圾策略(如关键词堆砌)
  • 爬取与索引无法跟上网页增长的速度
与基于关键词的排序相比,PageRank 带来了什么改变?

PageRank 把链接当作一种信任投票,且不同投票权重不同:来自重要页面的链接比来自无名页面的链接更有分量。

在实践中,它:

  • 利用网页结构而不仅仅依赖页面文本来提高相关性
  • 比单纯关键词方法更难(但并非不可能)被操纵
  • 推动搜索朝向多信号混合排序而不是单一要素匹配
为什么搜索中的排名“永远”无法被一次性解决?

因为排名牵涉到流量和收入,它本质上是一个对抗性系统。一旦某个排序信号奏效,人们就会尝试利用它。

这迫使持续迭代:

  • 检测操纵(垃圾链接、隐身页面、关键词堆砌)
  • 调整信号与模型
  • 用新测试集和在线实验反复验证
基础设施和延迟如何影响搜索质量?

在网络规模下,“质量”还包括系统性能。用户感知的质量通常表现为:

  • 页面快速加载(低延迟)
  • 服务随时可用(可靠性)
  • 索引及时反映更改(新鲜度)

一个在200ms 内稳定返回的略差结果,往往会比偶然超时或延迟到达的更优结果更受欢迎。

不用数学怎么解释“学习排序”?

“学习排序”是用基于数据训练的模型替代手工调的评分规则(点击行为、人工判断等)。

模型通过观察大量历史搜索与结果,学会组合各种信号以更好地预测“有用的结果”。

对用户可见的界面可能没有变化,但内部系统变得:

  • 更以数据为驱动
  • 更依赖评估
  • 更易通过迭代训练和测试改进
为什么深度学习能提升搜索中的语言理解?

深度学习改进了语义表示,带来如下提升:

  • 超越字面关键词理解意图
  • 更好地处理同义词与复述
  • 更好地基于上下文匹配能真正回答需求的页面

代价是真实的:更高的计算成本、更多数据需求,以及当排序变化时更难解释和调试。

与经典搜索 AI 相比,生成式 AI 的根本不同是什么?

经典搜索主要是选择与排序已有文档。生成式 AI 则产出文本,这改变了失败模式。

新风险包括:

  • 以自信语气输出错误信息(幻觉)
  • 对相似提示给出不一致的回答
  • 安全性问题(有害内容、偏见)

中心问题从“我们是否排出了最佳来源?”转为“生成的回答是否准确、可追溯且安全?”

搜索与对话如何通过检索增强生成(RAG)融合?

检索增强生成(检索增强生成,RAG)先检索可信索引(网页、文档、知识库),再基于检索到的内容生成答案。

要在产品中做得好,团队通常会加入:

  • 引用/引用片段,便于用户核验
  • 防止 prompt 注入和不安全请求的防护措施
  • 针对质量漂移的监控与回归检测
  • 成本控制(缓存、将简单请求路由到更小的模型)
目录
为什么塞尔盖·布林对 AI 和搜索仍然重要早期根基:学习、研究与搜索问题从链接到相关性:PageRank 带来的改变在互联网规模上构建搜索:系统挑战从规则到机器学习:一个悄然的转折点深度学习进入视野:更好的语言理解生成式 AI:与经典搜索 AI 的新区别扩展生成式 AI:训练、服务与成本现实搜索 vs. 聊天:产品如何融合检索与生成负责任的 AI 与安全:生成内容的难点构建者能学到什么:从搜索可迁移的原则展望未来:面向大规模 AI 的未决问题常见问题
分享
Koder.ai
使用 Koder 构建您自己的应用 立即!

了解 Koder 强大功能的最佳方式是亲自体验。

免费开始预约演示