探讨维诺德·科斯拉为何断言 AI 可能取代许多医生——他的推理、相关的医疗投资、AI 能做与不能做的事,以及这对患者意味着什么。

当维诺德·科斯拉说“AI 会取代医生”时,他通常并不是描绘一个没有人的科幻医院,而是在提出一个更锋利的、可操作的观点:目前占据医生时间的许多任务——尤其是信息密集型工作——可以由更快、更便宜且日益更准的软件完成。
在科斯拉的表述中,“替代”常常意味着取代医生日常工作的大部分任务,而不是抹去这个职业。想想护理中重复性的部分:收集症状、查阅指南、排列可能的诊断、推荐下一步检查、监测慢性病以及提前标记风险。
因此这个想法更偏向“支持自动化”而不是“反医生”。其基本押注是:医疗充满模式——而在大规模模式识别上,AI 往往更擅长。
这篇文章把这一说法作为一个假设来评估,而不是一个口号要欢呼或否定。我们会审视其背后的推理、与之相符的医疗产品类型,以及现实约束:监管、安全、责任与医学的人文面。
维诺德·科斯拉是硅谷企业家与投资人,因 1980 年代共同创办 Sun Microsystems 而知名,之后在风投领域长期活跃。离开 Kleiner Perkins 后,他于 2004 年创立了 Khosla Ventures。
这种既有操盘经验又长期投资的混合背景,能解释为什么他关于 AI 与医疗的言论会在技术圈外被广泛引用。
Khosla Ventures 以支持大、坚定押注著称,这些押注初看可能不合理。该公司常倾向于:
这很重要,因为像“AI 会取代医生”这样的预测并非仅仅是修辞——它们会影响哪些初创公司获得资金、哪些产品被构建,以及董事会和高管如何把自动化放在优先级上。
医疗是经济中最大、成本最高的部分之一,同时充满了 AI 可学习的信号:影像、化验结果、笔记、传感器数据和结局。即便是微小的准确度、速度或成本改进,也可能带来显著的节省和可及性提升。
科斯拉及其公司反复主张,医学尤其在分诊、诊断支持和工作流自动化等领域,适合软件驱动的变革。无论你是否同意“替代”的表述,他的观点重要在于它反映了一大笔风投资本如何评估医学的未来——以及下一步资本将流向何处。
科斯拉的预测基于一个简单的主张:医学中很大一部分工作——尤其是初级护理和早期分诊——是带不确定性的模式识别。如果诊断和治疗选择在许多情况下就是“把这种表现与最可能的情况匹配”,那么能从数百万示例中学习的软件最终应该会超过只能从数千例中学习的个体临床医生。
人类擅长发现模式,但受限于记忆、注意力和经验。AI 系统可以摄取远超过任何一位医生职业生涯中遇到的病例、指南与结局,然后持续一致地应用这种学到的模式。在科斯拉的框架里,一旦系统的错误率低于平均临床医生,患者和支付方的理性选择就是将常规决策交给机器处理。
经济学是另一个驱动因素。初级护理受时间、地理和人员短缺限制;门诊可能昂贵、简短且质量参差不齐。AI 服务可以全天候提供、覆盖欠缺服务的地区,并提供更统一的决策——减少“看谁就看出不一样”的问题。
早期的专家系统依赖手工编码规则和狭窄数据集而受限。随着医疗数据的数字化(EHR、影像、化验、可穿戴设备)以及计算能力的提升,训练大规模语料并持续更新模型变得可行,因而可行性显著增强。
即便在这种逻辑下,“替代”通常也划定在常规诊断和按协议管理的部分——而非以信任、复杂权衡、以及陪伴患者面对恐惧或重大决定为中心的医学部分。
科斯拉的“AI 会取代医生”通常作为挑衅性的预测提出,而非字面承诺医院会无人的反乌托邦。他在多场演讲与采访中的反复主题是:医学中大量工作(尤其是诊断与常规治疗决策)遵循可被软件学习、衡量与改进的模式。
他常把临床推理描述为一种在症状、病史、影像、化验与结局之间的模式匹配。核心论断是,一旦 AI 模型达到某个质量门槛,它就能被广泛部署并持续更新——而临床医生的训练缓慢、昂贵且区域间不均。
他强调的一个关键细微差别是可变性:临床医生可能很出色但因疲劳、工作量或罕见病例暴露不足而表现不稳。相比之下,AI(在妥善测试、监控与重训的前提下)可以提供更稳定的表现,并在某些情况下降低错误率。
与其把 AI 想象成单一的“取代医生”,他更强的版本是:大多数患者会先咨询 AI,临床医生将越来越多地担任复杂病例、边缘情况和高风险决策的复核者。
支持者将他的立场解读为推动可衡量的结果和可及性。批评者指出,真实世界的医学包含模糊性、伦理与问责——“替代”取决于监管、工作流与信任,而非仅仅模型准确度。
科斯拉的“AI 会取代医生”主张与风投喜欢投资的医疗初创公司类型吻合:那些可以快速扩展、标准化混乱临床工作并将专家判断软件化的公司。
许多与该论点一致的赌注集中在几个可重复的主题上:
替代或缩减对临床人员需求的能力意味着巨大的回报:医疗支出庞大且人力成本是主要构成。这就激励人们大胆设定时间线——因为筹资往往奖励明确且高回报的故事,尽管临床采纳和监管可能比软件慢。
一个点状解决方案把一项工作做得很好(例如读胸片)。一个平台旨在跨越多个工作流——分诊、诊断支持、随访、计费——使用共享的数据管道和模型。
“取代医生”的叙事更依赖平台:如果 AI 只在一个狭窄任务上胜出,医生会适应;如果它能协调许多任务并端到端运作,临床角色可能转为监督、例外处理与问责。
对于探索这些“平台”想法的创始人来说,早期速度很重要:通常在测试工作流前你需要可运行的 intake 流、临床仪表盘与审计轨迹原型。像 Koder.ai 这样的工具可以帮助团队从聊天界面构建内部 Web 应用(前端常用 React,后端 Go + PostgreSQL),然后导出源码并快速迭代。凡是影响临床决策的东西,仍需适当验证、安全评审与监管策略——但快速原型可以缩短通向现实试点的路径。
AI 已在某些狭窄的临床工作片段中超越人类,特别是当工作以模式识别、速度和一致性为核心时。这并不意味着存在完整的“AI 医生”。这意味着 AI 可以成为护理中非常强大的组成部分。
AI 在信息重复且反馈循环清晰的地方往往表现优异:
在这些领域,“更好”常指更少漏诊、更标准化的决策和更快的周转。
当下多数真实世界的胜利来自于临床决策支持(CDS):AI 提示可能的病况、标记危险替代诊断、建议下一步检查或检查指南遵循——同时由临床医生承担责任。
自主诊断(AI 端到端做出决策)在有限且定义明确的场景下是可行的——例如严格按照协议的筛查工作流——但对于复杂的、多病共存患者并非默认选择。
AI 的准确性在很大程度上依赖于与患者群体和护理场景相匹配的训练数据。模型会在以下情况发生漂移或表现下降:
在高风险场景中,监督不是可选项——它是处理边缘情况、非典型表现和基于价值判断(患者愿意做什么、能承受什么、优先何者)的安全层。AI 擅长“看见”,但临床医生仍需判断这对眼前的这位患者今天意味着什么。
AI 在模式匹配、摘要记录和建议可能诊断方面可能令人印象深刻。但医学并非仅仅是一个预测任务。许多最难的部分发生在“正确”答案不明确、患者目标与指南冲突,或护理体系本身混乱时。
人们不仅仅需要一个结果——他们需要被倾听、被信任和感到安全。临床医生能注意到恐惧、羞耻、困惑或家庭风险,并据此调整谈话和计划。共同决策还需要在副作用、成本、生活方式和家庭支持之间协商,这样才能在长期建立信任。
真实患者常常合并多种疾病、病史不全且症状不符合模板。罕见病和非典型表现可能起初看似常见问题——直到出现差异。AI 可能给出似乎合理的建议,但“看似合理”并不等同于在临床上被证实,尤其是在细微语境(近期旅行、新药、社会因素、“直觉上不对劲”)重要时。
即便是高准确率的模型也会失败。难题在于责任由谁承担:遵从工具的临床医生、部署它的医院,还是构建它的厂商?清晰的问责会影响团队的谨慎程度以及患者寻求救济的途径。
护理发生在工作流中。如果 AI 工具不能与 EHR、开单系统、文档和计费无缝集成——或它增加了点击量与不确定性——繁忙团队不会依赖它,不管演示看起来多么好。
医疗 AI 不只是工程问题——它是安全问题。当软件影响诊断或治疗时,监管机构把它更接近医疗器械对待,而不是普通应用。
在美国,FDA 管理许多“作为医疗器械的软件”工具,尤其是那些诊断、推荐治疗或直接影响临床决策的工具。在欧盟,MDR 下的 CE 认证发挥类似作用。
这些框架要求证明工具的安全性与有效性、明确预期用途,并在部署后进行持续监控。规则之所以重要,是因为演示中看起来很强的模型在真实诊所中仍可能失败,影响真实的患者。
一个主要伦理风险是不同行群体间的准确率不均(例如不同年龄组、肤色、语言或合并疾病)。如果训练数据未能代表某些群体,系统可能系统性地漏诊或过度建议干预。公平性测试、亚组报告和谨慎的数据集设计不是可选项——它们是基本安全的一部分。
训练与改进模型通常需要大量敏感健康数据。这会带来关于同意、二次使用、去标识化限制以及谁从中受益的疑问。良好治理包括明确的患者告知、严格的访问控制,以及有关数据保留和模型更新的政策。
许多临床 AI 工具被设计为辅助而非替代,通过让临床医生对最终决策负责来捕捉错误、提供模型缺失的语境并创建问责——尽管这只有在工作流与激励机制防止盲目自动化时才有效。
科斯拉的说法常被听成“医生会被淘汰”。更有用的解读是区分替代(AI 端到端完成任务,人工参与极少)与重新分配(人仍然对结果负责,但工作转向监督、同理心与协调)。
在许多场景中,AI 更可能先替代临床工作中的部分:起草记录、提出鉴别诊断、检查指南遵循、总结病史。临床工作的焦点会从生成答案转向审核、语境化与沟通答案。
初级护理可能首先感到变化:随着“前门”分诊改进,症状检查器与环境记录减少常规就诊时间,而复杂病例与基于关系的护理仍由人主导。
放射学与病理学因为工作已数字化且以模式为主,可能看到更直接的任务替代。但这并不意味着专家会马上减少——更可能的结果是产能提高、新的质量工作流出现以及对报销的压力。
护理工作更多是持续评估、教育与协调。AI 可能减少文书负担,但床边护理与升级决策仍以人为本。
可预见会出现或扩大的职位包括 AI 监管员(监控模型表现)、临床信息学(工作流+数据管理)与 护理协调员(关闭模型提示的差距)。这些角色可能融合在现有团队内部,而非完全独立的职位。
医学教育可能会增加 AI 素养内容:如何验证输出、记录依赖程度与识别失效模式。资质认证也可能转向“人机环路”标准——谁被允许使用哪些工具、在何种监督下、以及当 AI 出错时如何分配问责。
科斯拉的主张具有挑衅性,因为它把“医生”视为主要的诊断引擎。最强的反对意见认为:即便 AI 在模式识别上能匹配医生,替代医生是另一项完全不同的工作。
大量临床价值在于问题的框架化,而不仅是解答。医生将混乱的叙述转化为可操作的选项,协商权衡(风险、成本、时间、价值),并在专科之间协调护理。他们还处理同意、面对不确定性时的“观察等待”等,这些领域中信任与问责与准确性同样重要。
许多 AI 系统在回顾性研究中看起来很出色,但这不同于改善真实世界结局。最难的证据是前瞻性证据:AI 是否在不同医院、不同患者群体与不同工作流中降低了漏诊、并发症或不必要检查?
泛化性是另一个薄弱环节。模型在群体变化、设备不同或记录习惯变化时会退化。在一个地点表现良好的系统在其他地点可能会失效——对罕见病尤其如此。
即便是强大的工具也会创造新的失败模式。临床人员可能在模型错误时盲从(自动化偏差),或不再提出能捕捉边缘情况的第二个问题。随着时间推移,如果人类变成“橡皮图章”,技能可能退化,使得在 AI 不确定或错误时难以干预。
医疗不是纯技术市场。责任、报销、采购周期、与 EHR 的集成以及临床培训都会拖慢部署速度。患者与监管者也可能在高风险决策上要求人工决策者——这意味着“AI 无处不在”在很长一段时间内仍可能呈现为“在医生监督下的 AI”。
AI 已以低调方式进入医疗:病历中的风险评分、自动影像报告、症状检查器,以及用于优先排序谁先就诊的工具。对患者而言,目标不是“盲目信任 AI”或“全面拒绝 AI”,而是知道可以期待什么并保持对自身护理的控制权。
你很可能看到更多筛查(信息推送、问卷、可穿戴数据)与更快的分诊——尤其在繁忙诊所与急诊。这可以带来常见问题的更快解答和对某些疾病的更早发现。
质量参差不齐。一些工具在狭窄任务上表现卓越;另一些在年龄、肤色、罕见病或真实世界杂乱数据上表现不稳定。把 AI 当作助手,而非最终裁决。
如果 AI 影响了你的护理,可以问:
很多 AI 输出是概率(“20% 风险”)而非确定结论。询问这个数值对你的意义:在不同风险水平会发生什么,以及误报率是多少。
若建议属于高风险(手术、化疗、停药),请要求第二意见——人工或另一工具。合理的提问是:“如果没有这个 AI 结果,你会怎么做?”
当软件实质性影响决策时,你应该被告知。如果你感到不适,询问替代方案、你的数据如何存储,以及选择不参与是否会影响获得护理的途径。
当把 AI 当作临床工具来看待时,采用更容易:定义用例、测试、监控,并使问责明确。
在把 AI 用于诊断前,先让它去消除日常摩擦。最安全的早期胜利通常是能提高吞吐量且不直接做出医疗决策的工作:
这些领域常带来可衡量的节省,并帮助团队在变革管理中建立信心。
如果你的团队需要轻量的内部工具来支持这些工作流—— intake 表单、路由仪表盘、审计日志、面向员工的知识库——快速构建应用与模型质量同样重要。平台如 Koder.ai 为“vibe-coding”团队设计:你在聊天中描述应用,快速迭代,并在准备好生产化时导出源码。对于临床场景,把它当作加速运营软件与试点的手段,同时仍要做好必要的安全、合规与验证工作。
任何触及病人护理的 AI 系统——即便是间接触及——都应有证据与运营控制:
如果厂商不能解释模型如何被评估、更新与审计,把这视为安全警示。
把“我们如何使用”做得和“它做什么”一样清晰。提供包含常见失效模式的临床培训,并建立明确的上报路径(何时忽略 AI、何时请教同事、何时转诊、何时送急诊)。指定一个负责人负责绩效审查与事件上报。
如果你需要帮助选择、试点或治理工具,可通过 /contact 提交内部支持请求(或在你打包部署服务时通过 /pricing)。
把医学当作单一工作并设定一个终点会让关于 AI “取代医生” 的预测常常失败。更现实的视角是,变化会不均匀到达——按专科、场景与任务分布——当激励与规则最终对齐时,变革会被加速。
在短期内,最大的收益可能是“工作流胜利”:更好的分诊、更清晰的文档、更快的预授权,以及减少明显错误的决策支持。这些可在不强迫患者信任机器单独决策的情况下扩大可及性。
长期来看,你会看到谁做什么的逐步变化——尤其在标准化、高量且数据丰富且结局可测的护理领域。
替代很少意味着医生消失。它可能呈现为:
平衡的结论是:进展将是真实且有时令人震惊,但医学不仅仅是模式识别。信任、语境与以患者为中心的护理会让人类保持核心地位——即便工具集发生变化。
科斯拉通常指的是AI 会替代大量日常临床任务,尤其是信息密集型工作,比如分诊、遵循指南、排序可能的诊断,以及慢性病监测。
这更像是“医院里没有人”的极端想象之外的说法:不是“医院没人”,而是“软件成为常规决策的默认第一道筛查”。
在本文的术语中:
大多数近期真实场景更像是增强,替代通常局限于狭窄且定义明确的工作流。
核心逻辑是规模化的模式识别:许多临床判断(尤其是早期分诊和常规诊断)类似于将症状、病史、检验和影像与可能的病况匹配。
AI 可以在远超单个临床医生所见病例数量的数据上训练,并持续一致地应用这些学习,随着时间可能降低平均错误率。
科斯拉的观点之所以重要,是因为风投会受此影响:
即便不同意这种表述,它也会塑造资本流向和采纳优先级。
医疗是高成本且依赖劳动力的领域,同时产生大量可供学习的数据(病历笔记、检验、影像、传感器数据)。这使得 AI 的投注颇具吸引力:即使是小幅改进,也会带来可观的节省和覆盖率提升。
此外,医疗存在可访问性问题(人手不足、地域差异),全天候的软件服务因此更有吸引力。
AI 在重复性、可测量并有明确反馈回路的工作上最强,例如:
这些都是能显著减轻临床负担但不等同于完全自动化护理的“组件级”胜利。
本文强调的主要限制包括:
演示中高准确率并不意味着在临床环境中安全可靠地运行。
许多影响诊断或治疗的软件被视为“医疗器械类软件(Software as a Medical Device)”:
部署后需持续监测,因为模型会随人群、设备或记录习惯变化而漂移。
偏差产生于训练数据未能充分代表某些群体或场景,导致对不同年龄、肤色、语言、合并疾病或地理区域的性能不均。
可行的减缓措施包括:按亚组进行验证、披露各人群的性能、以及部署后持续监测——公平性不是一次性勾选项,而是基本安全要求。
以患者为中心的透明和控制是关键:
一个有用的问题是:“如果没有这个 AI 结果,你会怎么做?”