Perché Vinod Khosla sostiene che l'IA potrebbe sostituire molti medici: il suo ragionamento, le scommesse in sanità dietro questa tesi, cosa l'IA può e non può fare e cosa significa per i pazienti.

Quando Vinod Khosla dice “l'IA sostituirà i medici”, di solito non descrive un ospedale di fantascienza senza umani. Formula una affermazione più netta e operativa: molti compiti che oggi occupano il tempo di un medico—soprattutto quelli ricchi di informazioni—possono essere svolti da software più veloce, economico e sempre più accurato.
Nell'inquadramento di Khosla, “sostituire” spesso significa sostituire una larga parte di ciò che i medici fanno quotidianamente, non cancellare la professione. Pensa alle parti ripetitive della cura: raccogliere sintomi, verificare linee guida, classificare le diagnosi probabili, raccomandare esami successivi, monitorare condizioni croniche e segnalare rischi precocemente.
Per questo l'idea è più “pro-automazione” che “anti-medico”. La scommessa di fondo è che la sanità è piena di pattern—e il riconoscimento di pattern su larga scala è dove l'IA tende a eccellere.
Questo pezzo tratta l'affermazione come un'ipotesi da valutare, non come uno slogan da applaudire o respingere. Analizzeremo il ragionamento che la sostiene, i tipi di prodotti sanitari che vi si allineano e i vincoli reali: regolamentazione, sicurezza, responsabilità e il lato umano della medicina.
Vinod Khosla è un imprenditore e investitore della Silicon Valley noto per aver co-fondato Sun Microsystems negli anni '80 e per la lunga carriera nel venture capital. Dopo un periodo a Kleiner Perkins, ha fondato Khosla Ventures nel 2004.
Questa combinazione—esperienza operatoria più decenni di investimento—aiuta a spiegare perché le sue affermazioni su IA e sanità si ripetono ben oltre i circoli tech.
Khosla Ventures ha la reputazione di sostenere scommesse grandi e ad alta convinzione che inizialmente possono sembrare irragionevoli. La società tende a puntare su:
Questo è importante perché previsioni come “l'IA sostituirà i medici” non sono solo retorica: possono influenzare quali startup ricevono fondi, quali prodotti si costruiscono e quali narrative dirigenti e board prendono sul serio.
La sanità è una delle parti più grandi e costose dell'economia, ed è anche piena di segnali da cui l'IA può imparare: immagini, risultati di laboratorio, note, dati da sensori e outcome. Anche miglioramenti modesti in accuratezza, velocità o costo possono tradursi in risparmi e guadagni di accesso significativi.
Khosla e il suo fondo hanno ripetutamente sostenuto che la medicina è matura per il cambiamento guidato dal software—soprattutto in aree come triage, supporto diagnostico e automazione dei flussi di lavoro. Che si condivida o meno l'inquadramento «sostituire», la sua posizione conta perché riflette come una fetta importante del capitale di rischio valuta il futuro della medicina—e dove andranno i soldi.
La previsione di Khosla si basa su un'affermazione semplice: una larga parte della medicina—soprattutto la primaria e il triage precoce—è riconoscimento di pattern in condizioni di incertezza. Se la diagnosi e la scelta del trattamento sono, in molti casi, «abbina questa presentazione a ciò che è più probabile», allora il software che può imparare da milioni di esempi dovrebbe infine superare singoli clinici che imparano da migliaia.
Gli esseri umani sono eccellenti a individuare pattern, ma siamo limitati da memoria, attenzione ed esperienza. Un sistema di IA può assimilare molti più casi, linee guida e outcome di quanti ne possa incontrare un singolo medico in una carriera, e applicare quel pattern-matching in modo coerente. Nella visione di Khosla, una volta che il tasso di errore del sistema scende al di sotto della media dei clinici, la scelta razionale per pazienti e pagatori è di instradare le decisioni di routine attraverso la macchina.
L'economia è l'altra forza trainante. La medicina di base è limitata dal tempo, dalla geografia e dalle carenze di personale; le visite possono essere costose, brevi e di qualità variabile. Un servizio di IA può essere disponibile 24/7, scalare verso aree carenti e fornire decisioni più uniformi—riducendo il problema del “dipende da chi hai visto”.
I primi sistemi esperti fallivano perché si basavano su regole scritte a mano e set di dati ristretti. La fattibilità è migliorata quando i dati medici sono stati digitalizzati (EHR, imaging, laboratori, wearables) e la potenza di calcolo ha reso pratico addestrare modelli su grandi corpora e aggiornarli continuamente.
Anche in questa logica, la linea «sostituzione» viene tracciata spesso attorno a diagnosi di routine e gestione guidata da protocolli—non alle parti di medicina centrate sulla fiducia, sui compromessi complessi e sul sostegno dei pazienti in situazioni di paura, ambiguità o decisioni che cambiano la vita.
La frase di Khosla “l'IA sostituirà i medici” è tipicamente pronunciata come previsione provocatoria, non come promessa letterale che gli ospedali diventeranno senza medici. Il tema ricorrente nei suoi interventi è che gran parte della medicina—soprattutto diagnosi e decisioni di trattamento di routine—segue pattern che il software può imparare, misurare e migliorare.
Spesso inquadra il ragionamento clinico come una forma di matching di pattern tra sintomi, anamnesi, immagini, esami e outcome. La tesi centrale è che una volta che un modello di IA raggiunge un certo livello di qualità, può essere distribuito ampiamente e aggiornato continuamente—mentre la formazione dei clinici è lenta, costosa e disomogenea tra regioni.
Una sfumatura chiave è la variabilità: i clinici possono essere eccellenti ma incoerenti per affaticamento, carico di lavoro o esposizione limitata a casi rari. L'IA, al contrario, può offrire prestazioni più stabili e potenzialmente tassi di errore inferiori se testata, monitorata e riqualificata correttamente.
Piuttosto che immaginare l'IA come una sostituzione netta, la versione più forte della sua tesi è: la maggior parte dei pazienti consulterà prima un'IA, e i clinici umani agiranno sempre più come revisori per casi complessi, condizioni limite e decisioni ad alto rischio.
I sostenitori interpretano la sua posizione come un impulso verso risultati misurabili e accesso. I critici osservano che la medicina reale include ambiguità, etica e responsabilità—e che la «sostituzione» dipende tanto da regolamentazione, flussi di lavoro e fiducia quanto dall'accuratezza del modello.
L'affermazione «l'IA sostituirà i medici» si mappa bene sui tipi di startup sanitarie che i VC tendono a finanziare: aziende che possono scalare rapidamente, standardizzare lavoro clinico disordinato e trasformare il giudizio esperto in software.
Molte scommesse che si allineano con questa tesi si raggruppano in alcuni temi ripetibili:
Sostituire (o ridurre) la necessità di clinici è un premio enorme: la spesa sanitaria è massiccia e il lavoro è un centro di costo principale. Questo crea incentivi a presentare timeline audaci—perché la raccolta fondi premia una storia chiara ad alto upside, anche quando l'adozione clinica e la regolamentazione procedono più lentamente del software.
Una soluzione puntuale fa bene un lavoro specifico (es. leggere radiografie del torace). Una piattaforma mira a inserirsi in molti flussi di lavoro—triage, supporto diagnostico, follow-up, fatturazione—usando pipeline di dati e modelli condivisi.
La narrativa «sostituire i medici» dipende più dalle piattaforme: se l'IA vince solo in un compito ristretto, i medici si adattano; se coordina molti compiti end-to-end, il ruolo del clinico può spostarsi verso supervisione, eccezioni e responsabilità.
Per i founder che esplorano queste idee di piattaforma, la velocità conta all'inizio: spesso servono prototipi funzionanti di flussi di intake, dashboard per clinici e tracce di audit prima di poter testare un workflow. Strumenti come Koder.ai possono aiutare i team a costruire app interne (tipicamente React sul front end, Go + PostgreSQL sul back end) da un'interfaccia chat, poi esportare il codice sorgente e iterare rapidamente. Per qualsiasi cosa che tocchi decisioni cliniche, servono comunque validazione appropriata, revisione di sicurezza e strategia regolatoria—ma il prototipo rapido può accorciare il percorso verso un pilot realistico.
L'IA già supera gli umani in fette specifiche di lavoro clinico—soprattutto quando il compito è prevalentemente riconoscimento di pattern, velocità e coerenza. Questo non significa «medico IA» in senso pieno. Significa che l'IA può essere un componente molto forte della cura.
L'IA tende a brillare dove c'è molta informazione ripetitiva e cicli di feedback chiari:
In queste aree, “migliore” spesso significa meno reperti mancati, decisioni più standardizzate e tempi di risposta più rapidi.
La maggior parte dei successi reali oggi proviene dal clinical decision support (CDS): l'IA suggerisce condizioni probabili, segnala alternative pericolose, raccomanda esami successivi o verifica l'aderenza alle linee guida—mentre un clinico resta responsabile.
La diagnosi autonoma (l'IA prende la decisione end-to-end) è fattibile in contesti limitati e ben definiti—come flussi di screening con protocolli rigidi—ma non è lo standard per pazienti complessi con più patologie.
L'accuratezza dell'IA dipende molto dai dati di addestramento che corrispondono alla popolazione e al contesto di cura. I modelli possono degradare quando:
In contesti ad alto rischio, la supervisione non è opzionale—è lo strato di sicurezza per i casi limite, le presentazioni insolite e i giudizi basati sui valori (cosa il paziente è disposto a fare, tollerare o priorizzare). L'IA può essere eccellente nel vedere, ma i clinici devono ancora decidere cosa ciò significa per questa persona, oggi.
L'IA può impressionare nel riconoscere pattern, riassumere cartelle e suggerire diagnosi probabili. Ma la medicina non è solo un compito di previsione. Molte delle parti più difficili accadono quando la «risposta giusta» è incerta, gli obiettivi del paziente confliggono con le linee guida o il sistema intorno alla cura è disordinato.
Le persone non vogliono solo un risultato—vogliono sentirsi ascoltate, credute e al sicuro. Un clinico può notare paura, vergogna, confusione o rischi domestici e aggiustare la conversazione e il piano di conseguenza. La decisione condivisa richiede anche negoziazione dei compromessi (effetti collaterali, costi, stile di vita, supporto familiare) in modo da costruire fiducia nel tempo.
I pazienti reali spesso hanno più condizioni insieme, storie incomplete e sintomi che non si incastrano in un modello pulito. Le malattie rare e le presentazioni atipiche possono somigliare a problemi comuni—fino a quando non lo sono. L'IA può generare suggerimenti plausibili, ma “plausibile” non è la stessa cosa di “clinicamente provato”, specialmente quando il contesto sottile conta (viaggi recenti, nuovi farmaci, fattori sociali, «qualcosa non quadra").
Anche un modello molto accurato a volte fallirà. La domanda difficile è: chi ha la responsabilità? Il clinico che ha seguito lo strumento, l'ospedale che lo ha distribuito o il fornitore che lo ha costruito? La responsabilità chiara influenza quanto cauti devono essere i team—e come i pazienti possono chiedere conto.
La cura avviene dentro flussi di lavoro. Se uno strumento di IA non si integra in modo pulito con EHR, sistemi di ordinazione, documentazione e fatturazione—o se aggiunge click e incertezza—i team impegnati non si affideranno ad esso, per quanto bello sia il demo.
L'IA medica non è solo un problema di ingegneria—è un problema di sicurezza. Quando il software influenza diagnosi o trattamento, i regolatori lo trattano più come un dispositivo medico che come una normale app.
Negli USA, la FDA regola molti strumenti «Software as a Medical Device», specialmente quelli che diagnosticano, raccomandano trattamenti o influenzano direttamente le decisioni di cura. Nell'UE, il marchio CE sotto il Medical Device Regulation svolge ruolo analogo.
Questi quadri richiedono prove che lo strumento sia sicuro ed efficace, chiarezza sull'uso previsto e monitoraggio continuo una volta distribuito. Le regole contano perché un modello che sembra impressionante in demo può comunque fallire nelle cliniche reali, con pazienti reali.
Un rischio etico importante è l'accuratezza disomogenea tra popolazioni (ad esempio, gruppi di età, toni della pelle, lingue o comorbilità). Se i dati di addestramento sottorappresentano certi gruppi, il sistema può sistematicamente mancare diagnosi o sovra-raccomandare interventi per loro. Test di equità, report per sottogruppi e progettazione attenta dei dataset non sono optional: fanno parte della sicurezza di base.
Addestrare e migliorare modelli spesso richiede grandi quantità di dati sanitari sensibili. Ciò solleva questioni su consenso, usi secondari, limiti della de-identificazione e chi beneficia finanziariamente. Una buona governance include informative chiare ai pazienti, controlli stretti sugli accessi e politiche per la conservazione dei dati e gli aggiornamenti dei modelli.
Molti strumenti clinici di IA sono progettati per assistere, non sostituire, mantenendo il clinico responsabile della decisione finale. Questo approccio human-in-the-loop può intercettare errori, fornire il contesto che al modello manca e creare responsabilità—anche se funziona solo se i flussi di lavoro e gli incentivi evitano l'automazione cieca.
La frase di Khosla viene spesso interpretata come «i medici diventeranno obsoleti». Una lettura più utile distingue sostituzione (l'IA esegue un compito end-to-end con input umano minimo) da riallocazione (gli umani mantengono la proprietà degli outcome, ma il lavoro si sposta verso supervisione, empatia e coordinamento).
In molti contesti l'IA probabilmente sostituirà pezzi del lavoro clinico prima: redazione di note, emersione di diagnosi differenziali, controllo dell'aderenza alle linee guida e sintesi della storia del paziente. Il ruolo del clinico si sposta dal generare risposte al revisare, contestualizzare e comunicare.
La medicina di base potrebbe avvertire il cambiamento con un miglior triage «porta d'ingresso»: check sui sintomi e documentazione ambientale riducono il tempo della visita di routine, mentre i casi complessi e basati sulla relazione restano guidati da persone.
Radiologia e patologia potrebbero vedere più sostituzione diretta perché il lavoro è già digitale e basato su pattern. Questo non significa meno specialisti dall'oggi al domani—più probabilmente significa maggiore throughput, nuovi workflow di qualità e pressione sui rimborsi.
L'infermieristica è meno focalizzata sulla diagnosi e più sulla valutazione continua, educazione e coordinamento. L'IA può ridurre l'onere clericale, ma l'assistenza al letto e le decisioni di escalation rimangono centrate sulle persone.
Si prevede crescita in ruoli come supervisore IA (monitoraggio delle prestazioni del modello), informatica clinica (flussi di lavoro + governance dei dati) e coordinatore di cura (chiude i gap segnalati dal modello). Questi ruoli potrebbero sedersi dentro i team esistenti piuttosto che essere titoli separati.
L'educazione medica potrebbe includere alfabetizzazione sull'IA: come convalidare output, documentare l'affidamento e individuare modalità di fallimento. L'accreditamento potrebbe evolvere verso standard human-in-the-loop—chi può usare quali strumenti, sotto quale supervisione e come viene assegnata la responsabilità quando l'IA sbaglia.
La tesi di Khosla è provocatoria perché tratta il «medico» come principalmente un motore diagnostico. Le obiezioni più forti sostengono che anche se l'IA eguaglia i clinici nel riconoscimento di pattern, sostituire i medici è un lavoro diverso.
Una grande parte del valore clinico sta nell'inquadrare il problema, non solo nel rispondere. I medici traducono storie disordinate in opzioni praticabili, negoziano compromessi (rischio, costo, tempo, valori) e coordinano le cure tra specialisti. Gestiscono anche il consenso, l'incertezza e l'«osservazione vigile»—aree dove fiducia e responsabilità contano tanto quanto l'accuratezza.
Molti sistemi IA sembrano impressionanti in studi retrospettivi, ma questo non equivale a migliorare gli outcome reali. La prova più difficile è prospettica: l'IA riduce davvero diagnosi mancati, complicanze o test inutili attraverso ospedali, gruppi di pazienti e flussi di lavoro diversi?
La generalizzazione è un altro punto debole. I modelli possono degradare quando la popolazione cambia, quando l'apparecchiatura è diversa o quando cambiano le abitudini di documentazione. Un sistema che funziona bene in un sito può vacillare altrove—specialmente per condizioni più rare.
Anche strumenti forti possono creare nuovi modi di fallire. I clinici possono deferire al modello quando sbaglia (bias da automazione) o smettere di porre la seconda domanda che cattura i casi limite. Col tempo le competenze possono atrofizzarsi se gli umani diventano «timbri di gomma», rendendo più difficile intervenire quando l'IA è incerta o scorretta.
La sanità non è un mercato puramente tecnologico. Responsabilità, rimborso, cicli di approvvigionamento, integrazione con EHR e formazione clinica rallentano la diffusione. Pazienti e regolatori possono anche esigere un decisore umano per scelte ad alto rischio—il che significa che «IA ovunque» potrebbe ancora assomigliare a «IA supervisionata da medici» per molto tempo.
L'IA è già presente nella sanità in modi discreti—punteggi di rischio nella tua cartella, referti automatizzati, checker dei sintomi e strumenti che danno priorità a chi deve essere visto. Per i pazienti, l'obiettivo non è «fidarsi dell'IA» o «rifiutarla», ma sapere cosa aspettarsi e come mantenere il controllo.
Probabilmente vedrai più screening (messaggi, questionari, dati da wearables) e triage più veloce—soprattutto in cliniche affollate e PS. Questo può significare risposte più rapide per problemi comuni e individuazione precoce per alcune condizioni.
La qualità sarà mista. Alcuni strumenti sono eccellenti in compiti ristretti; altri possono essere incoerenti tra gruppi di età, toni della pelle, malattie rare o dati reali disordinati. Considera l'IA come un aiuto, non come una sentenza definitiva.
Se uno strumento di IA influenza la tua cura, chiedi:
Molti output sono probabilità («20% di rischio») più che certezze. Chiedi cosa significa quel numero per te: cosa succede a diversi livelli di rischio e qual è il tasso di falsi allarmi.
Se la raccomandazione è ad alto impatto (chirurgia, chemioterapia, sospensione di un farmaco), richiedi un secondo parere—umano e/o di un altro strumento. È ragionevole domandare: «Cosa farebbe se questo risultato dell'IA non esistesse?»
Ti dovrebbe essere detto quando il software influenza in modo significativo le decisioni. Se sei a disagio, chiedi alternative, come vengono memorizzati i tuoi dati e se rinunciare cambia l'accesso alle cure.
L'IA in sanità è più facile da adottare quando la si tratta come qualsiasi altro strumento clinico: definisci il caso d'uso, testalo, monitoralo e rendi evidente la responsabilità.
Prima di usare l'IA per diagnosi, usala per ridurre attriti quotidiani. I primi successi più sicuri sono flussi che migliorano il throughput senza prendere decisioni mediche:
Queste aree spesso danno risparmi di tempo misurabili e aiutano i team a costruire fiducia nel change management. Se il tuo team ha bisogno di strumenti interni leggeri per supportare questi flussi—moduli di intake, dashboard di instradamento, log di audit—il rapid app-building può valere quanto la qualità del modello. Piattaforme come Koder.ai sono pensate per team che vogliono «vibe-coding»: descrivi l'app in chat, iteri rapidamente ed esporti il codice sorgente quando sei pronto per metterla in produzione. Nei contesti clinici, considera questo come modo per accelerare software operativo e pilot, mantenendo comunque il lavoro di sicurezza, conformità e validazione.
Per qualsiasi sistema IA che tocchi la cura del paziente—anche indirettamente—richiedi evidenze e controlli operativi:
Se un fornitore non può spiegare come il modello è stato valutato, aggiornato e controllato, consideralo un segnale di rischio.
Rendi «come usiamo questo» chiaro quanto «cosa fa». Fornisci formazione ai clinici che includa i modi comuni di fallimento e stabilisci percorsi espliciti di escalation (quando ignorare l'IA, quando chiedere a un collega, quando riferire, quando inviare al PS). Assegna un proprietario per le revisioni delle prestazioni e la segnalazione degli incidenti.
Se vuoi aiuto per selezionare, pilotare o governare strumenti, aggiungi un percorso interno per stakeholder che richiedono supporto tramite il percorso /contact (o /pricing se pacchetti servizi di deployment).
Le previsioni sull'IA che «sostituisce i medici» falliscono quando trattano la medicina come un unico lavoro con un solo traguardo. Una visione più realistica è che il cambiamento arriverà in modo disomogeneo—per specialità, contesto e compito—and sarà accelerato quando incentivi e regole si allineeranno.
A breve, i guadagni maggiori saranno «workflow wins»: miglior triage, documentazione più chiara, prior auth più rapidi e supporto decisionale che riduce errori evidenti. Questi possono ampliare l'accesso senza costringere i pazienti a fidarsi esclusivamente di una macchina.
A lungo termine, vedrai spostamenti graduali su chi fa cosa—soprattutto in cure standardizzate e ad alto volume dove i dati sono abbondanti e gli outcome misurabili.
La sostituzione raramente significa che i medici spariscono. Potrebbe apparire così:
Il giudizio equilibrato: i progressi saranno reali e talvolta sorprendenti, ma la medicina non è solo riconoscimento di pattern. Fiducia, contesto e cura centrata sul paziente manterranno gli umani al centro—anche se il set di strumenti cambia.
Khosla generalmente intende che l'IA sostituirà una grande parte delle attività cliniche quotidiane, in particolare il lavoro ricco di informazioni come il triage, il controllo delle linee guida, la classificazione delle diagnosi più probabili e il monitoraggio delle condizioni croniche.
È meno «nessun essere umano negli ospedali» e più «il software diventa il primo passaggio predefinito per decisioni di routine».
Nei termini di questo articolo:
Nella pratica a breve termine la maggior parte delle implementazioni reali somigliano ad aumenti (augmentation), mentre la sostituzione è limitata a flussi di lavoro ristretti e ben definiti.
La logica centrale è la riconoscenza di pattern su scala: molti giudizi clinici (soprattutto triage precoce e diagnosi di routine) assomigliano ad abbinare sintomi, anamnesi, esami di laboratorio e immagini a condizioni probabili.
L'IA può addestrarsi su molti più casi di quanti ne veda un singolo clinico e applicare quell'apprendimento in modo coerente, potenzialmente abbassando il tasso di errore medio nel tempo.
I venture capitalist seguono Khosla perché la sua visione può influenzare:
Anche se non si è d'accordo con l'inquadramento, può plasmare i flussi di capitale e le priorità di adozione.
La sanità è costosa e intensiva in termini di personale e genera molti dati (note EHR, esami di laboratorio, immagini, dati da sensori). Questa combinazione la rende appetibile per scommesse sull'IA, dove anche piccoli miglioramenti possono produrre grandi risparmi.
Inoltre ci sono problemi di accesso (carenze, distanza), per cui servizi software 24/7 possono risultare convincenti.
L'IA è più forte dove il lavoro è ripetitivo e misurabile, come:
Si tratta di vittorie «a componente» che riducono il carico clinico senza automatizzare completamente la cura.
I limiti principali includono:
Un'elevata accuratezza in demo non si traduce automaticamente in prestazioni sicure e affidabili in clinica.
Molti strumenti che influenzano diagnosi o trattamento sono regolamentati come Software as a Medical Device:
Il monitoraggio continuo è essenziale perché i modelli possono degradare quando cambiano popolazione, apparecchiature o abitudini di documentazione.
Il bias si verifica quando i dati di addestramento sottorappresentano certi gruppi o contesti, portando a prestazioni disomogenee per età, tono della pelle, lingua, comorbilità o geografia.
Mitigazioni pratiche includono convalida per sottogruppi, reportistica per popolazione e monitoraggio post-deployment: la correttezza non è un'opzione secondaria ma parte della sicurezza di base.
Punta alla trasparenza e al controllo centrati sul paziente:
Una domanda utile è: «Cosa farebbe se questo risultato dell'IA non esistesse?»