Una biografia chiara di Demis Hassabis — dal mondo dei giochi e delle neuroscienze a DeepMind, AlphaGo e AlphaFold — e ciò che insegna sull’AI moderna.

Demis Hassabis è uno scienziato e imprenditore britannico noto soprattutto come co-fondatore di DeepMind, il laboratorio di ricerca dietro AlphaGo e AlphaFold. Il suo lavoro conta perché ha contribuito a spostare l’AI da “demo interessanti” a sistemi che possono superare i migliori esperti umani in compiti specifici e ad alto impatto — e quindi riutilizzare quelle idee in domini molto diversi.
Quando si dice che Hassabis ha aiutato a rendere l’AI “competitiva con gli umani”, di solito si intende la prestazione sul compito: un’AI può eguagliare o superare gli umani in un obiettivo ben definito, come vincere un gioco complesso o prevedere strutture proteiche. Questo non è lo stesso della intelligenza generale.
AlphaGo non capiva il mondo come fanno le persone; ha imparato a giocare a Go estremamente bene. AlphaFold non “fa biologia”; predice forme 3D delle proteine a partire dalle sequenze con notevole accuratezza. Questi sistemi sono ristretti, ma il loro impatto è ampio perché mostrano come i metodi basati sull’apprendimento possono affrontare problemi che un tempo si pensava richiedessero un’intuizione unicamente umana.
Altri successi sono centrali per capire perché Hassabis è visto come una figura determinante:
Non è una storia da eroe né un pezzo di hype. Ci atteniamo ai fatti chiari, aggiungiamo contesto perché le scoperte abbiano senso e ricaviamo insegnamenti pratici — come pensare ai sistemi di apprendimento, cosa significa davvero “livello umano” e perché le discussioni su etica e sicurezza seguono naturalmente quando l’AI comincia a performare ai livelli degli esperti.
Il percorso di Demis Hassabis nell’AI non è iniziato con teoria astratta. È iniziato con i giochi — mondi strutturati dove puoi testare idee, sbagliare in sicurezza e ottenere feedback immediati.
Da bambino eccelleva negli scacchi e in altri giochi strategici, sviluppando una familiarità precoce con la pianificazione a lungo termine: non scegli solo una “buona mossa”, scegli una mossa che influenza il gioco per diversi passi a venire. Questa abitudine — pensare in sequenze, non in singole azioni — corrisponde strettamente a come i moderni sistemi di AI imparano a prendere decisioni nel tempo.
I giochi competitivi impongono una disciplina particolare:
Queste sono abilità pratiche, non slogan. Un buon giocatore si chiede continuamente: Quali opzioni sono disponibili? Cosa farà probabilmente l’avversario? Qual è il costo dell’errore?
Hassabis ha anche passato tempo a creare giochi, non solo a giocarli. Lavorare nello sviluppo di giochi significa gestire molte parti interagenti: regole, incentivi, limiti di tempo, curve di difficoltà e come piccoli cambiamenti si ripercuotono sull’esperienza complessiva.
Questo è il “pensiero sistemico” in senso concreto — trattare la prestazione come risultato di un intero insieme, non di un singolo espediente. Il comportamento di un gioco emerge da come i suoi componenti si incastrano tra loro. Più tardi, lo stesso approccio ricompare nella ricerca AI: i progressi spesso dipendono dalla giusta combinazione di dati, metodo di addestramento, potenza di calcolo, valutazione e obiettivi chiari.
Questi fondamenti — gioco strategico e costruzione di ambienti complessi basati su regole — aiutano a spiegare perché il suo lavoro successivo ha enfatizzato l’apprendimento attraverso interazione e feedback, invece di affidarsi solo a istruzioni codificate a mano.
Hassabis non ha considerato le neuroscienze come una deviazione dall’AI. Le ha viste come un modo per porsi domande migliori: cosa significa apprendere dall’esperienza? Come conservare conoscenza utile senza memorizzare tutto? Come decidere cosa fare quando il futuro è incerto?
In termini semplici, apprendere significa aggiornare il proprio comportamento in base al feedback. Un bambino tocca una tazza calda una volta e diventa più cauto. Un sistema di AI può fare qualcosa di simile: provare azioni, vedere i risultati e adattarsi.
Memoria è conservare informazioni utili per il futuro. Gli umani non registrano la vita come un video; conservano schemi e segnali. Per l’AI, memoria può significare salvare esperienze passate, costruire sommari interni o comprimere informazioni in modo che siano utili in situazioni nuove.
Pianificazione è scegliere azioni immaginando il futuro. Quando scegli un percorso per evitare traffico, immagini possibili esiti. Nell’AI, pianificare spesso significa simulare “cosa succederebbe se…” e selezionare l’opzione che sembra migliore.
Studiare il cervello può suggerire problemi da risolvere — come apprendere efficacemente da pochi dati, o bilanciare reazioni rapide con pensiero deliberato. Ma è importante non esagerare il legame: una rete neurale moderna non è un cervello, e copiare la biologia non è l’obiettivo.
Il valore è pragmatico. Le neuroscienze offrono indizi sulle capacità che l’intelligenza richiede (generalizzazione, adattamento, ragionamento sotto incertezza), mentre l’informatica trasforma quegli indizi in metodi verificabili.
Il background di Hassabis mostra come mescolare campi possa creare leva. Le neuroscienze stimolano curiosità sull’intelligenza naturale; la ricerca AI richiede la costruzione di sistemi misurabili, migliorabili e comparabili. Insieme spingono i ricercatori a collegare idee grandi — come ragionamento e memoria — a esperimenti concreti che funzionano davvero.
DeepMind è nata con un obiettivo chiaro e insolito: non costruire una singola app brillante, ma creare sistemi di apprendimento generali — software che può imparare a risolvere molti problemi migliorando dall’esperienza.
Quell’ambizione ha plasmato tutto l’assetto dell’azienda. Invece di chiedersi “Quale funzione possiamo lanciare il mese prossimo?”, la domanda iniziale era più simile a “Che tipo di macchina di apprendimento potrebbe continuare a migliorare, anche in situazioni mai viste prima?”.
DeepMind era organizzata più come un laboratorio accademico che come una tipica startup software. L’output non era solo prodotti, ma anche risultati di ricerca, esperimenti e metodi testabili e confrontabili.
Una tipica azienda software spesso ottimizza per il rilascio: storie utente, iterazioni rapide, obiettivi di fatturato e miglioramenti incrementali.
DeepMind ottimizzava per la scoperta: tempo per esperimenti che potevano fallire, immersioni profonde in problemi difficili e team costruiti attorno a domande a lungo termine. Questo non significa che ignorasse la qualità ingegneristica — significa che l’ingegneria serviva il progresso della ricerca, non il contrario.
Le grandi scommesse possono diventare vaghe a meno che non siano ancorate a obiettivi misurabili. DeepMind aveva l’abitudine di scegliere benchmark pubblici, difficili e facili da valutare — specialmente giochi e simulazioni dove il successo è inequivocabile.
Questo creava un ritmo di ricerca pratico:
Con l’aumentare dell’attenzione, DeepMind è entrata in un ecosistema più ampio. Nel 2014, Google ha acquisito DeepMind, fornendo risorse e scala di calcolo difficili da ottenere indipendentemente.
Importante: la cultura fondante — alta ambizione abbinata a misurazione rigorosa — è rimasta centrale. L’identità iniziale di DeepMind non era “un’azienda che fa strumenti AI”, ma “un luogo che cerca di capire come costruire l’apprendimento stesso”.
Il reinforcement learning è un modo per un’AI di imparare facendo, non venendo mostrata la “risposta giusta” per ogni situazione.
Immagina di insegnare a qualcuno a tirare liberi a basket. Non gli dai un foglio con l’angolo perfetto per ogni tiro. Lo lasci provare, guardi il risultato e dai feedback semplici: “Quello era più vicino”, “Quello è andato molto fuori”, “Fai di più quello che ha funzionato”. Col tempo, si adattano.
Il reinforcement learning funziona in modo simile. L’AI compie un’azione, vede cosa succede e riceve un punteggio (una “ricompensa”) che segnala quanto fosse buono l’esito. L’obiettivo è scegliere azioni che portino a una ricompensa totale più alta nel tempo.
L’idea chiave è prova ed errore + feedback. Questo sembra lento — fino a quando realizzi che le prove possono essere automatizzate.
Una persona può praticare 200 tiri in un pomeriggio. Un’AI può praticare milioni di “tiri” in un ambiente simulato, imparando schemi che richiederebbero anni agli umani per emergere. Per questo il reinforcement learning è diventato centrale nell’AI che gioca: i giochi hanno regole chiare, feedback veloce e un modo oggettivo di valutare il successo.
Molti sistemi AI necessitano di dati etichettati (esempi con risposte corrette). Il reinforcement learning può ridurre questa dipendenza generando la propria esperienza.
Con la simulazione, l’AI si allena in un “campo di pratica” sicuro e veloce. Con la self-play, gioca contro copie di sé stessa, incontrando costantemente un avversario più difficile man mano che migliora. Invece di contare sugli umani per etichettare esempi, l’AI crea un curriculum di addestramento competendo e iterando.
Il reinforcement learning non è una bacchetta magica. Spesso richiede enormi quantità di esperienza (dati), calcolo costoso e valutazioni attente — un’AI può “vincere” in allenamento ma fallire in condizioni leggermente diverse.
Ci sono anche rischi di sicurezza: ottimizzare la ricompensa sbagliata può produrre comportamenti indesiderati, specialmente in contesti ad alto impatto. Impostare correttamente gli obiettivi e i test è tanto importante quanto l’apprendimento stesso.
La partita di AlphaGo nel 2016 contro Lee Sedol fu un punto di svolta culturale perché il Go era considerato una “fortezza finale” per i computer. Gli scacchi sono complicati, ma il Go è travolgente: ci sono molte più posizioni possibili e le buone mosse spesso si basano su influenza a lungo termine e intuizione di pattern più che su tattiche immediate.
Un approccio di forza bruta — cercare di calcolare ogni futuro possibile — si scontra con un’esplosione combinatoria. Anche i buoni giocatori di Go non riescono a spiegare ogni scelta come una sequenza di calcoli netti; molto è giudizio costruito dall’esperienza. Questo rendeva il Go poco adatto alla generazione precedente di programmi che dipendevano principalmente da regole scritte a mano.
AlphaGo non “solo calcolava”, né “solo imparava”. Ha combinato entrambi. Ha usato reti neurali addestrate su partite umane (e poi su self-play) per sviluppare un senso di quali mosse fossero promettenti. Poi ha usato una ricerca mirata per esplorare variazioni, guidata da quelle istanze apprese. Pensalo come accoppiare intuizione (schemi appresi) e deliberazione (guardare avanti), invece di affidarsi a un unico approccio.
La vittoria ha dimostrato che i sistemi di machine learning potevano padroneggiare un dominio che premia creatività, pianificazione a lungo termine e trade-off sottili — senza richiedere agli umani di codificare a mano la strategia del Go.
Non significava che AlphaGo avesse intelligenza generale. Non poteva trasferire la sua abilità a problemi non correlati, spiegare il suo ragionamento come farebbe una persona né comprendere il Go come pratica culturale umana. Era straordinario in un compito.
L’interesse pubblico è esploso, ma l’impatto più profondo è stato nella ricerca. La partita ha convalidato una strada: combinare apprendimento su larga scala, auto-miglioramento tramite pratica e ricerca come ricetta pratica per raggiungere (e superare) prestazioni umane d’élite in ambienti complessi.
Una vittoria di copertina può far sembrare l’AI “risolta”, ma la maggior parte dei sistemi che brillano in un contesto falliscono quando le regole cambiano. La storia più significativa dopo una svolta è lo spostamento da una soluzione su misura e ristretta verso metodi che generalizzano.
In AI, generalizzare significa saper performare bene in nuove situazioni non viste durante l’addestramento. È la differenza tra memorizzare per un esame e comprendere davvero la materia.
Un sistema che vince solo in un insieme fisso di condizioni — stesse regole, stessi avversari, stesso ambiente — può essere molto fragile. La generalizzazione chiede: se cambiamo i vincoli, può adattarsi senza ricominciare da capo?
I ricercatori cercano approcci che possano trasferirsi tra compiti, invece di costruire un “trucco” separato per ciascuno. Esempi pratici:
L’importante non è che un modello faccia tutto subito. È che i progressi siano misurati da quanto della soluzione è riutilizzabile.
I benchmark sono i “test standard” dell’AI: permettono ai team di confrontare risultati, tracciare miglioramenti e identificare cosa funziona. Sono essenziali per il progresso scientifico.
Ma i benchmark possono fuorviare quando diventano l’obiettivo invece che lo strumento di misura. I modelli possono “overfittare” alle stranezze del benchmark o vincere sfruttando scappatoie che non riflettono una vera comprensione.
“Livello umano” di solito significa eguagliare gli umani su una metrica specifica in un contesto definito — non avere la flessibilità, il giudizio o il senso comune umano. Un sistema può superare esperti in regole ristrette e poi vacillare appena l’ambiente cambia.
Il vero insegnamento dopo una vittoria celebre è la disciplina di ricerca che segue: testare su varianti più dure, misurare il trasferimento e dimostrare che il metodo scala oltre un singolo caso.
Le proteine sono le piccole “macchine” dentro gli esseri viventi. Iniziano come catene lunghe di mattoni (amminoacidi) e poi la catena si piega e si ripiega in una forma 3D specifica — come un foglio di carta che diventa un origami.
Quella forma finale è importante perché determina ciò che la proteina può fare: trasportare ossigeno, combattere infezioni, inviare segnali o costruire tessuti. La sfida è che una catena proteica può assumere un numero astronomico di configurazioni e la forma corretta è difficile da dedurre solo dalla sequenza. Per decenni, gli scienziati hanno spesso dovuto usare metodi di laboratorio lenti e costosi per determinarne la struttura.
Conoscere la struttura di una proteina è come avere una mappa dettagliata invece di un semplice nome di strada. Aiuta i ricercatori a:
Questo conta anche quando non si traduce immediatamente in un prodotto: migliora le basi su cui molte ricerche successive si appoggiano.
AlphaFold ha dimostrato che il machine learning può prevedere molte strutture proteiche con precisione sorprendente, spesso vicino a ciò che i metodi di laboratorio rivelerebbero. Il suo contributo chiave non è “risolvere la biologia”, ma rendere le ipotesi strutturali molto più affidabili e accessibili — trasformando un grosso collo di bottiglia in qualcosa che i ricercatori possono affrontare prima in un progetto.
È importante separare l’accelerazione scientifica dai medicinali pronti all’uso. Predire una struttura non è la stessa cosa che produrre un farmaco sicuro. Lo sviluppo di farmaci richiede ancora convalide dei target, test delle molecole, comprensione degli effetti collaterali e trial clinici. L’impatto di AlphaFold è meglio descritto come abilitare e velocizzare la ricerca — fornendo punti di partenza migliori — piuttosto che consegnare immediatamente cure.
Il lavoro di Hassabis viene spesso raccontato attraverso momenti da copertina come AlphaGo o AlphaFold, ma la lezione più trasferibile è come DeepMind ha orientato i suoi sforzi: un loop serrato di obiettivi chiari, progressi misurabili e iterazione incessante.
I progetti AI di rottura a DeepMind solitamente partono da un obiettivo nitido (“risolvi questa classe di problemi”) e da uno scoreboard onesto. Quel cruscotto è importante perché impedisce ai team di scambiare demo impressionanti per capacità reali.
Una volta fissata la valutazione, il lavoro diventa iterativo: costruire, testare, capire cosa è fallito, adattare l’approccio, ripetere. Solo quando il ciclo funziona si scala — più dati, più calcolo, più tempo di addestramento e spesso un modello più grande e meglio progettato. Scalare troppo presto semplicemente accelera la confusione.
Molti sistemi precedenti si affidavano a regole esplicite scritte dalle persone (“se X, allora Y”). I successi di DeepMind evidenziano il vantaggio delle rappresentazioni apprese: il sistema scopre schemi e astrazioni utili direttamente dall’esperienza.
Questo conta perché i problemi reali hanno casi limite disordinati. Le regole tendono a rompersi con l’aumentare della complessità, mentre le rappresentazioni apprese possono generalizzare — soprattutto se abbinate a segnali di addestramento forti e valutazioni accurate.
Un tratto distintivo dello stile DeepMind è il lavoro interdisciplinare. La teoria guida ciò che potrebbe funzionare, l’ingegneria permette di addestrare su scala e l’esperimento mantiene tutti con i piedi per terra. La cultura di ricerca premia le prove: quando i risultati contraddicono l’intuizione, il team segue i dati.
Se applichi l’AI in un prodotto, il takeaway è meno “copia il modello” e più “copia il metodo”:
Se l’obiettivo è trasformare questi principi in uno strumento interno rapidamente (senza ricostruire prima tutta la pipeline ingegneristica), una piattaforma vibe-coding come Koder.ai può aiutare a prototipare e lanciare più velocemente: puoi descrivere l’app in chat, generare un UI React, aggiungere un backend Go con PostgreSQL e iterare con Planning Mode, snapshot e rollback. Per i team, l’export del codice sorgente e le opzioni di deployment/hosting facilitano il passaggio da “prototipo funzionante” a “codice di proprietà” senza rimanere intrappolati in una demo.
Demis Hassabis è uno scienziato e imprenditore britannico che ha co-fondato DeepMind. È strettamente legato a innovazioni come AlphaGo (gioco) e AlphaFold (predizione delle strutture proteiche), che hanno dimostrato come sistemi basati sull’apprendimento possano raggiungere o superare le prestazioni di esperti umani in compiti specifici e ben definiti.
Di solito significa prestazioni su un compito specifico valutato con metriche (per esempio vincere partite di Go o prevedere strutture proteiche con precisione).
Non significa che il sistema abbia buon senso generale, che possa trasferire facilmente abilità tra domini diversi, o che “capisca” il mondo come fanno gli esseri umani.
DeepMind è stata creata come laboratorio di ricerca prima di tutto, concentrato sul progresso a lungo termine di sistemi di apprendimento generale piuttosto che sul lancio di una singola app.
Praticamente, questo ha comportato:
Il reinforcement learning (RL) è l’apprendimento per tentativi ed errori usando un segnale di ricompensa. Invece di mostrare la risposta corretta per ogni situazione, il sistema compie azioni, osserva i risultati e aggiorna il comportamento per migliorare la ricompensa a lungo termine.
È particolarmente utile quando:
Self-play significa che il sistema si allena giocando contro copie di sé stesso, generando esperienza di addestramento senza bisogno di etichette umane.
Questo aiuta perché:
Go presenta un numero enorme di posizioni possibili, rendendo impraticabile un approccio di forza bruta. AlphaGo ha avuto successo combinando:
Questa combinazione ha dimostrato una ricetta pratica per prestazioni di alto livello in ambienti decisionali complessi, senza codificare a mano la strategia del gioco.
La generalizzazione è la capacità di comportarsi bene in nuove condizioni su cui non si è stati addestrati: cambi di regole, nuovi scenari, distribuzioni diverse.
Un modo pratico per testarla è:
I benchmark forniscono un punteggio condiviso, ma i modelli possono adattarsi alle peculiarità del test.
Per evitare di essere fuorviati:
Tratta i benchmark come misurazione, non come obiettivo finale.
AlphaFold predice la forma 3D di una proteina a partire dalla sua sequenza di amminoacidi con elevata accuratezza per molte proteine.
Questo è rilevante perché la struttura aiuta i ricercatori a:
Accelera la ricerca, ma non produce automaticamente medicinali pronti: lo sviluppo di farmaci richiede ancora convalide estensive e trial clinici.
Inizia copiando il metodo, non il modello di punta:
Se il sistema ha grande impatto, aggiungi test strutturati (red-teaming), confini d’uso chiari e rollout graduali.