Volg Eric Schmidt’s transitie van het vormgeven van Google Search naar het beïnvloeden van nationale AI-strategie: adviesrollen, kernideeën en beleidsdebatten.

Eric Schmidt wordt vaak voorgesteld als de voormalige CEO van Google — maar zijn relevantie vandaag gaat minder over zoekvakken en meer over hoe overheden nadenken over kunstmatige intelligentie. Dit artikel heeft tot doel die verschuiving uit te leggen: hoe een tech-executive die hielp een van de grootste internetbedrijven op te schalen, een prominente stem werd in nationale AI-prioriteiten, publieke rapporten en de praktische kant van het omzetten van innovatie naar staatscapaciteit.
Een nationale AI-strategie is het plan van een land voor hoe het AI zal ontwikkelen, toepassen en reguleren op een manier die publieke doelen dient. Meestal behandelt het financiering voor onderzoek, ondersteuning van startups en adoptie door de industrie, regels voor verantwoord gebruik, plannen voor personeel en onderwijs, en hoe overheidsinstanties AI-systemen zullen aanschaffen en inzetten.
Het omvat ook de “harde” vragen: hoe kritieke infrastructuur te beschermen, hoe gevoelige data te beheren, en hoe te reageren wanneer dezelfde AI-instrumenten zowel civiele voordelen als militaire voordelen kunnen bieden.
Schmidt is relevant omdat hij op het snijvlak zit van vier debatten die beleidskeuzes vormen:
Dit is geen biografie of een scorelijst van elke opvatting die Schmidt heeft geuit. De focus ligt op zijn publieke rollen (zoals advieswerk en veelgerapporteerde initiatieven) en wat die mijlpalen onthullen over hoe AI-beïnvloeding werkt — via rapporten, financieringsprioriteiten, inkoopideeën en de vertaling van technische realiteit naar overheidsactie.
Eric Schmidt’s publieke profiel wordt vaak gekoppeld aan Google, maar zijn weg naar tech-leiderschap begon lang voordat zoeken een dagelijks gebruik werd.
Schmidt is opgeleid als computerwetenschapper en begon zijn carrière in rollen die techniek en management combineerden. In de loop van de tijd ging hij naar hogere posities bij grote technologiebedrijven, waaronder Sun Microsystems en later Novell. Die banen waren belangrijk omdat ze een bepaald soort leiderschap leerden: hoe complexe organisaties te runnen, producten op wereldschaal uit te brengen en technologische beslissingen te nemen onder druk van markten, concurrenten en regulering.
Toen Schmidt in 2001 bij Google kwam als CEO, stond het bedrijf nog in de kinderschoenen — snelgroeiend, missiegedreven, en geleid door oprichters die een ervaren bestuurder wilden om de operatie te professionaliseren. Zijn taak was niet zozeer het “uitvinden van zoeken” als wel het bouwen van de structuur die innovatie betrouwbaar herhaalbaar maakte: heldere besluitvorming, sterkere aannamepijplijnen en operationele ritmes die de hypergroei konden bijhouden.
Googles groeiperiode ging niet alleen over betere resultaten; het ging over het verwerken van enorme aantallen queries, webpagina's en advertentiebeslissingen — consistent en snel. “Zoeken op schaal” riep ook vertrouwensvragen op die verder gaan dan techniek: hoe gebruikersdata wordt behandeld, hoe rangschikkingsbeslissingen bepalen wat mensen zien, en hoe een platform reageert wanneer fouten publiek worden.
Gedurende die periode springen een paar patronen in het oog: een voorkeur voor het aannemen van sterke technische talenten, nadruk op focus (prioriteren wat belangrijk is), en systeemdenken — producten, infrastructuur en beleidsbeperkingen behandelen als onderdelen van één besturingssysteem. Die gewoonten helpen verklaren waarom Schmidt later naar nationale technologievraagstukken trok, waar coördinatie en afwegingen net zo belangrijk zijn als uitvinding.
Zoeken lijkt eenvoudig — typ een query, krijg antwoorden — maar het systeem erachter is een gedisciplineerde lus van informatie verzamelen, aannames testen en gebruikersvertrouwen verdienen op schaal.
Op hoofdlijnen heeft zoeken drie taken.
Allereerst crawlen: geautomatiseerde programma's ontdekken pagina's door links te volgen en sites te herbezoeken om veranderingen te detecteren.
Ten tweede indexering en ranking: het systeem organiseert wat het vond en ordent de resultaten met signalen die kwaliteit en bruikbaarheid inschatten.
Ten derde relevantie: rangschikken is niet “de beste pagina op internet”, maar “de beste pagina voor deze persoon, voor deze zoekopdracht, op dit moment.” Dat betekent intentie, taal en context interpreteren — niet alleen trefwoorden matchen.
Het search-tijdperk bevestigde een praktische waarheid: goede uitkomsten komen meestal voort uit meting, iteratie en schaalbestendige infrastructuur.
Searchteams leefden op data — klikpatronen, query-herschikkingen, paginaprestaties, spamrapporten — omdat die tonen of veranderingen werkelijk hielpen. Kleine aanpassingen aan de ranking werden vaak geëvalueerd via gecontroleerde experimenten (zoals A/B-tests) om niet op buikgevoel te hoeven vertrouwen.
Zonder infrastructuur werkt dat niet. Massieve gedistribueerde systemen, lage-latentie serving, monitoring en snelle rollback-procedures maakten van “nieuwe ideeën” veilige releases. Het vermogen om veel experimenten te draaien en snel te leren werd een concurrentievoordeel.
Diezelfde thema's passen goed op modern AI-beleid:
Belangrijker nog: systemen naar gebruikers vallen of staan met vertrouwen. Als resultaten gemanipuleerd, onveilig of consequent fout lijken, verdwijnt adoptie en legitimiteit — een inzicht dat nog scherper geldt voor AI-systemen die antwoorden genereren, niet slechts links.
Wanneer AI als nationale prioriteit wordt behandeld, verschuift het gesprek van “Wat moet dit product doen?” naar “Wat kan deze capaciteit voor de samenleving, economie en veiligheid betekenen?” Dat is een ander soort besluitvorming. De inzet wordt groter: de winnaars en verliezers zijn niet alleen bedrijven en klanten, maar industrieën, instellingen en soms landen.
Productkeuzes optimaliseren gewoonlijk voor gebruikerswaarde, inkomsten en reputatie. Nationale-prioriteit AI dwingt afwegingen tussen snelheid en voorzichtigheid, openheid en controle, en innovatie en veerkracht. Beslissingen over modeltoegang, datadeling en uitrolschema's kunnen desinformatie, arbeidsverstoring en defensieve paraatheid beïnvloeden.
Overheden geven om AI om dezelfde reden als om elektriciteit, luchtvaart en het internet: het kan de nationale productiviteit verhogen en macht hervormen.
AI-systemen kunnen ook “dual-use” zijn — nuttig in geneeskunde en logistiek, maar ook toepasbaar voor cyberoperaties, surveillance of wapentechniek. Zelfs civiele doorbraken kunnen militaire planning, toeleveringsketens en inlichtingenstromen veranderen.
De meeste geavanceerde AI-capaciteit zit in private bedrijven en topresearchlabs. Overheden hebben toegang nodig tot expertise, compute en implementatie-ervaring; bedrijven hebben duidelijkheid over regels, inkooppaden en aansprakelijkheid nodig.
Maar samenwerking verloopt zelden vlekkeloos. Bedrijven zijn bezorgd over IP, concurrentienadeel en gevraagd worden om handhavingswerk. Overheden vrezen capture, ongelijke verantwoording en afhankelijkheid van een klein aantal leveranciers voor strategische infrastructuur.
Een nationale AI-strategie is meer dan een memo. Het bestrijkt gewoonlijk:
Zodra deze onderdelen als nationale prioriteiten worden behandeld, worden het beleidsinstrumenten — niet slechts zakelijke keuzes.
Eric Schmidt’s impact op AI-strategie gaat minder over het schrijven van wetten en meer over het vormen van het “standaardverhaal” dat beleidsmakers gebruiken wanneer ze handelen. Na zijn leiderschap bij Google werd hij een prominente stem in Amerikaanse AI-advieskringen — vooral als voorzitter van de National Security Commission on Artificial Intelligence (NSCAI) — naast andere bestuurs-, advies- en onderzoeksinspanningen die industrie-expertise aan overheidsprioriteiten koppelen.
Commissies en taskforces werken meestal binnen strakke termijnen, verzamelen input van instanties, academici, bedrijven en het maatschappelijk middenveld. De output is vaak praktisch en makkelijk te delen:
Deze documenten zijn belangrijk omdat ze referentiepunten worden. Stafleden citeren ze, agentschappen spiegelen hun structuur, en journalisten gebruiken ze om uit te leggen waarom een onderwerp aandacht verdient.
Adviesgroepen kunnen geen geld toewijzen, regels uitvaardigen of instanties commanderen. Zij doen voorstellen; gekozen functionarissen en uitvoerende instanties beslissen. Zelfs wanneer een rapport invloedrijk is, concurreert het met begrotingen, politieke beperkingen, juridische bevoegdheden en veranderende nationale prioriteiten.
Dat gezegd hebbende, kan de kloof tussen “ideeën” en “actie” klein zijn wanneer een rapport klaar-om-te-implementeren stappen aanbiedt — vooral rond inkoop, normen of personeelsprogramma's.
Wil je beoordelen of het werk van een adviseur resultaten heeft veranderd, zoek dan naar bewijs boven headlines:
Invloed is meetbaar wanneer ideeën veranderen in herhaalbare beleidsmechanismen — niet alleen memorabele quotes.
Een nationale AI-strategie is geen enkele wet of éénmalig financieringspakket. Het is een set gecoördineerde keuzes over wat te bouwen, wie het mag bouwen en hoe het land weet of het werkt.
Publieke onderzoeksfinanciering helpt doorbraken creëren waarin private markten mogelijk onderinvesteren — vooral werk dat jaren kost, onzekere opbrengsten heeft of zich richt op veiligheid. Een sterke strategie koppelt fundamenteel onderzoek (universiteiten, labs) aan toegepaste programma's (gezondheid, energie, overheidsdiensten) zodat ontdekkingen niet stagneren voordat ze echte gebruikers bereiken.
AI-vooruitgang hangt af van bekwame onderzoekers, ingenieurs en productteams — maar ook van beleidsmedewerkers die systemen kunnen beoordelen en inkoopteams die ze verstandig kunnen aanschaffen. Nationale plannen combineren vaak onderwijs, beroepsopleiding en immigratiepaden, omdat tekorten niet alleen met geld op te lossen zijn.
“Compute” is het rekenvermogen dat gebruikt wordt om AI-modellen te trainen en te draaien — meestal in grote datacenters. Geavanceerde chips (zoals GPUs en gespecialiseerde accelerators) zijn de motoren die dat vermogen leveren.
Dat maakt chips en datacenters vergelijkbaar met netten en havens: niet glamoureus, maar essentieel. Als een land niet genoeg hoogwaardige chips kan bemachtigen — of datacenters niet betrouwbaar kan voorzien van stroom en koeling — zal het moeite hebben om concurrerende modellen te bouwen of grootschalig te implementeren.
Strategie telt pas als AI uitkomsten in prioritaire domeinen verbetert: defensie, inlichtingen, gezondheidszorg, onderwijs en publieke diensten. Dat vereist inkoopregels, cyberbeveiligingsnormen en duidelijke aansprakelijkheid bij falen. Het betekent ook kleinere bedrijven helpen AI te adopteren zodat de voordelen niet beperkt blijven tot enkele giganten.
In de praktijk hebben veel agentschappen snellere manieren nodig om veilig te prototypen en te itereren voordat ze zich vastleggen op meerjarige contracten. Tools zoals Koder.ai (een vibe-coding-platform dat web-, backend- en mobiele apps bouwt vanuit chat, met een planningsmodus plus snapshots en rollback) illustreren de richting waarin inkoop beweegt: kortere feedbackloops, duidelijkere documentatie van veranderingen en meetbaardere pilots.
Meer data kan AI verbeteren, maar “alles verzamelen” brengt echte risico's met zich mee: surveillance, datalekken en discriminatie. Praktische strategieën gebruiken gerichte datadeling, privacy-preserving methoden en duidelijke grenzen — vooral in gevoelige domeinen — in plaats van privacy als irrelevant of absoluut te behandelen.
Zonder meting worden strategieën slogans. Overheden kunnen eisen stellen voor gemeenschappelijke benchmarks voor prestaties, red-team tests voor veiligheid, onafhankelijke audits voor risicovolle toepassingen en doorlopende evaluatie na uitrol — zodat succes zichtbaar is en problemen vroeg worden opgemerkt.
Defensie- en inlichtingendiensten geven om AI om een eenvoudige reden: het kan de snelheid en kwaliteit van beslissingen veranderen. Modellen kunnen satellietbeelden sneller doorzoeken, onderschepte communicatie vertalen, cyberanomalieën opsporen en analisten helpen zwakke signalen te verbinden over grote datasets. Goed gebruikt betekent dat eerder waarschuwen, betere inzet van schaarse middelen en minder mensuren aan repetitief werk nodig zijn.
Veel van de meest waardevolle AI-capaciteiten zijn ook het makkelijkst te misbruiken. Algemeen inzetbare modellen die code schrijven, taken plannen of overtuigende tekst genereren, kunnen legitieme missies ondersteunen — zoals het automatiseren van rapporten of het versnellen van het ontdekken van kwetsbaarheden — maar ze kunnen ook:
De nationale veiligheidsuitdaging gaat minder over één “gewapende AI” en meer over breed beschikbare tools die zowel verdediging als aanval upgraden.
Overheden vinden het lastig om snel bewegende AI te adopteren omdat traditionele inkoop stabiele eisen, lange testcycli en duidelijke aansprakelijkheid verwacht. Bij modellen die vaak worden geüpdatet, moeten agentschappen manieren vinden om te verifiëren wat ze kopen (claims over trainingsdata, prestatielimieten, beveiligingspositie) en wie verantwoordelijk is als er iets misgaat — leverancier, integrator of agentschap.
Een werkbare aanpak combineert innovatie met afdwingbare checks:
Goed uitgevoerd vertragen waarborgen niet alles. Ze richten controle juist op de plekken waar de inzet het grootst is — inlichtingenanalyse, cyberverdediging en systemen die samenhangen met levensbedreigende beslissingen.
Geopolitiek vormt AI-strategie omdat de meest capabele systemen afhangen van ingrediënten waar je op kunt concurreren: topresearchtalent, grootschalige compute, datakwaliteit en bedrijven die het kunnen integreren. In dat licht wordt de dynamiek VS–China vaak als een “race” omschreven, maar die framing kan een belangrijk onderscheid verbergen: racen om capaciteit is niet hetzelfde als racen om veiligheid en stabiliteit.
Een loutere capaciteitenrace beloont snelheid — eerst uitrollen, het snelst opschalen, de meeste gebruikers vangen. Een veiligheids- en stabiliteitsbenadering beloont terughoudendheid — testen, monitoren en gedeelde regels die ongevallen en misbruik verminderen.
De meeste beleidsmakers proberen beide in balans te houden. De afweging is reëel: strengere waarborgen kunnen uitrol vertragen, maar falen om in veiligheid te investeren kan systemische risico's creëren en publiek vertrouwen ondermijnen, wat de vooruitgang ook vertraagt.
Competitie gaat niet alleen over “wie het beste model heeft.” Het gaat ook over of een land consequent onderzoekers, ingenieurs en productbouwers kan voortbrengen en aantrekken.
In de VS versterken toonaangevende universiteiten, venture-financiering en een dicht netwerk van labs en startups het onderzoeksecosysteem. Tegelijk raakt AI-capaciteit steeds meer geconcentreerd in een klein aantal bedrijven met de compute-budgetten en data-toegang om grensverleggende modellen te trainen. Die concentratie kan doorbraken versnellen, maar ook concurrentie beperken, academische openheid belemmeren en overheidsbetrekkingen ingewikkelder maken.
Exportcontroles zijn het beste te begrijpen als een instrument om de verspreiding van sleutelcomponenten — vooral geavanceerde chips en gespecialiseerde productiemachines — te vertragen zonder alle handel af te sluiten.
Alliantie zijn belangrijk omdat toeleveringsketens internationaal zijn. Coördinatie met partners kan normen aligneren, veiligheidslasten delen en “lekken” verminderen waarbij beperkte technologie via derde landen wordt doorgegeven. Voorzichtig toegepast kunnen allianties ook interoperabiliteit en gemeenschappelijke veiligheidsverwachtingen bevorderen, in plaats van AI in gefragmenteerde regionale stacks te veranderen.
De praktische vraag voor elke nationale strategie is of deze de lange-termijn innovatiecapaciteit versterkt en tegelijk voorkomt dat competitie roekeloze uitrol stimuleert.
Wanneer AI-systemen aanwervingen, leningen, medische triage of opsporing beïnvloeden, wordt “governance” geen modewoord en een praktische vraag: wie is verantwoordelijk als het systeem faalt — en hoe voorkomen we schade voordat die optreedt?
De meeste landen combineren meerdere hefbomen in plaats van op één wet te vertrouwen:
Een nationale AI-strategie is een gecoördineerd plan voor hoe een land AI zal ontwikkelen, toepassen en reguleren om publieke doelen te dienen. In de praktijk omvat het meestal:
Omdat zijn invloed vandaag minder over consumententechnologie gaat en meer over hoe overheden AI-capaciteit omzetten in staatscapaciteit. Zijn publieke rollen (met name advieswerk en commissiewerk) zitten op het snijvlak van innovatie, veiligheid, governance en geopolitieke competitie—gebieden waar beleidsmakers praktische, operationeel onderbouwde uitleg nodig hebben over wat AI wél en niet kan.
Adviesorganen geven doorgaans geen wetten uit en besteden geen geld, maar ze kunnen het standaardhandboek leveren dat beleidsmakers kopiëren. Ze produceren vaak:
Zoek naar bewijs dat ideeën veranderden in herhaalbare mechanismen, niet alleen in krantenkoppen:
Op schaal worden zeldzame fouten dagelijkse problemen. Daarom heeft strategie meting en operatie nodig, niet alleen principes:
Dual-use betekent dat dezelfde capaciteit zowel civiele voordelen kan bieden als misbruik mogelijk maakt. Voorbeeld: modellen die helpen met programmeren, plannen of tekstgeneratie kunnen ook:
Beleid richt zich meestal op risicogebalanceerde toegang, testen en monitoring, in plaats van te veronderstellen dat er een schone scheiding is tussen “civiel” en “militair” AI.
Traditionele inkoop veronderstelt stabiele eisen en langzaam veranderende producten. AI-systemen worden vaak frequent geüpdatet, dus agentschappen moeten kunnen verifiëren:
“Compute” (datacenters) en geavanceerde chips (GPUs/acceleratoren) zijn de capaciteit om modellen te trainen en te draaien. Strategieën behandelen ze vaak als kritieke infrastructuur omdat tekorten of knelpunten in de toeleveringsketen:
Veel gebruikte governance-instrumenten zijn:
Partnerschappen kunnen implementatie versnellen en veiligheid verbeteren, maar ze vragen om randvoorwaarden:
Goed ontworpen samenwerking balanceert innovatie met verantwoordelijkheid, in plaats van één van beide uit te besteden.
De praktische benadering is meestal risicogebaseerd: strengere controles waar de impact het hoogst is.