Een praktische blik op hoe Sundar Pichai Google stuurde om AI tot een fundamentele laag van het internet te maken—over producten, infrastructuur en veiligheid.

Een internet primitive is een fundamenteel bouwblok waarvan je mag aannemen dat het er is—zoals hyperlinks, zoeken, kaarten of betalingen. Mensen denken niet na over hoe het werkt; ze verwachten gewoon dat het overal beschikbaar, goedkoop en betrouwbaar is.
Sundar Pichai’s grote gok is dat AI dat soort bouwblok zou moeten worden: niet een speciale functie die in een paar producten is verstopt, maar een standaardcapaciteit die onder veel ervaringen op het web ligt.
Jarenlang verscheen AI als toevoegingen: betere fototagging hier, slimmer spamfilter daar. De verschuiving die Pichai bepleitte is meer structureel. In plaats van te vragen: “Waar kunnen we AI strooien?” beginnen bedrijven te vragen: “Hoe ontwerpen we producten ervan uitgaande dat AI altijd beschikbaar is?”
Die mindset verandert wat prioriteit krijgt:
Dit is geen technische deep dive in modelarchitecturen of trainingsrecepten. Het gaat over strategie en productkeuzes: hoe Google onder Pichai AI positioneerde als gedeelde infrastructuur, hoe dat invloed had op producten die mensen al gebruiken, en hoe interne platformkeuzes bepaalden wat mogelijk was.
We lopen de praktische componenten door die nodig zijn om AI tot een primitive te maken:
Aan het eind heb je een duidelijk beeld van wat er organisatorisch en strategisch nodig is om AI net zo basaal en alomtegenwoordig te laten voelen als de rest van het moderne web.
Sundar Pichai’s invloed op Google’s AI-richting is makkelijker te begrijpen als je kijkt naar het soort werk dat zijn carrière vormgaf: producten die niet alleen gebruikers winnen, maar fundamenten creëren waarop anderen bouwen.
Pichai kwam in 2004 bij Google en werd snel geassocieerd met “default” ervaringen—tools waarop miljoenen vertrouwen zonder na te denken over de onderliggende machinekamer. Hij speelde een centrale rol in de opkomst van Chrome, niet alleen als browser, maar als een snellere, veiligere manier om het web te benaderen die normen en verwachtingen van ontwikkelaars vooruit duwde.
Later kreeg hij grote verantwoordelijkheid voor Android. Dat betekende het balanceren van een enorm partner-ecosysteem (apparaatfabrikanten, providers, app-ontwikkelaars) terwijl het platform coherent bleef. Dat is een specifiek soort productleiderschap: je kunt niet alleen optimaliseren voor één app of functie—je moet regels, API’s en incentives zetten die schaalbaar zijn.
Die platformbouwer-mindset past goed bij de uitdaging om AI “normaal” te laten voelen online.
Wanneer AI als platform wordt behandeld, hebben leiderschapsbeslissingen de neiging prioriteit te geven aan:
Pichai werd CEO van Google in 2015 (en CEO van Alphabet in 2019), wat hem in de positie bracht om een bedrijfbrede verschuiving door te drukken: AI niet als bijproject, maar als gedeelde infrastructuur. Dit perspectief helpt latere keuzes te verklaren—standaardiseren van interne tooling, investeren in compute en AI als herbruikbare laag over producten heen in plaats van elke keer opnieuw uitvinden.
Google’s weg naar het laten voelen van AI als “basis” ging niet alleen over slimme modellen—het ging over waar die modellen konden leven. Weinig bedrijven zitten op het kruispunt van enorme consumentenbereik, volwassen producten en langdurige onderzoeksprogramma’s. Die combinatie creëerde een ongewoon snelle feedbackloop: improvements uitrollen, kijken hoe ze presteren en verfijnen.
Wanneer miljarden zoekopdrachten, video’s en app-interacties door een handvol kernservices stromen, maken zelfs kleine winstjes verschil. Betere ranking, minder irrelevante resultaten, iets verbeterde spraakherkenning—op Google-schaal vertalen die increments naar merkbare dagelijkse ervaringen voor gebruikers.
Het is goed om precies te zijn over wat “data-voordeel” hier betekent. Google heeft geen magische toegang tot het internet en kan geen resultaten garanderen alleen omdat het groot is. Het voordeel is vooral operationeel: langlopende producten genereren signalen die (binnen beleid en wettelijke grenzen) gebruikt kunnen worden om kwaliteit te evalueren, regressies te detecteren en bruikbaarheid te meten.
Search leerde mensen snelle, nauwkeurige antwoorden te verwachten. In de loop van de tijd verhoogden functies zoals autocomplete, spellingcorrectie en querybegrip de verwachting dat systemen intentie zouden anticiperen—niet alleen trefwoorden matchen. Die mindset vertaalt direct naar moderne AI: voorspellen wat een gebruiker bedoelt is vaak waardevoller dan reageren op wat ze getypt hebben.
Android gaf Google een praktische manier om AI-gedreven functies wereldwijd te distribueren. Verbeteringen in spraakinput, on-device intelligence, camerafuncties en assistant-achtige ervaringen konden vele fabrikanten en prijsklassen bereiken, waardoor AI minder een apart product werd en meer een ingebouwde capaciteit.
“Mobile-first” betekende producten ontwerpen rond de smartphone als het standaard scherm en context. “AI-first” is een vergelijkbaar organiserend principe, maar breder: het behandelt machine learning als een standaardingrediënt in hoe producten worden gebouwd, verbeterd en geleverd—in plaats van een specialiteit die aan het einde wordt toegevoegd.
In de praktijk neemt een AI-first bedrijf aan dat veel gebruikersproblemen beter kunnen worden opgelost wanneer software kan voorspellen, samenvatten, vertalen, aanbevelen of automatiseren. De vraag verschuift van “Moeten we hier AI gebruiken?” naar “Hoe ontwerpen we dit zodat AI veilig en behulpzaam deel is van de ervaring?”
Een AI-first houding vertaalt zich in dagelijkse beslissingen:
Het verandert ook wat “uitrollen” betekent. In plaats van één enkele lancering vereisen AI-functies vaak voortdurende tuning—performance monitoren, prompts of modelgedrag verfijnen en beschermingen toevoegen naarmate echt gebruik edgecases blootlegt.
Bedrijfbrede pivots slagen niet als ze op sloganniveau blijven. Leiderschap zet prioriteiten via herhaalde framing, resource-allocatie en incentives: welke projecten krijgen mensen, welke metrics tellen en welke reviews vragen “Hoe verbetert dit met AI?”
Voor een bedrijf zo groot als Google gaat het signaleren vooral over coördinatie. Wanneer teams een gemeenschappelijke richting delen—AI als standaardlaag—kunnen platformgroepen tools standaardiseren, productteams met zekerheid plannen en onderzoekers doorbraken omzetten in zaken die opschalen.
Om AI als “internet primitive” te laten voelen, kan het niet alleen in geïsoleerde onderzoeksdemo’s of eenmalige productexperimenten leven. Het heeft gedeelde fundamenten nodig—gemeenschappelijke modellen, standaardtooling en herhaalbare manieren om kwaliteit te evalueren—zodat teams kunnen bouwen op dezelfde basis in plaats van telkens opnieuw uit te vinden.
Een belangrijke verschuiving onder Pichai’s platformbouwer-mindset was onderzoek minder te behandelen als een reeks onafhankelijke projecten en meer als een toeleveringsketen die nieuwe ideeën betrouwbaar omzet in bruikbare mogelijkheden. Dat betekent werk consolideren in schaalbare pijplijnen: trainen, testen, veiligheidsreview, deployment en doorlopende monitoring.
Wanneer die pijplijn gedeeld is, wordt vooruitgang geen wedstrijd meer van “wie heeft het beste experiment”, maar “hoe snel kunnen we verbeteringen veilig overal uitrollen.” Frameworks zoals TensorFlow hielpen standaardiseren hoe modellen worden gebouwd en geserveerd, terwijl interne evaluatie- en rollout-praktijken het makkelijker maakten om van labresultaten naar productfeatures te gaan.
Consistentie is niet alleen operationele efficiëntie—het is wat AI betrouwbaar laat aanvoelen.
Zonder dit ervaren gebruikers AI als ongelijkmatig: behulpzaam op de ene plek, verwarrend op de andere en moeilijk om op te vertrouwen.
Denk eraan als elektriciteit. Als elk huishouden zijn eigen generator moest draaien, zou stroom duur, lawaaierig en onbetrouwbaar zijn. Een gedeeld elektriciteitsnet maakt stroom op aanvraag beschikbaar, met standaarden voor veiligheid en performance.
Google’s doel met een gedeelde AI-fundering is vergelijkbaar: bouw een betrouwbaar “net” van modellen, tooling en evaluatie zodat AI in veel producten kan worden ingeplugd—consistent, snel en met duidelijke beschermingen.
Als AI een basiselement van het internet moest worden, hadden ontwikkelaars meer nodig dan indrukwekkende onderzoeksartikelen—ze hadden tools nodig die modelleren en deployment deden aanvoelen als gewoon softwarewerk.
TensorFlow hielp machine learning veranderen van een gespecialiseerd ambacht naar een engineeringworkflow. Binnen Google standaardiseerde het hoe teams ML-systemen bouwden en uitrolden, wat dubbel werk verminderde en het makkelijker maakte ideeën tussen productgroepen te verplaatsen.
Buiten Google verlaagde TensorFlow de drempel voor startups, universiteiten en enterprise-teams. Een gedeeld framework betekende dat tutorials, pretrained componenten en wervingspijplijnen rond gemeenschappelijke patronen konden ontstaan. Dat “gemeenschappelijke taal”-effect versnelde adoptie veel verder dan wat een enkele productlancering kon bereiken.
(Als je een korte opfrisser wilt over de basis voordat je dieper duikt, zie /blog/what-is-machine-learning.)
Het open-sourcen van tools zoals TensorFlow was niet alleen vrijgevigheid—het creëerde een feedbackloop. Meer gebruikers betekenden meer bugreports, communitybijdragen en snellere iteratie op features die in de echte wereld belangrijk waren (performance, portabiliteit, monitoring en deployment).
Het moedigde ook compatibiliteit in het ecosysteem aan: cloudproviders, chipfabrikanten en softwareleveranciers konden optimaliseren voor veelgebruikte interfaces in plaats van voor gesloten standaarden.
Openheid brengt echte risico’s. Breed beschikbare tooling maakt het makkelijker misbruik op te schalen (fraude, surveillance, deepfakes) of modellen te deployen zonder voldoende testen. Voor een bedrijf op Google’s schaal is die spanning constant: delen versnelt vooruitgang, maar vergroot ook de oppervlakte voor schade.
Het praktische resultaat is een middenweg—open frameworks en selectieve releases, gekoppeld aan beleidsregels, beschermingen en duidelijkere richtlijnen voor verantwoord gebruik.
Naarmate AI meer “primitive” wordt, verschuift ook de ontwikkelaarservaring: builders verwachten steeds vaker appflows te maken met natuurlijke taal, niet alleen API’s. Daar passen vibe-coding tools zoals Koder.ai — waarmee teams web-, backend- en mobiele apps kunnen prototypen en uitrollen via chat, terwijl ze nog steeds broncode kunnen exporteren wanneer ze volledige controle nodig hebben.
Als AI een baselaag van het web moet zijn, kan het niet blijven functioneren als een “special project” dat alleen soms werkt. Het moet snel genoeg zijn voor dagelijks gebruik, goedkoop genoeg om miljoenen keren per minuut te draaien en betrouwbaar genoeg dat mensen het in routinewerk durven te gebruiken.
AI-workloads zijn uitzonderlijk zwaar. Ze vragen enorme rekenkracht, verplaatsen veel data en hebben vaak snelle resultaten nodig. Dat creëert drie praktische drukpunten:
Onder Pichai’s leiding leunde Google’s strategie in op het idee dat de “riolering” de gebruikerservaring net zozeer bepaalt als het model zelf.
Een manier om AI bruikbaar te houden op schaal is gespecialiseerde hardware. Google’s Tensor Processing Units (TPU’s) zijn custom chips ontworpen om AI-berekeningen efficiënter te draaien dan algemene processors. Simpel gezegd: in plaats van één machine voor alles te gebruiken, bouw je een machine die bijzonder goed is in de repetitieve wiskunde waar AI op vertrouwt.
Het voordeel is niet alleen praal—het is het vermogen om AI-functies te leveren met voorspelbare performance en lagere operationele kosten.
Chips alleen zijn niet genoeg. AI-systemen hangen ook af van datacenters, opslag en netwerken met hoge capaciteit die informatie snel tussen services kunnen verplaatsen. Wanneer dat alles als een samenhangend systeem wordt ontworpen, kan AI zich gedragen als een “altijd beschikbare” utility—klaar wanneer een product het nodig heeft.
Google Cloud is een deel van hoe deze infrastructuur bedrijven en ontwikkelaars bereikt: niet als magische snelkoppeling, maar als een praktische manier om toegang te krijgen tot dezelfde klasse van grootschalige compute en deploymentpatronen achter Google’s eigen producten.
Onder Pichai verscheen Google’s belangrijkste AI-werk niet altijd als een spetterende nieuwe app. Het verscheen in alledaagse momenten die vloeiender werden: Search die raadt wat je bedoelt, Photos die de juiste herinnering vindt, Translate die toon vangt in plaats van alleen woorden, en Maps die de beste route voorspelt voordat je het vraagt.
In het begin werden veel AI-capaciteiten geïntroduceerd als toevoegingen: een speciale modus, een nieuw tabblad, een aparte ervaring. De verschuiving was AI de standaardlaag te maken onder producten die mensen al gebruiken. Dat verandert het productdoel van “probeer dit nieuwe” naar “dit moet gewoon werken.”
Over Search, Photos, Translate en Maps heen is de intentie consistent:
Zodra AI in de kern is ingebouwd, stijgt de lat. Gebruikers beoordelen het niet als een experiment—ze verwachten directheid, betrouwbare correctheid en dat hun data veilig wordt behandeld.
Dat betekent dat AI-systemen moeten leveren:
Voorheen: een foto vinden betekende scrollen op datum, door albums zoeken of onthouden waar je hem had opgeslagen.
Nu: je kunt natuurlijk zoeken—“strand met rode parasol”, “bon uit maart” of “hond in de sneeuw”—en Photos toont relevante afbeeldingen zonder dat jij iets hoeft te organiseren. De AI wordt onzichtbaar: je merkt het resultaat, niet de machine.
Dit is hoe “van feature naar standaard” eruitziet—AI als de stille motor van dagelijks nut.
Generatieve AI veranderde de publieke relatie met machine learning. Eerdere AI-functies waren vooral classificerend, rankend of voorspellend: “is dit spam?”, “welk resultaat is het beste?”, “wat staat er op deze foto?” Generatieve systemen kunnen text en media produceren—tekst opstellen, code schrijven, beelden maken en vragen beantwoorden met outputs die op redenatie kunnen lijken, ook al is het onderliggende proces patroonherkenning.
Google heeft expliciet gesteld dat de volgende fase georganiseerd is rond de Gemini models en AI-assistenten die dichter bij de manier werken waarop mensen daadwerkelijk werken: vragen stellen, verfijnen en besluiten nemen. In plaats van AI als verborgen component achter één functie te behandelen, wordt de assistent een voordeur—een die tools kan aanroepen, zoeken, samenvatten en je helpt van vraag naar actie te gaan.
Deze golf introduceert nieuwe standaarden in consument- en zakelijke producten:
Generatieve outputs kunnen vol vertrouwen onjuist zijn. Dat is geen klein randgeval—het is een fundamentele beperking. De praktische gewoonte is verificatie: controleer bronnen, vergelijk antwoorden en behandel gegenereerde tekst als een concept of hypothese. Producten die op schaal winnen, maken die controle makkelijker, niet optioneel.
AI als baselaag van het web werkt alleen als mensen erop kunnen vertrouwen. Op Google-schaal wordt een klein foutpercentage een dagelijkse realiteit voor miljoenen—dus “verantwoorde AI” is geen bijproject. Het moet behandeld worden als productkwaliteit en uptime.
Generatieve systemen kunnen vol vertrouwen fouten produceren (hallucinaties), sociale bias weerspiegelen of versterken en privacyrisico’s blootleggen bij verwerking van gevoelige input. Er zijn ook beveiligingszorgen—prompt injection, data-exfiltratie via toolgebruik en kwaadaardige plugins of extensies—en breed misbruikrisico, van oplichting en malware tot verboden contentgeneratie.
Dit zijn geen theoretische issues. Ze ontstaan uit normaal gebruikersgedrag: vage vragen stellen, privétekst plakken of AI gebruiken in workflows waar één fout antwoord consequenties heeft.
Geen enkele maatregel lost alles op. De praktische aanpak is gelaagd:
Naarmate modellen ingebed worden in Search, Workspace, Android en ontwikkelaarstools, moet safety-werk herhaalbaar en geautomatiseerd zijn—meer als het monitoren van een globale service dan het reviewen van één feature. Dat betekent continue testing, snelle rollback-paden en consistente standaarden over producten heen, zodat vertrouwen niet afhangt van welk team een AI-functie heeft uitgerold.
Op dit niveau wordt “vertrouwen” een gedeelde platformcapaciteit—een die bepaalt of AI een default-gedrag kan zijn in plaats van een optionele experiment.
Google’s AI-first strategie ontwikkelde zich niet in een vacuum. Terwijl generatieve AI van lab naar consumentproducten bewoog, kreeg Google druk vanuit meerdere richtingen tegelijk—elk beïnvloedde wat wordt uitgerold, waar het draait en hoe snel het beschikbaar kan worden gemaakt.
Op modellagen gaat concurrentie niet alleen over “wie heeft de beste chatbot.” Het gaat ook over wie betrouwbare, kostenefficiënte modellen kan bieden (zoals de Gemini models) en tooling om ze in echte producten te integreren. Daarom doen platformcomponenten—historisch TensorFlow en nu beheerde APIs en modelendpoints—er even veel toe als modeldemos.
Op apparaten vormen besturingssystemen en standaardassistenten gebruikersgedrag. Wanneer AI-functies ingebed zijn in telefoons, browsers en productiviteitsuites, wordt distributie een strategisch voordeel. Google’s positie in Android, Chrome en Search creëert kansen—maar verhoogt ook verwachtingen dat functies stabiel, snel en breed beschikbaar zijn.
In cloudplatforms is AI een belangrijke differentiator voor enterprise-kopers. Keuzes over TPU’s, prijsstelling en waar modellen gehost kunnen worden weerspiegelen vaak vergelijkingen die klanten al maken tussen providers.
Regulering legt een extra laag beperkingen op. Veelvoorkomende thema’s zijn transparantie (wat is gegenereerd vs. afkomstig), copyright (trainingsdata en outputs) en gegevensbescherming (hoe gebruikersprompts en bedrijfsdata worden behandeld). Voor een bedrijf op Google’s schaal kunnen deze onderwerpen UI-ontwerp, logdefaults en welke features in welke regio’s zijn ingeschakeld beïnvloeden.
Samen duwen concurrentie en regelgeving Google vaak naar gefaseerde releases: beperkte previews, duidelijkere productlabeling en controls om organisaties AI geleidelijk te laten adopteren. Zelfs wanneer de CEO AI als platform positioneert, vereist brede uitrol vaak zorgvuldige sequencing—balanceren van snelheid met vertrouwen, compliance en operationele gereedheid.
AI een “internet primitive” maken betekent dat het niet langer voelt als een apart gereedschap dat je moet opzoeken, maar gaat functioneren als een standaardcapaciteit—vergelijkbaar met zoeken, kaarten of notificaties. Je denkt er niet over als “AI”; je ervaart het als de normale manier waarop producten begrijpen, genereren, samenvatten en automatiseren.
AI wordt de interface. In plaats van menu’s te navigeren beschrijven gebruikers steeds vaker wat ze willen in natuurlijke taal—en het product regelt de stappen.
AI wordt een gedeelde fundering. Modellen, tooling en infrastructuur worden hergebruikt over veel producten, zodat verbeteringen snel cumuleren.
AI gaat van “feature” naar “standaardgedrag.” Autocomplete, samenvattingen, vertalingen en proactieve suggesties worden baseline-verwachtingen.
Distributie telt evenveel als doorbraken. Wanneer AI ingebed is in veelgebruikte producten, is adoptie geen marketingcampagne maar een update.
Vertrouwen wordt deel van de kernspecificatie. Veiligheid, privacy en governance zijn geen toevoegingen; ze bepalen of AI in de “riolering” van het web kan zitten.
Voor gebruikers zijn de “nieuwe defaults” gemak en snelheid: minder klikken, meer antwoorden en meer automatisering in dagelijkse taken. Maar het verhoogt ook verwachtingen rond nauwkeurigheid, transparantie en controle—mensen willen weten wanneer iets gegenereerd is, hoe het te corrigeren en welke data is gebruikt.
Voor bedrijven betekenen de “nieuwe verwachtingen” strengere eisen: klanten gaan ervan uit dat je product intent begrijpt, content samenvat, helpt bij beslissingen en integreert in workflows. Als je AI er aangeplakt of onbetrouwbaar uitziet, word je niet vergeleken met “geen AI”, maar met de beste assistenten die gebruikers al hebben.
Als je een eenvoudige manier wilt om tools consistent te beoordelen, gebruik dan een gestructureerde checklist zoals /blog/ai-product-checklist. Als je build-vs-buy voor AI-producten evalueert, is het ook zinvol te testen hoe snel je van intentie naar een werkende app kunt komen—platforms zoals Koder.ai zijn ontworpen voor die “AI-als-standaard” wereld, met chat-gebaseerd bouwen, deployment en broncode-export.
Een internet-primitive is een fundamentele capaciteit waarvan je mag aannemen dat die overal aanwezig is (zoals links, zoekfunctie, kaarten of betalingen). In dit kader wordt AI een betrouwbare, goedkope en altijd-beschikbare laag waar veel producten zich op kunnen aansluiten, in plaats van een op zichzelf staande functie die je actief moet zoeken.
Een functie is optioneel en vaak geïsoleerd (bijv. een speciale modus of tab). Een standaardcapaciteit zit ingebakken in de kernstroom—gebruikers verwachten dat het ‘gewoon werkt’.
Praktische tekenen dat AI een standaard wordt:
Omdat primitieve functies voor iedereen, altijd moeten werken. Op Google-schaal worden zelfs kleine latentie- of kostentoenames groot.
Teams geven daarom prioriteit aan:
Het gaat om het uitrollen van AI via producten die mensen al gebruiken—Search, Android, Chrome, Workspace—zodat adoptie plaatsvindt via normale updates in plaats van “probeer onze AI-app”.
Als je je eigen product bouwt, is de analogie:
Het is een leiderschapsstijl gericht op ecosystemen: standaarden, gedeelde tools en herbruikbare componenten zodat veel teams (en externe ontwikkelaars) consistent kunnen bouwen.
In AI vertaalt dat zich naar:
Het betekent onderzoekspublicaties omzetten in herhaalbare productie-workflows—training, testen, veiligheidsreview, deployment en monitoring—zodat verbeteringen breed uitgerold worden.
Praktische lessen voor teams:
Consistentie zorgt dat AI betrouwbaar aanvoelt en vermindert dubbel werk.
Voordelen:
TensorFlow standaardiseerde hoe modellen gebouwd, getraind en geserveerd worden—binnen Google en in de industrie—waardoor ML meer als normaal softwarewerk ging voelen.
Als je een ontwikkelaarsstack kiest, let op:
TPU’s zijn gespecialiseerde chips om veelvoorkomende AI-berekeningen efficiënt uit te voeren. Op grote schaal kan die efficiëntie kosten verlagen en reactietijden verbeteren.
Je hebt geen custom chips nodig om hiervan te profiteren—het gaat erom workloads aan de juiste infrastructuur te koppelen:
Omdat generatieve modellen vol vertrouwen onjuiste antwoorden kunnen geven, en op schaal kleine foutpercentages miljoenen mensen treffen.
Praktische guardrails die opschalen: