Come Alphabet ha collegato Search, aste pubblicitarie e infrastruttura AI per modellare come le persone trovano informazioni e come il web viene monetizzato—e cosa significa oggi.

Il web moderno si basa su due esigenze costanti: scoperta e monetizzazione. La scoperta è l'atto di trovare ciò che cerchi—una risposta, un prodotto, un servizio locale, un video, una definizione. La monetizzazione è come tutto questo viene pagato—finanziando siti, app, creator e l'infrastruttura che mantiene i servizi in funzione.
Alphabet (tramite Google) è diventata uno “strato intermedio” perché si trova tra tre gruppi che si influenzano a vicenda ma raramente si coordinano bene: gli utenti che vogliono risultati rilevanti velocemente, gli editori che hanno bisogno di traffico e ricavi per giustificare i contenuti, e gli inserzionisti che vogliono modi misurabili per raggiungere le persone nel momento in cui sono interessate.
Google non crea la maggior parte di ciò che leggi o compri online. Dirige l'attenzione: aiuta le persone a decidere quale pagina visitare, quale app aprire o quale attività chiamare. Per gli editori, quell'instradamento può fare la differenza tra avere un pubblico o essere nell'oscurità. Per gli inserzionisti, trasforma “qualcuno sta cercando questo” in un modo pratico di finanziare il web.
Questo articolo si concentra su tre sistemi connessi:
Vedremo prodotti, incentivi ed effetti di secondo ordine—perché il sistema funziona, dove soffre e cosa rende possibile. L'obiettivo non è l'iperbole o la teoria del complotto; è una mappa chiara di come Search, Ads e compute hanno trasformato Alphabet in un punto di compensazione centrale per l'intento online.
Il web iniziale era una grande biblioteca senza etichette. Le pagine apparivano e scomparivano continuamente, chiunque poteva pubblicare qualsiasi cosa e non esisteva un catalogo centrale. Trovare una risposta affidabile non era solo scomodo—era incerto.
Tre problemi si sono accumulati rapidamente:
La svolta di Google è stata trattare il web come un sistema di segnali, non solo come un mucchio di testo.
Un modo semplice per immaginare il pensiero in stile PageRank: un link è un voto, e i voti da pagine rispettate contano di più. Se molti siti credibili puntano a una pagina, è più probabile che valga la pena mostrarla in alto.
Questo non «risolve» la qualità da solo—gli spammer hanno provato a falsificare i voti—ma ha alzato la soglia di partenza. Ha anche spostato gli incentivi: guadagnare link genuini essendo utile è diventata una strategia praticabile.
La rilevanza contava, ma anche la sensazione. La home pulita di Google, i risultati rapidi e un'esperienza coerente hanno ridotto l'attrito quasi a zero. Quando “la migliore risposta, veloce” funziona alcune volte, diventa memoria muscolare.
Quel comportamento quotidiano—digitare una domanda, ottenere una lista chiara, cliccare—ha trasformato l'open web in qualcosa di navigabile. La ricerca ha smesso di essere uno strumento speciale ed è diventata il punto di partenza predefinito per imparare, comprare, risolvere problemi e pianificare.
La ricerca ha una materia prima unica: l'intento. Una query è spesso una descrizione in linguaggio naturale di ciò che qualcuno vuole in quel momento—“migliori cuffie con cancellazione del rumore”, “sintomi di faringite”, “come aprire una SRL”, “voli per Tokyo”. Quell'immediatezza rende le query diverse dalla maggior parte degli altri segnali su internet.
I feed social e gli annunci display partono spesso da consumo passivo: scorri, navighi, vedi cosa viene dopo. La ricerca capovolge l'ordine. L'utente fornisce prima un obiettivo e il compito del sistema è abbinarlo.
Questa differenza conta perché:
Quando i risultati sembrano affidabili, le persone tornano alla ricerca per più categorie di problemi: domande banali, acquisti importanti, servizi locali, troubleshooting tecnico. Ogni ricerca riuscita insegna agli utenti che chiedere è efficiente—e insegna al sistema cosa significa “buono”.
Questa fiducia è fragile. Se i risultati sono disordinati, spammy o fuorvianti, gli utenti si adattano rapidamente: aggiungono “reddit” alle query, cambiano motore o usano app. Mantenere alta la rilevanza non è un optional; protegge l'abitudine.
La ricerca migliora per ripetizione:
Migliori risultati → più ricerche → più segnali di soddisfazione → risultati migliori.
Quei segnali includono clic, riformulazioni di query, tempo al ritorno e schemi tra ricerche simili. Col tempo, il sistema impara cosa le persone intendevano, non solo cosa hanno digitato—trasformando l'intento in un vantaggio composto che sostiene sia la scoperta sia la monetizzazione.
Gli annunci di ricerca funzionano meno come comprare un cartellone e più come fare offerte per un momento di attenzione. Quando qualcuno digita una query, più inserzionisti possono voler apparire per quell'intento (“scarpe da corsa”, “software contabile”, “idraulico urgente”). Google esegue un'asta rapida per decidere quali annunci mostrare, in quale ordine e quanto costeranno approssimativamente.
Ogni inserzionista imposta un'offerta massima: quanto è disposto a pagare per un clic su quella ricerca. Ma l'offerta più alta non vince automaticamente.
Google considera anche qualità e pertinenza—segnali che stimano se un annuncio è utile per il ricercatore. Se il tuo annuncio e la pagina di destinazione corrispondono bene alla query e le persone tendono a cliccare e ottenere quello che cercano, puoi spesso superare un offerente più alto con un peggior match. Questo spinge il sistema verso l'utilità: gli inserzionisti non possono semplicemente “comprare” risultati scadenti e aspettarsi che restino al top.
A differenza della pubblicità tradizionale dove si paga principalmente per impressioni, gli annunci di ricerca hanno diffuso il pay-per-click (PPC): vieni addebitato quando qualcuno clicca.
Questa struttura ha allineato i costi ai risultati. Una piccola impresa poteva partire con un budget modesto, testare alcune parole chiave e smettere di spendere su termini che non generavano clienti. Nel frattempo, le ricerche ad alta intenzione—dove l'utente è più vicino all'azione—sono diventate naturalmente più preziose.
Il vero acceleratore è stata la misurazione. Monitorando cosa succedeva dopo il clic—chiamate, compilazione di form, acquisti—gli inserzionisti potevano calcolare un numero grezzo “questo ha pagato?”.
Con il miglioramento del tracciamento delle conversioni, i budget marketing si sono spostati verso la ricerca perché era leggibile: si poteva vedere quali query e annunci producevano risultati e reinvestire di conseguenza. Quel loop di feedback ha premiato la pertinenza, migliorato il targeting e aiutato a finanziare i servizi gratuiti che gli utenti si aspettano sul web.
AdSense ha preso la domanda degli inserzionisti di Google e l'ha resa utilizzabile per tutti gli altri sul web. Invece di negoziare sponsorizzazioni dirette o costruire una forza vendite, un piccolo blog, un forum di nicchia o un sito di notizie locali poteva incollare uno snippet di codice e iniziare a guadagnare dagli stessi annunci che apparivano su Google Search.
Alla base, AdSense ha collegato tre elementi: pagine degli editori (offerta), budget degli inserzionisti (domanda) e i sistemi di targeting e asta di Google (matching + pricing). Quel matching non richiedeva che l'editore “vendesse” nulla—bastava creare pagine che attirassero visitatori e dessero al sistema abbastanza contesto per posizionare annunci rilevanti.
Il risultato è stato un ciclo d'incentivo condiviso:
Quel loop ha aiutato a far crescere la long tail dell'open web: milioni di siti che potevano essere sostenibili anche con audience modeste.
Monetizzare su scala ha anche modellato i comportamenti. Quando i ricavi sono legati a clic e impressioni, gli editori sentono la pressione di inseguire il volume—a volte a scapito della qualità. Ha incoraggiato contenuti orientati alla SEO, titoli clickbait, layout pubblicitari più pesanti e una peggiore esperienza di pagina (caricamenti lenti, disordine, posizionamenti intrusivi). Google ha cercato di bilanciare questo con enforcement di policy e segnali di qualità pagina, ma gli incentivi di base non sono mai scomparsi del tutto.
Col tempo, molti editori sono diventati dipendenti dal traffico di riferimento generato da Google e dall'RPM (ricavo per mille visualizzazioni). Quella dipendenza ha reso la pianificazione aziendale fragile: un cambiamento di ranking, un'alterazione nel comportamento degli utenti o un aggiornamento di policy potevano far oscillare i guadagni da un giorno all'altro. AdSense non solo monetizzava gli editori—legava il loro destino allo stesso motore di scoperta che inviava i visitatori.
Google Search non è tanto “un sito” quanto un sistema industriale sempre attivo. La promessa è semplice—digita qualsiasi cosa, ottieni risultati utili all'istante—ma per offrire quell'esperienza bisogna trasformare l'open web in un asset interrogabile e costantemente aggiornato.
Il crawling inizia come idea base: recuperare pagine e seguire i link. Alla scala di Google, diventa una linea di produzione con scheduling, prioritarizzazione e controllo qualità. Il sistema deve decidere cosa recuperare, con quale frequenza e come evitare di sprecare risorse su duplicati, spam o pagine che cambiano ogni minuto.
L'indicizzazione è dove avviene la trasformazione. Invece di “un mucchio di pagine”, Google costruisce rappresentazioni strutturate: termini, entità, link, segnali di freschezza, caratteristiche linguistiche e molte altre feature che possono essere recuperate rapidamente. Questo indice deve essere aggiornato continuamente senza compromettere le prestazioni delle query, il che richiede ingegneria attenta su aggiornamenti incrementali, layout di storage e tolleranza ai guasti.
Quando il volume di ricerca si misura in miliardi di query giornaliere, le decisioni infrastrutturali diventano decisioni di prodotto. Data center, networking e storage determinano cosa è fattibile:
La latenza è un vantaggio competitivo perché influisce sul comportamento. Se i risultati sono veloci, le persone cercano di più, affinano di più e si fidano dello strumento per compiti più importanti. L'affidabilità conta allo stesso modo: un'interruzione non è solo downtime; è un'abitudine spezzata.
Operare a scala massiccia può ridurre il costo per query tramite ottimizzazione hardware, sistemi custom e scheduling più intelligente. Il costo unitario inferiore finanzia poi iterazioni più rapide: più esperimenti, aggiornamenti di modelli e refresh dell'indice più frequenti. Col tempo, quel loop composto rende “velocità” e “freschezza” difficili da eguagliare per concorrenti più piccoli.
Alphabet non ha vinto solo avendo un ottimo motore di ricerca. Ha anche assicurato la “porta d'ingresso” al web: i posti dove le persone iniziano a navigare e dove le scelte predefinite modellano silenziosamente cosa succede dopo.
Android equipaggia una larga fetta dei telefoni del mondo, e questo conta perché la prima casella di ricerca che molte persone vedono è spesso integrata nell'esperienza del dispositivo. App preinstallate, widget nella schermata principale e impostazioni predefinite riducono l'attrito: se la ricerca è a un gesto di distanza, diventa abitudine.
Il bundling dei servizi di Android è altrettanto importante. Quando app core (Search, Chrome, Maps, YouTube, Play services) funzionano insieme senza soluzione di continuità, cambiare una componente può sembrare rompere il telefono—nonostante esistano alternative. Per questo la “posizione predefinita della ricerca” non è una casella secondaria; è una spinta comportamentale ripetuta decine di volte al giorno.
Chrome sta tra gli utenti e l'open web. Prioritizzando velocità, sicurezza e certe API, indirizza ciò per cui i siti ottimizzano—e cosa significa avere una “buona” esperienza web. Pagine più veloci e login più fluidi aumentano anche la frequenza con cui le persone cercano, cliccano e continuano.
Chrome crea anche un canale di feedback: segnali a livello di browser su prestazioni e usabilità possono influenzare come i siti vengono costruiti e, indirettamente, come vengono scoperti.
Quando Android e Chrome diventano il percorso comune verso gli utenti, i partner si allineano attorno a loro: gli sviluppatori testano prima su Chrome, gli editori ottimizzano per metriche di performance e le aziende trattano Google come partner distributivo predefinito. Questo effetto rete rende la rampa d'accesso un fossato—meno per chiudere porte, più per rendere un ingresso molto più comodo degli altri.
Search e ads non collegano solo acquirenti e venditori—generano feedback continuo su cosa ha funzionato. Quel feedback permette ad Alphabet di sintonizzare sia il prodotto (Search) sia il modello di business (ads) senza affidarsi alle ipotesi.
“La misurazione” risponde a una domanda fondamentale: Questo annuncio ha portato a un'azione di valore? In pratica include spesso:
Anche quando la misurazione è imperfetta, fornisce un tabellone condiviso. Gli inserzionisti possono confrontare campagne, parole chiave, audience e creatività, e spostare budget verso ciò che funziona.
La pubblicità diventa più facile da giustificare quando sembra meno “marketing” e più un investimento. Se un inserzionista può stimare il ritorno (o almeno tracciarlo in modo direzionale), può:
Questa propensione a spendere alimenta l'asta: più concorrenza, più dati e incentivi più forti a migliorare la pertinenza così gli utenti continuano a cliccare.
Man mano che browser e piattaforme riducono identificatori cross-site (cookie, mobile ad ID), la misurazione si sposta dal tracciamento third-party verso i dati first-party—segnali che un'azienda raccoglie direttamente (sessioni con login, acquisti, liste CRM, comportamento on-site). Questo spinge i prodotti verso report aggregati e modellati e verso strumenti che operano “dalla parte dell'inserzionista” (per esempio, upload di conversioni server-to-server).
Le scelte di misurazione ora sono sotto costante scrutinio—da regolatori, piattaforme e utenti. La pressione su consenso, minimizzazione dei dati e trasparenza plasma cosa si può misurare, per quanto tempo i dati sono conservati e come vengono presentati i controlli. Il risultato è un loop di feedback con guardrail: massimizzare le prestazioni, ma entro regole pensate per mantenere fiducia e conformità legale.
La ricerca è iniziata con un grande insieme di regole: conta i link, leggi il testo sulla pagina e applica segnali tarati a mano per indovinare cosa cercava una persona. Ha funzionato sorprendentemente bene—fino a quando il web non è esploso in dimensioni, lingue, formati e manipolazioni. Il passaggio al machine learning non è stato questione di moda; è servito per mantenere i risultati utili quando le regole semplici non scalavano più.
Il ranking moderno usa ancora molti segnali (freschezza, posizione, qualità pagina e altro), ma l'ML aiuta a decidere quanto quei segnali dovrebbero contare per una query specifica. Invece di una ricetta globale, i modelli possono apprendere schemi dal comportamento aggregato e dal feedback di valutatori: quando le persone tornano rapidamente ai risultati, quando riformulano query e quali pagine soddisfano certi intenti.
Il risultato è pratico: meno risultati chiaramente sbagliati, migliore gestione delle query ambigue (“jaguar” animale vs. auto) e comprensione più solida di query lunghe e naturali.
L'ML è intrecciato nel plumbing di search e ads:
Questo conta perché la rilevanza è il prodotto. Migliore rilevanza aumenta la fiducia, che aumenta l'uso, che fornisce più feedback per migliorare.
Dietro le quinte, “IA” è uno stack operativo: chip specializzati, modelli addestrati e pipeline che distribuiscono aggiornamenti in sicurezza.
Quando tutto funziona, gli utenti vedono risposte più rapide e meno risultati spazzatura—e gli inserzionisti ottengono un matching più efficiente—senza doversi preoccupare della macchina dietro.
Il vantaggio di Alphabet non è solo “algoritmi migliori”. È la capacità di eseguire quegli algoritmi in modo economico, rapido e ovunque—a una scala che poche aziende possono raggiungere. Il compute diventa una caratteristica di prodotto quando millisecondi e decimi di centesimo decidono quali risultati vedi, quale annuncio vince e se un modello AI è pratico da distribuire.
Addestrare e servire modelli moderni è costoso. I chip general-purpose possono fare il lavoro, ma non sono sempre efficienti per le operazioni specifiche del machine learning.
Le TPUs (Tensor Processing Units) sono progettate per eseguire quei carichi con miglior performance per dollaro. Questo conta in quattro modi:
Alphabet non costruisce stack compute separati per Search, YouTube, Ads, Maps e Cloud. Gran parte dell'infrastruttura sottostante—data center, networking, storage e piattaforme ML—è condivisa.
Questa base comune crea efficienze: miglioramenti negli strumenti dei modelli, nell'utilizzo dei chip o nella gestione energetica dei data center possono beneficiare molteplici prodotti contemporaneamente. Permette anche ai team di riutilizzare componenti collaudati invece di reinventare la ruota.
Più uso genera più ricavi (specialmente tramite annunci). I ricavi finanziano più capacità di compute e infrastrutture migliori. L'infrastruttura migliore consente modelli migliori e prodotti più rapidi. Quei miglioramenti attraggono più uso.
Questo è un effetto composto: ogni giro del loop rende il giro successivo più facile.
L'infrastruttura AI non è solo motivo di vanto interno—si manifesta nelle esperienze quotidiane:
Il compute è strategia perché trasforma l'IA da feature occasionale a capacità predefinita—da erogare in modo affidabile, su scala e a costi difficili da eguagliare per i competitor.
Search e ads non sono due prodotti separati affiancati—sono una singola pipeline che sposta le persone da “sono curioso” a “sto comprando”, spesso in pochi minuti. La chiave è che sia i risultati organici sia quelli a pagamento rispondono allo stesso intento, sulla stessa pagina, nello stesso momento.
In una query tipica, risultati organici e annunci competono per la stessa risorsa scarsa: spazio above-the-fold e fiducia dell'utente. Gli annunci possono vincere per posizione e offerte chiare (prezzo, spedizione, promozioni). L'organico può vincere per autorità, profondità e neutralità percepita.
Nella pratica, il “vincitore” è spesso il risultato che meglio corrisponde all'urgenza dell'utente—annunci shopping per “compra”, guide organiche per “come fare”, pacchetti locali per “vicino a me”.
Le pagine dei risultati moderne sono meno “dieci link blu” e più un insieme di moduli: snippet in evidenza, map pack, griglie di prodotti, “People also ask” e risultati ricchi. Queste feature cambiano i flussi di traffico in due modi:
Per le aziende, questo significa che essere al #1 non è più tutta la storia. La visibilità include ora la presenza nel modulo giusto (elenco locali, Merchant Center, dati strutturati) e un'offerta convincente quando l'utente è pronto.
Per le piccole imprese, il vantaggio è la cattura immediata della domanda: puoi apparire il giorno del lancio tramite annunci e poi costruire credibilità organica nel tempo. Il rischio è la dipendenza—se gran parte del fatturato dipende da un set di keyword o dal layout di una piattaforma, qualsiasi cambiamento (prezzi, policy, nuove feature) può colpire all'improvviso.
I creator affrontano una tensione simile: la ricerca può portare scoperta costante, ma le risposte on-page e gli snippet possono ridurre il click-through. Un approccio pratico è trattare la ricerca come un canale, non come una casa.
Diversifica l'acquisizione (lista email, referral, social, partnership, comunità locali) così la ricerca è additiva, non esistenziale. E misura l'incrementalità: esegui test controllati (split geografici, holdout temporali, separazione brand vs non-brand) per capire cosa gli annunci creano davvero rispetto a ciò che semplicemente catturano dalla domanda organica. Quella pratica mantiene la pipeline scoperta→checkout redditizia, non solo trafficata.
Il ruolo di Alphabet come percorso predefinito verso informazioni e clienti è anche ciò che la rende bersaglio frequente. Lo stesso sistema che abbina efficacemente intento e risultati può concentrare potere—e questo solleva domande su chi ottiene visibilità, a quali condizioni e con quale supervisione.
Una critica comune è il potere di mercato: quando un'azienda intermedia tanta scoperta, piccoli cambiamenti in ranking, UI o formati pubblicitari possono rimodellare interi settori. Per questo le accuse di self-preferencing sono significative—se Google indirizza gli utenti verso le proprie proprietà (shopping, local, travel, video) anche quando alternative potrebbero essere migliori.
C'è anche la questione pratica del carico pubblicitario. Se sempre più query mostrano più posizioni a pagamento, editori e commercianti possono avere la sensazione di affittare l'accesso a un pubblico che un tempo raggiungevano organicamente.
La pressione regolatoria tende a raggrupparsi attorno a tre temi:
Gli esiti possono andare da nuovi requisiti di disclosure a limiti sugli accordi predefiniti, o cambiamenti nel funzionamento dei sistemi di annunci e misurazione.
Man mano che i riassunti generati dall'IA salgono nella pagina, alcune query possono terminare senza clic. Questo potrebbe ridurre il traffico verso gli editori, indebolire la catena tradizionale “ricerca → sito → monetizza” e spostare più valore in unità controllate dalla piattaforma.
La domanda aperta non è se le risposte diventeranno più “dirette”, ma come si redistribuirà il valore quando l'interfaccia diventa la destinazione.
Presta attenzione alle battaglie sui settaggi predefiniti, ai cambiamenti nella misurazione (in particolare cookie e attribuzione) e alle abitudini di scoperta che mutano—più query conversazionali, più ricerca in-app e più esperienze answer-first.
Se Google è lo strato intermedio predefinito per l'intento, i prodotti vincono o perdono sempre più in base a quanto efficientemente traducono l'intento in risultati: pagine chiare, esperienze veloci, conversioni misurabili e sistemi che si adattano mentre la scoperta si sposta da link a sommari.
Qui si inserisce anche la costruzione “assistita dall'AI”. Piattaforme come Koder.ai applicano un'idea simile—trasformare l'intento in linguaggio naturale in software funzionante—permettendo ai team di creare applicazioni web, backend e mobile tramite un'interfaccia di chat (React per il web, Go + PostgreSQL per il backend, Flutter per il mobile). In un mondo plasmato da loop di feedback (misura → iterazione → deploy), tool che accorciano il ciclo dall'idea all'implementazione diventano un vantaggio competitivo, specialmente se abbinati a controlli pratici come modalità di pianificazione, snapshot, rollback ed esportazione del codice sorgente.
Alphabet (tramite Google) si posiziona tra tre gruppi che si influenzano ma raramente si coordinano bene: utenti che cercano risposte rapide e rilevanti; editori che hanno bisogno di traffico e ricavi; e inserzionisti che vogliono catturare domanda misurabile. La ricerca instrada l'attenzione, gli annunci monetizzano l'intento e l'infrastruttura/AI mantiene rilevanza e velocità su scala massiccia.
Perché le query esprimono intento attivo (es. “voli per Tokyo”, “idraulico urgente”) piuttosto che interesse passivo. Questo rende la ricerca preziosa vicino ai momenti decisionali e crea un percorso naturale dalla scoperta all'azione, ideale sia per la rilevanza (per gli utenti) sia per la monetizzazione (per gli inserzionisti).
La ricerca web iniziale affrontava:
L'approccio di Google ha trattato la struttura e il comportamento del web come segnali, alzando la soglia di qualità per trovare pagine utili.
La logica in stile PageRank tratta i link come segnali di credibilità: un link è un “voto” e i voti da siti affidabili contano di più. Non garantisce qualità (lo spam può imitare i link), ma aiuta a distinguere risorse ampiamente citate da pagine isolate o a bassa fiducia—soprattutto se combinata con altri segnali.
Velocità e semplicità riducono l'attrito quasi a zero, trasformando la ricerca in un'abitudine. Quando “digiti una domanda → ottieni risultati utili” funziona ripetutamente, gli utenti tornano per più categorie di attività, generando altri segnali di feedback che migliorano ulteriormente i risultati.
Gli annunci di ricerca sono gestiti come aste in tempo reale: gli inserzionisti impostano offerte massime per clic, ma la posizione dipende anche da segnali di qualità e pertinenza (spesso riassunti nel concetto di “quality score”). In pratica: non basta solo l'offerta più alta se il tuo annuncio e la pagina di atterraggio non soddisfano la query.
Il PPC allinea i costi ai risultati: paghi quando qualcuno clicca, non solo quando l'annuncio viene mostrato. Questo permette anche a budget piccoli di testare parole chiave, misurare i risultati e interrompere rapidamente le spese non efficaci—spostando così più investimenti verso la ricerca perché il rendimento è più leggibile e giustificabile.
AdSense ha collegato i publisher alla stessa domanda degli inserzionisti usata nella ricerca, senza richiedere una forza vendite diretta. Ha scalato la monetizzazione, ma ha portato anche a:
Android e Chrome riducono l'attrito tramite impostazioni predefinite e posizionamento in prima linea—barre di ricerca, app preinstallate e integrazione fluida. Quando il percorso più semplice verso una ricerca è Google, il comportamento si ripete quotidianamente, creando un fossato distributivo anche se tecnicamente esistono alternative.
L'IA favorisce esperienze “answer-first” sulla pagina: molte query possono finire senza clic, riducendo il traffico verso gli editori e spostando valore verso unità controllate dalla piattaforma. Insieme alla regolamentazione (predefiniti, privacy, trasparenza), questo può rimodellare gli incentivi e obbligare le aziende a diversificare l'acquisizione e misurare l'incrementalità invece di dare per scontato che la ricerca rimarrà stabile.