Śledź drogę Erica Schmidta od kształtowania wyszukiwania Google do wpływu na krajową strategię AI — jego role doradcze, kluczowe idee i toczące się debaty.

Eric Schmidt jest często przedstawiany jako były CEO Google, ale jego znaczenie dziś dotyczy mniej pól wyszukiwania, a bardziej tego, jak rządy myślą o sztucznej inteligencji. Celem tego tekstu jest wyjaśnienie tej zmiany: jak menedżer technologiczny, który pomógł rozwinąć jedną z największych firm internetowych, stał się wyrazistym głosem w sprawie krajowych priorytetów AI, publicznych raportów i praktycznych aspektów przekładania innowacji na zdolności państwa.
Krajowa strategia AI to plan kraju na temat tego, jak będzie rozwijać, wdrażać i regulować AI w sposób służący celom publicznym. Zazwyczaj obejmuje finansowanie badań, wsparcie dla startupów i przyjmowania technologii przez przemysł, zasady odpowiedzialnego użycia, plany dotyczące siły roboczej i edukacji oraz sposoby, w jakie agencje rządowe będą nabywać i wdrażać systemy AI.
Obejmuje też „trudne” pytania: jak chronić infrastrukturę krytyczną, jak zarządzać wrażliwymi danymi i jak reagować, gdy te same narzędzia AI mogą służyć zarówno celom cywilnym, jak i militarnym.
Schmidt ma znaczenie, ponieważ znajduje się na styku czterech debat kształtujących wybory polityczne:
To nie biografia ani lista wszystkich poglądów Schmidta. Skupiamy się na jego publicznych rolach (takich jak prace doradcze i szeroko nagłaśniane inicjatywy) oraz na tym, co te kamienie milowe mówią o sposobie, w jaki wpływ na politykę AI jest wywierany — przez raporty, priorytety finansowania, pomysły na zamówienia publiczne i przekładanie technicznej rzeczywistości na działania rządowe.
Publiczny wizerunek Erica Schmidta często łączy się z Google, ale jego droga do przywództwa technologicznego zaczęła się o wiele wcześniej niż codzienne używanie wyszukiwarek.
Schmidt kształcił się jako informatyk i zaczynał w rolach łączących inżynierię z zarządzaniem. Z czasem przeszedł do wyższych stanowisk w dużych firmach technologicznych, w tym Sun Microsystems i później Novell. Te doświadczenia były ważne, ponieważ uczyły specyficznego rodzaju przywództwa: jak prowadzić złożone organizacje, tworzyć produkty na skalę globalną i podejmować decyzje technologiczne pod presją rynków, konkurentów i regulacji.
Gdy Schmidt został CEO Google w 2001 roku, firma była wciąż we wczesnej fazie — szybko rosła, miała misję i założycieli, którzy potrzebowali doświadczonego menedżera, by sprofesjonalizować działanie. Jego zadaniem nie było tyle „wynaleźć wyszukiwanie”, ile zbudować strukturę umożliwiającą powtarzalną innowację: klarowność w podejmowaniu decyzji, mocne kanały rekrutacji i rytmy operacyjne zdolne nadążyć za hiperruchem rozwoju.
Era wzrostu Google nie dotyczyła tylko lepszych wyników; chodziło o obsługę ogromnych wolumenów zapytań, stron internetowych i decyzji reklamowych — spójnie i szybko. „Wyszukiwanie na dużą skalę” rodziło też pytania o zaufanie wykraczające poza inżynierię: jak traktowane są dane użytkowników, jak decyzje rankingowe wpływają na to, co ludzie widzą, i jak platforma reaguje, gdy błędy stają się publiczne.
W tym okresie wyraźne stały się pewne wzorce: skłonność do zatrudniania silnych talentów technicznych, nacisk na koncentrację (priorytetyzowanie tego, co ważne) oraz myślenie systemowe — traktowanie produktów, infrastruktury i ograniczeń politycznych jako elementów jednego systemu operacyjnego. Te nawyki tłumaczą, dlaczego Schmidt później zwrócił się w stronę kwestii narodowych, gdzie koordynacja i kompromisy są równie ważne jak wynalazek.
Wyszukiwanie wydaje się proste — wpisz zapytanie, uzyskaj odpowiedź — ale system za tym to zdyscyplinowana pętla zbierania informacji, testowania założeń i zdobywania zaufania użytkowników na dużą skalę.
Na wysokim poziomie wyszukiwanie ma trzy zadania.
Po pierwsze, crawling: zautomatyzowane programy odkrywają strony, podążając za linkami i ponownie odwiedzając serwisy, by wykryć zmiany.
Po drugie, indeksowanie i ranking: system porządkuje znalezione treści, a następnie ustala kolejność wyników, korzystając z sygnałów oceniających jakość i przydatność.
Po trzecie, trafność: ranking to nie „najlepsza strona w internecie”, lecz „najlepsza strona dla tej osoby, dla tego zapytania, teraz”. To oznacza interpretację intencji, języka i kontekstu — nie tylko dopasowanie słów kluczowych.
Era wyszukiwania utrwaliła praktyczną prawdę: dobre rezultaty zwykle pochodzą z pomiaru, iteracji i infrastruktury gotowej na skalę.
Zespoły wyszukiwawcze żyły danymi — wzorcami kliknięć, przekształceniami zapytań, wydajnością stron, raportami o spamu — ponieważ ujawniały, czy zmiany naprawdę pomagały użytkownikom. Małe poprawki w rankingu często oceniano przez kontrolowane eksperymenty (np. testy A/B), by nie polegać jedynie na intuicji.
Nic z tego nie działa bez infrastruktury. Ogromne systemy rozproszone, serwowanie o niskim opóźnieniu, monitorowanie i szybkie procedury przywracania zamieniały „nowe pomysły” w bezpieczne wdrożenia. Możliwość prowadzenia wielu eksperymentów i szybkiego uczenia się stała się przewagą konkurencyjną.
Te same tematy dobrze pasują do współczesnego myślenia o polityce AI:
Najważniejsze: systemy skierowane do użytkownika rosną lub upadają na zaufaniu. Jeśli wyniki wydają się manipulowane, niebezpieczne lub ciągle błędne, adopcja i legitymacja topnieją — to wniosek jeszcze bardziej istotny dla systemów AI, które generują odpowiedzi, a nie tylko linki.
Gdy AI traktuje się jako priorytet narodowy, rozmowa przesuwa się z „co ten produkt powinien robić?” na „co ta zdolność może zrobić dla społeczeństwa, gospodarki i bezpieczeństwa?”. To inny rodzaj podejmowania decyzji. Stawki rosną: zwycięzcy i przegrani to nie tylko firmy i klienci, ale przemysły, instytucje, a czasem całe państwa.
Wybory produktowe zwykle optymalizują wartość dla użytkownika, przychody i reputację. AI będące priorytetem narodowym wymusza kompromisy między szybkością a ostrożnością, otwartością a kontrolą oraz innowacją a odpornością. Decyzje o dostępie do modeli, udostępnianiu danych i harmonogramach wdrożeń mogą wpływać na ryzyko dezinformacji, zakłócenia rynku pracy i gotowość obronną.
Rządy interesują się AI z tych samych powodów, co prąd, lotnictwo czy internet: może zwiększyć produktywność narodową i przekształcić układ sił.
Systemy AI są często „dual-use” — pomocne w medycynie i logistyce, ale także możliwe do zastosowania w operacjach cybernetycznych, inwigilacji czy rozwoju broni. Nawet cywilne przełomy mogą zmienić planowanie militarne, łańcuchy dostaw i workflow wywiadu.
Większość zaawansowanych zdolności AI znajduje się w prywatnych firmach i czołowych laboratoriach badawczych. Rządy potrzebują dostępu do ekspertyzy, mocy obliczeniowej i doświadczenia we wdrażaniu; firmy potrzebują jasności co do reguł, ścieżek zamówień i odpowiedzialności.
Ale współpraca rzadko przebiega gładko. Firmy obawiają się o IP, niekorzystną konkurencję i bycie proszonymi o działania egzekucyjne. Rządy obawiają się przejęcia, nierównej rozliczalności i polegania na niewielu dostawcach dla infrastruktury strategicznej.
Krajowa strategia AI to więcej niż memo. Zwykle obejmuje:
Gdy te elementy traktowane są jako priorytet narodowy, stają się narzędziami polityki — nie tylko decyzjami biznesowymi.
Wpływ Erica Schmidta na strategię AI to mniej pisanie ustaw, a bardziej kształtowanie „domyślnej narracji”, którą decydenci wykorzystują, gdy działają. Po odejściu z Google stał się ważnym głosem w amerykańskich kręgach doradczych dotyczących AI — przede wszystkim jako przewodniczący National Security Commission on Artificial Intelligence (NSCAI) — oraz był zaangażowany w inne rady, komisje i projekty badawcze łączące ekspertyzę przemysłu z priorytetami rządowymi.
Komisje i zespoły zadaniowe zwykle pracują w napiętych terminach, zbierając informacje od agencji, środowisk akademickich, firm i społeczeństwa obywatelskiego. Wyniki ich pracy mają charakter praktyczny i łatwy do udostępnienia:
Te dokumenty są ważne, bo stają się punktami odniesienia. Pracownicy je cytują, agencje odzwierciedlają ich strukturę, a dziennikarze używają ich do wyjaśniania, dlaczego temat zasługuje na uwagę.
Grupy doradcze nie dysponują środkami finansowymi ani władzą reglamentacyjną. Proponują; urzędnicy i politycy decydują. Nawet wpływowy raport konkuruje z budżetami, ograniczeniami politycznymi, kompetencjami prawnymi i zmieniającymi się priorytetami narodowymi.
Jednak granica między „pomysłami” a „działaniem” może być krótka, gdy raport oferuje gotowe do wdrożenia kroki — szczególnie w obszarach zamówień, standardów czy programów kadr.
Jeśli chcesz ocenić, czy praca doradcy zmieniła wyniki, szukaj dowodów poza nagłówkami:
Wpływ jest mierzalny, gdy idee przekształcają się w powtarzalne mechanizmy polityczne — nie tylko w pamiętne cytaty.
Krajowa strategia AI to nie pojedyncze prawo ani jednorazowy pakiet finansowy. To zestaw skoordynowanych wyborów dotyczących tego, co budować, kto ma to budować i jak kraj będzie wiedział, czy to działa.
Publiczne finansowanie badań pomaga tworzyć przełomy, w które rynek prywatny może nie inwestować wystarczająco — zwłaszcza prace trwające lata, o niepewnym zwrocie lub skupione na bezpieczeństwie. Silna strategia łączy badania podstawowe (uniwersytety, laboratoria) z programami stosowanymi (zdrowie, energia, usługi publiczne), aby odkrycia nie utknęły zanim dotrą do użytkowników.
Postęp w AI zależy od badaczy, inżynierów i zespołów produktowych — ale też od personelu politycznego, który potrafi ocenić systemy, oraz zespołów zakupowych, które umieją je rozsądnie nabywać. Krajowe plany zwykle łączą edukację, szkolenia zawodowe i ścieżki imigracyjne, bo braków nie da się rozwiązać tylko pieniędzmi.
„Compute” to surowa moc potrzebna do trenowania i uruchamiania modeli — zwykle w dużych centrach danych. Zaawansowane układy (GPU i specjalistyczne akceleratory) są silnikami dostarczającymi tę moc.
To sprawia, że układy i centra danych przypominają sieci energetyczne czy porty: nieefektowne, ale niezbędne. Jeśli kraj nie ma dostępu do wystarczającej liczby układów najwyższej klasy — lub nie potrafi niezawodnie zasilać i chłodzić centrów danych — może mieć trudności z budowaniem konkurencyjnych modeli lub wdrażaniem ich na dużą skalę.
Strategia ma znaczenie tylko wtedy, gdy AI poprawia wyniki w priorytetowych obszarach: obronie, wywiadzie, opiece zdrowotnej, edukacji i usługach publicznych. Wymaga to zasad zamówień, standardów cyberbezpieczeństwa i jasnej odpowiedzialności, gdy systemy zawiodą. Oznacza to też pomoc mniejszym firmom we wdrożeniu AI, aby korzyści nie ograniczały się do kilku gigantów.
W praktyce wiele agencji potrzebuje szybszych sposobów prototypowania i bezpiecznej iteracji przed zobowiązaniem się do wieloletnich kontraktów. Narzędzia takie jak Koder.ai (platforma vibe-coding, która buduje aplikacje webowe, backend i mobilne z rozmowy, z trybem planowania, snapshotami i rollbackiem) ilustrują kierunek, w jakim zmierzają zamówienia: krótsze pętle informacji zwrotnej, jaśniejsza dokumentacja zmian i bardziej mierzalne pilotaże.
Więcej danych może poprawić AI, ale „zbieraj wszystko” tworzy realne ryzyka: nadzór, wycieki i dyskryminację. Praktyczne strategie stosują ukierunkowane udostępnianie danych, metody zachowujące prywatność i jasne ograniczenia — zwłaszcza w obszarach wrażliwych — zamiast traktować prywatność jako rzecz nieistotną lub absolutną.
Bez pomiaru strategie stają się sloganami. Rządy mogą wymagać wspólnych benchmarków wydajności, testów red-team dla bezpieczeństwa, audytów zewnętrznych dla zastosowań wysokiego ryzyka i ciągłej ewaluacji po wdrożeniu — tak, by sukces był widoczny, a problemy wykrywane wcześnie.
Agencje obrony i wywiadu interesują się AI z prostego powodu: może zmienić szybkość i jakość decyzji. Modele potrafią szybciej przeanalizować zdjęcia satelitarne, tłumaczyć przechwycone komunikaty, wykrywać anomalie w cyberprzestrzeni i pomagać analitykom łączyć słabe sygnały w dużych zbiorach danych. Wykorzystane dobrze, to wcześniejsze ostrzeganie, lepsze kierowanie ograniczonych zasobów i mniej godzin ludzkiej pracy nad rutynowymi zadaniami.
Wiele najbardziej wartościowych zdolności AI to jednocześnie najłatwiejsze do niewłaściwego użycia. Modele ogólnego przeznaczenia, które piszą kod, planują zadania czy generują przekonujący tekst, mogą wspierać legalne misje — np. automatyzując raporty czy przyspieszając odkrywanie luk — ale też:
Wyzwanie bezpieczeństwa narodowego to raczej powszechnie dostępne narzędzia, które wzmacniają zarówno obronę, jak i ofensywę, niż pojedyncze „uzbrojone AI”.
Rządy mają problem z przyjmowaniem szybko zmieniającego się AI, ponieważ tradycyjne zamówienia oczekują stabilnych wymagań, długich cykli testowych i klarownych linii odpowiedzialności. W przypadku modeli, które często się aktualizują, agencje potrzebują sposobów weryfikacji tego, co kupują (twierdzenia o danych treningowych, limity wydajności, postura bezpieczeństwa) i kto odpowiada, gdy coś pójdzie nie tak — dostawca, integrator czy agencja.
Działające rozwiązanie łączy innowację z wykonalnymi kontrolami:
Dobrze wdrożone zabezpieczenia nie hamują wszystkiego. Priorytetyzują kontrolę tam, gdzie stawki są najwyższe — analiza wywiadowcza, obrona cybernetyczna i systemy związane z decyzjami ratującymi życie.
Geopolityka kształtuje strategię AI, ponieważ najbardziej zdolne systemy zależą od mierzalnych składników konkurencji: najlepszych talentów badawczych, dużej mocy obliczeniowej, wysokiej jakości danych i firm potrafiących to wszystko zintegrować. W tym kontekście dynamika USA–Chiny często opisywana jest jako „wyścig”, ale takie ujęcie może zataić ważne rozróżnienie: wyścig o zdolności to nie to samo co wyścig o bezpieczeństwo i stabilność.
Czysty wyścig zdolności nagradza prędkość — wdroż pierwszy, skaluj najszybciej, zdobądź najwięcej użytkowników. Podejście skoncentrowane na bezpieczeństwie i stabilności nagradza powściągliwość — testowanie, monitorowanie i wspólne reguły zmniejszające wypadki i nadużycia.
Większość decydentów próbuje znaleźć równowagę między obiema ścieżkami. Kompromis jest realny: surowsze zabezpieczenia mogą spowolnić wdrożenia, ale brak inwestycji w bezpieczeństwo może tworzyć ryzyka systemowe i podważać zaufanie publiczne, co też spowalnia postęp.
Konkurencja to nie tylko „kto ma najlepszy model”. Chodzi też o to, czy kraj potrafi nieprzerwanie kształcić i przyciągać badaczy, inżynierów i budowniczych produktów.
W USA wiodące uczelnie, finansowanie venture i gęsta sieć laboratoriów i startupów wzmacniają ekosystem badawczy. Jednocześnie zdolności AI coraz bardziej koncentrują się w kilku firmach z budżetami na compute i dostępem do danych, co przyspiesza przełomy, ale może ograniczać konkurencję, zamykać otwartość akademicką i komplikować partnerstwa z rządem.
Kontrole eksportowe najlepiej rozumieć jako narzędzie spowalniania dyfuzji kluczowych składników — zwłaszcza zaawansowanych układów i specjalistycznego sprzętu produkcyjnego — bez całkowitego odcięcia handlu.
Sojusze są ważne, bo łańcuchy dostaw są międzynarodowe. Koordynacja z partnerami może wyrównać standardy, dzielić obciążenia bezpieczeństwa i zmniejszać „przecieki”, gdzie ograniczona technologia przepływa przez państwa trzecie. Ostrożnie prowadzone sojusze mogą też promować interoperacyjność i wspólne oczekiwania co do bezpieczeństwa, zamiast dzielić AI na fragmentowane regionalne stosy.
Praktyczne pytanie dla każdej strategii narodowej brzmi: czy wzmacnia zdolność innowacyjną w długim okresie, jednocześnie zapobiegając temu, by konkurencja zachęcała do lekkomyślnych wdrożeń?
Gdy systemy AI kształtują zatrudnienie, decyzje kredytowe, triage medyczne czy działania policyjne, „zarządzanie” przestaje być sloganem i staje się praktycznym pytaniem: kto odpowiada, gdy system zawiedzie — i jak zapobiegać szkodom, zanim się pojawią?
Większość krajów używa kilku dźwigni zamiast jednej ustawy:
Trzy kwestie pojawiają się prawie w każdej debacie politycznej:
Systemy AI są bardzo zróżnicowane: chatbot, narzędzie diagnostyki medycznej i system namierzania nie niosą tych samych ryzyk. Dlatego zarządzanie coraz częściej podkreśla ewaluację modeli (testy przed wdrożeniem, red-teaming, ciągłe monitorowanie) z uwzględnieniem kontekstu.
Jedna ogólna zasada typu „ujawnij dane treningowe” może być wykonalna dla niektórych produktów, ale niemożliwa dla innych z powodów bezpieczeństwa, IP lub ochrony. Analogicznie, pojedynczy benchmark bezpieczeństwa może wprowadzać w błąd, jeśli nie odzwierciedla warunków rzeczywistych lub społeczności dotkniętych zmianami.
Rząd i przemysł nie mogą być jedynymi sędziami. Organizacje społeczeństwa obywatelskiego, badacze akademiccy i niezależne laboratoria testowe pomagają wykrywać szkody wcześniej, walidować metody ewaluacji i reprezentować osoby narażone na ryzyko. Finansowanie dostępu do mocy obliczeniowej, danych i bezpiecznych ścieżek testowych często jest równie ważne jak tworzenie nowych zasad.
Gdy AI staje się publicznym priorytetem, rząd nie może zbudować wszystkiego sam — i przemysł nie może sam ustalać zasad. Najlepsze wyniki zwykle rodzą się ze współpracy, która jasno określa, jaki problem rozwiązuje i jakie ograniczenia musi respektować.
Dobra współpraca zaczyna się od jasnych celów (np. szybsze zamówienia bezpiecznej mocy obliczeniowej dla badań, lepsze narzędzia obrony cybernetycznej, ulepszone metody audytu dla modeli o wysokim wpływie) i równie jasnych zabezpieczeń. Zabezpieczenia często obejmują prywatność-by-design, kontrole bezpieczeństwa, udokumentowane standardy ewaluacji i niezależny nadzór. Bez nich partnerstwa dryfują w stronę niejasnych „innowacyjnych” inicjatyw, które trudno zmierzyć i łatwo polityzować.
Rząd wnosi legitymację, mandat i zdolność finansowania prac o długim horyzoncie, które mogą nie przynieść szybkich korzyści. Przemysł wnosi praktyczne doświadczenie inżynieryjne, dane operacyjne o rzeczywistych awariach i możliwość iteracji. Uczelnie i organizacje non-profit często dopełniają trójkąta, dostarczając otwarte badania, benchmarki i rurociągi kadrowe.
Największe napięcie to sprzeczne zachęty. Firmy mogą promować standardy odpowiadające ich mocnym stronom; agencje mogą wybierać najtańsze oferty lub krótkie terminy, które podważają bezpieczeństwo i testowanie. Innym recurrent problemem są „zakupy w czarnej skrzynce”, gdy agencje nabywają systemy bez wystarczającej widoczności w dane treningowe, ograniczenia modeli czy politykę aktualizacji.
Konflikty interesów są realnym problemem, zwłaszcza gdy prominentne postacie doradzają rządom, zachowując jednocześnie powiązania z firmami, funduszami czy radami nadzorczymi. Ujawnianie powiązań ma znaczenie, bo pomaga opinii publicznej i decydentom rozróżnić ekspertyzę od interesu własnego. Chroni też wiarygodnych doradców przed oskarżeniami, które mogą storpedować pożyteczną pracę.
Współpraca działa najlepiej, gdy jest konkretna:
Te mechanizmy nie eliminują sporów, ale czynią postęp mierzalnym i ułatwiają wyegzekwowanie odpowiedzialności.
Przejście Erica Schmidta od skalowania wyszukiwania konsumenckiego do doradzania w kwestiach narodowych AI podkreśla prostą zmianę: „produkt” przestaje być tylko usługą — staje się zdolnością, bezpieczeństwem i zaufaniem publicznym. To sprawia, że niejasne obietnice łatwo się sprzedają, a trudno zweryfikować.
Użyj ich jako szybkiego filtra, gdy słyszysz nowy plan, white paper lub przemówienie:
Era wyszukiwania nauczyła, że skala wszystko wzmacnia: korzyści, błędy i mechanizmy motywacyjne. W kontekście krajowej strategii AI oznacza to:
Krajowa strategia AI może otworzyć realne możliwości: lepsze usługi publiczne, silniejszą gotowość obronną i bardziej konkurencyjne badania. Ale ta sama technologia o podwójnym zastosowaniu podnosi stawki. Najlepsze deklaracje łączą ambicję z zabezpieczeniami, które można wskazać i weryfikować.
Dalsze lektury: zapoznaj się z innymi perspektywami w /blog oraz praktycznymi przewodnikami w /resources/ai-governance i /resources/ai-safety.
Strategia narodowa dotycząca AI to skoordynowany plan, w jaki sposób kraj będzie rozwijać, wdrażać i regulować AI, aby służyło celom publicznym. W praktyce zwykle obejmuje:
Bo jego wpływ dziś dotyczy mniej konsumenckiej technologii, a bardziej sposobu, w jaki rządy przekładają zdolności AI na możliwości państwa. Jego publiczne role (zwłaszcza praca doradcza i w komisjach) znajdują się na styku innowacji, bezpieczeństwa, zarządzania i konkurencji geopolitycznej — obszarów, gdzie decydenci potrzebują wiarygodnych i praktycznych wyjaśnień, co AI potrafi, a czego nie.
Organy doradcze zazwyczaj nie uchwalają praw ani nie wydają środków, ale mogą ustawić domyślny schemat działania, który decydenci będą kopiować. Często przygotowują:
Szukaj dowodów, że idee stały się powtarzalnymi mechanizmami, a nie tylko nagłówkami:
Przy dużej skali rzadkie błędy stają się częstymi zdarzeniami. Dlatego strategia potrzebuje pomiary i operacje, a nie tylko zasad:
Oznacza to, że ta sama zdolność może przynosić korzyści cywilne i umożliwiać nadużycia. Na przykład modele pomagające w kodowaniu, planowaniu czy generowaniu tekstu mogą też:
Polityka zwykle skupia się na dostępie zarządzanym ryzykiem, testowaniu i monitorowaniu, zamiast zakładać wyraźny podział między „cywilnym” a „militarnym” AI.
Tradycyjne zamówienia zakładają stabilne wymagania i długo zmieniające się produkty. Systemy AI mogą się często aktualizować, więc agencje muszą weryfikować:
„Compute” (centrum danych) i zaawansowane układy (GPU/akceleratory) to moce potrzebne do trenowania i uruchamiania modeli. Strategie traktują je jak infrastrukturę krytyczną, bo niedobory lub problemy w łańcuchu dostaw mogą blokować:
Typowe narzędzia zarządzania obejmują:
Partnerstwa mogą przyspieszyć wdrożenie i poprawić bezpieczeństwo, ale wymagają zabezpieczeń:
Dobrze zaprojektowana współpraca równoważy innowację z odpowiedzialnością, zamiast zlecać jedno z nich.
Praktyczne podejście to zwykle podział według ryzyka: surowsze kontrole tam, gdzie skutki są największe.