Poznaj kontrariański styl inwestycyjny Petera Thiela i jak on kształtował wczesne zakłady powiązane z AI — od podejścia od tezy po ryzyka, krytykę i praktyczne wnioski.

Peter Thiel jest najbardziej znany jako inwestor kontrariański i nieprzeciętny myśliciel — ktoś, kto potrafi publicznie wyglądać na błędnego, zanim okaże się słuszny (albo po prostu dłużej pozostawać w błędzie niż większość ludzi potrafi to znieść). Ten instynkt — kwestionować konsensus, szukać przeoczonej dźwigni i angażować się wcześnie — niezwykle dobrze pasuje do sposobu, w jaki wartość związana z „AI” budowała się przez ostatnie dwie dekady.
Ten artykuł nie twierdzi, że Thiel wybrał „ChatGPT zanim powstał ChatGPT”. Zamiast tego skupia się na zakładach powiązanych z AI, które uczyniły późniejsze fale AI możliwymi lub bardziej uzasadnionymi: infrastruktura danych, analityka, automatyzacja, bezpieczeństwo i oprogramowanie ukierunkowane na obronność.
Pomyśl: firmy i systemy, które przekształcają nieporządek informacji z rzeczywistego świata w decyzje, prognozy i działania.
To przewodnik oparty na zasadach, osadzony w publicznie udokumentowanych przykładach (historie firm, wywiady, zgłoszenia i szeroko relacjonowane inwestycje). Celem nie jest uwielbienie bohatera ani zdradzenie „formuły Thiela”. Chodzi o wydobycie playbooka, który możesz poddać próbie — niezależnie od tego, czy jesteś operatorem budującym produkt AI, czy inwestorem próbującym odróżnić to, co realne, od szumu.
W trakcie omówimy praktyczne kwestie, które mają znaczenie, gdy narracje o AI stają się głośne:
Jeśli szukasz sposobu myślenia o wczesnych inwestycjach w AI bez gonienia za trendami, kontrariańskie ramy, takie jak Thiela, są użytecznym punktem wyjścia.
Kontrariańskie inwestowanie, w prostych słowach, to wspieranie idei, której większość mądrych ludzi nie chce popierać — bo uważają ją za błędną, nudną, politycznie ryzykowną lub po prostu zbyt wczesną.
Zakład nie brzmi „jestem inny”. Brzmi: „mam rację w sprawie czegoś, co inni przeoczają, a wypłata jest duża, jeśli mam rację”.
Technologia porusza się falami: głośne okresy hype’u, po których następują cichsze fazy, gdy budowane są prawdziwe produkty i adopcja kumuluje się. Kontrariański zakład często unika najgłośniejszej części cyklu. Nie dlatego, że hype zawsze jest fałszywy, lecz dlatego, że hype zwykle kompresuje zwroty: ceny rosną, konkurencja napływa i trudniej znaleźć przewagę.
Ciche kumulowanie to przeciwieństwo: mniej uwagi, mniej naśladowców, więcej czasu na iterację. Wiele ważnych biznesów wygląda „niemodnie” tuż przed tym, jak stają się nieuniknione.
Thiela często łączy się z ideą „sekretów” — prawdziwych, ale nieoczywistych przekonań. W kategoriach inwestycyjnych sekret to teza, którą można (przynajmniej częściowo) sprawdzić wobec rzeczywistości: zmieniające się koszty, nowe możliwości, przesunięcia regulacyjne, przewagi dystrybucji lub „data moat”.
Gdy sekret jest wiarygodny, tworzy asymetryczny zakład: strata ogranicza się do zainwestowanej kwoty, podczas gdy zysk może być wielokrotny, jeśli świat pójdzie w twoim kierunku. To szczególnie istotne dla zakładów powiązanych z AI, gdzie czas i efekty drugiego rzędu (dostęp do danych, lock-in workflowów, ekonomia mocy obliczeniowej) mają znaczenie przynajmniej tak samo jak surowa jakość modeli.
Bycie kontrariańskim nie oznacza odruchowego sprzeciwiania się konsensusowi. Nie jest to cecha osobowości ani strategia brandingowa. I nie jest „poszukiwaniem ryzyka” dla samego ryzyka.
Użyteczna zasada: kontrarianizm ma sens tylko wtedy, gdy potrafisz wytłumaczyć dlaczego tłum odrzuca coś — i dlaczego to odrzucenie utrzyma się wystarczająco długo, byś mógł zbudować przewagę. W przeciwnym razie nie jesteś kontrariański; jesteś po prostu wczesny, hałaśliwy lub w błędzie.
Inwestowanie od tezy zaczyna się od jasnego, testowalnego przekonania o tym, jak świat się zmieni — i dopiero potem szuka firm, które do tego pasują.
Podejście często przypisywane Peterowi Thielowi nie polega na „stawianiu wielu małych, bezpiecznych zakładów”. Jest bliżej do: znaleźć kilka okazji, w których możesz być bardzo słuszny, bo wyniki w technologii mają tendencję do podążania za prawem potęgi.
Miej wyróżniający się pogląd. Jeśli twoja teza brzmi jak konsensus („AI będzie wielkie”), nie pomoże ci to w wyborze zwycięzców. Użyteczna teza ma krawędzie: które zdolności AI są istotne, które branże wdrożą je najpierw i dlaczego incumbenci będą mieli z tym trudności.
Spodziewaj się zwrotów typu power-law. Wyniki venture często zdominowane są przez małą liczbę outlierów. To skłania inwestorów do koncentracji czasu i przekonania, przy jednoczesnej szczerości co do tego, ile tez będzie błędnych.
Szukaj sekretów, nie sygnałów. Podążanie za trendami napędzają sygnały (rundy finansowania, hype, etykiety kategorii). Inwestowanie od tezy próbuje zidentyfikować „sekrety”: niedocenione bóle klientów, przeoczone przewagi danych lub klin dystrybucji, którego inni nie dostrzegają.
Rynki AI poruszają się szybko, a „AI” zmienia etykietę w każdym cyklu. Silna teza pomaga unikać kupowania historii i zamiast tego ocenić trwałe czynniki: kto posiada wartościowe dane, kto potrafi wdrożyć do rzeczywistych workflowów i kto utrzyma wydajność oraz marże w miarę komodytyzacji modeli.
Uwaga: Przy przypisywaniu konkretnych twierdzeń Thielowi cytuj źródła pierwotne (np. Zero to One, nagrane wywiady i publiczne wystąpienia), zamiast streszczeń z drugiej ręki.
Gdy ludzie patrzą wstecz na wczesne inwestycje „AI”, łatwo jest rzutować współczesne terminy — LLMy, modele bazowe, klastry GPU — na zupełnie inną epokę. W tamtym czasie wiele najbardziej wartościowych zakładów „w kształcie AI” nie była w ogóle reklamowana jako AI.
W wcześniejszych cyklach „AI” często oznaczało systemy ekspertowe: oprogramowanie regułowe projektowane, by naśladować specjalistyczne podejmowanie decyzji („jeśli X, to Y”). Te systemy mogły być imponujące w wąskich domenach, ale były kruche — trudne do aktualizacji, drogie w utrzymaniu i ograniczone, gdy rzeczywistość odbiegała od książki reguł.
Wraz ze spadkiem kosztu i wzrostem dostępności danych, ramy przesunęły się ku data mining, uczeniu maszynowemu i analityce predykcyjnej. Główna obietnica nie była w inteligencji podobnej do ludzkiej; była w mierzalnej poprawie wyników: lepsze wykrywanie oszustw, inteligentniejsze targetowanie, wcześniejsze sygnały ryzyka, mniej błędów operacyjnych.
Przez długi czas nazywanie czegoś „AI” mogło zaszkodzić wiarygodności u nabywców. Przedsiębiorstwa często kojarzyły „AI” z hype’em, akademickimi demonstracjami lub projektami naukowymi, które nie przeżyją ograniczeń produkcyjnych.
Dlatego firmy pozycjonowały się językiem, któremu zespoły zakupowe ufały: analityka, wsparcie decyzji, scoring ryzyka, automatyzacja lub platformy danych. Techniki mogły obejmować uczenie maszynowe, ale pitch sprzedażowy podkreślał niezawodność, audytowalność i ROI.
To ma znaczenie dla interpretowania zakładów powiązanych z Thielem: wiele z nich było funkcjonalnie „AI” — przekształcały dane w decyzje — bez używania tej etykiety.
Niektóre z najbardziej trwałych przewag w AI pochodzą z fundamentów, które na pierwszy rzut oka nie wyglądają jak „produkty AI”:
Jeśli firma posiada te zasoby wejściowe, może przepłynąć przez wiele fal AI w miarę ulepszania się technik.
Użyteczna zasada: oceniaj inwestycję „AI” przez to, co mogła zrobić wtedy — zmniejszać niepewność, poprawiać decyzje i skalować uczenie się z danych rzeczywistych — a nie przez to, czy przypominała współczesne generatywne AI. Takie ujęcie czyni nadchodzące przykłady jaśniejszymi i sprawiedliwszymi.
Zakłady zgodne z Thielem często na pierwszy rzut oka nie wyglądają jak „firmy AI”. Wzorzec mniej dotyczy buzzwordów, a bardziej budowania niesprawiedliwych przewag, które czynią AI (lub zaawansowaną automatyzację) wyjątkowo potężnym po jej zastosowaniu.
Powtarzający się sygnał to uprzywilejowany dostęp do wysoko-sygnałowych danych: danych trudnych do zebrania, kosztownych do oznaczenia lub prawnie trudnych do pozyskania. W praktyce mogą to być dane operacyjne od przedsiębiorstw, unikalna telemetria sieciowa w zabezpieczeniach lub specjalistyczne zbiory danych w środowiskach regulowanych.
Chodzi nie o „wielkie dane”. Chodzi o dane, które poprawiają decyzje i stają się cenniejsze w miarę działania systemu — pętle sprzężenia zwrotnego, których konkurenci nie mogą łatwo skopiować.
Szukaj zespołów inwestujących w kluczowe zdolności: infrastrukturę, integrację workflowów lub broniące się IP techniczne. W obszarach powiązanych z AI może to oznaczać nowe rurociągi danych, wdrażanie modeli w ograniczonych środowiskach, warstwy weryfikacji lub integracje, które osadzają produkt w operacjach krytycznych dla misji.
Gdy produkt jest głęboko osadzony, koszty przełączenia i dystrybucja stają się moatem — często trwalszym niż pojedyncza przewaga modelu.
Inny wspólny wątek to wybieranie domen, w których porażka jest kosztowna: bezpieczeństwo, obrona, oprogramowanie dla przedsiębiorstw obciążonych regulacjami i infrastruktura krytyczna. Te rynki nagradzają niezawodność, zaufanie i długoterminowe kontrakty — warunki, które mogą uzasadniać duże, kontrariańskie inwestycje.
Arkusze kalkulacyjne, zaopatrzenie, tożsamość, audyty, reakcja na incydenty — to może brzmieć mało efektownie, a jednak pełne są powtarzalnych decyzji i ustrukturyzowanych workflowów. Właśnie tam AI może stworzyć skokową wydajność, zwłaszcza w połączeniu z własnymi danymi i ścisłą integracją.
Jeśli cytujesz konkretne warunki umów, daty lub udział funduszu, weryfikuj je w źródłach pierwotnych (zgłoszenia SEC, oficjalne komunikaty prasowe, bezpośrednie cytaty lub renomowane media). Unikaj sugerowania zaangażowania lub zamiaru tam, gdzie nie jest to publicznie udokumentowane.
Founders Fund ma reputację stawiania skoncentrowanych, kierowanych przekonaniem zakładów — często na kategorie, które wydają się niemodne lub przedwczesne. Ta reputacja to nie tylko postawa; to sposób, w jaki struktura funduszu pozwala wyrazić tezę.
Fundusz VC zbiera kapitał z określoną strategią, a następnie lokuje go w wielu firmach z oczekiwaniem, że niewielka liczba outlierów przyniesie większość zwrotów.
Fundusz prowadzony przez tezę nie zaczyna od „kto teraz zbiera?”. Zaczyna od poglądu na świat („co będzie prawdą za 5–10 lat?”), a potem szuka zespołów budujących w kierunku tej przyszłości.
W praktyce realizacja wygląda zwykle tak:
Ponieważ wyniki podążają za prawem potęgi, konstrukcja portfela ma znaczenie: możesz być „wiele razy w błędzie” i wciąż wygrać, jeśli kilka inwestycji stanie się definiującymi kategorię. Dlatego fundusze często rezerwują znaczący kapitał na follow-ony — dokładając się później często tworzy zwroty.
Timing jest szczególnie wrażliwy w rynkach powiązanych z AI, bo infrastruktura, dostępność danych i cykle adopcyjne rzadko poruszają się synchronicznie.
Kontrariański zakład może być „wcześnie” w sensie kalendarzowym, ale nadal „na czas” względem warunków umożliwiających (obniżka kosztów obliczeń, rurociągi danych, gotowość nabywców, regulacje).
Błędy w timingu to sposób, w jaki obiecujące firmy AI stają się wiecznymi projektami badań i rozwoju.
Rozmawiając o konkretnych udziałach Founders Fund lub powiązanych z Peterem Thielem, traktuj twierdzenia jak cytaty: korzystaj z publicznie weryfikowalnych źródeł (komunikaty prasowe, zgłoszenia regulacyjne, wiarygodne raporty), zamiast plotek czy streszczeń drugiej ręki. To utrzymuje analizę w ryzach i czyni wnioski przenośnymi poza mitologię pojedynczego funduszu.
Te mini studia przypadków są celowo ograniczone do tego, co można zweryfikować w publicznych dokumentach (zawiadomieniach firm, oficjalnych ogłoszeniach i wypowiedziach na nagraniach). Celem jest nauka wzorców — nie zgadywanie prywatnych intencji.
Co cytować/potwierdzić (publicznie): timing wczesnych rund finansowania (tam gdzie ujawniono), rola Thiela jako współzałożyciela/wczesnego inwestora oraz to, jak Palantir opisywał swój biznes w materiałach publicznych (np. S-1 i późniejsze komunikaty do inwestorów).
Co cytować/potwierdzić (publicznie): udział Founders Fund (tam gdzie ogłoszono), timing rund i publicznie deklarowane skupienie Anduril na produktach w komunikatach prasowych i ogłoszeniach kontraktów.
Pisząc lub analizując „zakłady w stylu Thiela”, używaj cytatów dla każdego twierdzenia faktograficznego (daty, role, rozmiar rund, roszczenia klientów). Unikaj stwierdzeń typu „zainwestowali, ponieważ…”, jeśli nie pochodzi to z weryfikowalnego źródła.
Zakłady kontrariańskie powiązane z AI rzadko upadają dlatego, że pomysł jest jawnie błędny — upadają, bo linia czasu jest dłuższa, dowody są bardziej hałaśliwe, a otoczenie się zmienia.
Radzenie sobie z tą rzeczywistością oznacza akceptację niepewności na wczesnym etapie, przy jednoczesnym budowaniu zabezpieczeń zapobiegających uczynieniu pojedynczego przekonania nieodwracalnym błędem.
Zakład od tezy często wygląda „wczesny” przez lata. Wymaga to cierpliwości (czekania na dane, dystrybucję lub regulacje) i tolerancji dla nieczystych sygnałów — częściowego product-market fitu, zmieniających się możliwości modeli i niejasnej ekonomiki jednostkowej.
Sztuka polega na pozostaniu cierpliwym bez bycia biernym: określ kamienie milowe, które testują tezę, nie metryki dla lansu.
Wielkość pozycji: Dopasuj pierwszy czek tak, by przetrwać błąd. Jeśli zakład zależy od wielu niewiadomych (jakość modelu i zgoda regulacyjna i adopcja przedsiębiorstw), początkowe zaangażowanie powinno odzwierciedlać tę złożoność.
Strategia follow-on: Rezerwuj kapitał na scenariusze, w których teza zostaje zde-riskowana (np. powtarzalne wdrożenia, odnowienia, mierzalny ROI). Traktuj follow-ony jako „zasłużone”, a nie automatyczne.
Stop-loss przez governance: Startupy nie mają zleceń stop-loss, ale mają dźwignie governance — miejsca w radzie nadzorczej, prawa audytu, prawa do informacji, zatwierdzanie kluczowych ról i możliwość nacisku na pivot lub sprzedaż, gdy teza się załamuje. Określ z góry warunki „złamania tezy”.
Produkty powiązane z AI mogą kumulować straty poza rachunkiem zysków i strat:
Kontrariańskie zakłady często przyciągają kontrolę, ponieważ celują w potężne, wrażliwe rynki — obronę, wywiad, policję, kontrolę graniczną i duże platformy danych.
Kilka firm związanych z Peterem Thielem lub Founders Fund było przedmiotem powtarzających się krytyk w mainstreamowych relacjach, w tym obaw o prywatność i nadzór, kontrowersji politycznych oraz pytania o odpowiedzialność, gdy oprogramowanie wpływa na decyzje o dużych stawkach.
Publicznie weryfikowalne tematy pojawiają się wielokrotnie:
AI wprowadza konkretne ryzyka wykraczające poza zwykłe oprogramowanie:
Firma kontrariańska w stylu Thiela nie wygrywa, udając, że jest mądrzejsza od innych w AI. Wygrywa, mając rację w kwestii konkretnego problemu, który inni lekceważą, a następnie przekształcając to spostrzeżenie w produkt, który wysyła, rozpowszechnia się i się kumuluje.
Zacznij od klinu: wąski, bolesny workflow, w którym AI powoduje oczywistą zmianę (oszczędność czasu, redukcja błędów, wzrost przychodów). Klin powinien być na tyle mały, by można go szybko wdrożyć, ale połączony z większym systemem, do którego możesz ekspandować.
Różnicuj się miejscem, w którym model siedzi w workflowie, a nie tylko wyborem modelu. Jeśli każdy może kupić podobne modele bazowe, twoją przewagą zwykle będą: własna wiedza procesowa, krótsze pętle sprzężenia zwrotnego i lepsza integracja z rzeczywistym sposobem pracy.
Dystrybucja jest częścią tezy. Jeśli twój wgląd jest nieoczywisty, zakładaj, że klienci nie będą cię szukać. Buduj wokół kanałów, które możesz posiadać: osadzone partnerstwa, adopcja oddolna w roli lub punkt wejścia „zastąp arkusz”, który rozprzestrzenia się zespół po zespole.
Praktyczna implikacja: zespoły, które szybko iterują nad workflow + ewaluacją, często wyprzedzają zespoły skupione tylko na „lepszym” modelu. Narzędzia, które skracają cykle budowy — zwłaszcza pełnostackowe prototypy — pomagają szybciej testować kliny kontrariańskie. Na przykład Koder.ai to platforma vibe-coding, która pozwala budować aplikacje webowe, backend i mobilne przez chat (React na froncie, Go + PostgreSQL w backendzie, Flutter na mobile), co może być przydatne, gdy chcesz zweryfikować integrację workflow i ROI przed zaangażowaniem dużego nakładu inżynieryjnego.
Wyjaśnij „sekret” prostym językiem: w co wszyscy wierzą i dlaczego się mylą, oraz co zrobisz inaczej. Unikaj „używamy AI do…” i stawiaj na rezultaty.
Inwestorzy odpowiadają na szczegółowość:
Celuj w przewagi, które rosną wraz z użyciem: unikalne prawa do danych (lub dane, które możesz legalnie generować), lock-in workflowu (produkt staje się systemem zapisu), oraz przewagi wydajności powiązane z twoją metodą ewaluacji.
Zrób: pokaż workflow przed/po, metodę ewaluacji i dowody adopcji (retencja, ekspansja, czas do wartości).
Nie rób: nie zaczynaj od architektury modelu, niejasnych TAM czy wyselekcjonowanych demonstracji.
Zrób: śledź metryki niezawodności (błąd, wskaźnik nadpisania przez człowieka, opóźnienie) razem z metrykami biznesowymi.
Nie rób: nie ukrywaj trybów awarii — przyznaj się do nich i pokaż, jak je zarządzasz.
Kontrarianizm nie oznacza „sprzeciwiania się dla zabawy”. To zobowiązanie do jasnego widzenia przyszłości, a potem praca nad dowodzeniem, że masz rację (lub nie) zanim rynek osiągnie konsensus.
1) Teza (w co wierzysz): Napisz jedno zdanie, które większości mądrych ludzi dziś zabrzmi niewiarygodnie.
Przykład: „Wartość AI będzie przypisywana firmom kontrolującym własną dystrybucję, nie tylko jakość modeli.”
2) Przewaga (dlaczego akurat ty): Co widzisz, czego inni nie dostrzegają — dostęp, wiedzę domenową, bliskość klienta, prawa do danych, wgląd regulacyjny lub sieć?
Jeśli twoją przewagą jest „czytam te same wątki na Twitterze”, jej nie masz.
3) Timing (dlaczego teraz): Kontrariańskie zakłady najczęściej zawodzą przez timing. Zidentyfikuj zmianę umożliwiającą (krzywa kosztów, regulacje, przesunięcie workflowu, zmiana zachowań nabywców) i ścieżkę adopcyjną (kto kupuje pierwszy, kto podąża).
4) Defensywność (dlaczego wygrasz później): W AI „używamy AI” nie jest moatem. Szukaj trwałych przewag: praw do danych, dystrybucji, kosztów przejścia, osadzonych workflowów lub kumulującej się pętli sprzężenia zwrotnego.
5) Ryzyko (co się łamie): Wymień trzy główne scenariusze upadku — techniczny, go-to-market, prawno/etyczny — i co zrobisz, gdy każdy z nich się wydarzy.
Ustal „dietę sygnałów”: śledź małą grupę praktyków, monitoruj budżety klientów i obserwuj ekonomię jednostkową (opóźnienia, koszt za zadanie, churn). Traktuj wskaźniki hype’u (viralność demo, skoki benchmarków modeli) jako dane wejściowe — nie jako decyzje.
Przeprowadź red team: poproś kogoś, kto ma interes, by się nie zgodzić, by zaatakował twoją tezę.
Rob własne wywiady rozpoznawcze z klientami z ludźmi mającymi tendencję do odrzucenia (osoby, które prawdopodobnie powiedzą "nie").
Z góry określ dowody, które zmienią twoje zdanie.
Kontrariańskie inwestowanie — przynajmniej w wersji często łączonej z Peterem Thielem — nie oznacza „stawiania przeciwko tłumowi” jako cechy osobowości. Oznacza posiadanie jasnego poglądu, jak świat się zmienia, stawianie skoncentrowanych zakładów wyrażających ten pogląd i gotowość na to, by dłużej wyglądać na niewłaściwego.
Po pierwsze, myślenie kontrariańskie ma sens tylko wtedy, gdy towarzyszy mu konkretne, testowalne twierdzenie. „Wszyscy wierzą X, ale X jest błędne, ponieważ…” to początek. Praca polega na przekształceniu tego w to, co musi być prawdą, aby zakład wygrał — klienci, dystrybucja, regulacje, timing i ekonomika jednostkowa.
Po drugie, inwestowanie od tezy bije podążanie za trendem. Teza powinna kierować tym, co ignorujesz, tak samo jak tym, co poświęcasz uwagę. To szczególnie ważne w AI, gdzie nowe dema mogą tworzyć iluzję nieuchronności.
Po trzecie, wiele wyników „AI” zależy od mało efektownych fundamentów: praw i dostępu do danych, infrastruktury, ścieżek wdrożeniowych i rzeczywistości przekształcania modeli w niezawodne produkty. Jeśli nie potrafisz w prostych słowach wytłumaczyć przewagi danych/infrastruktury, twój „zakład AI” może być tylko marketingową etykietą.
Po czwarte, świadomość ryzyka nie jest opcjonalna. Kontrariańskie zakłady często zawodzą w nieoczywistych sposób: uderzenia reputacyjne, przesunięcia regulacyjne, kruchość modeli, incydenty bezpieczeństwa i zmiany motywacji po osiągnięciu skali. Planuj te rzeczy wcześnie, nie dopiero po wzroście.
Traktuj prognozy jako hipotezy. Określ, jakie dowody zmienią twoje zdanie i ustal punkty kontrolne (np. 30/90/180 dni), na których oceniasz postęp bez opowiadania historii. Bycie wcześnie nie równa się byciu słusznym — a bycie słusznym raz nie dowodzi, że znowu będziesz miał rację.
Jeśli chcesz zgłębić temat, warto zajrzeć do:
Napisz jednosesyjną „kontrariańską notatkę” dla pojedynczego pomysłu AI, który rozważasz:
Jeśli nie potrafisz tego sformalizować, nie forsuj zakładu — dopracuj tezę najpierw.