Разберёмся, как Google создал архитектуру Transformer, лежащую в основе GPT, но позволил OpenAI захватить внимание публики — и какие выводы сделаны для продуктовой и исследовательской стратегий.

Google вовсе не «упустил» ИИ — он придумал большую часть того, что сделало нынешнюю волну возможной, а затем позволил кому‑то другому превратить это в определяющий продукт.
Исследователи Google создали архитектуру Transformer — ядро моделей GPT. В 2017 году статья «Attention Is All You Need» показала, как обучать очень большие модели, которые прекрасно понимают и генерируют язык. Без этой работы GPT в том виде, в котором мы его знаем, не существовал бы.
Достижение OpenAI — не магическая новая формула. Это набор стратегических выборов: масштабировать трансформеры дальше, чем многие считали практичным, обеспечить гигантские обучающие проги и упаковать результат в простые API, а потом в ChatGPT — потребительский продукт, который сделал ИИ ощутимым для сотен миллионов людей.
Эта статья о таких решениях и компромиссах, а не о закулисных драмах или персоналиях. Она прослеживает, как культура исследований и бизнес‑модель Google склоняли компанию к BERT‑подобным моделям и пошаговым улучшениям поиска, тогда как OpenAI сделал гораздо более рискованную ставку на универсальные генеративные системы.
Мы пройдёмся по:
Если вам важна стратегия ИИ — как исследования превращаются в продукты, а продукты в устойчивое преимущество — этот кейс показывает: важнее не лучшая статья, а чёткие ставки и смелость отправлять продукт в люди.
Google пришёл в современный машинный интеллект с двумя гигантскими преимуществами: данными невиданного масштаба и инженерной культурой, оптимизированной для распределённых систем. Направив эти ресурсы на ИИ, компания быстро стала гравитационным центром отрасли.
Google Brain зародился как побочный проект около 2011–2012 годов под руководством Джеффа Дина, Эндрю Ынга и Грега Коррадо. Команда фокусировалась на крупномасштабном глубоком обучении, используя дата‑центры Google для тренировок моделей, недоступных большинству университетов.
DeepMind присоединился в 2014 году через заметное поглощение. Если Google Brain ближе работал с продуктами и инфраструктурой, то DeepMind тяготел к долгосрочным исследованиям: обучение с подкреплением, игры и общие обучаемые системы.
Вместе они дали Google недоступный другим «движок» ИИ: одна группа встраивалась в продакшн‑стек, другая преследовала лунные цели.
Несколько публичных достижений закрепили статус Google:
Эти победы убеждали многих исследователей: если хочешь работать над амбициозными задачами ИИ, ты идёшь в Google или DeepMind.
Google сосредоточил необычно большую долю мировых талантов в ИИ. Лауреаты Turing Award и ведущие фигуры работали в нескольких организациях внутри компании. Эта плотность создавала мощные обратные связи:
Комбинация элитных кадров и инфраструктуры сделала Google местом происхождения многих передовых исследований.
Культура ИИ в Google склонялась к публикациям и построению платформ, а не к отполированным потребительским продуктам.
В исследовательской части нормой было:
С инженерной стороны Google инвестировал в инфраструктуру:
Эти выборы были согласованы с ядром бизнеса: лучшие модели и инструменты напрямую улучшали релевантность поиска, таргетинг рекламы и рекомендации. ИИ рассматривался как общая слой‑способность, а не как отдельная категория продукта.
В результате компания доминировала в науке и «водопроводе» ИИ, глубоко интегрировала технологии в сервисы и транслировала прогресс через исследования — при этом осторожно относилась к созданию новых потребительских AI‑опытов.
В 2017 году небольшая команда Google Brain/Research опубликовала статью, которая перевернула отрасль: «Attention Is All You Need» (Вазвани и др.).
Основная идея была проста и радикальна: можно отбросить рекуррентные и сверточные элементы и строить последовательностные модели, используя только внимание. Так была рождена архитектура Transformer.
До трансформеров СЛОВ‑системы опирались на RNN и LSTM, у которых были две большие проблемы:
Transformer решил обе проблемы:
Позиционная информация добавляется через позиционные кодировки, поэтому модель узнаёт порядок без рекуррентности.
Поскольку все операции параллелизуются и базируются на плотных матричных умножениях, трансформеры чисто масштабируются с ростом данных и вычислений. Эта свойство — основа GPT, Gemini и других передовых моделей.
Та же схема внимания применима не только к тексту: трансформеры работают с патчами изображений, аудио‑фреймами, токенами видео. Это сделало архитектуру естественной базой для мультимодальных моделей.
Критично, что Google опубликовал статью открыто и, через последующие работы и библиотеки (например, Tensor2Tensor), сделал архитектуру воспроизводимой. Исследователи и стартапы по всему миру могли читать, копировать дизайн и масштабировать его.
OpenAI сделал именно это. GPT‑1 по архитектуре — стек декодеров трансформера с задачей языкового моделирования. Прямой технический предок GPT — трансформер Google: те же блоки внимания, те же позиционные кодировки, та же ставка на масштаб — но применённые в другом продукте и организационном контексте.
Когда OpenAI запустил GPT, это не было изобретением новой парадигмы с нуля. Это было применение чертежа трансформера Google и развитие его дальше, чем большинство считало возможным.
Оригинальный GPT (2018) по сути был декодерным трансформером, обученным на простой задаче: предсказать следующий токен в длинных текстовых последовательностях. Эта идея напрямую восходит к трансформеру 2017 года, но тогда как Google фокусировался на задачах перевода, OpenAI превратил «предсказание следующего слова в масштабе» в основу универсального генератора текста.
GPT‑2 (2019) масштабировал рецепт до 1.5B параметров и гораздо большего корпуса. GPT‑3 (2020) прыгнул до 175B параметров и триллионов токенов, тренируясь на огромных GPU‑кластерах. GPT‑4 продолжил ту же картину: больше параметров, лучшее кураторство данных, больше вычислений и слои безопасности (RLHF) для придания диалоговому поведению пригодности.
Алгоритмическое ядро по большей части оставалось близким к трансформеру Google: блоки self‑attention, позиционные кодировки и наслоение слоёв. Прыжок был в масштабе и инженерной отработке.
Там, где ранние языковые модели Google (например, BERT) нацеливались на задачи понимания — классификация, ранжирование поиска, QA — OpenAI оптимизировала под генерацию и диалог. Google публиковал SOTA‑модели и переключался дальше; OpenAI превратил одну идею в продуктовую линию.
Открытые исследования Google, DeepMind и академических лабораторий питали GPT: варианты трансформеров, трюки оптимизации, схемы обучения, законы масштабирования и улучшенная токенизация. OpenAI впитал эти публичные результаты, затем вложился в проприетарные обучающие прогоны и инфраструктуру.
Интеллектуальная искра — трансформеры — родилась в Google. Решение поставить на масштаб, выпустить API и затем потребительский чат было решением OpenAI.
Ранний коммерческий успех Google с глубоким обучением пришёл от умного улучшения основного денежного двигателя — поиска и рекламы. Этот контекст сформировал оценку новых архитектур вроде трансформера. Вместо гонки за генеративными решениями Google удвоил ставку на модели, которые улучшали ранжирование и релевантность. BERT идеально подошёл под эти задачи.
BERT (Bidirectional Encoder Representations from Transformers) — это encoder‑only модель, обученная masking‑задачей: части предложения скрываются, и модель должна восстановить пропущенные токены, используя контекст с обеих сторон.
Эта цель обучения идеально совпадала с проблемами Google:
Критически, encoder‑модели хорошо встраивались в существующий стек извлечения и ранжирования. Их можно было вызвать как релевантный сигнал среди сотен других признаков, улучшая поиск без перестройки интерфейса.
Google нуждался в результатах, которые были надёжны, проверяемы и монетизируемы:
BERT улучшал все три аспекта, не нарушая UI или модели рекламы. GPT‑подобные автогенераторы, напротив, давали менее очевидную ценность для существующего бизнеса.
Свободная генерация вызывала острые внутренние опасения:
Большинство внутренне приемлемых кейсов были ассистивными и ограниченными: автозаполнение в Gmail, умные ответы, перевод и сигналы ранжирования. Encoder‑модели было проще ограничивать, мониторить и оправдывать, чем открытый разговорный сервис.
Даже при наличии прототипов чат‑генерации внутри Google стоял ключевой вопрос: не снизит ли это число поисковых запросов и показов рекламы?
Чат‑опыт, дающий готовый ответ в один заход, меняет поведение:
Интуиция руководства была интегрировать ИИ как улучшение поиска, а не как его замену. Это привело к приоритетам в пользу BERT и постепенных интеграций, а не смелого продукта‑чатбота, который мог бы нарушить бизнес‑модель.
Каждое из решений само по себе рационально:
В совокупности это означало: Google недостаточно инвестировал в продуктовую реализацию GPT‑подобных автогенераторов для широкой публики. Исследовательские команды работали над большими декодерными моделями и диалоговыми системами, но у продуктовых команд не было сильных стимулов запускать чатбот, который:
OpenAI же, не имея поисковой империи, сделал противоположную ставку: публичный, доступный чат‑интерфейс — пусть и с недостатками — создаст новую массовую потребность.
OpenAI стартовала в 2015 как некоммерческая исследовательская лаборатория, финансируемая несколькими тех‑фигурами. Первоначально она походила на Google Brain или DeepMind: публикации, открытый код и продвижение науки.
К 2019 году руководство поняло, что передовые модели потребуют миллиардов долларов в вычислениях и инженерии. Чисто некоммерческая модель вряд ли привлечёт такие ресурсы. Решение — создать OpenAI LP, «компанию с ограниченной прибылью», под контролем некоммерческого совета.
Инвесторы получили возможность ограниченного возврата, а правление сохранило фокус на миссии по безопасному AGI. Это открыло дорогу к крупному финансированию и облачным договорам.
Многие лаборатории искали хитроумные архитектуры; OpenAI сделала грубую ставку: чрезвычайно большие, универсальные языковые модели могут оказаться удивительно способными, если постоянно увеличивать данные, параметры и вычисления.
GPT‑1, GPT‑2 и GPT‑3 следовали простой формуле: стандартная архитектура трансформера, больше параметров, дольше обучение и более разнообразные тексты. Вместо мелкой подстройки под каждый кейс OpenAI делала ставку на «одну большую модель — множество применений» с помощью промптинга и дообучения.
Это было и исследовательской позицией, и бизнес‑стратегией: один API мог бы питать тысячи сценариев — от инструментов копирайтинга до помощников по программированию — и превратить OpenAI в платформу.
API GPT‑3 (2020) сделал стратегию конкретной. Вместо тяжёлых on‑prem приложений OpenAI предложил простой облачный API:
API‑первый подход позволил стартапам и компаниям брать на себя UX, соответствие требованиям и предметную экспертизу, а OpenAI — фокусироваться на масштабировании и выравнивании. API также рано дал источник дохода: не нужно ждать идеального продукта — экосистема сама открывала кейсы.
OpenAI систематически выбирала выпускать продукты до полной полировки. GPT‑2 вышел со ступенчатым релизом из‑за опасений по безопасности; GPT‑3 появился в управляемой бете с явными недостатками. Они признавали галлюцинации, предвзятость и непоследовательность.
Кристалл этой философии — ChatGPT в конце 2022. Это не была самая продвинутая модель OpenAI, и она не была идеально отполирована. Но у неё было:
Вместо бесконечной настройки в приватной среде OpenAI использовала публику как огромный движок обратной связи. Ограничающие меры, модерация и UX развивались неделями, исходя из поведения пользователей.
Ставка на масштаб требовала огромных бюджетов на вычисления. Партнёрство с Microsoft оказалось решающим.
С 2019 года Microsoft предоставляла:
Для OpenAI это решало проблему масштабирования тренировочных прогонов без строительства собственного облака. Для Microsoft — шанс быстро дифференцировать Azure и привнести ИИ в Office, GitHub, Windows и Bing.
Все эти решения — масштаб, API, чат и соглашение с Microsoft — сформировали усиливающийся цикл:
OpenAI оптимизировала не идеальные научные публикации, а этот компаундирующий цикл — масштаб пользователей, данных и денежных потоков, ускоряющий прогресс.
Запуск ChatGPT 30 ноября 2022 выглядел как тихий исследовательский превью: простое чат‑поле, без платного доступа и короткий пост в блоге. Через пять дней у сервиса уже был миллион пользователей. Через недели в соцсетях пошли примеры: эссе, отладка кода, деловые письма, мозговые штормы — всё это в одном инструменте.
Продукт не позиционировался как «демо трансформера». Он говорил просто: «Спроси — получи ответ». Эта ясность сделала технологию понятной непрофессионалам.
В Google реакция была ближе к тревоге, чем к восхищению. Объявили «code red». Ларри Пейдж и Сергей Брин вернулись к обсуждениям продукта и стратегии. Команды, работавшие над диалоговыми моделями годами, оказались под пристальным вниманием.
Инженеры знали: у Google были системы, сопоставимые по базовым возможностям с ChatGPT. LaMDA, PaLM и ранние Meena уже демонстрировали беглость и рассуждение на внутренних тестах. Но эти разработки были за закрытыми дверями, под тяжёлой модерацией и сложными внутренними согласованиями.
Внешне выглядело, будто Google оказался застигнутым врасплох.
Технически ChatGPT и LaMDA — «родственники»: большие трансформер‑модели, дообученные для диалога. Разница была не столько в архитектуре, сколько в продуктовых решениях.
OpenAI:
Google:
Под давлением Google анонсировал Bard в феврале 2023. Демонстрация пыталась копировать магию ChatGPT: спроси Bard — получи умный ответ.
Но один из ключевых ответов о результатах наблюдений James Webb Telescope оказался неверным. Ошибка попала в маркетинговые материалы Google, её заметили в течение минут, и капитализация Alphabet упала на миллиарды долларов за день. Это укрепило нарратив: Google опоздал, нервничает и неаккуратен, а OpenAI выглядит уверенно и готово.
Ирония была болезненна для сотрудников Google. Галлюцинации и фактические ошибки были известны как проблемы LLM; разница в том, что OpenAI уже нормализовал это среди пользователей через UI‑подсказки, дисклеймеры и режим «эксперимента», а Google вывел продукт якобы «готовым» и публично споткнулся.
Преимущество ChatGPT над внутренними системами Google не было только в лучшей модели. Это была скорость исполнения и понятность пользовательского опыта.
OpenAI:
Google двигался медленнее, оптимизируя на отсутствие ошибок, и подавал Bard как «глянцевый» запуск, а не как фазу обучения. К моменту, когда Bard дошёл до пользователей, ChatGPT уже стал повседневной привычкой для студентов, работников знания и разработчиков.
Шок Google был не в том, что OpenAI сделала хороший ИИ, а в том, что меньшая организация взяла идеи, которые Google помог изобрести, упаковала их в продукт, который полюбили обычные люди, и изменила публичное восприятие в считанные недели.
Google и OpenAI стартовали с похожей технической базы, но очень разными организационными реалиями. Эти различия повлияли на все решения вокруг GPT‑стилей систем.
Ядро бизнеса Google — поиск и реклама. Этот двигатель даёт предсказуемые огромные денежные потоки, и многие стимулы руководителей связаны с их защитой.
Запуск мощной разговорной модели мог:
поэтому естественным был осторожный подход. Риск не запустить в нужный момент казался меньшим, чем риск запустить преждевременно.
OpenAI, напротив, не имела такой «денежной коровы». Для неё риск не выпустить был экзистенциальным: нужно продавать модели, захватить внимание разработчиков, подписать крупные договоры на вычисления и монетизировать исследования.
Google пережил антимонопольные и приватные скандалы, что породило культуру, где:
OpenAI приняла, что публичная мощная модель будет «грязной» и концентрировалась на итерациях с охраной. Уровень терпимости к продуктовым рискам был выше.
В Google крупные релизы проходят через множество комитетов, кросс‑организационных согласований и OKR‑переговоров — это замедляет продукты, охватывающие Search, Ads, Cloud и Android.
OpenAI концентрировала власть в небольшой группе лидеров и фокусной продуктовой команде. Решения по ChatGPT, ценообразованию и API принимались быстро и корректировались по результатам использования.
Годами крайним преимуществом Google были лучшие статьи и сильнейшие модели. Но когда другие могли воспроизвести исследования, преимущество сместилось к сочетанию исследований и:
OpenAI трактовала модели как продуктовую базу: выпустила API, чат‑интерфейс, училась на пользователях и использовала это для следующего поколения моделей. Google же держал многие самые мощные системы внутренними или как узкие демо. Ко времени, когда он хотел масштабировать их как продукт, OpenAI уже создала привычки, ожидания и экосистему вокруг GPT.
Разрыв был не в знании трансформеров, а в готовности и структуре, позволяющей быстро превратить знания в продукт перед сотнями миллионов людей.
На техническом фронте Google оставался лидером. Он лидировал по инфраструктуре: собственные TPU, продвинутая сеть центров обработки данных и внутренние инструменты, которые сделали обучение огромных моделей рутинной задачей ещё до того, как многие компании осмелились на это.
Исследователи Google продвигали архитектуры (трансформеры, варианты внимания, mixture‑of‑experts, retrieval‑augmented models), законы масштабирования и эффективность обучения. Многие ключевые статьи по современному крупномасштабному ML принадлежат Google и DeepMind.
Но большая часть инноваций так и оставалась в статьях, внутренних платформах и узконаправленных фичах для Поиска, Рекламы и Workspace. Вместо единого «AI‑продукта» пользователи видели десятки мелких улучшений.
OpenAI пошла иначе. Технически она опиралась на опубликованные идеи, включая идеи Google. Её преимущество — превращать эти идеи в ясную продуктовую линию:
Эта упаковка превратила способности модели в то, что люди могли быстро принять и использовать.
После взлёта ChatGPT OpenAI получила то, что раньше было у Google: доминирующее внимание. Разработчики стали экспериментировать сначала с OpenAI, писать туториалы под её API и строить продукты на её базе.
Качество модели стало вторично по сравнению с преимуществом распространения. Техническое превосходство Google в инфраструктуре и исследованиях не автоматически дало ему лидерство на рынке.
Вывод: победить в науке недостаточно. Без чёткого продукта, ценовой политики, истории и путей интеграции даже сильный научный двигатель может уступить место сфокусированной продуктовой компании.
Когда ChatGPT продемонстрировал, как Google выглядит со стороны, компания объявила «code red» и запустила заметный, пусть и не всегда аккуратный, перезапуск AI‑стратегии.
Первым ответом был Bard — чат‑интерфейс на базе LaMDA, затем апгрейднутый до PaLM 2. Bard выглядел одновременно поспешно и осторожно: ограниченный доступ, медленный rollout и явные продуктовые границы.
Реальный перезапуск пришёл с Gemini:
Этот сдвиг перевёл Google из «компании поиска, экспериментирующей с чатботами» в «AI‑платформу с флагманским семейством моделей», хотя он и стартовал позже OpenAI.
Сила Google — распределение, поэтому стратегический фокус был на интеграции Gemini в уже привычные точки контакта:
Стратегия: если OpenAI выиграла «новизной» и брендом, Google может выиграть за счёт «дефолтного присутствия» и тесной интеграции в рабочие потоки.
Расширяя доступ, Google опирается на принципы AI и безопасность:
Компромисс: более жёсткие ограждения и медленнее эксперименты против более быстрой итерации с публичными тестами, как у OpenAI.
По качеству моделей Gemini Advanced и топ‑уровень Gemini выглядят конкурентоспособно с GPT‑4 по многим бенчмаркам и отзывам разработчиков. В некоторых мультимодальных и кодинговых задачах Gemini даже лидирует; в других — GPT‑4 остаётся эталоном.
Где Google ещё проигрывает, так это mindshare и экосистема:
Контрвес Google — огромная дистрибуция и глубинная инфраструктура. Если он сумеет превратить это в удобные AI‑нативные опыты быстрее, восприятие может измениться.
Перезапуск происходит в поле, где уже не только Google vs OpenAI:
Для создателей это значит: проектируйте стратегии, ожидая нескольких сильных провайдеров, мощных открытых моделей и постоянного leap‑frogging, а не ставьте всё на одну стек‑платформу.
Google показал: можно изобрести прорыв и всё равно упустить первую волну ценности. Для разработчиков важно не восхищаться парадоксом, а извлечь уроки.
Каждый важный исследовательский результат рассматривайте как продуктовую гипотезу:
Если результат достаточно важен для публикации, он достоин прототипа для клиентов.
Люди делают то, за что получают вознаграждение.
Трансформеры — новый вычислительный примитив. Google рассматривал их как инфраструктуру; OpenAI — как продуктовую движущую силу.
Когда у вас появляется глубинная идея:
Бренд и безопасность важны, но ими нельзя оправдывать бесконечные задержки.
Постройте градацию рисков:
Дизайнируйте контролируемое воздействие: постепенные rollout, логирование, быстрое восстановление, red‑teaming и прозрачная коммуникация о процессе обучения.
Google дал миру идеи и инструменты, а затем во многом наблюдал, как другие строят и захватывают ценность.
Когда вы открываете мощную возможность:
Нельзя полагаться на одного визионера. Встройте переход в рабочие процессы:
Главная ошибка Google — недооценить, чем могут стать его собственные изобретения в руках пользователей.
Для основателей и менеджеров полезный практический подход:
Будущие прорывы (в моделях, интерфейсах или новых вычислительных примитивах) коммерциализируют команды, готовые быстро перейти от «мы это открыли» к «мы полностью отвечаем за выпуск».
Урок от Google не в том, чтобы публиковать меньше или скрывать исследования. Он в том, чтобы сочетать мирового класса открытия с не менее амбициозной продуктовой ответственностью, ясными стимулами и склонностью к публичному обучению. Те организации, которые смогут это делать, будут владеть следующей волной, а не только писать статью, которая её запустила.
Не совсем так, но Google действительно создал ключевую технологию, которая сделала GPT возможным.
Итого: Google дал интеллектуальную и инфраструктурную основу, а OpenAI забрал первую большую волну стоимости, превратив эту основу в массовый продукт (ChatGPT и API).
Google сосредоточился на исследованиях, инфраструктуре и постепенных улучшениях поиска, тогда как OpenAI сделал ставку на выпуск одного смелого, универсального продукта.
Ключевые различия:
BERT и GPT оба основаны на трансформерах, но оптимизированы для разных задач:
Google рассматривал свободную генерацию как риск и видел ограниченную прямую монетизацию внутри своей основной модели. Основные причины осторожности:
OpenAI принял три ключевые ставки и последовательно их реализовал:
Масштаб как стратегия, а не эксперимент Стало нормой масштабировать стандартные трансформеры (данные, параметры, вычисления), опираясь на законы масштабирования.
Не совсем. Основной шок был не в чистой модели, а в продуктовой истории и восприятии.
Это изменило общественное представление: «кто лидирует в ИИ» — теперь чаще ассоциируется с ChatGPT и OpenAI, а не только с авторством научных работ.
Преимущество ChatGPT заключалось скорее в исполнении и подаче, чем в уникальной алгоритмической новизне.
Главные элементы успеха ChatGPT:
Для создателей история даёт практические уроки о том, как превратить глубинную технологию в долгосрочное преимущество:
Это не окончательное поражение Google; компания сделала масштабный «перезапуск» с Gemini:
Где Google всё ещё отстаёт:
Технически Google был не позади; организационно и продуктово он двигался медленнее в том, что определяет общественное восприятие и массовое принятие.
BERT (Google):
GPT (OpenAI):
Google оптимизировал модели для улучшения поиска; OpenAI — для создания гибкого языкового движка, с которым можно разговаривать напрямую.
Учитывая размер компании и регуляторную нагрузку, Google выбрал интеграцию ИИ в существующие продукты, а не ранний запуск открытого чат‑бота.
API‑первый подход
Ранний выпуск API превратил модель в платформу: тысячи разработчиков обнаружили кейсы и построили бизнесы поверх неё.
Потребительский чат как флагманский продукт
ChatGPT сделал ИИ понятным для всех: «спроси что угодно — получи ответ». Запуск до идеала и итерации на живых данных дали быстрый рост.
Эти ходы создали цикл: пользователи → данные → выручка → большие модели → лучшие продукты, который опередил более консервативный подход Google.
Запуск Bard у Google был поспешным и маркетингово рискованным: видимые ошибки лишь усилили впечатление запоздалости и неготовности. По сути, OpenAI просто выпустил продукт и учился на данных пользователей — того, чего Google долго избегал.
Ключевой вывод: техническое лидерство без продуктовой ответственности уязвимо — кто‑то другой может превратить ваши идеи в определяющий продукт, если вы не сделаете этого сами.
Похоже на многополярное будущее: несколько сильных закрытых поставщиков (Google, OpenAI и др.) плюс динамичное open‑source сообщество. Google не «проиграл навсегда», но упустил первую волну — теперь всё зависит от скорости интеграции, экосистемы и качества исполнения.