Проследите путь Эрика Шмидта от формирования поиска Google до влияния на национальную стратегию в области ИИ: роли в советах, ключевые идеи и споры.

Эрика Шмидта чаще представляют как бывшего генерального директора Google — но его актуальность сегодня связана меньше со строкой поиска и больше с тем, как правительства думают об искусственном интеллекте. Цель этой статьи — объяснить этот сдвиг: как технологический руководитель, помогший масштабировать одну из крупнейших интернет-компаний мира, стал заметным голосом в вопросах национальных приоритетов по ИИ, публичных отчётов и практических шагов по превращению инноваций в государственные возможности.
Национальная стратегия по ИИ — это план страны о том, как она будет развивать, внедрять и регулировать ИИ так, чтобы это служило общественным целям. Чаще всего он охватывает финансирование исследований, поддержку стартапов и внедрения в промышленность, правила ответственного использования, планы по рабочей силе и образованию, а также то, как государственные учреждения будут закупать и развёртывать системы ИИ.
Она также включает «жесткие» вопросы: как защитить критическую инфраструктуру, как управлять чувствительными данными и как реагировать, когда те же инструменты ИИ могут быть использованы как в гражданских, так и в военных целях.
Шмидт важен потому, что находится на пересечении четырёх дебатов, формирующих политические выборы:
Это не биография и не перечень всех мнений Шмидта. Фокус — на его публичных ролях (например, консультативная работа и широко обсуждаемые инициативы) и на том, что эти вехи показывают о том, как влияние в политике ИИ формируется — через отчёты, приоритеты финансирования, идеи по закупкам и перевод технической реальности в действия государства.
Публичный профиль Эрика Шмидта часто связан с Google, но его путь к технологическому лидерству начался задолго до того, как поиск стал обыденностью.
Шмидт получил образование в области информатики и начал карьеру в ролях, сочетающих инженерию и менеджмент. Со временем он перешёл на руководящие позиции в крупных технологических компаниях, включая Sun Microsystems и позднее Novell. Эти места работы важны тем, что дали ему определённый тип лидерства: как управлять сложными организациями, выпускать продукты в глобальном масштабе и принимать технологические решения под давлением рынков, конкурентов и регулирования.
Когда Шмидт присоединился к Google в 2001 году в качестве CEO, компания всё ещё была молодой — быстро росла, имела миссию и была управляемая основателями, которые хотели опытного руководителя для профессионализации операций. Его задача не столько изобрести поиск, сколько выстроить структуру, позволяющую повторять инновации: ясные решения, сильные кадровые каналы и операционные ритмы, способные выдержать гиперрост.
Эра роста Google касалась не только улучшения результатов; она была о том, чтобы обрабатывать огромные объёмы запросов, веб-страниц и рекламных решений — последовательно и быстро. «Поиск в масштабе» также поднимал вопросы доверия, выходящие за рамки инженерии: как обрабатываются пользовательские данные, как решения по ранжированию влияют на то, что видят люди, и как платформа реагирует, когда ошибки становятся публичными.
За тот период выделяются несколько закономерностей: склонность к найму сильных технических кад-ров, акцент на фокусе (приоритизация того, что важно) и системное мышление — рассматривание продуктов, инфраструктуры и политических ограничений как частей одной операционной системы. Эти привычки помогают понять, почему Шмидт позже направил внимание на национальные технологические вопросы, где координация и компромиссы важны так же, как изобретение.
Поиск выглядит просто — вводишь запрос, получаешь ответ — но система за ним представляет собой дисциплинированный цикл сбора информации, проверки гипотез и зарабатывания пользовательского доверия в масштабе.
В общих чертах у поиска три задачи.
Во-первых, сканирование (crawling): автоматизированные программы находят страницы, следуя ссылкам и периодически проверяя сайты на изменения.
Во-вторых, индексация и ранжирование: система организует найденное, затем упорядочивает результаты с помощью сигналов, оценивающих качество и полезность.
В-третьих, релевантность: ранжирование — это не «лучшая страница в Интернете», а «лучшая страница для этого человека, для этого запроса, прямо сейчас». Это включает интерпретацию намерения, языка и контекста — не только сопоставление ключевых слов.
Эра поиска подтвердила практическую истину: хорошие результаты обычно получают через измерение, итерации и готовую к масштабу инфраструктуру.
Команды поиска жили данными — паттернами кликов, переформулировками запросов, производительностью страниц, отчётами о спаме — потому что это показывало, действительно ли изменения помогали людям. Небольшие правки в ранжировании часто оценивались через контролируемые эксперименты (например, A/B-тесты), чтобы не полагаться на интуицию.
Ничто из этого не работает без инфраструктуры. Массовые распределённые системы, низкая задержка при обслуживании, мониторинг и быстрые процедуры отката превращали «новые идеи» в безопасные релизы. Возможность запускать множество экспериментов и быстро учиться стала конкурентным преимуществом.
Эти же темы напрямую соотносятся с современной мыслью о политике ИИ:
И самое важное — пользовательские системы зависят от доверия. Если результаты кажутся манипулируемыми, небезопасными или систематически неверными, принятие и легитимность разрушаются — инсайт, который ещё острее применим к системам ИИ, которые генерируют ответы, а не просто ссылки.
Когда ИИ рассматривают как национальный приоритет, разговор смещается с «что должен делать продукт?» на «что эта способность может сделать с обществом, экономикой и безопасностью?» Это другой тип принятия решений. Ставки растут: победители и проигравшие — уже не только компании и пользователи, но отрасли, институты и иногда целые страны.
Продуктовые решения обычно оптимизируют ценность для пользователя, выручку и репутацию. ИИ как национальный приоритет заставляет идти на компромиссы между скоростью и осторожностью, открытостью и контролем, инновациями и устойчивостью. Решения о доступе к моделям, обмене данными и сроках развёртывания могут влиять на риски дезинформации, сдвиг в занятости и оборонную готовность.
Государства заботятся об ИИ по той же причине, что и об электричестве, авиации и интернете: это может повысить национальную производительность и перераспределить силы.
Системы ИИ могут быть «двойного назначения» — полезными в медицине и логистике, но применимыми и в кибероперациях, наблюдении или разработке оружия. Даже гражданские прорывы могут менять военное планирование, цепочки поставок и разведывательные рабочие процессы.
Большая часть передовых возможностей ИИ находится в частных компаниях и ведущих лабораториях. Правительствам нужен доступ к экспертизе, вычислительным мощностям и опыту развёртывания; компаниям нужна ясность правил, пути закупок и понимание ответственности.
Но сотрудничество редко гладкое. Фирмы беспокоятся о защите интеллектуальной собственности, конкурентных преимуществах и том, что от них попросят выполнять функции по принуждению. Правительства боятся захвата интересов, неравномерной ответственности и зависимости от небольшого числа поставщиков стратегической инфраструктуры.
Национальная стратегия по ИИ — это не просто меморандум. Обычно она охватывает:
Когда эти элементы становятся национальными приоритетами, они превращаются в инструменты политики, а не только в бизнес-решения.
Влияние Эрика Шмидта на стратегию ИИ меньше связано с принятием законов и больше — с формированием «дефолтного нарратива», которым руководствуются политики. После работы в Google он стал заметным голосом в советах по ИИ в США — в частности как председатель National Security Commission on Artificial Intelligence (NSCAI), а также через участие в советах, правлениях и исследовательских инициативах, которые соединяют отраслевую экспертизу с правительственными приоритетами.
Комиссии и рабочие группы обычно работают в ограниченные сроки, собирая мнения агентств, академии, компаний и гражданского общества. Их выводы часто практичны и пригодны для распространения:
Эти документы важны потому, что становятся опорными точками: сотрудники ссылаются на них, агентства копируют их структуру, журналисты используют их, чтобы объяснить, почему тема заслуживает внимания.
Консультативные группы не распоряжаются бюджетами и не выпускают регламенты. Они предлагают; избранные лица и исполнительные органы принимают решения. Даже если отчёт влиятельный, он конкурирует с бюджетными ограничениями, политическими реальностями, юридическими полномочиями и меняющимися национальными приоритетами.
Тем не менее разрыв между «идеями» и «действием» может быть коротким, когда отчёт предлагает готовые к исполнению шаги — особенно в областях закупок, стандартов или программ подготовки кадров.
Если хотите понять, изменило ли дело советника реальные результаты, смотрите не на заголовки, а на следующее:
Влияние измеримо, когда идеи превращаются в повторяемые механизмы политики — а не только в запоминающиеся фразы.
Национальная стратегия по ИИ — это не единый закон или одноразовый пакет финансирования. Это набор согласованных решений о том, что строить, кто это будет строить и как страна будет понимать, работает ли это.
Публичное финансирование исследований помогает создавать прорывы, в которые частные рынки могут недоинвестировать — особенно долгосрочную работу с неопределённым возвратом или фокусом на безопасности. Сильная стратегия связывает фундаментальные исследования (университеты, лаборатории) с прикладными программами (здравоохранение, энергетика, государственные услуги), чтобы открытия не застревали до достижения реальных пользователей.
Прогресс ИИ зависит от квалифицированных исследователей, инженеров и продакт-команд — но также от политических специалистов, способных оценивать системы, и команд по закупкам, умеющих их правильно приобретать. Национальные планы часто комбинируют образование, обучение на рабочем месте и иммиграционные пути, потому что дефицит кадров не решается только деньгами.
«Вычисления» — это сырой сок для обучения и запуска моделей, в основном в крупных дата-центрах. Продвинутые чипы (GPU и специализированные ускорители) — это двигатели, дающие мощность.
Это делает чипы и дата-центры похожими на электросети или порты: не самые гламурные, но жизненно важные. Если страна не может получить достаточно высокопроизводительных чипов или не может надёжно обеспечивать питание и охлаждение дата-центров, ей может быть трудно создавать конкурентоспособные модели или развёртывать их в масштабе.
Стратегия имеет значение только если ИИ улучшает результаты в приоритетных областях: оборона, разведка, здравоохранение, образование и государственные услуги. Для этого нужны правила закупок, стандарты кибербезопасности и ясная ответственность при сбоях. Также нужно помогать мелким компаниям внедрять ИИ, чтобы выгоды не концентрировались у нескольких гигантов.
На практике многим агентствам нужны более быстрые способы прототипирования и безопасной итерации до заключения многолетних контрактов. Инструменты вроде Koder.ai (платформа vibe-coding, строящая веб-, бэкенд- и мобильные приложения из чата, с режимом планирования, снимками и откатом) иллюстрируют направление закупок: более короткие циклы обратной связи, лучшее документирование изменений и более измеримые пилоты.
Больше данных может улучшить ИИ, но «собирать всё» создаёт реальные риски: наблюдение, утечки и дискриминация. Практические стратегии используют целевой обмен данными, методы сохранения приватности и чёткие ограничения — особенно в чувствительных областях — вместо отношения «конфиденциальность либо неважна, либо абсолютна».
Без измерений стратегии становятся лозунгами. Правительства могут требовать общие эталоны производительности, тестирование «красными командами» для безопасности, сторонние аудиты для высокорисковых применений и постоянную оценку после развёртывания — чтобы успех был видим, а проблемы обнаруживались рано.
Агентства обороны и разведки интересуются ИИ по простой причине: он может изменить скорость и качество принятия решений. Модели могут быстрее обрабатывать спутниковые снимки, переводить перехваченные коммуникации, обнаруживать аномалии в киберпространстве и помогать аналитикам связывать слабые сигналы в больших наборах данных. При правильном использовании это означает раннее предупреждение, лучшее распределение ограниченных ресурсов и меньше человеческих часов на повторяющуюся работу.
Многие из наиболее ценных возможностей ИИ одновременно и самые простые для злоупотребления. Универсальные модели, пишущие код, планирующие задачи или генерирующие убедительный текст, могут поддерживать законные миссии — например, автоматизацию отчётов или ускорение поиска уязвимостей — но также:
Задача национальной безопасности — не в поиске «одноразового оружия ИИ», а в том, что общедоступные инструменты усиливают и оборону, и наступательные возможности.
Правительствам трудно принимать быстро меняющиеся ИИ, потому что традиционные закупки предполагают стабильные требования, долгие циклы тестирования и ясные линии ответственности. С моделями, которые часто обновляются, агентствам нужны способы верифицировать, что они покупают (заявления по обучающим данным, пределы производительности, позиция по безопасности) и кто отвечает, когда что-то идёт не так — вендор, интегратор или само агентство.
Рабочий подход сочетает инновации с применимыми проверками:
Сделанные правильно, меры не тормозят всё. Они концентрируют проверку там, где ставки самые высокие — в разведан-ии, киберзащите и системах, связанных с вопросами жизни и смерти.
Геополитика формирует стратегию по ИИ, потому что самые способные системы зависят от измеримых и конкурентных ингредиентов: топовых исследовательских кадров, масштабных вычислений, качественных данных и компаний, способных всё это интегрировать. В этом контексте динамика США-Китая часто описывается как «гонка», но такая формулировка скрывает важное различие: гонка за возможностями — не то же самое, что гонка за безопасностью и стабильностью.
Чистая гонка возможностей поощряет скорость — разверни первым, масштабируй быстрее, завоюй больше пользователей. Подход, ориентированный на безопасность и стабильность, поощряет сдержанность — тестирование, мониторинг и общие правила, снижающие аварии и злоупотребления.
Большинство политиков пытаются найти баланс. Компромисс реальный: более строгие меры могут замедлить развёртывание, но отсутствие инвестиций в безопасность создаёт системные риски и подрывает общественное доверие, что тоже тормозит прогресс.
Конкуренция — это не только «у кого лучшая модель». Это также вопрос, может ли страна стабильно готовить и привлекать исследователей, инженеров и создателей продуктов.
В США ведущие университеты, венчурное финансирование и плотная сеть лабораторий и стартапов укрепляют исследовательскую экосистему. В то же время возможности ИИ всё чаще концентрируются в небольшом числе компаний с бюджетами на вычисления и доступом к данным для тренировки передовых моделей. Эта концентрация может ускорять прорывы, но также ограничивать конкуренцию, сужать академическую открытость и усложнять партнёрства с правительством.
Контроль экспорта лучше понимать как инструмент замедления распространения ключевых входов — особенно продвинутых чипов и специализированного производственного оборудования — без полного прекращения торговли.
Альянсы важны, потому что цепочки поставок международны. Координация с партнёрами может унифицировать стандарты, разделить бремя безопасности и снизить «утечки», когда ограниченные технологии проходят через третьи страны. Аккуратно выстроенные альянсы также способствуют интероперабельности и общим ожиданиям по безопасности, вместо превращения ИИ в фрагментированные региональные стэки.
Практический вопрос для любой национальной стратегии: усиливает ли она долгосрочный инновационный потенциал, не поощряя при этом безответственное развёртывание?
Когда системы ИИ влияют на найм, кредитование, медицинскую сортировку или правоприменение, «управление» перестаёт быть модным словом и превращается в практический вопрос: кто отвечает за сбой системы — и как предотвратить вред до его наступления?
Большинство стран используют сочетание рычагов, а не полагаются на один закон:
Три вопроса появляются практически в каждом дебате:
Системы ИИ очень разные: чат-бот, медицинский диагностический инструмент и система таргетинга не несут одинаковых рисков. Поэтому управление всё чаще делает упор на оценку модели (предразвёртыванные тесты, «красные команды», постоянный мониторинг), привязанную к контексту.
Жёсткое правило вроде «раскрыть обучающую выборку» может быть выполнимо для одних продуктов и невыполнимо для других по причинам безопасности, IP или конфиденциальности. Аналогично, один бенчмарк безопасности может вводить в заблуждение, если он не отражает реальные условия или затронутые сообщества.
Правительство и индустрия не могут быть единственными арбитрами. Группы гражданского общества, академические исследователи и независимые лаборатории тестирования помогают выявлять вреды на ранней стадии, верифицировать методы оценки и представлять интересы тех, кто несёт риски. Финансирование доступа к вычислениям, данным и защищённым тестовым средам часто так же важно, как и написание новых правил.
Когда ИИ становится публичным приоритетом, правительство не может всё построить само — и бизнес не может устанавливать правила в одиночку. Лучшие результаты обычно приходят из партнёрств, которые явно определяют проблему и ограничения, которые нужно уважать.
Рабочее сотрудничество начинается с ясных целей (например: ускорение закупок защищённых вычислений для исследований, улучшение инструментов киберзащиты или разработка методов аудита для высокорисковых моделей) и столь же ясных ограничений. Ограничения часто включают принципы «privacy-by-design», контроли безопасности, документированные стандарты оценки и независимый надзор. Без этого партнёрства превращаются в расплывчатые проекты по «инновациям», которые трудно измерить и легко политизировать.
Государство приносит легитимность, мандат и способность финансировать долгосрочную работу, которая может не окупиться быстро. Индустрия приносит практический инженерный опыт, оперативные данные о реальных сбоях и способность быстро итера- ровать. Университеты и некоммерческие организации часто завершают треугольник, внося открытую науку, эталоны и кадровые потоки.
Главное напряжение — в стимулах. Компании могут продвигать стандарты, которые соответствуют их сильным сторонам; агентства могут выбирать минимально затратные предложения или жёсткие сроки, которые подрывают безопасность и тестирование. Ещё одна повторяющаяся проблема — «чёрные» закупки, когда агентства приобретают системы без достаточной видимости обучающих данных, ограничений модели или политики обновлений.
Конфликты интересов — реальная проблема, особенно когда заметные фигуры советуют правительству, сохраняя связи с фирмами, фондами или советами директоров. Раскрытие информации важно: оно помогает обществу и принимающим решения отличать экспертизу от частных интересов и защищает авторитетных советников от обвинений, разрушающих полезную работу.
Сотрудничество работает лучше, когда оно конкретно:
Эти механизмы не устраняют разногласий, но делают прогресс измеримым и упрощают применение подотчётности.
Переход Эрика Шмидта от масштабирования потребительского поиска к консультациям по национальным приоритетам ИИ подчёркивает простой сдвиг: «продукт» перестаёт быть просто сервисом — теперь это возможности, безопасность и общественное доверие. Это делает расплывчатые обещания лёгкими в продаже и трудными для проверки.
Используйте их как быструю проверку при чтении нового плана, белой книги или речи:
Эра поиска научила, что масштаб усиливает всё: выгоды, ошибки и стимулы. Применительно к национальной стратегии ИИ это означает:
Национальная стратегия по ИИ может открыть реальные возможности: улучшение публичных услуг, повышенная оборонная готовность и более конкурентная научная среда. Но та же сила двойного назначения повышает ставки. Лучшие заявления сочетают амбиции с защитными механизмами, на которые можно указать.
Дальнейшее чтение: изучите другие точки зрения в /blog и практические вводные в /resources/ai-governance и /resources/ai-safety.
Национальная стратегия в области ИИ — это скоординированный план того, как страна будет развивать, внедрять и регулировать ИИ в интересах общественных целей. На практике обычно охватывает:
Потому что сейчас его влияние связано меньше с потребительскими продуктами и больше с тем, как правительства переводят возможности ИИ в государственные способности. Его публичные роли (включая участие в комиссиях и консультативных советах) находятся на пересечении инноваций, безопасности, управления и геополитической конкуренции — областей, где политика нуждается в авторитетных и практически ориентированных объяснениях о том, что ИИ может и не может делать.
Консультативные органы обычно не принимают законы и не распределяют средства, но могут задать «стандартный» набор подходов, которые копируют политики. Они часто выпускают:
Ищите доказательства того, что идеи превратились в повторяемые механизмы, а не в просто заголовки:
На масштабе редкие ошибки становятся частыми событиями. Поэтому стратегия требует измерений и операционной дисциплины, а не только принципов:
«Двойное назначение» означает, что одна и та же способность приносит как гражданскую пользу, так и возможный вред. Например, модели, помогающие программировать, планировать или генерировать текст, также могут:
Политика обычно фокусируется на доступе с управляемым риском, тестировании и мониторинге, а не на чистом разделении «гражданское» против «военного».
Традиционные закупки предполагают стабильные требования и медленно меняющиеся продукты. ИИ-системы обновляются часто, поэтому агентствам нужны способы верификации:
«Вычисления» (центры обработки данных) и продвинутые процессоры (GPU/ускорители) — это ёмкость для обучения и запуска моделей. Стратегии часто рассматривают их как критическую инфраструктуру, потому что дефицит или проблемы в цепочке поставок могут стать узким местом для:
Типичные инструменты управления включают:
Партнёрства ускоряют внедрение и повышают безопасность, но требуют оговорённых рамок:
Хорошо сконструированное сотрудничество уравновешивает инновации и подотчётность, не перекладывая одно на другое.
Практический подход обычно по уровням риска: строже там, где потенциальный вред наибольший.