Война за ограждение: что чистка ИИ в Америке означает для остальных из нас
27 февраля 2026 года, в послеобеденное время, Пит Хегсетх поднял телефон и опубликовал сообщение в X. Министр обороны США только что объявил компанию Anthropic, основанную в Сан-Франциско, «риском для национальной безопасности в цепочке поставок».
Эта метка, согласно 10 USC 3252, ранее применялась к Huawei и ZTE, китайским компаниям, обвиняемым в внедрении слежки в их оборудование.
Теперь она использовалась против американской компании, основанной бывшими исследователями OpenAI, чcrime заключалось в следующем: она отказалась позволить армии США использовать свои модели ИИ для массового внутреннего наблюдения за американскими гражданами или для полностью автономного смертоносного оружия.
В тот день, через несколько часов после того, как Anthropic была внесена в черный список, генеральный директор OpenAI Сэм Альтман объявил, что его компания достигла своей сделки с Пентагоном. Его модели, написал он, будут доступны для всех законных целей.
Тем же вечером старший исполнительный директор OpenAI по аппаратному обеспечению, Кэтлин Калиновски, которая потратила 16 месяцев на создание программы робототехники компании, объявила о своей отставке.
«Наблюдение за американцами без судебного контроля и смертоносная автономия без человеческого разрешения», написала она, «это линии, которые заслуживали большего обсуждения, чем они получили».
Как оказалось, эти линии вообще не обсуждались. Они были проведены в рамках контрактного спора и стерты в пресс-релизе в пятницу после обеда.
Здесь история обычно рассказывается как столкновение между двумя американскими компаниями и одной американской администрацией, борьба за власть в Вашингтоне с ИИ в центре. Это прочтение не ошибочно. Но оно неполное.
То, что произошло между Anthropic, OpenAI и Пентагоном в первые три месяца 2026 года, также является историей о демократическом управлении, о том, кто устанавливает условия, на которых развертываются самые значительные технологии нашей эпохи, и о том, что происходит, когда правительство решает, что ответ на этот вопрос: кто первым выполнит требования.
Анатомия чистки
Последовательность событий стоит изложить четко, потому что скорость, с которой они развивались, затмила их значимость. Anthropic имела контракт с Пентагоном на сумму 200 миллионов долларов, выданный в июле 2025 года, на работу с секретными системами.
Условия включали два ограничения: Claude не мог использоваться для массового внутреннего наблюдения за американскими гражданами, и он не мог использоваться для управления полностью автономным оружием без человека в процессе целеуказания. Эти требования не были новыми.
Они соответствовали давним запретам в международном гуманитарном праве и конституционным защитам США. Они были, по любым разумным меркам, теми видами защиты, которые демократическое правительство должно хотеть встроить в свои системы ИИ.
Пентагон не согласился. Он хотел, по словам своего окончательного ультиматума, «неограниченного доступа к ИИ для всех законных целей». Когда Anthropic отказалась убрать свои ограничения, Хегсетх установил крайний срок: 17:01 27 февраля. Он прошел без соглашения. Трамп, написав на Truth Social, назвал руководство компании «левыми психами» и приказал всем федеральным агентствам немедленно прекратить использование технологий Anthropic.
Федеральный судья в Сан-Франциско, рассматривая назначение, был менее красноречив, но более точен. Судья Рита Лин написала в своем мартовском решении, что назначение риска в цепочке поставок «обычно зарезервировано для иностранных разведывательных агентств и террористов, а не для американских компаний» и описала действия администрации как «классическую месть по Первой поправке».
Она вынесла предварительный судебный запрет на запрет.
Ничто из этого не остановило федеральный апелляционный суд от последующего отказа в просьбе Anthropic о приостановлении, заключив, что «справедливый баланс здесь склоняется в пользу правительства».
На момент написания этой статьи Anthropic запрещено участвовать в контрактах с Пентагоном, ей разрешено работать с другими агентствами, и она ведет борьбу по двум параллельным искам, одновременно набирая партнеров из бизнеса, запуская партнерскую программу на 100 миллионов долларов и тестируя свою новую модель Mythos с банками Уолл-стрит при тихом одобрении министра финансов и председателя Федеральной резервной системы.
Администрация, которая внесла компанию в черный список, также направляет эти банки оценить ее для критической финансовой инфраструктуры.
Противоречие не является бюрократической путаницей. Это политика.
Что на самом деле означает сделка OpenAI
Более неудобная часть этой истории — это роль OpenAI в ней. Альтман заявил, что его компания разделяет основные принципы Anthropic: никакого внутреннего массового наблюдения, никакого автономного оружия. Заявленные красные линии компаний на бумаге почти идентичны.
Разница в том, что OpenAI подписала соглашение, а Anthropic — нет. Что именно содержится в соглашении OpenAI с Пентагоном и как его положения соотносятся с гарантиями, которые искала Anthropic, не было обнародовано.
Официальные лица Пентагона заявили, что существующее законодательство США уже запрещает те применения, которые беспокоили Anthropic. Юристы Anthropic и группа из 37 исследователей из OpenAI и Google DeepMind, которые подали амicus brief в поддержку иска, явно не разделяют этой уверенности.
Что мы можем сказать с разумной уверенностью, так это следующее: правительство, которое хотело убрать обязательные ограничения безопасности из моделей ИИ, используемых в секретных военных системах, нашло способ это сделать. Одна компания удерживала позицию и рассматривалась как противник.
Другая согласилась с позицией правительства и рассматривалась как партнер. Рыночный сигнал, который это посылает каждой компании ИИ, ведущей переговоры о контракте с государственным сектором, где угодно в мире, не может быть более ясным.
Сэм Альтман признал, что сделка была «определенно спешной». Сами сотрудники OpenAI выступили против. Установки ChatGPT, как сообщается, увеличились на 295% в дни после объявления, в то время как Claude поднялся на вершину американского App Store.
Эти ответы предполагают, что пользователи, по крайней мере, поняли, что что-то значительное изменилось. Вопрос в том, делают ли политики за пределами Соединенных Штатов тот же вывод.
Что должна ставить под сомнение Европа?
Европа потратила большую часть десятилетия на создание нормативной базы для ИИ, основанной на основном демократическом аргументе: что мощные технологии должны быть ограничены законом, а не просто добрыми намерениями компаний, которые их создают.
Законопроект о ИИ, который вступит в полную силу в августе 2026 года, закрепляет этот аргумент в законодательстве. Запрещенные применения, включая биометрическое наблюдение в реальном времени в общественных местах и социальный рейтинг, не оставлены на усмотрение корпораций. Они запрещены.
Что показывает сага с Anthropic, так это то, что происходит в юрисдикции, где этот аргумент был отвергнут. В Соединенных Штатах исполнительный указ о безопасности ИИ администрации Байдена был отменен в первый день Трампа. Законодательство об ИИ на уровне штатов активно подавляется. И когда компания попыталась встроить принципы Закона о ИИ ЕС в свои собственные контрактные условия, правительство, которое ранее хвалило ее технологии как «изысканные», обратилось к закону, предназначенному для нейтрализации иностранных саботажников.
Пакет «Цифровой Омнибус» ЕС, который сейчас находится на стадии переговоров, предлагает отложить и ослабить части как Закона о ИИ, так и GDPR в интересах сокращения бюрократии и повышения конкурентоспособности. Это движется, по крайней мере частично, под аргументом, что европейское регулирование ставит континент в невыгодное положение по сравнению с менее ограниченными американскими и китайскими конкурентами.
Дело Anthropic предлагает коррекцию к этому фреймингу. То, что продемонстрировали США, — это не конкурентное преимущество через дерегулирование. Это продемонстрировало, как выглядит ситуация, когда правительство использует свою закупочную власть, чтобы обеспечить удаление ограничений безопасности, которые его собственные демократические принципы в противном случае потребовали бы.
Это не модель,
Другие статьи
Война за ограждение: что чистка ИИ в Америке означает для остальных из нас
Правительство США внесло Anthropic в черный список за отказ от включения слежки. OpenAI согласилась. Оба результата должны насторожить европейских политиков.
