Google, Microsoft и xAI согласны на предварительную оценку правительственных моделей ИИ, так как кризис Mythos заставляет расширить надзор.
TL;DRGoogle, Microsoft и xAI присоединились к OpenAI и Anthropic, предоставив Министерству торговли США доступ к своим моделям ИИ до их официального релиза для оценки, создавая добровольный контроль над всеми пятью основными лабораториями передового ИИ через офис без статутного полномочия и менее чем с 200 сотрудниками. Расширение было вызвано кризисом Mythos и потенциальным исполнительным указом, который формализует процесс проверки.
Кризис Mythos заставил правительство США столкнуться с вопросом, который оно избегало: что происходит, когда модель ИИ достаточно мощна, чтобы угрожать национальной безопасности, а у правительства нет формального механизма для ее оценки до того, как общественность получит доступ? Во вторник Министерство торговли объявило, что Google, Microsoft и xAI согласились предоставить правительству США доступ к своим моделям ИИ для оценки. Они присоединились к OpenAI и Anthropic, которые с 2024 года представляют модели в тот же офис. Пять компаний теперь составляют подавляющее большинство разработки передового ИИ в мире, и все пять согласились позволить одному государственному офису протестировать их системы перед развертыванием. Это соглашение добровольное, не имеет статутной основы и не дает правительству полномочий блокировать релиз. Это также самое близкое, что есть у США к системе контроля за ИИ, и оно было создано менее чем за два года офисом с менее чем двумястами сотрудниками.
Офис
Центр стандартов и инноваций в области ИИ находится в Национальном институте стандартов и технологий Министерства торговли. Он был создан при президенте Байдене в 2023 году как Институт безопасности ИИ, переименованный при Трампе с новой ориентацией на стандарты и национальную безопасность, а не на исследования безопасности. Центр завершил более 40 оценок моделей ИИ, включая современные системы, которые никогда не были выпущены для общественности. Разработчики часто представляют версии с уменьшенными мерами безопасности, чтобы оценщики могли исследовать возможности, имеющие отношение к национальной безопасности: пути синтеза биологического оружия, автоматизацию кибератак и поведение автономных агентов, которые могут быть трудно контролировать в масштабе.
Крис Фолл теперь руководит центром после внезапного ухода Коллина Бернса, бывшего исследователя ИИ в Anthropic, который был выбран на эту роль, но был вытеснен Белым домом через четыре дня. Бернс покинул Anthropic, отказался от ценного пакета акций и переехал через всю страну, чтобы занять государственную должность. Его удаление, как сообщается, было вызвано его связью с компанией, с которой администрация активно боролась, иллюстрирует политическую сложность создания системы контроля для отрасли, где оценщики и оцениваемые приходят из одного и того же пула талантов. Более широкий подход Трампа к регулированию ИИ приоритизировал федеральное преобладание над государственным регулированием и легкий подход к отрасли, но программа оценки моделей представляет собой более жесткий подход: правительство хочет увидеть, что эти системы могут делать, прежде чем кто-либо другой это сделает.
Соглашения
Новые партнерства с Google, Microsoft и xAI расширяют то, что было соглашением между двумя компаниями, в нечто более близкое к комплексному охвату передового ИИ. OpenAI и Anthropic пересмотрели свои существующие соглашения, чтобы согласовать их с Планом действий по ИИ Трампа, который поручает центру возглавить оценки моделей, связанных с национальной безопасностью, и позиционирует его как часть более широкой "экосистемы оценок". Соглашения не являются контрактами. Это добровольные обязательства, от которых компании могут отказаться в любое время. Ни один закон не требует предварительной оценки. Ни одно регулирование не дает центру полномочий задерживать или блокировать развертывание. Вся система зависит от того, что компании ИИ решают, по своим стратегическим причинам, что предоставление правительству раннего доступа предпочтительнее альтернативы.
Альтернатива, с точки зрения компаний, — это законодательство. Несколько законопроектов предоставят центру постоянные статутные полномочия, обязательные требования к оценке и полномочия налагать условия на развертывание. Пентагон уже продемонстрировал готовность занести в черный список компании ИИ, которые отказываются выполнять требования правительства, обозначив Anthropic как риск для цепочки поставок после того, как компания отказалась разрешить использование своих моделей для автономного оружия или массового внутреннего наблюдения. Добровольные соглашения об оценке являются, отчасти, способом для оставшихся компаний продемонстрировать сотрудничество, прежде чем сотрудничество станет обязательным.
Катализатор
Расширение программы оценки происходит на фоне кризиса Mythos. Прорывная модель Anthropic, объявленная в апреле, может автономно обнаруживать и использовать уязвимости нулевого дня в каждой крупной операционной системе и веб-браузере. Она выявила тысячи уязвимостей высокой степени серьезности, включая уязвимости, которые существовали десятилетиями без обнаружения. Белый дом выступил против плана Anthropic расширить доступ к Mythos за пределы его первоначального консорциума партнеров по запуску. АНБ использует его, несмотря на черный список Anthropic со стороны Пентагона. ЕС требует доступа к Mythos для европейской киберзащиты, утверждая, что самый значимый инструмент кибербезопасности не может оставаться под исключительным контролем американской компании, которую американское правительство частично занесло в черный список.
Mythos продемонстрировал, что программа оценки предназначена для выявления: модель, чьи возможности имеют непосредственные последствия для национальной безопасности, которые нельзя оценить после развертывания. Более 40 оценок центра с 2024 года, предположительно, выявили возможности в не выпущенных моделях, которые повлияли на политические решения, но эти оценки происходили в рамках соглашений только с двумя компаниями. Модели Google Gemini, Microsoft и Grok от xAI не подлежали предварительной правительственной проверке до сих пор. Новые соглашения закрывают этот пробел, обеспечивая, чтобы следующая модель с возможностями уровня Mythos, независимо от того, какая лаборатория ее производит, достигла правительственных оценщиков до того, как она достигнет общественности.
Ограничения
Структурная слабость программы очевидна: она полностью зависит от добровольного участия. Компания, которая обнаруживает, что ее модель имеет опасные возможности, может, юридически, отказаться представить ее на оценку и выпустить ее все равно. У центра нет полномочий на повестку дня, нет полномочий на запретительные меры и нет механизма для принуждения к раскрытию информации. Его влияние репутационное и политическое: компании, которые участвуют, сигнализируют о своей ответственности, а компании, которые отказываются, приглашают регулирование. Но это влияние предполагает, что правительство может достоверно угрожать законодательством, а заявленная администрацией предрасположенность к легкому регулированию ослабляет эту угрозу.
Министры финансов стран еврозоны обсуждали Mythos от Anthropic как проблему финансовой стабильности, признавая, что инструмент кибербезопасности, способный обнаруживать уязвимости в банковской инфраструктуре, имеет последствия, выходящие за рамки традиционной национальной безопасности. Международный аспект добавляет давление: если правительство США не сможет продемонстрировать, что у него есть контроль над передовыми моделями ИИ, разработанными на его территории, другие правительства введут свои собственные требования, фрагментируя глобальный рынок ИИ и создавая затраты на соблюдение, которых компании хотят избежать. Добровольная программа оценки является, в этом понимании, не контролем, а профилактикой против контроля: доказательство того, что отрасль сотрудничает, предлагается в обмен на продолжение свободы самоуправления.
Вопрос
Администрация Трампа рассматривает возможность принятия исполнительного указа, который создаст формальный процесс правительственной проверки для моделей ИИ, потенциально трансформируя то, что в настоящее время является добровольным, в нечто с регуляторными полномочиями. Рабочая группа из тех executives и государственных чиновников разработает процесс, с вариантами от консультативной проверки до обязательного одобрения перед развертыванием. Проблема администрации заключается в том, что она одновременно хочет ускорить развитие ИИ, сохранить конкурентное преимущество Америки над Китаем, избежать обременения компаний регулированием и обеспечить, чтобы модели с возможностями национальной безопасности подлежали правительственной проверке. Эти цели не полностью совместимы, и добровольная программа оценки является текущей попыткой согласовать их.
Возможности ИИ развиваются в специализированные области с темпом, который превышает
Другие статьи
Google, Microsoft и xAI согласны на предварительную оценку правительственных моделей ИИ, так как кризис Mythos заставляет расширить надзор.
Пять пограничных лабораторий ИИ теперь представляют модели для оценки правительством США. Добровольная программа не имеет законных полномочий, но охватывает всех крупных разработчиков ИИ после кризиса Mythos.
