Google, Microsoft и xAI согласны на предварительную оценку моделей ИИ правительством, поскольку кризис Mythos требует расширения надзора
TL;DRGoogle, Microsoft и xAI присоединились к OpenAI и Anthropic, предоставив Министерству торговли США доступ к своим моделям ИИ до официального релиза для оценки, создавая добровольный надзор над всеми пятью крупными лабораториями передового ИИ через офис без статутного полномочия и менее чем с 200 сотрудниками. Расширение было вызвано кризисом Mythos и потенциальным исполнительным указом, который формализует процесс проверки.
Кризис Mythos заставил правительство США столкнуться с вопросом, который оно избегало: что происходит, когда модель ИИ достаточно мощна, чтобы угрожать национальной безопасности, а у правительства нет формального механизма для ее оценки до того, как общественность получит доступ? Во вторник Министерство торговли объявило, что Google, Microsoft и xAI согласились предоставить правительству США доступ к своим моделям ИИ для оценки. Они присоединились к OpenAI и Anthropic, которые с 2024 года представляют модели в тот же офис. Пять компаний теперь составляют подавляющее большинство разработки передового ИИ в мире, и все пять согласились позволить одному государственному офису протестировать свои системы перед развертыванием. Это соглашение является добровольным, не имеет статутной основы и не дает правительству полномочий блокировать релиз. Это также самое близкое, что есть у США к системе надзора за ИИ, и оно было создано менее чем за два года офисом с менее чем двумястами сотрудниками.
Офис
Центр стандартов и инноваций в области ИИ находится в Национальном институте стандартов и технологий Министерства торговли. Он был создан при президенте Байдене в 2023 году как Институт безопасности ИИ, переучрежденный при Трампе с новым названием и переориентацией на стандарты и национальную безопасность, а не на исследования безопасности. Центр завершил более 40 оценок моделей ИИ, включая современные системы, которые никогда не были выпущены для общественности. Разработчики часто представляют версии с убранными защитными механизмами, чтобы оценщики могли исследовать возможности, имеющие отношение к национальной безопасности: пути синтеза биологического оружия, автоматизацию кибератак и поведение автономных агентов, которые могут быть трудно контролировать в масштабе.
Крис Фолл теперь руководит центром после внезапного ухода Коллина Бернса, бывшего исследователя ИИ в Anthropic, который был выбран на эту роль, но был вытеснен Белым домом через четыре дня. Бернс покинул Anthropic, отказался от ценного пакета акций и переехал через всю страну, чтобы занять правительственную должность. Его удаление, как сообщается, было вызвано его связью с компанией, с которой администрация активно боролась, иллюстрирует политическую сложность создания системы надзора для отрасли, где оценщики и оцениваемые приходят из одного и того же пула талантов. Более широкий подход Трампа к регулированию ИИ приоритизировал федеральное преобладание над государственным регулированием и легкий подход к отрасли, но программа оценки моделей представляет собой более жесткий подход: правительство хочет увидеть, на что способны эти системы, прежде чем кто-либо другой это сделает.
Соглашения
Новые партнерства с Google, Microsoft и xAI расширяют то, что было соглашением между двумя компаниями, до чего-то более близкого к комплексному охвату передового ИИ. OpenAI и Anthropic пересмотрели свои существующие соглашения, чтобы согласовать их с Планом действий по ИИ Трампа, который поручает центру возглавить оценки моделей, связанных с национальной безопасностью, и позиционирует его как часть более широкой «экосистемы оценок». Соглашения не являются контрактами. Это добровольные обязательства, от которых компании могут отказаться в любое время. Ни один закон не требует предварительной оценки. Ни одно регулирование не дает центру полномочий задерживать или блокировать развертывание. Вся система зависит от того, что компании ИИ решают, по своим стратегическим причинам, что предоставление правительству раннего доступа предпочтительнее альтернативы.
Альтернатива, с точки зрения компаний, — это законодательство. Несколько законопроектов предоставят центру постоянные статутные полномочия, обязательные требования к оценке и возможность накладывать условия на развертывание. Пентагон уже продемонстрировал готовность занести в черный список компании ИИ, которые отказываются подчиняться требованиям правительства, назначив Anthropic риском для цепочки поставок после того, как компания отказалась разрешить использование своих моделей для автономного оружия или массового внутреннего наблюдения. Добровольные соглашения об оценке являются, отчасти, способом для оставшихся компаний продемонстрировать сотрудничество, прежде чем сотрудничество станет принудительным.
Катализатор
Расширение программы оценки происходит на фоне кризиса Mythos. Прорывная модель Anthropic, объявленная в апреле, может автономно обнаруживать и использовать уязвимости нулевого дня в каждой крупной операционной системе и веб-браузере. Она выявила тысячи уязвимостей высокой степени серьезности, включая уязвимости, которые существовали десятилетиями без обнаружения. Белый дом выступил против плана Anthropic расширить доступ к Mythos за пределы его первоначального консорциума партнеров по запуску. АНБ использует его, несмотря на черный список Anthropic со стороны Пентагона. ЕС требует доступа к Mythos для европейской киберзащиты, утверждая, что самый значимый инструмент кибербезопасности не может оставаться под исключительным контролем американской компании, которую американское правительство частично занесло в черный список.
Mythos продемонстрировал, что программа оценки предназначена для выявления: модель, чьи возможности имеют немедленные последствия для национальной безопасности, которые нельзя оценить после развертывания. Более 40 оценок центра с 2024 года, предположительно, выявили возможности в не выпущенных моделях, которые информировали политические решения, но эти оценки происходили в рамках соглашений только с двумя компаниями. Модели Google Gemini, Microsoft и Grok от xAI не подлежали предварительной правительственной проверке до сих пор. Новые соглашения закрывают этот разрыв, обеспечивая, чтобы следующая модель с возможностями уровня Mythos, независимо от того, какая лаборатория ее производит, достигла правительственных оценщиков до того, как она достигнет общественности.
Ограничения
Структурная слабость программы очевидна: она полностью зависит от добровольного участия. Компания, которая обнаруживает, что ее модель обладает опасными возможностями, может, юридически, отказаться представить ее для оценки и выпустить ее все равно. У центра нет полномочий на выдачу повесток, нет полномочий на запретительные меры и нет механизма для принуждения к раскрытию информации. Его рычаги — это репутационные и политические: компании, которые участвуют, сигнализируют о своей ответственности, а компании, которые отказываются, приглашают регулирование. Но этот рычаг предполагает, что правительство может достоверно угрожать законодательством, а заявленная администрацией предпочтение легкого регулирования ослабляет эту угрозу.
Министры финансов стран еврозоны обсуждали Mythos от Anthropic как проблему финансовой стабильности, признавая, что инструмент кибербезопасности, способный обнаруживать уязвимости в банковской инфраструктуре, имеет последствия, выходящие за рамки традиционной национальной безопасности. Международный аспект добавляет давление: если правительство США не может продемонстрировать, что у него есть надзор над передовыми моделями ИИ, разработанными на его территории, другие правительства введут свои собственные требования, фрагментируя глобальный рынок ИИ и создавая затраты на соблюдение, которых компании хотят избежать. Добровольная программа оценки является, в этом понимании, не надзором, а профилактикой против надзора: доказательство того, что отрасль сотрудничает, предлагается в обмен на продолжение свободы самоуправления.
Вопрос
Администрация Трампа рассматривает возможность принятия исполнительного указа, который создаст формальный процесс правительственной проверки моделей ИИ, потенциально превращая то, что в настоящее время является добровольным, в нечто с регуляторными полномочиями. Рабочая группа из технолидеров и государственных служащих разработает процесс, с вариантами от консультативной проверки до обязательного одобрения перед развертыванием. Проблема администрации заключается в том, что она одновременно хочет ускорить развитие ИИ, сохранить американское конкурентное преимущество над Китаем, избежать обременения компаний регулированием и обеспечить, чтобы модели с возможностями национальной безопасности подлежали правительственной проверке. Эти цели не полностью совместимы, и добровольная программа оценки является текущей попыткой их соглас
Другие статьи
Google, Microsoft и xAI согласны на предварительную оценку моделей ИИ правительством, поскольку кризис Mythos требует расширения надзора
Пять пограничных лабораторий ИИ теперь представляют модели на оценку правительству США. Добровольная программа не имеет законодательных полномочий, но охватывает всех крупных разработчиков ИИ после кризиса Mythos.
