Google, Microsoft и xAI согласны на предварительную оценку моделей ИИ правительством, поскольку кризис Mythos требует расширения надзора

Google, Microsoft и xAI согласны на предварительную оценку моделей ИИ правительством, поскольку кризис Mythos требует расширения надзора

      TL;DRGoogle, Microsoft и xAI присоединились к OpenAI и Anthropic, предоставив Министерству торговли США доступ к своим моделям ИИ до официального релиза для оценки, создавая добровольный надзор над всеми пятью крупными лабораториями передового ИИ через офис без статутного полномочия и менее чем с 200 сотрудниками. Расширение было вызвано кризисом Mythos и потенциальным исполнительным указом, который формализует процесс проверки.

      Кризис Mythos заставил правительство США столкнуться с вопросом, который оно избегало: что происходит, когда модель ИИ достаточно мощна, чтобы угрожать национальной безопасности, а у правительства нет формального механизма для ее оценки до того, как общественность получит доступ? Во вторник Министерство торговли объявило, что Google, Microsoft и xAI согласились предоставить правительству США доступ к своим моделям ИИ для оценки. Они присоединились к OpenAI и Anthropic, которые с 2024 года представляют модели в тот же офис. Пять компаний теперь составляют подавляющее большинство разработки передового ИИ в мире, и все пять согласились позволить одному государственному офису протестировать свои системы перед развертыванием. Это соглашение является добровольным, не имеет статутной основы и не дает правительству полномочий блокировать релиз. Это также самое близкое, что есть у США к системе надзора за ИИ, и оно было создано менее чем за два года офисом с менее чем двумястами сотрудниками.

      Офис

      Центр стандартов и инноваций в области ИИ находится в Национальном институте стандартов и технологий Министерства торговли. Он был создан при президенте Байдене в 2023 году как Институт безопасности ИИ, переучрежденный при Трампе с новым названием и переориентацией на стандарты и национальную безопасность, а не на исследования безопасности. Центр завершил более 40 оценок моделей ИИ, включая современные системы, которые никогда не были выпущены для общественности. Разработчики часто представляют версии с убранными защитными механизмами, чтобы оценщики могли исследовать возможности, имеющие отношение к национальной безопасности: пути синтеза биологического оружия, автоматизацию кибератак и поведение автономных агентов, которые могут быть трудно контролировать в масштабе.

      Крис Фолл теперь руководит центром после внезапного ухода Коллина Бернса, бывшего исследователя ИИ в Anthropic, который был выбран на эту роль, но был вытеснен Белым домом через четыре дня. Бернс покинул Anthropic, отказался от ценного пакета акций и переехал через всю страну, чтобы занять правительственную должность. Его удаление, как сообщается, было вызвано его связью с компанией, с которой администрация активно боролась, иллюстрирует политическую сложность создания системы надзора для отрасли, где оценщики и оцениваемые приходят из одного и того же пула талантов. Более широкий подход Трампа к регулированию ИИ приоритизировал федеральное преобладание над государственным регулированием и легкий подход к отрасли, но программа оценки моделей представляет собой более жесткий подход: правительство хочет увидеть, на что способны эти системы, прежде чем кто-либо другой это сделает.

      Соглашения

      Новые партнерства с Google, Microsoft и xAI расширяют то, что было соглашением между двумя компаниями, до чего-то более близкого к комплексному охвату передового ИИ. OpenAI и Anthropic пересмотрели свои существующие соглашения, чтобы согласовать их с Планом действий по ИИ Трампа, который поручает центру возглавить оценки моделей, связанных с национальной безопасностью, и позиционирует его как часть более широкой «экосистемы оценок». Соглашения не являются контрактами. Это добровольные обязательства, от которых компании могут отказаться в любое время. Ни один закон не требует предварительной оценки. Ни одно регулирование не дает центру полномочий задерживать или блокировать развертывание. Вся система зависит от того, что компании ИИ решают, по своим стратегическим причинам, что предоставление правительству раннего доступа предпочтительнее альтернативы.

      Альтернатива, с точки зрения компаний, — это законодательство. Несколько законопроектов предоставят центру постоянные статутные полномочия, обязательные требования к оценке и возможность накладывать условия на развертывание. Пентагон уже продемонстрировал готовность занести в черный список компании ИИ, которые отказываются подчиняться требованиям правительства, назначив Anthropic риском для цепочки поставок после того, как компания отказалась разрешить использование своих моделей для автономного оружия или массового внутреннего наблюдения. Добровольные соглашения об оценке являются, отчасти, способом для оставшихся компаний продемонстрировать сотрудничество, прежде чем сотрудничество станет принудительным.

      Катализатор

      Расширение программы оценки происходит на фоне кризиса Mythos. Прорывная модель Anthropic, объявленная в апреле, может автономно обнаруживать и использовать уязвимости нулевого дня в каждой крупной операционной системе и веб-браузере. Она выявила тысячи уязвимостей высокой степени серьезности, включая уязвимости, которые существовали десятилетиями без обнаружения. Белый дом выступил против плана Anthropic расширить доступ к Mythos за пределы его первоначального консорциума партнеров по запуску. АНБ использует его, несмотря на черный список Anthropic со стороны Пентагона. ЕС требует доступа к Mythos для европейской киберзащиты, утверждая, что самый значимый инструмент кибербезопасности не может оставаться под исключительным контролем американской компании, которую американское правительство частично занесло в черный список.

      Mythos продемонстрировал, что программа оценки предназначена для выявления: модель, чьи возможности имеют немедленные последствия для национальной безопасности, которые нельзя оценить после развертывания. Более 40 оценок центра с 2024 года, предположительно, выявили возможности в не выпущенных моделях, которые информировали политические решения, но эти оценки происходили в рамках соглашений только с двумя компаниями. Модели Google Gemini, Microsoft и Grok от xAI не подлежали предварительной правительственной проверке до сих пор. Новые соглашения закрывают этот разрыв, обеспечивая, чтобы следующая модель с возможностями уровня Mythos, независимо от того, какая лаборатория ее производит, достигла правительственных оценщиков до того, как она достигнет общественности.

      Ограничения

      Структурная слабость программы очевидна: она полностью зависит от добровольного участия. Компания, которая обнаруживает, что ее модель обладает опасными возможностями, может, юридически, отказаться представить ее для оценки и выпустить ее все равно. У центра нет полномочий на выдачу повесток, нет полномочий на запретительные меры и нет механизма для принуждения к раскрытию информации. Его рычаги — это репутационные и политические: компании, которые участвуют, сигнализируют о своей ответственности, а компании, которые отказываются, приглашают регулирование. Но этот рычаг предполагает, что правительство может достоверно угрожать законодательством, а заявленная администрацией предпочтение легкого регулирования ослабляет эту угрозу.

      Министры финансов стран еврозоны обсуждали Mythos от Anthropic как проблему финансовой стабильности, признавая, что инструмент кибербезопасности, способный обнаруживать уязвимости в банковской инфраструктуре, имеет последствия, выходящие за рамки традиционной национальной безопасности. Международный аспект добавляет давление: если правительство США не может продемонстрировать, что у него есть надзор над передовыми моделями ИИ, разработанными на его территории, другие правительства введут свои собственные требования, фрагментируя глобальный рынок ИИ и создавая затраты на соблюдение, которых компании хотят избежать. Добровольная программа оценки является, в этом понимании, не надзором, а профилактикой против надзора: доказательство того, что отрасль сотрудничает, предлагается в обмен на продолжение свободы самоуправления.

      Вопрос

      Администрация Трампа рассматривает возможность принятия исполнительного указа, который создаст формальный процесс правительственной проверки моделей ИИ, потенциально превращая то, что в настоящее время является добровольным, в нечто с регуляторными полномочиями. Рабочая группа из технолидеров и государственных служащих разработает процесс, с вариантами от консультативной проверки до обязательного одобрения перед развертыванием. Проблема администрации заключается в том, что она одновременно хочет ускорить развитие ИИ, сохранить американское конкурентное преимущество над Китаем, избежать обременения компаний регулированием и обеспечить, чтобы модели с возможностями национальной безопасности подлежали правительственной проверке. Эти цели не полностью совместимы, и добровольная программа оценки является текущей попыткой их соглас

Другие статьи

Intel нанимает ветерана Qualcomm Алекса Катузяна для руководства новой группой клиентских вычислений и физического ИИ Intel нанимает ветерана Qualcomm Алекса Катузяна для руководства новой группой клиентских вычислений и физического ИИ Intel наняла Алекса Катузяна, 25-летнего ветерана Qualcomm, для руководства новой объединенной группой Client Computing и Physical AI. Это второй высокопрофильный найм Qualcomm за время работы генерального директора Лип-Бу Тана. Внутри раунда QuantWare на €152 млн для создания KiloFab Внутри раунда QuantWare на €152 млн для создания KiloFab QuantWare завершила раунд финансирования серии B на сумму 152 миллиона евро, в котором приняли участие Intel Capital, In-Q-Tel и ETF Partners, что стало крупнейшим раундом глубоких технологий в Нидерландах. Основатели IronSource привлекли 60 миллионов долларов при оценке в 500 миллионов долларов для Zyg, агентной платформы ИИ, которая автоматизирует рекламу в электронной коммерции. Основатели IronSource привлекли 60 миллионов долларов при оценке в 500 миллионов долларов для Zyg, агентной платформы ИИ, которая автоматизирует рекламу в электронной коммерции. Zyg привлек $60 млн, возглавляемых Accel, при оценке в $500 млн через два месяца после скрытого запуска. Команда IronSource создает ИИ-агентов, которые заменяют человеческих покупателей рекламы для DTC-брендов. Технология сканирования лиц от Metalenz находится под экраном телефона и не требует уродливых вырезов. Технология сканирования лиц от Metalenz находится под экраном телефона и не требует уродливых вырезов. Metalenz только что доказал, что аутентификация лица на уровне платежей может работать при полностью включенном дисплее, что Apple пыталась сделать в течение многих лет без успеха. Разработка памяти DDR6 следующего поколения с невероятными скоростями началась, но впереди долгожданное ожидание. Разработка памяти DDR6 следующего поколения с невероятными скоростями началась, но впереди долгожданное ожидание. Samsung, SK Hynix и Micron начали раннюю разработку DDR6 с производителями подложек, нацеливаясь на скорости, которые более чем в два раза превышают DDR5, хотя массовое производство все еще далеко. Обзор Asus Zenbook A16: Элегантный убийца MacBook из лагеря Windows? Обзор Asus Zenbook A16: Элегантный убийца MacBook из лагеря Windows? Вооруженный великолепным 3K OLED экраном, Asus Zenbook A16 предлагает отличное время работы от батареи в тонком корпусе и становится мощным устройством с поддержкой ИИ для поклонников Windows.

Google, Microsoft и xAI согласны на предварительную оценку моделей ИИ правительством, поскольку кризис Mythos требует расширения надзора

Пять пограничных лабораторий ИИ теперь представляют модели на оценку правительству США. Добровольная программа не имеет законодательных полномочий, но охватывает всех крупных разработчиков ИИ после кризиса Mythos.