Google, Microsoft и xAI согласны на предварительную оценку правительственных моделей ИИ, так как кризис Mythos требует расширения надзора

Google, Microsoft и xAI согласны на предварительную оценку правительственных моделей ИИ, так как кризис Mythos требует расширения надзора

      TL;DRGoogle, Microsoft и xAI присоединились к OpenAI и Anthropic, предоставив Министерству торговли США доступ к своим моделям ИИ до их официального релиза для оценки, создавая добровольный контроль над всеми пятью основными лабораториями передового ИИ через офис без статутного полномочия и с численностью менее 200 сотрудников. Расширение было вызвано кризисом Mythos и потенциальным исполнительным указом, который формализует процесс проверки.

      Кризис Mythos заставил правительство США столкнуться с вопросом, который оно избегало: что происходит, когда модель ИИ достаточно мощная, чтобы угрожать национальной безопасности, а у правительства нет формального механизма для ее оценки до того, как общественность получит доступ? Во вторник Министерство торговли объявило, что Google, Microsoft и xAI согласились предоставить правительству США доступ к своим моделям ИИ для оценки. Они присоединились к OpenAI и Anthropic, которые с 2024 года предоставляют модели в тот же офис. Пять компаний теперь составляют подавляющее большинство разработки передового ИИ в мире, и все пять согласились позволить одному государственному офису протестировать их системы перед развертыванием. Это соглашение является добровольным, не имеет статутной основы и не дает правительству полномочий блокировать релиз. Это также самое близкое, что есть у США к системе контроля за ИИ, и она была создана менее чем за два года офисом с численностью менее двухсот сотрудников.

      Офис

      Центр стандартов и инноваций в области ИИ находится в Национальном институте стандартов и технологий Министерства торговли. Он был создан при президенте Байдене в 2023 году как Институт безопасности ИИ, переименованный при Трампе с новой ориентацией на стандарты и национальную безопасность, а не на исследования безопасности. Центр завершил более 40 оценок моделей ИИ, включая современные системы, которые никогда не были выпущены для общественности. Разработчики часто представляют версии с уменьшенными мерами безопасности, чтобы оценщики могли исследовать возможности, имеющие отношение к национальной безопасности: пути синтеза биологического оружия, автоматизацию кибератак и поведение автономных агентов, которые могут быть трудно контролировать в больших масштабах.

      Крис Фолл теперь руководит центром после внезапного ухода Коллина Бернса, бывшего исследователя ИИ в Anthropic, который был выбран на эту роль, но был вытеснен Белым домом через четыре дня. Бернс покинул Anthropic, отказался от ценных акций и переехал через всю страну, чтобы занять государственную должность. Его удаление, как сообщается, было вызвано его связью с компанией, с которой администрация активно боролась, иллюстрирует политическую сложность создания системы контроля для отрасли, где оценщики и оцениваемые происходят из одного и того же пула талантов. Более широкий подход Трампа к регулированию ИИ приоритизировал федеральное преобладание над государственным регулированием и легкий подход к отрасли, но программа оценки моделей представляет собой более жесткий подход: правительство хочет увидеть, что эти системы могут делать, прежде чем кто-либо другой это сделает.

      Соглашения

      Новые партнерства с Google, Microsoft и xAI расширяют то, что было соглашением между двумя компаниями, в нечто более близкое к комплексному охвату передового ИИ. OpenAI и Anthropic пересмотрели свои существующие соглашения, чтобы согласовать их с Планом действий по ИИ Трампа, который поручает центру возглавить оценки моделей, связанных с национальной безопасностью, и позиционирует его как часть более широкой "экосистемы оценок". Соглашения не являются контрактами. Это добровольные обязательства, от которых компании могут отказаться в любое время. Ни один закон не требует предварительной оценки. Ни одно регулирование не дает центру полномочий задерживать или блокировать развертывание. Вся система зависит от того, что компании по ИИ решают, по своим стратегическим причинам, что предоставление правительству раннего доступа предпочтительнее альтернативы.

      Альтернатива, с точки зрения компаний, — это законодательство. Несколько законопроектов предоставят центру постоянные статутные полномочия, обязательные требования к оценке и возможность накладывать условия на развертывание. Пентагон уже продемонстрировал готовность занести в черный список компании ИИ, которые отказываются выполнять требования правительства, назначив Anthropic риском для цепочки поставок после того, как компания отказалась позволить использовать свои модели для автономного оружия или массового внутреннего наблюдения. Добровольные соглашения об оценке являются, отчасти, способом для оставшихся компаний продемонстрировать сотрудничество, прежде чем сотрудничество станет обязательным.

      Катализатор

      Расширение программы оценки происходит на фоне кризиса Mythos. Прорывная модель Anthropic, объявленная в апреле, может автономно обнаруживать и использовать уязвимости нулевого дня в каждой основной операционной системе и веб-браузере. Она выявила тысячи уязвимостей высокой степени серьезности, включая уязвимости, которые существовали десятилетиями без обнаружения. Белый дом выступил против плана Anthropic по расширению доступа к Mythos за пределы его первоначального консорциума партнеров по запуску. АНБ использует его, несмотря на черный список Anthropic со стороны Пентагона. ЕС требует доступа к Mythos для европейской киберзащиты, утверждая, что самый значимый инструмент кибербезопасности не может оставаться под исключительным контролем американской компании, которую американское правительство частично занесло в черный список.

      Mythos продемонстрировал, что программа оценки предназначена для выявления: модель, чьи возможности имеют непосредственные последствия для национальной безопасности, которые нельзя оценить после развертывания. Более 40 оценок центра с 2024 года, предположительно, выявили возможности в не выпущенных моделях, которые повлияли на политические решения, но эти оценки происходили в рамках соглашений только с двумя компаниями. Модели Google Gemini, Microsoft и Grok от xAI не подлежали предварительной правительственной проверке до сих пор. Новые соглашения закрывают этот разрыв, обеспечивая, чтобы следующая модель с возможностями уровня Mythos, независимо от того, какая лаборатория ее производит, достигла государственных оценщиков до того, как она станет доступной для общественности.

      Ограничения

      Структурная слабость программы очевидна: она полностью зависит от добровольного участия. Компания, которая обнаружит, что ее модель обладает опасными возможностями, может, юридически, отказаться представить ее на оценку и выпустить ее все равно. У центра нет полномочий на выдачу повесток, нет полномочий на запретительные меры и нет механизма для принуждения к раскрытию информации. Его влияние репутационное и политическое: компании, которые участвуют, сигнализируют о своей ответственности, а компании, которые отказываются, приглашают к регулированию. Но это влияние предполагает, что правительство может достоверно угрожать законодательством, а заявленная администрацией предпочтение легкого регулирования ослабляет эту угрозу.

      Министры финансов стран еврозоны обсуждали Mythos от Anthropic как проблему финансовой стабильности, признавая, что инструмент кибербезопасности, способный обнаруживать уязвимости в банковской инфраструктуре, имеет последствия, выходящие за рамки традиционной национальной безопасности. Международный аспект добавляет давление: если правительство США не сможет продемонстрировать, что у него есть контроль над передовыми моделями ИИ, разработанными на его территории, другие правительства введут свои собственные требования, фрагментируя глобальный рынок ИИ и создавая затраты на соблюдение, которых компании хотят избежать. Добровольная программа оценки является, в этом понимании, не контролем, а профилактикой против контроля: доказательство того, что отрасль сотрудничает, предложенное в обмен на продолжение свободы самоуправления.

      Вопрос

      Администрация Трампа рассматривает возможность издания исполнительного указа, который создаст формальный процесс правительственной проверки моделей ИИ, потенциально трансформируя то, что в настоящее время является добровольным, в нечто с регуляторными полномочиями. Рабочая группа из тех executives и государственных чиновников разработает процесс, с вариантами от консультативной проверки до обязательного одобрения перед развертыванием. Проблема администрации заключается в том, что она одновременно хочет ускорить развитие ИИ, сохранить американское конкурентное преимущество над Китаем, избежать обременения компаний регулированием и гарантировать, что модели с возможностями национальной безопасности подлежат правительственной проверке. Эти цели не полностью совместимы, и добровольная программа оценки является текущей попыткой их согласовать.

      Возможности ИИ развиваются в специализированные области с темпом, который превышает возможности

Другие статьи

Intel нанимает ветерана Qualcomm Алекса Катузяна для руководства новой группой по клиентским вычислениям и физическому ИИ Intel нанимает ветерана Qualcomm Алекса Катузяна для руководства новой группой по клиентским вычислениям и физическому ИИ Intel наняла Алекса Катузиана, 25-летнего ветерана Qualcomm, для руководства новой объединенной группой Client Computing и Physical AI. Это второй высокопрофильный сотрудник Qualcomm, нанятый генеральным директором Лип-Бу Таном за время его работы. Основатели IronSource привлекли 60 миллионов долларов при оценке в 500 миллионов долларов для Zyg, агентной платформы ИИ, которая автоматизирует рекламу в электронной коммерции. Основатели IronSource привлекли 60 миллионов долларов при оценке в 500 миллионов долларов для Zyg, агентной платформы ИИ, которая автоматизирует рекламу в электронной коммерции. Zyg привлек $60 млн, возглавляемых Accel, при оценке в $500 млн через два месяца после скрытого запуска. Команда IronSource разрабатывает ИИ-агентов, которые заменяют человеческих покупателей рекламы для DTC-брендов. Внутри раунда QuantWare на €152 млн для создания KiloFab Внутри раунда QuantWare на €152 млн для создания KiloFab QuantWare завершила раунд финансирования серии B на сумму 152 миллиона евро, в котором участвовали Intel Capital, In-Q-Tel и ETF Partners, что стало крупнейшим раундом глубоких технологий в Нидерландах. Coinbase сокращает 14% сотрудников и перестраивается вокруг AI-ориентированных групп, так как доходы от криптовалют упали на 26%, а объемы торгов достигли 18-месячного минимума. Coinbase сокращает 14% сотрудников и перестраивается вокруг AI-ориентированных групп, так как доходы от криптовалют упали на 26%, а объемы торгов достигли 18-месячного минимума. Coinbase увольняет 660 сотрудников и реорганизуется в AI-ориентированные группы с пятимасштабным управлением. Ожидается, что выручка в первом квартале упадет на 26% из-за снижения объемов криптовалют на 48%. Разработка памяти DDR6 следующего поколения с невероятными скоростями началась, но впереди долгожданное ожидание. Разработка памяти DDR6 следующего поколения с невероятными скоростями началась, но впереди долгожданное ожидание. Samsung, SK Hynix и Micron начали раннюю разработку DDR6 с производителями подложек, нацеливаясь на скорости, которые более чем в два раза превышают DDR5, хотя массовое производство все еще далеко. Google, Microsoft и xAI согласны на предварительную оценку правительственных моделей ИИ, так как кризис Mythos заставляет расширить надзор. Google, Microsoft и xAI согласны на предварительную оценку правительственных моделей ИИ, так как кризис Mythos заставляет расширить надзор. Пять пограничных лабораторий ИИ теперь представляют модели для оценки правительством США. Добровольная программа не имеет законных полномочий, но охватывает всех крупных разработчиков ИИ после кризиса Mythos.

Google, Microsoft и xAI согласны на предварительную оценку правительственных моделей ИИ, так как кризис Mythos требует расширения надзора

Пять пограничных лабораторий ИИ теперь представляют модели для оценки правительством США. Добровольная программа не имеет законодательной власти, но охватывает всех крупных разработчиков ИИ после кризиса Mythos.