Несанкционированные пользователи получили доступ к ограниченной модели Mythos AI компании Anthropic.
Небольшая группа, общающаяся через частный канал Discord, получила доступ к Claude Mythos Preview, угадал URL модели в тот же день, когда Anthropic объявила о проекте Glasswing. Anthropic заявляет, что проводит расследование и не нашла доказательств воздействия на свои основные системы. Утечка подчеркивает риски ограничения доступа к передовым возможностям ИИ через среды поставщиков, а не технические меры контроля.
Небольшая группа несанкционированных пользователей получила доступ к Claude Mythos Preview, строго ограниченной модели ИИ в области кибербезопасности от Anthropic, в тот же день, когда компания публично объявила о существовании модели, предположительно, угадал URL модели, основываясь на знакомстве с форматированием URL от Anthropic для других моделей, согласно отчету Bloomberg News, опубликованному 21 апреля.
Группа, члены которой общаются через частный канал Discord, посвященный сбору информации о неразработанных моделях ИИ, регулярно использует Mythos с момента получения доступа и предоставила Bloomberg доказательства в виде скриншотов и живой демонстрации.
Anthropic подтвердила, что проводит расследование по заявлению: «Мы расследуем сообщение о несанкционированном доступе к Claude Mythos Preview через одну из наших сред третьих сторон».
Компания заявила, что в настоящее время нет доказательств того, что доступ повлиял на основные системы Anthropic или вышел за пределы рассматриваемой среды поставщика.
По сообщениям, в этом был задействован человек, который в настоящее время работает у стороннего подрядчика, сотрудничающего с Anthropic, по крайней мере, частично, в содействии доступу группы.
Значение утечки неразрывно связано с природой модели. Anthropic объявила о Mythos Preview и сопутствующей инициативе Project Glasswing 7 апреля 2026 года.
Компания удерживала модель от общего выпуска специально из-за ее наступательных кибервозможностей: в ходе тестирования Mythos автономно обнаружил тысячи ранее неизвестных уязвимостей нулевого дня во всех основных операционных системах и веб-браузерах и написал рабочие эксплойты, включая связывание четырех уязвимостей в браузере для выхода за пределы песочниц рендерера и операционной системы, что обычно требует месяцев экспертной работы.
Инженеры Anthropic без формальной подготовки в области безопасности попросили модель найти уязвимости удаленного выполнения кода за ночь и проснулись с полными, рабочими эксплойтами. Компания заявила, что удерживает модель, потому что те же возможности, которые делают ее мощной для защиты, могут быть разрушительными в неправильных руках.
Project Glasswing был разработан для навигации в этом противоречии: вместо публичного выпуска Anthropic предоставила доступ к Mythos 12 названным партнерам по запуску, включая Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, Nvidia и Palo Alto Networks, а также самой Anthropic, для работы в области оборонной безопасности, с доступом также предоставленным около 40 дополнительным организациям.
Инициатива также включала 100 миллионов долларов в виде кредитов на использование и 4 миллиона долларов в виде прямых пожертвований организациям по безопасности с открытым исходным кодом. Ограниченный запуск был явной попыткой Anthropic дать защитникам фору перед нападающими, прежде чем модель с этими возможностями распространится.
Несанкционированный доступ подрывает эту логику, не полностью ее разрушая: группа, о которой идет речь, якобы описала свои намерения как движимые любопытством, но намерение не является надежной защитой, когда инструмент может автономно производить эксплойты, пригодные для использования в качестве оружия.
Утечка также имеет политическую значимость, произошла на следующий день после того, как президент Трамп заявил на CNBC, что сделка Пентагона с Anthropic «возможна» и что компания «приходит в себя». Anthropic одновременно подает в суд на Министерство обороны из-за его внесения в черный список как риск для цепочки поставок, при этом спор сосредоточен в частности на вопросе о том, насколько безопасно можно контролировать ее ИИ.
Инцидент с несанкционированным доступом, даже если он, по-видимому, был осуществлен через среду третьего поставщика, а не через собственную инфраструктуру Anthropic, дает аргументы тем в администрации, кто утверждает, что Anthropic не может надежно управлять доступом к своим инструментам.
Это также усложняет дело компании в суде, которое частично основывается на ее аргументе о том, что она применяет строгие меры безопасности и контроля доступа к своим самым мощным моделям.
Механизм доступа, основанный на образованном предположении о URL модели, активируемом знанием о конвенциях Anthropic для других конечных точек моделей, указывает на конкретный режим сбоя, который отличается от обычной утечки данных или вторжения.
Группа не обошла архитектуру безопасности Anthropic, а скорее использовала разрыв между контролем Anthropic над своими собственными системами и системами третьего поставщика с доступом.
Это различие имеет значение для расследования и для того, как инцидент должен восприниматься более широкой индустрией ИИ: это неудача безопасности поставщика так же, как и неудача управления моделью. Но результат остается тем же.
Другие статьи
Несанкционированные пользователи получили доступ к ограниченной модели Mythos AI компании Anthropic.
Группа в Discord получила доступ к модели Mythos AI от Anthropic в день её запуска, угадал её URL через среду стороннего поставщика.
