OpenAI выпускает GPT-5.4-Cyber для проверенных команд безопасности, расширяя программу Доверенного Доступа
Вкратце: OpenAI выпускает GPT-5.4-Cyber, модель, настроенную для оборонительной кибербезопасности с пониженными границами отказа и возможностями бинарного реверс-инжиниринга, и расширяет свою программу Trusted Access for Cyber для тысяч проверенных защитников. Этот шаг сделан через неделю после того, как Anthropic ограничила доступ к своей более мощной модели Mythos всего 11 организациям, создавая философский раскол: OpenAI делает ставку на широкий проверенный доступ, в то время как Anthropic выбирает строго контролируемое развертывание.
OpenAI открывает свою самую мощную модель кибербезопасности для тысяч проверенных защитников, выпуская GPT-5.4-Cyber и расширяя свою программу Trusted Access for Cyber в ответ на объявление Anthropic о проекте Glasswing на прошлой неделе.
GPT-5.4-Cyber — это вариант GPT-5.4, специально настроенный для работы в области оборонительной безопасности. Его определяющей особенностью является более низкая граница отказа: в то время как стандартные модели блокируют чувствительные запросы о исследовании уязвимостей, анализе эксплойтов или поведении вредоносного ПО, эта версия предназначена для их ответа, при условии, что пользователь был проверен как законный специалист по безопасности. Модель также вводит возможности бинарного реверс-инжиниринга, позволяя аналитикам исследовать скомпилированное программное обеспечение на наличие уязвимостей без доступа к исходному коду.
Расширение программы Trusted Access for Cyber
Модель входит в программу Trusted Access for Cyber (TAC) от OpenAI, которую компания впервые запустила в феврале вместе с фондом грантов на кибербезопасность в размере 10 миллионов долларов. TAC — это структура идентификации и доверия, которая ограничивает доступ к более мощным моделям за счет уровней проверки. Индивидуальные пользователи могут аутентифицироваться на chatgpt.com/cyber. Предприятия могут запросить доступ для всей команды через представителя OpenAI. Исследователи безопасности, которым нужны самые разрешительные возможности, могут подать заявку на уровень, доступный только по приглашению.
Обновление в апреле расширяет программу с ограниченного пилота до того, что OpenAI описывает как «тысячи проверенных индивидуальных защитников и сотни команд, ответственных за защиту критического программного обеспечения». Компания добавляет новые уровни, при этом более высокие уровни проверки открывают более мощные функции. Пользователи, одобренные для верхнего уровня, получают доступ к GPT-5.4-Cyber. Есть одно условие: пользователи высшего уровня могут быть обязаны отказаться от нулевого хранения данных, что означает, что OpenAI сохраняет видимость того, как используется модель.
Этот подход представляет собой философский сдвиг. Вместо того чтобы полагаться в первую очередь на ограничения на уровне модели для предотвращения злоупотреблений, OpenAI переходит к модели контроля доступа, которая проверяет, кто задает вопрос, прежде чем решить, что модель ответит. Компания формулирует это вокруг трех принципов: демократизированный доступ с использованием объективных критериев проверки, итеративное развертывание, которое обновляет системы безопасности по мере появления рисков, и устойчивость экосистемы через гранты и открытые источники.
Контекст Anthropic
Время OpenAI невозможно понять без ссылки на проект Anthropic Glasswing, объявленный 7 апреля. Anthropic сообщила, что ее модель Claude Mythos Preview автономно обнаружила тысячи уязвимостей нулевого дня во всех основных операционных системах и веб-браузерах, включая 27-летнюю ошибку в OpenBSD и 17-летний недостаток удаленного выполнения кода в FreeBSD, которые Mythos выявил, использовал и задокументировал без человеческого вмешательства.
Ответ Anthropic заключался в том, чтобы резко ограничить доступ: Mythos Preview доступен только 11 организациям, включая Apple, Google, Microsoft, AWS, Cisco, CrowdStrike и JPMorgan Chase, в рамках оборонительной инициативы на сумму 100 миллионов долларов. Модель недоступна для широкой публики, и Anthropic заявила, что она может никогда не стать доступной, учитывая риск злоупотребления ее возможностями генерации эксплойтов.
OpenAI делает противоположную ставку. GPT-5.4-Cyber менее мощен, чем Mythos в области обнаружения уязвимостей, но OpenAI делает его доступным для гораздо более широкой аудитории. Неявный аргумент заключается в том, что ограничение мощных инструментов безопасности лишь несколькими технологическими гигантами оставляет подавляющее большинство организаций, включая те, которые защищают критическую инфраструктуру, больницы, муниципальные правительства и небольшие охранные фирмы, без доступа к технологиям обороны такого же уровня.
Что может сделать GPT-5.4-Cyber
Помимо пониженных границ отказа, модель создана для рабочих процессов, которые стандартный ChatGPT обрабатывает плохо или отказывается обрабатывать. Бинарный реверс-инжиниринг — это главная особенность: аналитики безопасности могут вводить скомпилированные исполняемые файлы в модель и получать анализ потенциального поведения вредоносного ПО, встроенных уязвимостей и структурных недостатков. Эта работа традиционно требует специализированных инструментов, таких как IDA Pro или Ghidra, и значительного ручного опыта.
Модель также обрабатывает запросы двойного назначения, вопросы о техниках атак, цепочках эксплойтов и классах уязвимостей, которые стандартные модели помечают как потенциально вредные. OpenAI утверждает, что более ранние версии GPT иногда отказывались отвечать на законные оборонительные запросы, создавая трение для специалистов по безопасности, которым нужно было, чтобы модель рассуждала о противодействующих техниках, чтобы защититься от них.
Codex Security, автоматизированный инструмент сканирования кода OpenAI, дополняет модель. С момента своего запуска Codex Security внесла вклад в более чем 3000 исправлений критических и высокосерьезных уязвимостей в экосистеме с открытым исходным кодом. В настоящее время он охватывает более 1000 проектов с открытым исходным кодом через бесплатную программу сканирования.
Проблема двойного назначения
Основное напряжение в кибербезопасности ИИ заключается в том, что те же возможности, которые помогают защитникам, также помогают нападающим. Модель, которая может реверсировать бинарные файлы для оборонительного анализа, в принципе, может быть использована для поиска уязвимых недостатков для наступательных целей. Ответ OpenAI заключается в том, что проверка и мониторинг являются более эффективными мерами безопасности, чем всеобъемлющий отказ.
Компания делает ставку на то, что проверка идентичности в стиле KYC, многоуровневый доступ и сохраненные данные о использовании будут более эффективно сдерживать злоупотребления, чем модель, которая отказывается обсуждать техники эксплуатации, и которую опытные противники все равно могут взломать. Исследования, опубликованные в январе, показали, что адаптивные атаки с инъекцией подсказок успешны даже против самых современных защит более чем в 85% случаев, что предполагает, что безопасность на основе отказов — это проигрышная игра.
Но требование мониторинга вызывает свои собственные вопросы. Требование к пользователям высшего уровня отказаться от нулевого хранения данных означает, что OpenAI будет видеть, что исследователи безопасности делают с моделью, какие уязвимости они исследуют, какие системы они проверяют и какие эксплойты анализируют. Для команд безопасности, работающих с чувствительной или секретной инфраструктурой, такая видимость может стать решающим фактором. Это также создает единую точку компрометации: если журналы OpenAI будут взломаны, они станут дорожной картой к незапатченным уязвимостям в организациях, использующих программу.
Новая обстановка
Между ограниченным Mythos от Anthropic, проверенным доступом GPT-5.4-Cyber от OpenAI и отдельным фондом Glasswing на 100 миллионов долларов от Anthropic рынок кибербезопасности ИИ разделяется на два лагеря. Один лагерь утверждает, что эти модели слишком опасны для широкого доступа и должны быть ограничены только консорциумами по приглашению. Другой говорит, что широкий доступ с проверкой — это единственный способ гарантировать, что защитники не окажутся в невыгодном положении по сравнению с противниками, которые не сталкиваются с такими ограничениями.
Законодательство ЕС о ИИ, наиболее существенные обязательства которого вступят в силу 2 августа 2026 года, добавит еще одну переменную. Системы ИИ с высоким уровнем риска, категория, вероятно, охватывающая инструменты автоматизации безопасности, должны будут продемонстрировать соответствие требованиям в области управления рисками, управления данными, прозрач
Другие статьи
OpenAI выпускает GPT-5.4-Cyber для проверенных команд безопасности, расширяя программу Доверенного Доступа
OpenAI запускает GPT-5.4-Cyber с бинарным реверс-инжинирингом для проверенных защитников, расширяя доступ до тысяч пользователей, конкурируя с ограниченной моделью Mythos от Anthropic.
