OpenAI rilascia GPT-5.4-Cyber per team di sicurezza verificati, ampliando il programma Trusted Access.

OpenAI rilascia GPT-5.4-Cyber per team di sicurezza verificati, ampliando il programma Trusted Access.

      In breve: OpenAI sta rilasciando GPT-5.4-Cyber, un modello ottimizzato per la cybersecurity difensiva con limiti di rifiuto ridotti e capacità di reverse engineering binario, e sta ampliando il suo programma Trusted Access for Cyber a migliaia di difensori verificati. La mossa arriva una settimana dopo che Anthropic ha limitato il suo modello Mythos, più potente, a sole 11 organizzazioni, creando una frattura filosofica: OpenAI punta su un accesso verificato ampio mentre Anthropic opta per un'implementazione rigorosamente controllata.

      OpenAI sta aprendo il suo modello di cybersecurity più capace a migliaia di difensori selezionati, rilasciando GPT-5.4-Cyber e ampliando il suo programma Trusted Access for Cyber in quella che equivale a una risposta diretta all'annuncio del Project Glasswing di Anthropic della settimana scorsa.

      GPT-5.4-Cyber è una variante di GPT-5.4 ottimizzata specificamente per il lavoro di sicurezza difensiva. La sua caratteristica distintiva è un limite di rifiuto più basso: mentre i modelli standard bloccano query sensibili riguardanti la ricerca di vulnerabilità, l'analisi degli exploit o il comportamento del malware, questa versione è progettata per rispondere, a condizione che l'utente sia stato verificato come un professionista della sicurezza legittimo. Il modello introduce anche capacità di reverse engineering binario, consentendo agli analisti di esaminare software compilati per individuare debolezze senza accesso al codice sorgente.

      Trusted Access for Cyber, ampliato

      Il modello si inserisce all'interno del programma Trusted Access for Cyber (TAC) di OpenAI, lanciato per la prima volta a febbraio insieme a un fondo di sovvenzioni per la cybersecurity da 10 milioni di dollari. TAC è un framework di identità e fiducia che regola l'accesso a modelli più capaci dietro livelli di verifica. Gli utenti individuali possono autenticarsi su chatgpt.com/cyber. Le aziende possono richiedere l'accesso per l'intero team tramite un rappresentante di OpenAI. I ricercatori di sicurezza che necessitano delle capacità più permissive possono fare richiesta per un livello accessibile solo su invito.

      L'aggiornamento di aprile amplia il programma da un pilota limitato a quello che OpenAI descrive come "migliaia di difensori individuali verificati e centinaia di team responsabili della difesa di software critici." L'azienda sta aggiungendo nuovi livelli, con livelli di verifica più elevati che sbloccano funzionalità più potenti. Gli utenti approvati per il livello più alto ottengono accesso a GPT-5.4-Cyber. C'è un avvertimento: gli utenti di livello più alto potrebbero essere tenuti a rinunciare alla Zero-Data Retention, il che significa che OpenAI mantiene visibilità su come viene utilizzato il modello.

      L'approccio rappresenta un cambiamento filosofico. Piuttosto che fare affidamento principalmente su restrizioni a livello di modello per prevenire abusi, OpenAI si sta muovendo verso un modello di controllo degli accessi che verifica chi sta chiedendo prima di decidere cosa risponderà il modello. L'azienda inquadra questo attorno a tre principi: accesso democratizzato utilizzando criteri di verifica oggettivi, implementazione iterativa che aggiorna i sistemi di sicurezza man mano che emergono rischi, e resilienza dell'ecosistema attraverso sovvenzioni e contributi open-source.

      Il contesto di Anthropic

      Il tempismo di OpenAI è impossibile da interpretare senza riferimento al Project Glasswing di Anthropic, annunciato il 7 aprile. Anthropic ha rivelato che il suo modello Claude Mythos Preview aveva scoperto autonomamente migliaia di vulnerabilità zero-day in tutti i principali sistemi operativi e browser web, inclusi un bug di 27 anni in OpenBSD e una falla di esecuzione remota di 17 anni in FreeBSD che Mythos ha identificato, sfruttato e documentato senza intervento umano.

      La risposta di Anthropic è stata quella di limitare severamente l'accesso: Mythos Preview è disponibile solo per 11 organizzazioni, tra cui Apple, Google, Microsoft, AWS, Cisco, CrowdStrike e JPMorgan Chase, nell'ambito di un'iniziativa difensiva da 100 milioni di dollari. Il modello non è disponibile pubblicamente, e Anthropic ha dichiarato che potrebbe non esserlo mai, data la possibilità che le sue capacità di generazione di exploit possano essere abusate.

      OpenAI sta scommettendo sull'opposto. GPT-5.4-Cyber è meno capace di Mythos nella scoperta di vulnerabilità grezze, ma OpenAI lo sta rendendo disponibile a un pubblico molto più ampio. L'argomento implicito è che limitare strumenti di sicurezza potenti a un pugno di giganti tecnologici lascia la stragrande maggioranza delle organizzazioni, comprese quelle che difendono infrastrutture critiche, ospedali, governi municipali e piccole aziende di sicurezza, senza accesso alla stessa qualità di tecnologia difensiva.

      Cosa può fare GPT-5.4-Cyber

      Oltre ai limiti di rifiuto ridotti, il modello è costruito per flussi di lavoro che il ChatGPT standard gestisce male o rifiuta outright. Il reverse engineering binario è la caratteristica principale: gli analisti di sicurezza possono inserire eseguibili compilati nel modello e ricevere analisi del potenziale comportamento del malware, vulnerabilità incorporate e debolezze strutturali. Questo è un lavoro che tradizionalmente richiede strumenti specializzati come IDA Pro o Ghidra e una significativa esperienza manuale.

      Il modello gestisce anche query a doppio uso, domande sulle tecniche di attacco, catene di exploit e classi di vulnerabilità, che i modelli standard segnalano come potenzialmente dannose. OpenAI afferma che le versioni precedenti di GPT a volte rifiutavano di rispondere a query difensive legittime, creando attrito per i professionisti della sicurezza che avevano bisogno che il modello ragionasse sulle tecniche avversarie per difendersi contro di esse.

      Codex Security, lo strumento di scansione automatizzata del codice di OpenAI, completa il modello. Dalla sua introduzione, Codex Security ha contribuito a oltre 3.000 correzioni di vulnerabilità critiche e ad alta gravità nell'ecosistema open-source. Ora copre più di 1.000 progetti open-source attraverso un programma di scansione gratuito.

      Il problema del doppio uso

      La tensione fondamentale nell'IA per la cybersecurity è che le stesse capacità che aiutano i difensori aiutano anche gli attaccanti. Un modello che può fare reverse engineering di binari per analisi difensive può, in linea di principio, essere utilizzato per trovare difetti sfruttabili per scopi offensivi. La risposta di OpenAI è che la verifica e il monitoraggio sono salvaguardie più efficaci rispetto a un rifiuto generalizzato.

      L'azienda scommette che la verifica dell'identità in stile KYC, l'accesso a livelli e i dati di utilizzo mantenuti deterranno l'abuso più efficacemente rispetto a un modello che rifiuta di discutere tecniche di exploit, e che avversari sofisticati possono comunque jailbrekkare. Una ricerca pubblicata a gennaio ha trovato che gli attacchi di iniezione di prompt adattivi riescono contro anche le difese più avanzate più dell'85% delle volte, suggerendo che la sicurezza basata sul rifiuto è un gioco perdente.

      Ma il requisito di monitoraggio solleva le proprie domande. Richiedere agli utenti di livello superiore di rinunciare alla Zero-Data Retention significa che OpenAI vedrà cosa stanno facendo i ricercatori di sicurezza con il modello, quali vulnerabilità stanno investigando, quali sistemi stanno sondando e quali exploit stanno analizzando. Per i team di sicurezza che lavorano su infrastrutture sensibili o classificate, quella visibilità potrebbe essere un fattore decisivo. Crea anche un punto unico di compromesso: se i log di OpenAI vengono violati, diventano una mappa delle vulnerabilità non corrette nelle organizzazioni che utilizzano il programma.

      Il panorama emergente

      Tra il Mythos limitato di Anthropic, il GPT-5.4-Cyber con accesso verificato di OpenAI e il fondo Glasswing da 100 milioni di dollari di Anthropic, il mercato dell'IA per la cybersecurity si sta dividendo in due fazioni. Una fazione afferma che questi modelli sono troppo pericolosi per un accesso ampio e devono essere regolati dietro consorzi accessibili solo su invito. L'altra afferma che l'accesso ampio, con verifica, è l'unico modo per garantire che i difensori non siano superati da avversari che non affrontano tali vincoli.

      L'AI Act dell'UE, le cui obbligazioni più sostanziali

Altri articoli

Anthropic, Google e Microsoft hanno pagato ricompense per bug agli agenti AI, poi hanno mantenuto il silenzio sui difetti Anthropic, Google e Microsoft hanno pagato ricompense per bug agli agenti AI, poi hanno mantenuto il silenzio sui difetti I ricercatori hanno dirottato gli agenti AI Claude, Gemini e Copilot tramite iniezione di prompt per rubare chiavi API e token. Tutti e tre i fornitori hanno pagato ricompense ma hanno saltato la divulgazione pubblica. La fuga di notizie su Intel Nova Lake rivela alcune informazioni succulente sui prossimi chip della serie Intel Core Ultra 4. La fuga di notizie su Intel Nova Lake rivela alcune informazioni succulente sui prossimi chip della serie Intel Core Ultra 4. Il Fresh Nova Leak ha delineato tre configurazioni di die rumore per i prossimi chip desktop della serie Core Ultra 4 di Intel, suggerendo come la prossima gamma potrebbe essere suddivisa tra i livelli di prestazioni. OpenAI rilascia GPT-5.4-Cyber per team di sicurezza verificati, ampliando il programma Trusted Access. OpenAI rilascia GPT-5.4-Cyber per team di sicurezza verificati, ampliando il programma Trusted Access. OpenAI lancia GPT-5.4-Cyber con ingegneria inversa binaria per difensori verificati, ampliando l'accesso a migliaia mentre compete con il modello Mythos ristretto di Anthropic. Un giudice statunitense ha stabilito che le chat di un imputato per frode con Claude non sono riservate. Un giudice statunitense ha stabilito che le chat di un imputato per frode con Claude non sono riservate. Un tribunale statunitense ha stabilito che le conversazioni con chatbot AI non sono legalmente privilegiate. Il caso riguardava Claude. I clienti devono considerare le chat pubbliche di AI come potenzialmente scopribili in tribunale. OpenAI rilascia GPT-5.4-Cyber per team di sicurezza verificati, ampliando il programma Trusted Access. OpenAI rilascia GPT-5.4-Cyber per team di sicurezza verificati, ampliando il programma Trusted Access. OpenAI lancia GPT-5.4-Cyber con ingegneria inversa binaria per difensori verificati, ampliando l'accesso a migliaia mentre compete con il modello Mythos ristretto di Anthropic. Non trattenere il respiro per una PlayStation 6 Lite a prezzo accessibile. Non trattenere il respiro per una PlayStation 6 Lite a prezzo accessibile. Le recenti speculazioni sul PlayStation 6 suggeriscono che un vero PS6 Lite a basso costo è improbabile, poiché l'hardware in stile portatile comporta troppi compromessi in termini di prestazioni e sviluppo, mentre una console standard ridotta sembra essere il percorso più realistico per Sony.

OpenAI rilascia GPT-5.4-Cyber per team di sicurezza verificati, ampliando il programma Trusted Access.

OpenAI lancia GPT-5.4-Cyber con ingegneria inversa binaria per difensori verificati, ampliando l'accesso a migliaia mentre compete con il modello Mythos ristretto di Anthropic.