Google, Microsoft e xAI concordano nel rilasciare in anteprima le valutazioni dei modelli di intelligenza artificiale governativa mentre la crisi di Mythos costringe a un'espansione della supervisione

Google, Microsoft e xAI concordano nel rilasciare in anteprima le valutazioni dei modelli di intelligenza artificiale governativa mentre la crisi di Mythos costringe a un'espansione della supervisione

      TL;DRGoogle, Microsoft e xAI si sono uniti a OpenAI e Anthropic nel fornire al Dipartimento del Commercio degli Stati Uniti accesso anticipato per valutare i loro modelli di intelligenza artificiale, creando un controllo volontario su tutti e cinque i principali laboratori di intelligenza artificiale di frontiera attraverso un ufficio senza autorità statutaria e con meno di 200 dipendenti. L'espansione è stata catalizzata dalla crisi di Mythos e da un potenziale ordine esecutivo che formalizzerebbe il processo di revisione.

      La crisi di Mythos ha costretto il governo degli Stati Uniti a confrontarsi con una domanda che aveva evitato: cosa succede quando un modello di intelligenza artificiale è abbastanza potente da minacciare la sicurezza nazionale e il governo non ha un meccanismo formale per valutarlo prima che il pubblico ne abbia accesso? Martedì, il Dipartimento del Commercio ha annunciato che Google, Microsoft e xAI hanno accettato di fornire al governo degli Stati Uniti accesso anticipato ai loro modelli di intelligenza artificiale per la valutazione. Si uniscono a OpenAI e Anthropic, che hanno presentato modelli allo stesso ufficio dal 2024. Cinque aziende ora rappresentano la stragrande maggioranza dello sviluppo dell'IA di frontiera a livello mondiale, e tutte e cinque hanno accettato di consentire a un unico ufficio governativo di testare i loro sistemi prima del dispiegamento. L'accordo è volontario, non ha una base statutaria e non conferisce al governo alcun potere di bloccare un rilascio. È anche la cosa più vicina che gli Stati Uniti abbiano a un sistema di supervisione dell'IA, ed è stato costruito in meno di due anni da un ufficio con meno di duecento dipendenti.

      L'ufficio

      Il Centro per gli Standard e l'Innovazione dell'IA si trova all'interno dell'Istituto Nazionale di Standard e Tecnologia del Dipartimento del Commercio. È stato istituito sotto il presidente Biden nel 2023 come Istituto per la Sicurezza dell'IA, ristrutturato sotto Trump con un nuovo nome e un orientamento verso standard e sicurezza nazionale piuttosto che ricerca sulla sicurezza. Il centro ha completato più di 40 valutazioni di modelli di IA, inclusi sistemi all'avanguardia che non sono mai stati rilasciati al pubblico. Gli sviluppatori presentano frequentemente versioni con le protezioni di sicurezza rimosse in modo che i valutatori possano indagare sulle capacità rilevanti per la sicurezza nazionale: percorsi di sintesi di armi biologiche, automazione di attacchi informatici e comportamenti di agenti autonomi che potrebbero essere difficili da controllare su larga scala.

      Chris Fall ora dirige il centro, dopo l'improvvisa partenza di Collin Burns, un ex ricercatore di IA di Anthropic scelto per il ruolo ma allontanato dalla Casa Bianca dopo quattro giorni. Burns aveva lasciato Anthropic, rinunciato a preziose azioni e si era trasferito dall'altra parte del paese per assumere la posizione governativa. Il suo allontanamento, apparentemente guidato dalla sua connessione con un'azienda contro cui l'amministrazione stava combattendo attivamente, illustra la complessità politica di costruire un sistema di supervisione per un'industria in cui i valutatori e i valutati provengono dallo stesso bacino di talenti. L'approccio normativo più ampio di Trump per l'IA ha dato priorità alla preclusione federale della regolamentazione statale e a una postura di leggera supervisione nei confronti dell'industria, ma il programma di valutazione dei modelli rappresenta un approccio più rigoroso: il governo vuole vedere cosa possono fare questi sistemi prima che chiunque altro lo faccia.

      Gli accordi

      Le nuove partnership con Google, Microsoft e xAI espandono quello che era un accordo tra due aziende in qualcosa di più vicino a una copertura completa della frontiera. OpenAI e Anthropic hanno rinegoziato i loro accordi esistenti per allinearsi con il Piano d'Azione per l'IA di Trump, che dirige il centro a guidare le valutazioni dei modelli relative alla sicurezza nazionale e lo posiziona come parte di un più ampio "ecosistema di valutazioni". Gli accordi non sono contratti. Sono impegni volontari dai quali le aziende possono ritirarsi in qualsiasi momento. Nessuna legge richiede una valutazione anticipata. Nessuna regolamentazione conferisce al centro l'autorità di ritardare o bloccare il dispiegamento. L'intero sistema dipende dalle aziende di IA che decidono, per proprie ragioni strategiche, che fornire al governo accesso anticipato è preferibile all'alternativa.

      L'alternativa, dal punto di vista delle aziende, è la legislazione. Diversi disegni di legge darebbero al centro un'autorità statutaria permanente, requisiti di valutazione obbligatori e il potere di imporre condizioni sul dispiegamento. Il Pentagono ha già dimostrato disponibilità a mettere al bando le aziende di IA che rifiutano di conformarsi alle richieste del governo, designando Anthropic come rischio per la catena di approvvigionamento dopo che l'azienda ha rifiutato di consentire l'uso dei suoi modelli per armi autonome o sorveglianza domestica di massa. Gli accordi di valutazione volontaria sono, in parte, un modo per le aziende rimanenti di dimostrare cooperazione prima che la cooperazione diventi obbligatoria.

      Il catalizzatore

      L'espansione del programma di valutazione avviene sullo sfondo della crisi di Mythos. Il modello innovativo di Anthropic, annunciato ad aprile, può scoprire e sfruttare autonomamente vulnerabilità zero-day in ogni principale sistema operativo e browser web. Ha identificato migliaia di bug ad alta gravità, comprese vulnerabilità che esistevano da decenni senza essere rilevate. La Casa Bianca si è opposta al piano di Anthropic di espandere l'accesso a Mythos oltre il suo consorzio iniziale di partner di lancio. La NSA lo sta utilizzando nonostante la lista nera del Pentagono di Anthropic. L'UE sta richiedendo accesso a Mythos per la difesa informatica europea, sostenendo che lo strumento di cybersecurity più significativo esistente non può rimanere sotto il controllo esclusivo di un'azienda americana che il governo americano ha parzialmente messo al bando.

      Mythos ha dimostrato cosa il programma di valutazione è progettato per catturare: un modello le cui capacità hanno implicazioni immediate per la sicurezza nazionale che non possono essere valutate dopo il dispiegamento. Le oltre 40 valutazioni del centro dal 2024 presumibilmente hanno identificato capacità in modelli non rilasciati che hanno informato decisioni politiche, ma quelle valutazioni sono avvenute sotto accordi con solo due aziende. I modelli di Google Gemini, Microsoft e xAI Grok non erano soggetti a revisione governativa anticipata fino ad ora. I nuovi accordi colmano quella lacuna, assicurando che il prossimo modello con capacità a livello di Mythos, indipendentemente da quale laboratorio lo produca, raggiunga i valutatori governativi prima di raggiungere il pubblico.

      I limiti

      La debolezza strutturale del programma è evidente: dipende interamente dalla partecipazione volontaria. Un'azienda che scopre che il proprio modello ha capacità pericolose potrebbe, legalmente, rifiutarsi di presentarlo per valutazione e rilasciarlo comunque. Il centro non ha potere di citazione, né autorità ingiuntiva, né meccanismo per costringere alla divulgazione. Il suo potere è reputazionale e politico: le aziende che partecipano segnalano responsabilità, e le aziende che rifiutano invitano alla regolamentazione. Ma quel potere presuppone che il governo possa minacciare credibilmente la legislazione, e la preferenza dichiarata dell'attuale amministrazione per una regolamentazione leggera indebolisce quella minaccia.

      I ministri delle finanze dell'area euro hanno discusso di Mythos di Anthropic come una preoccupazione per la stabilità finanziaria, riconoscendo che uno strumento di cybersecurity in grado di scoprire vulnerabilità nell'infrastruttura bancaria ha implicazioni oltre la sicurezza nazionale tradizionale. La dimensione internazionale aggiunge pressione: se il governo degli Stati Uniti non può dimostrare di avere supervisione sui modelli di IA di frontiera sviluppati sul suo suolo, altri governi imporranno i propri requisiti, frammentando il mercato globale dell'IA e creando costi di conformità che le aziende vogliono evitare. Il programma di valutazione volontaria è, in questa lettura, non supervisione ma una profilassi contro la supervisione: prova che l'industria sta cooperando, offerta in cambio della continua libertà di autogovernarsi.

      La domanda

      L'amministrazione Trump sta considerando un ordine

Other articles

ServiceNow prevede 30 miliardi di dollari entro il 2030, con un terzo dell'ACV proveniente dall'IA. ServiceNow prevede 30 miliardi di dollari entro il 2030, con un terzo dell'ACV proveniente dall'IA. ServiceNow prevede 30 miliardi di dollari di entrate da abbonamenti nel 2030, con il 30% di tale ACV proveniente da Now Assist, l'offerta principale di intelligenza artificiale dell'azienda. La presentazione del giorno per gli investitori è una risposta strutturale alle preoccupazioni riguardanti lo spostamento dell'AI-SaaS. Il lancio del FSD di Tesla in Europa incontra lo scetticismo dei regolatori che Musk ha proiettato attraverso Il lancio del FSD di Tesla in Europa incontra lo scetticismo dei regolatori che Musk ha proiettato attraverso Reuters ha pubblicato corrispondenza interna degli enti regolatori dell'UE che mostra uno scetticismo costante verso le affermazioni di sicurezza e la strategia di distribuzione del FSD di Tesla, nonostante l'approvazione di tipo olandese ad aprile. Intel assume il veterano di Qualcomm Alex Katouzian per guidare un nuovo gruppo di Client Computing e Intelligenza Artificiale Fisica Intel assume il veterano di Qualcomm Alex Katouzian per guidare un nuovo gruppo di Client Computing e Intelligenza Artificiale Fisica Intel ha assunto Alex Katouzian, un veterano di Qualcomm con 25 anni di esperienza, per guidare un nuovo gruppo combinato di Client Computing e AI Fisica. È la seconda assunzione senior di Qualcomm durante il mandato del CEO Lip-Bu Tan. Il lancio del FSD di Tesla in Europa si scontra con lo scetticismo dei regolatori che Musk ha proiettato attraverso Il lancio del FSD di Tesla in Europa si scontra con lo scetticismo dei regolatori che Musk ha proiettato attraverso Reuters ha pubblicato corrispondenza interna degli enti regolatori dell'UE che mostra un continuo scetticismo nei confronti delle affermazioni di sicurezza e della strategia di distribuzione del FSD di Tesla, nonostante l'approvazione di tipo olandese ad aprile. I lavoratori di Google DeepMind votano per unirsi in sindacato dopo che un accordo segreto sull'IA del Pentagono ha annullato otto anni di impegni etici I lavoratori di Google DeepMind votano per unirsi in sindacato dopo che un accordo segreto sull'IA del Pentagono ha annullato otto anni di impegni etici Il personale di DeepMind UK ha votato il 98% per unirsi a CWU e Unite dopo che Google ha firmato un accordo riservato con il Pentagono per "qualsiasi scopo lecito". Vogliono che l'uso dell'IA militare venga interrotto e che l'etica venga ripristinata. Dentro il round da 152 milioni di euro di QuantWare per costruire KiloFab Dentro il round da 152 milioni di euro di QuantWare per costruire KiloFab QuantWare ha chiuso un round di Serie B da 152 milioni di euro guidato da Intel Capital, In-Q-Tel e ETF Partners, il più grande round deeptech olandese di sempre.

Google, Microsoft e xAI concordano nel rilasciare in anteprima le valutazioni dei modelli di intelligenza artificiale governativa mentre la crisi di Mythos costringe a un'espansione della supervisione

Cinque laboratori di intelligenza artificiale di frontiera ora presentano modelli per la valutazione del governo degli Stati Uniti. Il programma volontario non ha autorità statutaria ma copre ogni principale sviluppatore di IA dopo la crisi di Mythos.