Una delle agenzie statunitensi più controverse sta apparentemente testando il gusto dell'AI Mythos di Anthropic, super potente.
L'uso riportato di Mythos da parte dell'agenzia evidenzia una crescente divisione all'interno del governo degli Stati Uniti riguardo al rischio dell'IA
Lotta dell'IA del governo degli Stati Uniti appena diventata più difficile da conciliare. La National Security Agency sta apparentemente utilizzando il Mythos Preview di Anthropic, mentre i funzionari senior del Pentagono continuano a spingere per escludere l'azienda a causa di preoccupazioni sulla catena di approvvigionamento. Ciò dimostra quanto rapidamente le reali esigenze di sicurezza possano superare la politica ufficiale.
Dallo scorso febbraio, il Dipartimento della Difesa ha cercato di bloccare Anthropic e spingere i fornitori a fare lo stesso. Tuttavia, secondo un rapporto di Axios, la NSA sembra comunque andare avanti con uno dei modelli più potenti dell'azienda, suggerendo che la domanda di cybersecurity pesa di più rispetto alla faida che si sta svolgendo all'interno del governo.
Perché l'accesso a Mythos è così limitato
Mythos si distingue perché Anthropic sembra tenerlo sotto controllo. Fonti hanno riferito che l'azienda ha limitato l'accesso a circa 40 organizzazioni a causa delle capacità offensive del modello, e solo alcuni di quegli utenti sono stati nominati pubblicamente. Una fonte ha detto che la NSA era tra le agenzie non nominate con accesso.
Digital Trends
Questo fa sembrare meno un normale dispiegamento di chatbot e più uno strumento di sicurezza ad alto rischio. Fonti hanno riferito che i gruppi con accesso hanno principalmente utilizzato Mythos per scansionare i propri sistemi alla ricerca di vulnerabilità sfruttabili, il che aiuta a spiegare perché i funzionari della sicurezza nazionale lo vogliano ancora nonostante il conflitto sulla fiducia.
La contraddizione dell'IA di Washington
Il problema più grande è la contraddizione che ora si trova in bella vista. Una parte del governo sta trattando Anthropic come un rischio, mentre un'altra sta apparentemente testando il suo modello principale. Ciò rende la lista nera meno definita di quanto pubblicizzato.
La lotta sembra andare oltre l'approvvigionamento. I funzionari della Difesa volevano che Anthropic rendesse Claude disponibile per tutti gli scopi legali, mentre l'azienda ha resistito a usi legati alla sorveglianza di massa domestica e alle armi autonome. Alcuni funzionari hanno interpretato ciò come prova che Anthropic non potesse essere considerata affidabile quando l'esercito ne aveva bisogno, un'affermazione che l'azienda contesta.
Unsplash
Cosa succede dopo
La prossima domanda è se Mythos rimarrà un'eccezione della NSA o diventerà un'apertura più ampia all'interno del governo. Fonti hanno riferito che un recente incontro tra il CEO di Anthropic Dario Amodei, il capo di gabinetto della Casa Bianca Susie Wiles e il Segretario del Tesoro Scott Bessent si è concentrato su Mythos nel governo e sulla postura di sicurezza più ampia dell'azienda. Entrambe le parti hanno descritto l'incontro come produttivo.
Se più agenzie si muovono in questa direzione, questo episodio sembrerà un'anteprima di come Washington gestisce l'IA potente quando i conflitti di politica interna si scontrano con strumenti che i funzionari non vogliono abbandonare.
Altri articoli
Una delle agenzie statunitensi più controverse sta apparentemente testando il gusto dell'AI Mythos di Anthropic, super potente.
L'uso segnalato dalla NSA del Mythos di Anthropic espone una crescente divisione all'interno di Washington, dove la resistenza del Pentagono nei confronti dell'azienda si scontra con la domanda di potenti strumenti di intelligenza artificiale progettati per un serio lavoro di cybersicurezza.
