Una delle agenzie statunitensi più controverse sta presumibilmente testando il gusto dell'AI Mythos super potente di Anthropic.
L'uso riportato di Mythos da parte dell'agenzia evidenzia una crescente divisione all'interno del governo degli Stati Uniti riguardo al rischio dell'IA
Lotta dell'IA del governo degli Stati Uniti appena diventata più difficile da conciliare. La National Security Agency sta usando, secondo quanto riportato, il Mythos Preview di Anthropic, mentre i funzionari senior del Pentagono continuano a spingere per escludere l'azienda a causa di preoccupazioni sulla catena di approvvigionamento. Ciò dimostra quanto rapidamente le reali esigenze di sicurezza possano superare la politica ufficiale.
Dallo scorso febbraio, il Dipartimento della Difesa ha cercato di bloccare Anthropic e spingere i fornitori a fare lo stesso. Tuttavia, secondo un rapporto di Axios, la NSA sembra procedere comunque con uno dei modelli più potenti dell'azienda, suggerendo che la domanda di cybersecurity pesa di più rispetto al conflitto attualmente in corso all'interno del governo.
Perché l'accesso a Mythos è così limitato
Mythos si distingue perché Anthropic sembra tenerlo sotto controllo. Fonti hanno riferito che l'azienda ha limitato l'accesso a circa 40 organizzazioni a causa delle capacità offensive del modello, e solo alcuni di quegli utenti sono stati nominati pubblicamente. Una fonte ha detto che la NSA era tra le agenzie non nominate con accesso.
Digital Trends
Questo fa sembrare meno un normale dispiegamento di chatbot e più uno strumento di sicurezza ad alto rischio. Fonti hanno riferito che i gruppi con accesso hanno principalmente utilizzato Mythos per scansionare i propri sistemi alla ricerca di vulnerabilità sfruttabili, il che aiuta a spiegare perché i funzionari della sicurezza nazionale lo desidererebbero comunque nonostante il conflitto sulla fiducia.
La contraddizione dell'IA di Washington
Il problema più grande è la contraddizione ora in bella vista. Una parte del governo tratta Anthropic come un rischio, mentre un'altra sta testando il suo modello principale. Ciò rende la lista nera meno definitiva di quanto pubblicizzato.
La lotta sembra andare oltre l'approvvigionamento. I funzionari della Difesa volevano che Anthropic rendesse Claude disponibile per tutti gli scopi legali, mentre l'azienda ha resistito a usi legati alla sorveglianza di massa e alle armi autonome. Alcuni funzionari hanno interpretato ciò come prova che Anthropic non potesse essere considerata affidabile quando l'esercito ne avesse bisogno, un'affermazione che l'azienda contesta.
Unsplash
Cosa succede dopo
La prossima domanda è se Mythos rimarrà un'eccezione della NSA o diventerà un'apertura più ampia all'interno del governo. Fonti hanno riferito che un incontro recente tra il CEO di Anthropic Dario Amodei, il capo di gabinetto della Casa Bianca Susie Wiles e il Segretario al Tesoro Scott Bessent si è concentrato su Mythos nel governo e sulla postura di sicurezza più ampia dell'azienda. Entrambe le parti hanno descritto l'incontro come produttivo.
Se più agenzie si muovono in questa direzione, questo episodio sembrerà un'anteprima di come Washington gestisce l'IA potente quando i conflitti interni sulla politica si scontrano con strumenti che i funzionari non vogliono abbandonare.
Otros artículos
Una delle agenzie statunitensi più controverse sta presumibilmente testando il gusto dell'AI Mythos super potente di Anthropic.
L'uso riportato dalla NSA del Mythos di Anthropic espone una crescente divisione all'interno di Washington, dove la resistenza del Pentagono nei confronti dell'azienda si scontra con la domanda di potenti strumenti di intelligenza artificiale progettati per un serio lavoro di cybersecurity.
