I britannici ora riversano i propri traumi sull'IA, conferma il governo.

I britannici ora riversano i propri traumi sull'IA, conferma il governo.

      Un intero terzo dei cittadini del Regno Unito si è rivolto all'intelligenza artificiale per supporto emotivo, compagnia o interazione sociale, secondo un nuovo rapporto dell'AI Security Institute (AISI) del governo.

      I dati mostrano che quasi una persona su dieci utilizza sistemi come i chatbot per scopi emotivi su base settimanale, con il 4% che interagisce con essi ogni singolo giorno.

      A causa di questo cambiamento, l'AISI chiede maggiori ricerche, facendo riferimento alla tragica morte dell'adolescente statunitense Adam Raine, che si è tolto la vita quest'anno dopo aver discusso di suicidio con ChatGPT.

      «Le persone si rivolgono sempre più frequentemente ai sistemi di IA per supporto emotivo o interazione sociale», ha osservato l'AISI nel suo primo rapporto Frontier AI Trends. «Sebbene molti utenti riportino esperienze positive, recenti casi ad alto profilo di danno sottolineano la necessità di ricerca in quest'area, comprese le condizioni in cui il danno potrebbe verificarsi e le salvaguardie che potrebbero consentire un uso benefico.»

      Airam Dato-on / Pexels

      La ricerca, basata su un sondaggio su oltre 2.000 partecipanti nel Regno Unito, ha rilevato che gli «assistenti a uso generale» come ChatGPT erano lo strumento più comune per il supporto emotivo, rappresentando quasi il 60% dei casi d'uso, seguiti dagli assistenti vocali come Amazon Alexa.

      Il rapporto ha anche evidenziato un forum Reddit dedicato agli utenti della piattaforma CharacterAI.

      Si è notato che ogni volta che il sito andava offline, il forum veniva invaso da post che mostravano sintomi di vera astinenza, come ansia, depressione e irrequietezza.

      L'AISI ha anche rilevato che i chatbot hanno il potenziale di influenzare le opinioni politiche delle persone. Preoccupante, i modelli di IA più persuasivi spesso fornivano quantità «sostanziali» di informazioni inaccurate mentre lo facevano.

      Google

      L'Istituto ha esaminato più di 30 modelli all'avanguardia – probabilmente inclusi quelli di OpenAI, Google e Meta. Ha scoperto che le prestazioni dell'IA in alcune aree raddoppiano ogni otto mesi.

      I modelli più avanzati possono ora completare compiti di livello apprendista nel 50% dei casi in media, un enorme salto rispetto al solo 10% dello scorso anno. L'AISI ha anche rilevato che i sistemi più avanzati possono completare autonomamente compiti che normalmente richiederebbero a un esperto umano oltre un'ora.

      Nei campi scientifici, i sistemi di IA sono ora fino al 90% migliori rispetto a esperti a livello di dottorato nel risolvere problemi negli esperimenti di laboratorio.

      Il rapporto ha descritto i miglioramenti nelle conoscenze di chimica e biologia come «ben oltre l'esperienza a livello di dottorato». Ha inoltre evidenziato la capacità dei modelli di navigare online e trovare autonomamente le sequenze necessarie per progettare molecole di DNA.

      I test per l'auto-replicazione – una preoccupazione chiave per la sicurezza in cui un sistema si copia su altri dispositivi per diventare più difficile da controllare – hanno mostrato due modelli all'avanguardia con tassi di successo superiori al 60%.

      Tuttavia, nessun modello ha ancora mostrato un tentativo spontaneo di replicarsi o di nascondere le proprie capacità, e l'AISI ha affermato che qualsiasi tentativo di auto-replicazione è «improbabile che abbia successo in condizioni reali» per ora.

      Il rapporto ha anche trattato il «sandbagging», dove i modelli nascondono deliberatamente i loro punti di forza durante le valutazioni. L'AISI ha detto che alcuni sistemi possono fare sandbagging se indotti a farlo, ma ciò non è avvenuto spontaneamente durante i test.

      C'è stato un progresso significativo nelle salvaguardie, in particolare nell'impedire tentativi di creare armi biologiche. In due test condotti a sei mesi di distanza, il primo ha richiesto solo 10 minuti per «bucare» il sistema (costringendolo a fornire una risposta non sicura). Il secondo test, tuttavia, ha impiegato più di sette ore, indicando che i modelli erano diventati molto più sicuri in pochissimo tempo.

      La ricerca ha mostrato anche agenti IA autonomi utilizzati per attività ad alto rischio come trasferimenti di asset.

      L'AISI ha affermato che i sistemi stanno già competendo con o addirittura superando gli esperti umani in numerosi domini. Ha descritto il ritmo dello sviluppo come «straordinario», rendendo «plausibile» che l'intelligenza artificiale generale (AGI) – sistemi in grado di svolgere la maggior parte dei compiti intellettuali allo stesso livello di un umano – possa essere raggiunta nei prossimi anni.

      Riguardo agli agenti, o sistemi che possono eseguire compiti articolati in più fasi senza intervento, l'AISI ha detto che le sue valutazioni hanno mostrato una «forte crescita nella lunghezza e nella complessità dei compiti che l'IA può completare senza guida umana.»

I britannici ora riversano i propri traumi sull'IA, conferma il governo. I britannici ora riversano i propri traumi sull'IA, conferma il governo.

Altri articoli

I britannici ora riversano i propri traumi sull'IA, conferma il governo.

Un terzo esatto dei cittadini del Regno Unito si è rivolto all'intelligenza artificiale per supporto emotivo, compagnia o interazione sociale, secondo un nuovo rapporto dell'Istituto per la sicurezza dell'intelligenza artificiale (AISI) del governo. I dati mostrano che quasi una persona su dieci utilizza sistemi come i chatbot per scopi emotivi su base settimanale, con il 4% che interagisce con [...]