Anche ChatGPT prova ansia, quindi i ricercatori gli hanno somministrato una dose di mindfulness per calmarlo.

Anche ChatGPT prova ansia, quindi i ricercatori gli hanno somministrato una dose di mindfulness per calmarlo.

      I ricercatori che studiano i chatbot di intelligenza artificiale hanno scoperto che ChatGPT può mostrare comportamenti simili all'ansia quando viene esposto a prompt violenti o traumatici da parte degli utenti. La scoperta non significa che il chatbot sperimenti emozioni come gli esseri umani.

      Tuttavia, rivela che le risposte del sistema diventano più instabili e di parte quando elabora contenuti angoscianti. Quando i ricercatori hanno sottoposto a ChatGPT prompt che descrivevano contenuti disturbanti, come resoconti dettagliati di incidenti e disastri naturali, le risposte del modello hanno mostrato maggiore incertezza e incoerenza.

      Questi cambiamenti sono stati misurati utilizzando quadri di valutazione psicologica adattati per l'IA, in cui le uscite del chatbot rispecchiavano schemi associati all'ansia negli esseri umani (secondo Fortune).

      Airam Dato-on / Pexels

      Questo è importante perché l'IA viene sempre più utilizzata in contesti sensibili, inclusi l'istruzione, le discussioni sulla salute mentale e le informazioni legate a crisi. Se prompt violenti o carichi di emozione rendono un chatbot meno affidabile, ciò potrebbe influire sulla qualità e sulla sicurezza delle sue risposte nell'uso reale.

      Analisi recenti mostrano inoltre che i chatbot come ChatGPT possono copiare tratti della personalità umana nelle loro risposte, sollevando interrogativi su come interpretano e riflettono contenuti emotivamente carichi.

      Come i prompt di mindfulness aiutano a stabilizzare ChatGPT

      Solen Feyissa / Unsplash

      Per verificare se tale comportamento potesse essere ridotto, i ricercatori hanno provato qualcosa di inaspettato. Dopo aver esposto ChatGPT a prompt traumatici, hanno proposto istruzioni in stile mindfulness, come tecniche di respirazione e meditazioni guidate.

      Queste istruzioni incoraggiavano il modello a rallentare, riformulare la situazione e rispondere in modo più neutro ed equilibrato. Il risultato è stato una riduzione evidente dei modelli simili all'ansia osservati in precedenza.

      Questa tecnica si basa su ciò che è noto come iniezione di prompt, in cui prompt accuratamente progettati influenzano il comportamento di un chatbot. In questo caso, i prompt di mindfulness hanno contribuito a stabilizzare le uscite del modello dopo input angoscianti.

      Unsplash

      Sebbene efficace, i ricercatori osservano che le iniezioni di prompt non sono una soluzione perfetta. Possono essere abusate e non cambiano il modo in cui il modello è addestrato a un livello più profondo.

      È inoltre importante essere chiari sui limiti di questa ricerca. ChatGPT non prova paura o stress. L'etichetta "ansia" è un modo per descrivere variazioni misurabili nei suoi schemi linguistici, non un'esperienza emotiva.

      Tuttavia, comprendere questi cambiamenti fornisce agli sviluppatori strumenti migliori per progettare sistemi di IA più sicuri e prevedibili. Studi precedenti avevano già suggerito che prompt traumatici potessero rendere ChatGPT "ansioso", ma questa ricerca mostra che una progettazione attenta dei prompt può contribuire a ridurlo.

      Man mano che i sistemi di IA continuano a interagire con le persone in situazioni cariche di emozione, questi ultimi risultati potrebbero giocare un ruolo importante nel determinare come i futuri chatbot vengono guidati e controllati.

Anche ChatGPT prova ansia, quindi i ricercatori gli hanno somministrato una dose di mindfulness per calmarlo. Anche ChatGPT prova ansia, quindi i ricercatori gli hanno somministrato una dose di mindfulness per calmarlo. Anche ChatGPT prova ansia, quindi i ricercatori gli hanno somministrato una dose di mindfulness per calmarlo.

Altri articoli

ASUS si unisce al club degli aumenti dei prezzi con i suoi prodotti per PC ASUS si unisce al club degli aumenti dei prezzi con i suoi prodotti per PC ASUS conferma aumenti mirati dei prezzi su prodotti per PC selezionati a partire dal 5 gennaio 2026, a causa dell'aumento dei costi della memoria e dei componenti. Ecco come Samsung intende monitorare la salute cerebrale usando i tuoi dispositivi. Ecco come Samsung intende monitorare la salute cerebrale usando i tuoi dispositivi. Samsung prevede di presentare una funzione per la salute cerebrale al CES 2026 che utilizza i dati dei dispositivi indossabili e degli smartphone per segnalare indicatori precoci della demenza e suggerire azioni preventive. La visione di Govee per l'illuminazione intelligente va oltre la semplice illuminazione. La visione di Govee per l'illuminazione intelligente va oltre la semplice illuminazione. La presentazione di Govee al CES 2026 suggerisce un futuro in cui l'illuminazione intelligente si adatta all'umore, alla routine e al benessere — non solo a programmazioni e comandi. Le sette aziende cinesi da tenere d'occhio oltre il 2025, dai droni ai videogiochi Le sette aziende cinesi da tenere d'occhio oltre il 2025, dai droni ai videogiochi Guardando indietro al 2025, preferirei concentrarmi su un gruppo di società cinesi che seguo da anni e in cui credo sinceramente. Potrebbero non trovarsi al Si intensificano le voci sull'arrivo del MacBook «a prezzi accessibili» di Apple. Si intensificano le voci sull'arrivo del MacBook «a prezzi accessibili» di Apple. Apple potrebbe lanciare un MacBook da 12,9 pollici accessibile con il chip A18 Pro nella primavera del 2026, ampliando la sua gamma di portatili. Microsoft cesserà il supporto per Windows 11 SE nel 2026. Microsoft cesserà il supporto per Windows 11 SE nel 2026. Windows 11 SE, il sistema operativo di Microsoft pensato per l'istruzione nelle scuole K-8, raggiungerà la fine del supporto nel 2026, costringendo le scuole ad aggiornare i dispositivi o a passare a un'altra piattaforma.

Anche ChatGPT prova ansia, quindi i ricercatori gli hanno somministrato una dose di mindfulness per calmarlo.

I ricercatori hanno scoperto che richieste violente possono spingere ChatGPT a un comportamento simile all'ansia, quindi hanno testato istruzioni in stile mindfulness, inclusi esercizi di respirazione, per calmare il chatbot e rendere le sue risposte più stabili e affidabili.