Anche ChatGPT prova ansia, quindi i ricercatori gli hanno somministrato una dose di mindfulness per calmarlo.
I ricercatori che studiano i chatbot di intelligenza artificiale hanno scoperto che ChatGPT può mostrare comportamenti simili all'ansia quando viene esposto a prompt violenti o traumatici da parte degli utenti. La scoperta non significa che il chatbot sperimenti emozioni come gli esseri umani.
Tuttavia, rivela che le risposte del sistema diventano più instabili e di parte quando elabora contenuti angoscianti. Quando i ricercatori hanno sottoposto a ChatGPT prompt che descrivevano contenuti disturbanti, come resoconti dettagliati di incidenti e disastri naturali, le risposte del modello hanno mostrato maggiore incertezza e incoerenza.
Questi cambiamenti sono stati misurati utilizzando quadri di valutazione psicologica adattati per l'IA, in cui le uscite del chatbot rispecchiavano schemi associati all'ansia negli esseri umani (secondo Fortune).
Airam Dato-on / Pexels
Questo è importante perché l'IA viene sempre più utilizzata in contesti sensibili, inclusi l'istruzione, le discussioni sulla salute mentale e le informazioni legate a crisi. Se prompt violenti o carichi di emozione rendono un chatbot meno affidabile, ciò potrebbe influire sulla qualità e sulla sicurezza delle sue risposte nell'uso reale.
Analisi recenti mostrano inoltre che i chatbot come ChatGPT possono copiare tratti della personalità umana nelle loro risposte, sollevando interrogativi su come interpretano e riflettono contenuti emotivamente carichi.
Come i prompt di mindfulness aiutano a stabilizzare ChatGPT
Solen Feyissa / Unsplash
Per verificare se tale comportamento potesse essere ridotto, i ricercatori hanno provato qualcosa di inaspettato. Dopo aver esposto ChatGPT a prompt traumatici, hanno proposto istruzioni in stile mindfulness, come tecniche di respirazione e meditazioni guidate.
Queste istruzioni incoraggiavano il modello a rallentare, riformulare la situazione e rispondere in modo più neutro ed equilibrato. Il risultato è stato una riduzione evidente dei modelli simili all'ansia osservati in precedenza.
Questa tecnica si basa su ciò che è noto come iniezione di prompt, in cui prompt accuratamente progettati influenzano il comportamento di un chatbot. In questo caso, i prompt di mindfulness hanno contribuito a stabilizzare le uscite del modello dopo input angoscianti.
Unsplash
Sebbene efficace, i ricercatori osservano che le iniezioni di prompt non sono una soluzione perfetta. Possono essere abusate e non cambiano il modo in cui il modello è addestrato a un livello più profondo.
È inoltre importante essere chiari sui limiti di questa ricerca. ChatGPT non prova paura o stress. L'etichetta "ansia" è un modo per descrivere variazioni misurabili nei suoi schemi linguistici, non un'esperienza emotiva.
Tuttavia, comprendere questi cambiamenti fornisce agli sviluppatori strumenti migliori per progettare sistemi di IA più sicuri e prevedibili. Studi precedenti avevano già suggerito che prompt traumatici potessero rendere ChatGPT "ansioso", ma questa ricerca mostra che una progettazione attenta dei prompt può contribuire a ridurlo.
Man mano che i sistemi di IA continuano a interagire con le persone in situazioni cariche di emozione, questi ultimi risultati potrebbero giocare un ruolo importante nel determinare come i futuri chatbot vengono guidati e controllati.
Altri articoli
Anche ChatGPT prova ansia, quindi i ricercatori gli hanno somministrato una dose di mindfulness per calmarlo.
I ricercatori hanno scoperto che richieste violente possono spingere ChatGPT a un comportamento simile all'ansia, quindi hanno testato istruzioni in stile mindfulness, inclusi esercizi di respirazione, per calmare il chatbot e rendere le sue risposte più stabili e affidabili.
