ChatGPT ci sta davvero rendendo stupidi e pigri?

ChatGPT ci sta davvero rendendo stupidi e pigri?

      Dall'esordio di ChatGPT nel 2022, l'IA generativa è rapidamente entrata nelle nostre vite lavorative, di studio e personali, contribuendo ad accelerare la ricerca, la creazione di contenuti e altro a un ritmo senza precedenti.

      L'entusiasmo per gli strumenti di IA generativa è comprensibilmente aumentato, sperimentando un tasso di adozione ancora più rapido rispetto a Internet o ai PC, ma gli esperti avvertono che dovremmo procedere con cautela. Come per ogni nuova tecnologia, l'IA generativa può proiettare la società in avanti in vari modi, ma può anche portare conseguenze se lasciata incontrollata.

      Una di queste voci è Natasha Govender-Ropert, responsabile dell'IA per i crimini finanziari presso Rabobank. È intervenuta con il fondatore di TNW Boris Veldhuijzen van Zanten nell'ultimo episodio di “Kia’s Next Big Drive” per parlare di etica dell'IA, bias e se stiamo esternalizzando il nostro cervello alle macchine.

      Guarda l'intera intervista — registrata durante il viaggio verso TNW2025 nella EV9 completamente elettrica di Kia:

      Una domanda che dovrebbe essere nella nostra mente è: man mano che ci rivolgiamo sempre più all'IA generativa per ottenere risposte, quale impatto potrebbe avere questa dipendenza sulla nostra stessa intelligenza?

      Un recente studio del MIT sull'uso di ChatGPT per scrivere saggi è sfociato in una serie di titoli sensazionalistici, da “I ricercatori dicono che usare ChatGPT può far marcire il tuo cervello” a “ChatGPT potrebbe renderti pigro e stupido.” È davvero così?

      Il tuo cervello con l'IA generativa

      Ecco cosa è successo davvero: i ricercatori hanno assegnato a 54 studenti dell'area di Boston un compito di saggio. Un gruppo ha usato ChatGPT, un altro ha usato Google (senza l'aiuto dell'IA) e il terzo ha dovuto scrivere usando soltanto il proprio cervello. Mentre scrivevano, l'attività cerebrale è stata misurata tramite elettrodi.

      Dopo tre sessioni, il gruppo che aveva scritto solo con il cervello ha mostrato i livelli più alti di connettività mentale. Gli utilizzatori di ChatGPT? I più bassi. Sembrava che i partecipanti assistiti dall'IA fossero in modalità pilota automatico mentre gli altri dovevano pensare di più per mettere le parole sulla pagina.

      Per il quarto giro, i ruoli si sono invertiti. Il gruppo “solo cervello” ha potuto usare ChatGPT questa volta, mentre il gruppo IA ha dovuto andare da solo. Il risultato? I primi hanno migliorato i loro saggi. I secondi hanno faticato a ricordare cosa avevano scritto in precedenza.

      Nel complesso, lo studio ha rilevato che, nei quattro mesi in cui è stato condotto, i partecipanti “solo cervello” hanno ottenuto risultati migliori rispetto agli altri gruppi a livello neurale, linguistico e comportamentale, mentre coloro che hanno usato ChatGPT hanno trascorso meno tempo sui loro saggi, limitandosi spesso al copia/incolla.

      Gli insegnanti di inglese che hanno revisionato i loro lavori hanno detto che mancavano di pensiero originale e di “anima”. Sembra allarmante, vero? Forse, ma la verità è più complicata di quanto suggeriscano i titoli sensazionalistici.

      I risultati riguardavano meno il decadimento cerebrale e più le scorciatoie mentali. Hanno mostrato che l'affidamento eccessivo agli LLM può ridurre l'impegno mentale. Ma con un uso attivo e riflessivo, questi rischi possono essere evitati. I ricercatori hanno anche sottolineato che, sebbene lo studio abbia sollevato alcune domande interessanti per ulteriori ricerche, era anche troppo piccolo e troppo semplice per trarre conclusioni definitive.

      La morte del pensiero critico?

      Sebbene i risultati (che devono ancora essere sottoposti a peer review) richiedano certamente ulteriori indagini e una riflessione più profonda su come dovremmo usare questo strumento in contesti educativi, professionali e personali, forse ciò che potrebbe realmente “far marcire” i nostri cervelli sono i titoli TLDR studiati per i clic a scapito dell'accuratezza.

      I ricercatori sembrano condividere queste preoccupazioni. Hanno creato un sito web con una pagina FAQ dove esortano i giornalisti a non usare un linguaggio impreciso e sensazionalista riguardo ai risultati.

      Fonte: FAQ per “Il tuo cervello su ChatGPT: accumulo di debito cognitivo quando si utilizza un assistente IA per un compito di scrittura di saggi” https://www.brainonllm.com/faq

      Ironia della sorte, hanno attribuito il “rumore” risultante ai giornalisti che hanno usato LLM per riassumere il documento e hanno aggiunto: “Il vostro feedback UMANO è molto gradito, se leggete l'articolo o parti di esso. Inoltre, come promemoria, lo studio contiene un elenco di limitazioni che elenchiamo chiaramente sia nell'articolo sia sulla pagina web.”

      Ci sono due conclusioni che possiamo trarre con sicurezza da questo studio:

      - Sono essenziali ulteriori ricerche su come gli LLM dovrebbero essere usati nei contesti educativi.

      - Studenti, giornalisti e il pubblico in generale devono rimanere critici riguardo alle informazioni che riceviamo, sia dai media sia dall'IA generativa.

      I ricercatori della Vrije Universiteit Amsterdam sono preoccupati che, con la nostra crescente dipendenza dagli LLM, ciò che potrebbe essere realmente a rischio sia il pensiero critico, ovvero la nostra capacità e volontà di mettere in discussione e cambiare le norme sociali.

      “Gli studenti potrebbero diventare meno inclini a condurre processi di ricerca estesi o comprensivi da soli, perché si affidano al tono autorevole e informato dell'output della GenAI. Potrebbero essere meno propensi a mettere in discussione — o persino a identificare — le prospettive non dichiarate alla base dell'output, non considerando di chi siano le prospettive che vengono messe in ombra e le assunzioni date per scontate che informano le affermazioni.”

      Questi rischi indicano un problema più profondo nell'IA. Quando accettiamo i suoi output per quello che appaiono, possiamo trascurare bias incorporati e assunzioni non contestate. Affrontare questo richiede non solo correzioni tecniche, ma una riflessione critica su cosa intendiamo per bias in primo luogo.

      Queste questioni sono centrali nel lavoro di Natasha Govender-Ropert, responsabile dell'IA per i crimini finanziari presso Rabobank. Il suo ruolo si concentra sulla costruzione di un'IA responsabile e affidabile eliminando i bias. Ma, come ha fatto notare a TNW il fondatore Boris Veldhuijzen van Zanten in “Kia’s Next Big Drive,” il bias è un termine soggettivo e deve essere definito per ogni individuo e per ogni azienda.

      “Il bias non ha una definizione coerente. Ciò che io considero come di parte o imparziale può essere diverso per qualcun altro. Questa è una cosa che noi come esseri umani e come individui dobbiamo decidere. Dobbiamo fare una scelta e dire che questo è lo standard di principi che applicheremo quando esamineremo i nostri dati,” ha detto Govender-Ropert.

      Le norme sociali e i bias non sono fissi ma in continua evoluzione. Man mano che la società si evolve, i dati storici su cui addestriamo i nostri LLM non lo fanno. Dobbiamo rimanere critici e sfidare le informazioni che riceviamo, sia dai nostri simili sia dalle nostre macchine, per costruire una società più giusta ed equa.

ChatGPT ci sta davvero rendendo stupidi e pigri?

Altri articoli

ChatGPT ci sta davvero rendendo stupidi e pigri?

ChatGPT ci sta rendendo pigri? Analizziamo lo studio del MIT sull'IA, sul pensiero critico e su cosa significhi davvero per il nostro cervello affidarsi a strumenti generativi.