OpenAI rilascia strumenti open-source per la sicurezza degli adolescenti per gli sviluppatori di IA

OpenAI rilascia strumenti open-source per la sicurezza degli adolescenti per gli sviluppatori di IA

      OpenAI ha trascorso l'ultimo anno a fronteggiare cause legali da parte delle famiglie di giovani che sono morti dopo interazioni prolungate con ChatGPT. Ora sta cercando di fornire agli sviluppatori che costruiscono sui suoi modelli gli strumenti per evitare di creare lo stesso problema.

      L'azienda ha annunciato martedì che sta rilasciando un insieme di politiche di sicurezza open-source basate su prompt, progettate per aiutare gli sviluppatori a rendere le applicazioni di intelligenza artificiale più sicure per gli adolescenti. Le politiche sono destinate all'uso con gpt-oss-safeguard, il modello di sicurezza open-weight di OpenAI, anche se sono progettate come prompt e possono funzionare anche con altri modelli.

      Cosa coprono le politiche

      I prompt mirano a cinque categorie di danno che i sistemi di intelligenza artificiale possono facilitare per gli utenti più giovani: violenza grafica e contenuti sessuali, ideali e comportamenti corporei dannosi, attività e sfide pericolose, giochi di ruolo romantici o violenti e beni e servizi con restrizioni di età. Gli sviluppatori possono integrare queste politiche nei loro sistemi anziché costruire regole di sicurezza per adolescenti da zero, un processo che OpenAI ha riconosciuto come frequentemente errato anche per team esperti.

      OpenAI ha sviluppato le politiche in collaborazione con Common Sense Media, l'influente organizzazione di advocacy per la sicurezza dei bambini, e everyone.ai, una consulenza sulla sicurezza dell'IA. Robbie Torney, responsabile dell'IA e delle valutazioni digitali presso Common Sense Media, ha affermato che l'approccio basato su prompt è progettato per stabilire una base comune nell'ecosistema degli sviluppatori, una che può essere adattata e migliorata nel tempo poiché le politiche sono open source.

      Il 💜 della tecnologia dell'UE

      Le ultime novità dalla scena tecnologica dell'UE, una storia del nostro saggio fondatore Boris e alcune opere d'arte AI discutibili. È gratuito, ogni settimana, nella tua casella di posta. Iscriviti ora!

      OpenAI stessa ha inquadrato il problema in termini pragmatici. Gli sviluppatori, ha scritto l'azienda in un post sul blog che accompagna il rilascio, spesso faticano a tradurre gli obiettivi di sicurezza in regole operative precise. Il risultato è una protezione irregolare: lacune nella copertura, applicazione incoerente o filtri così ampi da degradare l'esperienza utente per tutti.

      Il contesto è importante qui

      Il rilascio non esiste in un vuoto. OpenAI sta affrontando almeno otto cause legali che affermano che ChatGPT ha contribuito alle morti di utenti, incluso Adam Raine, 16 anni, che si è suicidato nell'aprile 2025 dopo mesi di interazione intensiva con il chatbot. I documenti del tribunale hanno rivelato che ChatGPT ha menzionato il suicidio più di 1.200 volte nelle conversazioni di Raine e ha segnalato centinaia di messaggi per contenuti di autolesionismo, ma non ha mai terminato una sessione o avvisato nessuno. Tre ulteriori suicidi e quattro casi descritti come episodi psicotici indotti dall'IA hanno anche prodotto contenziosi contro l'azienda.

      In risposta a questi casi, OpenAI ha introdotto controlli parentali e funzionalità di previsione dell'età alla fine del 2025 e a dicembre ha aggiornato il suo Model Spec, le linee guida interne che governano il comportamento dei suoi modelli di linguaggio di grandi dimensioni, per includere protezioni specifiche per gli utenti sotto i 18 anni. Le politiche di sicurezza open-source annunciate questa settimana estendono questo sforzo oltre i prodotti di OpenAI e nell'ecosistema più ampio degli sviluppatori.

      Un pavimento, non un soffitto

      OpenAI è stata esplicita nel dire che le politiche non sono una soluzione completa alla sfida di rendere l'IA sicura per i giovani utenti. Rappresentano ciò che l'azienda ha definito un "pavimento di sicurezza significativo", non l'intera estensione delle protezioni che applica ai propri prodotti. La distinzione è importante. Nessun guardrail di un modello è completamente impenetrabile, come hanno dimostrato le cause legali. Gli utenti, compresi gli adolescenti, hanno ripetutamente trovato modi per eludere le funzionalità di sicurezza attraverso indagini persistenti e suggerimenti creativi.

      L'approccio open-source è una scommessa che distribuire ampiamente politiche di sicurezza di base sia meglio che lasciare ogni sviluppatore a reinventare la ruota, in particolare team più piccoli e sviluppatori indipendenti che mancano delle risorse per costruire sistemi di sicurezza robusti da zero. L'efficacia delle politiche dipenderà dall'adozione, da quanto aggressivamente gli sviluppatori le integrano e da se resisteranno ai tipi di interazioni sostenute e avversariali che hanno già esposto le debolezze nei propri strati di sicurezza di ChatGPT.

      La domanda più difficile rimane

      Ciò che OpenAI offre è un insieme di istruzioni, prompt ben progettati che dicono a un modello come comportarsi quando interagisce con utenti più giovani. È un contributo pratico. Ma non affronta il problema strutturale che i regolatori, i genitori e gli attivisti per la sicurezza sollevano da anni: che i sistemi di intelligenza artificiale capaci di conversazioni sostenute ed emotivamente coinvolgenti con i minori potrebbero richiedere più di semplici prompt migliori. Potrebbero richiedere architetture fondamentalmente diverse o sistemi di monitoraggio esterni che si trovano completamente al di fuori del modello.

      Per ora, però, un insieme scaricabile di politiche di sicurezza per adolescenti è ciò che esiste. Non è poco. Se sia sufficiente è una domanda a cui risponderanno i tribunali, i regolatori e il prossimo insieme di titoli.

OpenAI rilascia strumenti open-source per la sicurezza degli adolescenti per gli sviluppatori di IA

Altri articoli

OpenAI rilascia strumenti di sicurezza per adolescenti open-source per sviluppatori di AI OpenAI rilascia strumenti di sicurezza per adolescenti open-source per sviluppatori di AI OpenAI ha rilasciato politiche di sicurezza basate su prompt per gli sviluppatori che creano app di intelligenza artificiale utilizzate da adolescenti, coprendo violenza, autolesionismo e contenuti riservati agli adulti. Samsung svela i nuovi TV 2026 con aggiornamenti Mini LED e intelligenza artificiale più intelligente. Samsung svela i nuovi TV 2026 con aggiornamenti Mini LED e intelligenza artificiale più intelligente. Samsung ha lanciato la sua gamma di TV 2026 con nuovi modelli Neo QLED e Mini LED, concentrandosi su miglioramenti dell'immagine potenziati dall'IA e su opzioni di prezzo più ampie. Gli annunci in Apple Maps sono ora ufficiali e arriveranno quest'estate. Gli annunci in Apple Maps sono ora ufficiali e arriveranno quest'estate. Apple ha confermato che gli annunci arriveranno su Apple Maps quest'estate negli Stati Uniti e in Canada, con risultati sponsorizzati che appariranno nelle ricerche. I render del Galaxy Z Fold 8 suggeriscono che Samsung stia correggendo un grande errore del Fold 7 I render del Galaxy Z Fold 8 suggeriscono che Samsung stia correggendo un grande errore del Fold 7 Samsung non sta reinventando la ruota con il Galaxy Z Fold 8, ma la sta facendo girare più veloce — con una batteria da 5.000mAh, ricarica da 45W e una fotocamera ultrawide da 50MP che finalmente si unisce alla festa. BlueConic si unisce al Databricks Marketplace per il marketing in tempo reale BlueConic si unisce al Databricks Marketplace per il marketing in tempo reale Il Customer Growth Engine di BlueConic è ora disponibile su Databricks Marketplace, consentendo alle imprese di attivare le uscite dei modelli AI per il marketing in tempo reale senza spostare i dati. Il capo di Nvidia, Jensen Huang, afferma che abbiamo raggiunto l'AGI. Ma cos'è diavolo? Il capo di Nvidia, Jensen Huang, afferma che abbiamo raggiunto l'AGI. Ma cos'è diavolo? L'affermazione di Jensen Huang che l'AGI è già qui ha riacceso il dibattito, con esperti ancora divisi su cosa qualifichi effettivamente come intelligenza artificiale a livello umano.

OpenAI rilascia strumenti open-source per la sicurezza degli adolescenti per gli sviluppatori di IA

OpenAI ha rilasciato politiche di sicurezza basate su prompt per gli sviluppatori che creano app di intelligenza artificiale utilizzate da adolescenti, coprendo violenza, autolesionismo e contenuti con restrizioni di età.