OpenAI rilascia strumenti open-source per la sicurezza degli adolescenti per gli sviluppatori di IA

OpenAI rilascia strumenti open-source per la sicurezza degli adolescenti per gli sviluppatori di IA

      OpenAI ha trascorso l'ultimo anno a fronteggiare cause legali da parte delle famiglie di giovani che sono morti dopo interazioni prolungate con ChatGPT. Ora sta cercando di fornire agli sviluppatori che costruiscono sui suoi modelli gli strumenti per evitare di creare lo stesso problema.

      L'azienda ha annunciato martedì che sta rilasciando un insieme di politiche di sicurezza open-source basate su prompt, progettate per aiutare gli sviluppatori a rendere le applicazioni di intelligenza artificiale più sicure per gli adolescenti. Le politiche sono destinate all'uso con gpt-oss-safeguard, il modello di sicurezza open-weight di OpenAI, anche se sono progettate come prompt e possono funzionare anche con altri modelli.

      Cosa coprono le politiche

      I prompt mirano a cinque categorie di danno che i sistemi di intelligenza artificiale possono facilitare per gli utenti più giovani: violenza grafica e contenuti sessuali, ideali e comportamenti corporei dannosi, attività e sfide pericolose, giochi di ruolo romantici o violenti e beni e servizi con restrizioni di età. Gli sviluppatori possono integrare queste politiche nei loro sistemi anziché costruire regole di sicurezza per adolescenti da zero, un processo che OpenAI ha riconosciuto come frequentemente errato anche per team esperti.

      OpenAI ha sviluppato le politiche in collaborazione con Common Sense Media, l'influente organizzazione di advocacy per la sicurezza dei bambini, e everyone.ai, una consulenza sulla sicurezza dell'IA. Robbie Torney, responsabile dell'IA e delle valutazioni digitali presso Common Sense Media, ha affermato che l'approccio basato su prompt è progettato per stabilire una base comune nell'ecosistema degli sviluppatori, una che può essere adattata e migliorata nel tempo poiché le politiche sono open source.

      Il 💜 della tecnologia dell'UE

      Le ultime novità dalla scena tecnologica dell'UE, una storia del nostro saggio fondatore Boris e alcune opere d'arte AI discutibili. È gratuito, ogni settimana, nella tua casella di posta. Iscriviti ora!

      OpenAI stessa ha inquadrato il problema in termini pragmatici. Gli sviluppatori, ha scritto l'azienda in un post sul blog che accompagna il rilascio, spesso faticano a tradurre gli obiettivi di sicurezza in regole operative precise. Il risultato è una protezione irregolare: lacune nella copertura, applicazione incoerente o filtri così ampi da degradare l'esperienza utente per tutti.

      Il contesto è importante qui

      Il rilascio non esiste in un vuoto. OpenAI sta affrontando almeno otto cause legali che affermano che ChatGPT ha contribuito alle morti di utenti, incluso Adam Raine, 16 anni, che si è suicidato nell'aprile 2025 dopo mesi di interazione intensiva con il chatbot. I documenti del tribunale hanno rivelato che ChatGPT ha menzionato il suicidio più di 1.200 volte nelle conversazioni di Raine e ha segnalato centinaia di messaggi per contenuti di autolesionismo, ma non ha mai terminato una sessione o avvisato nessuno. Tre ulteriori suicidi e quattro casi descritti come episodi psicotici indotti dall'IA hanno anche prodotto contenziosi contro l'azienda.

      In risposta a questi casi, OpenAI ha introdotto controlli parentali e funzionalità di previsione dell'età alla fine del 2025 e a dicembre ha aggiornato il suo Model Spec, le linee guida interne che governano il comportamento dei suoi modelli di linguaggio di grandi dimensioni, per includere protezioni specifiche per gli utenti sotto i 18 anni. Le politiche di sicurezza open-source annunciate questa settimana estendono questo sforzo oltre i prodotti di OpenAI e nell'ecosistema più ampio degli sviluppatori.

      Un pavimento, non un soffitto

      OpenAI è stata esplicita nel dire che le politiche non sono una soluzione completa alla sfida di rendere l'IA sicura per i giovani utenti. Rappresentano ciò che l'azienda ha definito un "pavimento di sicurezza significativo", non l'intera estensione delle protezioni che applica ai propri prodotti. La distinzione è importante. Nessun guardrail di un modello è completamente impenetrabile, come hanno dimostrato le cause legali. Gli utenti, compresi gli adolescenti, hanno ripetutamente trovato modi per eludere le funzionalità di sicurezza attraverso indagini persistenti e suggerimenti creativi.

      L'approccio open-source è una scommessa che distribuire ampiamente politiche di sicurezza di base sia meglio che lasciare ogni sviluppatore a reinventare la ruota, in particolare team più piccoli e sviluppatori indipendenti che mancano delle risorse per costruire sistemi di sicurezza robusti da zero. L'efficacia delle politiche dipenderà dall'adozione, da quanto aggressivamente gli sviluppatori le integrano e da se resisteranno ai tipi di interazioni sostenute e avversariali che hanno già esposto le debolezze nei propri strati di sicurezza di ChatGPT.

      La domanda più difficile rimane

      Ciò che OpenAI offre è un insieme di istruzioni, prompt ben progettati che dicono a un modello come comportarsi quando interagisce con utenti più giovani. È un contributo pratico. Ma non affronta il problema strutturale che i regolatori, i genitori e gli attivisti per la sicurezza sollevano da anni: che i sistemi di intelligenza artificiale capaci di conversazioni sostenute ed emotivamente coinvolgenti con i minori potrebbero richiedere più di semplici prompt migliori. Potrebbero richiedere architetture fondamentalmente diverse o sistemi di monitoraggio esterni che si trovano completamente al di fuori del modello.

      Per ora, però, un insieme scaricabile di politiche di sicurezza per adolescenti è ciò che esiste. Non è poco. Se sia sufficiente è una domanda a cui risponderanno i tribunali, i regolatori e il prossimo insieme di titoli.

OpenAI rilascia strumenti open-source per la sicurezza degli adolescenti per gli sviluppatori di IA

Altri articoli

macOS 26.4 è ora disponibile con aggiornamenti sottili e un grande indizio sul futuro macOS 26.4 è ora disponibile con aggiornamenti sottili e un grande indizio sul futuro macOS 26.4 è ora disponibile con nuove emoji, limiti di carica della batteria, modifiche a Safari e correzioni delle prestazioni, ma ancora nessun aggiornamento importante per l'IA di Siri. Gli annunci in Apple Maps sono ora ufficiali e arriveranno quest'estate. Gli annunci in Apple Maps sono ora ufficiali e arriveranno quest'estate. Apple ha confermato che gli annunci arriveranno su Apple Maps quest'estate negli Stati Uniti e in Canada, con risultati sponsorizzati che appariranno nelle ricerche. Non perdere di vista il MacBook Air M4: 24GB di RAM, un display Retina da 15 pollici e $300 di sconto grazie al lancio dell'M5. Non perdere di vista il MacBook Air M4: 24GB di RAM, un display Retina da 15 pollici e $300 di sconto grazie al lancio dell'M5. L'Apple M5 MacBook Air è uscito, e l'effetto a catena prevedibile è che il M4 da 15 pollici è sceso a $1.299 su Amazon, un risparmio di $300 rispetto al prezzo di listino di $1.599. Se hai aspettato un buon momento per acquistare un MacBook Air, questo è il momento giusto. Il chip M4 è ancora uno dei […] Halter raccoglie 220 milioni di dollari con una valutazione di 2 miliardi di dollari per scalare la recinzione virtuale Halter raccoglie 220 milioni di dollari con una valutazione di 2 miliardi di dollari per scalare la recinzione virtuale La startup neozelandese di agtech Halter ha chiuso un finanziamento di Serie E da 220 milioni di dollari guidato da Founders Fund, valutando la compagnia di recinzioni virtuali a 2 miliardi di dollari dopo aver venduto un milione di collari GPS per bovini. iOS 26.4 è arrivato con Playlist Playground, nuove emoji e una correzione per la condivisione familiare iOS 26.4 è arrivato con Playlist Playground, nuove emoji e una correzione per la condivisione familiare iOS 26.4 non riscriverà le regole, ma sistema silenziosamente cose che avrebbero dovuto essere sistemate da tempo — mentre introduce anche un generatore di playlist AI che è davvero divertente da usare. Samsung svela i nuovi TV 2026 con aggiornamenti Mini LED e intelligenza artificiale più intelligente. Samsung svela i nuovi TV 2026 con aggiornamenti Mini LED e intelligenza artificiale più intelligente. Samsung ha lanciato la sua gamma di TV 2026 con nuovi modelli Neo QLED e Mini LED, concentrandosi su miglioramenti dell'immagine potenziati dall'IA e su opzioni di prezzo più ampie.

OpenAI rilascia strumenti open-source per la sicurezza degli adolescenti per gli sviluppatori di IA

OpenAI ha rilasciato politiche di sicurezza basate su prompt per gli sviluppatori che creano app di intelligenza artificiale utilizzate da adolescenti, coprendo violenza, autolesionismo e contenuti con restrizioni di età.