OpenAI mette da parte ChatGPT erotico dopo la rivolta di personale, investitori e consulenti

OpenAI mette da parte ChatGPT erotico dopo la rivolta di personale, investitori e consulenti

      OpenAI ha messo in pausa i suoi piani per aggiungere una modalità "adulta" erotica a ChatGPT a tempo indeterminato, ha riportato il Financial Times mercoledì, concludendo una saga di cinque mesi in cui la funzionalità è stata annunciata con fiducia, ritardata due volte e infine abbandonata dopo le obiezioni di dipendenti, consulenti e investitori. Il ritiro rappresenta il terzo grande cambiamento di prodotto per OpenAI in una sola settimana, dopo la chiusura della sua app di generazione video Sora lunedì e il successivo crollo di un investimento pianificato di 1 miliardo di dollari da parte di Disney.

      La modalità adulta è stata annunciata per la prima volta dal CEO Sam Altman nell'ottobre 2025, quando ha scritto su X che OpenAI era fiduciosa di poter limitare le conversazioni sessualmente esplicite e che questa mossa si allineava con il principio dell'azienda di "trattare gli utenti adulti come adulti". Era inizialmente programmata per dicembre 2025, poi rinviata al primo trimestre del 2026, e ora è stata posticipata senza una tempistica per il rilascio. OpenAI ha detto al Financial Times che prevede di condurre "ricerche a lungo termine sugli effetti delle chat sessualmente esplicite e degli attaccamenti emotivi" prima di prendere una decisione sul prodotto.

      Cosa è andato storto

      I problemi erano tecnici, etici e commerciali, e si sono aggravati a vicenda. Gli ingegneri che lavoravano sulla funzionalità hanno scoperto che addestrare modelli costruiti per evitare contenuti sessuali per motivi di sicurezza a produrre materiale esplicito in modo affidabile era più difficile del previsto. Quando utilizzavano set di dati che includevano contenuti sessuali, i modelli generavano anche output che coinvolgevano scenari illegali, tra cui la bestialità e l'incesto, che si sono rivelati difficili da filtrare. La funzionalità non era semplicemente controversa; era resistente a essere costruita in modo sicuro.

      Il consiglio consultivo di OpenAI ha sollevato preoccupazioni che andavano oltre la moderazione dei contenuti. I consulenti hanno avvertito che le interazioni sessualmente esplicite di ChatGPT potrebbero favorire attaccamenti emotivi malsani con gravi conseguenze per la salute mentale. Un consulente ha descritto il rischio come trasformare ChatGPT in un "coach suicida sexy", una frase che risuona in modo cupo data l'esposizione legale esistente dell'azienda. OpenAI attualmente affronta almeno otto cause legali che affermano che ChatGPT ha contribuito alla morte degli utenti, incluso il caso di Adam Raine, un sedicenne della California meridionale la cui famiglia sostiene che il chatbot ha discusso metodi di suicidio con lui più di 200 volte prima che si togliesse la vita nell'aprile 2025. All'inizio di questa settimana, OpenAI ha segnalato queste cause legali come uno dei principali rischi per la sua attività in un documento finanziario divulgato agli investitori.

      Anche il personale ha iniziato a chiedersi se la funzionalità servisse alla missione dichiarata di OpenAI. La carta dell'azienda si impegna a costruire intelligenza artificiale generale che benefici l'umanità. Alcuni dipendenti hanno trovato difficile riconciliare quell'ambizione con lo sforzo ingegneristico necessario per far parlare un chatbot in modo volgare senza infrangere la legge.

      Il 💜 della tecnologia dell'UE

      Le ultime voci dalla scena tecnologica dell'UE, una storia dal nostro saggio fondatore Boris e alcune opere d'arte AI discutibili. È gratuito, ogni settimana, nella tua casella di posta. Iscriviti ora!

      Il calcolo degli investitori

      Gli investitori hanno espresso quella che potrebbe essere stata l'obiezione decisiva: l'economia non giustificava il rischio. Due persone a conoscenza della questione hanno detto al Financial Times che alcuni investitori si sono chiesti perché OpenAI avrebbe messo a repentaglio la propria reputazione per un prodotto con "un potenziale relativamente ridotto". Il mercato dei contenuti per adulti generati da AI esiste, ma è servito da una costellazione di aziende più piccole e meno scrutinizzate. Per un'azienda che raccoglie capitali a una valutazione di 300 miliardi di dollari e cerca clienti aziendali, il danno al marchio derivante dall'associazione con contenuti espliciti superava il potenziale ricavo.

      Il problema della verifica dell'età ha acuito questa preoccupazione. L'approccio di OpenAI si basava sulla previsione dell'età tramite AI piuttosto che su controlli di identità rigorosi, e i test interni hanno rivelato un tasso di errore di circa il 10%, il che significa che circa uno su dieci utenti potrebbe essere classificato erroneamente. Per un prodotto progettato per tenere i contenuti espliciti lontani dai minori, quel margine non è un errore di arrotondamento. È una catastrofe normativa e reputazionale in attesa di accadere, in particolare in un ambiente legale in cui diversi stati americani hanno approvato o proposto leggi che richiedono alle piattaforme di verificare l'età degli utenti prima di concedere l'accesso a materiale per adulti.

      Una settimana di ritiri

      La decisione sulla modalità adulta non esiste in isolamento. Lunedì, OpenAI ha annunciato che interromperà Sora, lo strumento di generazione video AI che aveva posizionato come una piattaforma creativa per cineasti e creatori di contenuti. Sora consumava enormi risorse informatiche rispetto ai suoi ricavi, e la sua partnership commerciale più importante, un accordo di licenza triennale con Disney che avrebbe permesso agli utenti di generare video con personaggi di Disney, Marvel, Pixar e Star Wars, è crollata dopo l'annuncio della chiusura. Disney aveva pianificato di investire 1 miliardo di dollari in OpenAI come parte dell'accordo. Nessun denaro era stato scambiato.

      Insieme, i tre ritiri dipingono un quadro di un'azienda che si ritira dagli esperimenti con prodotti per i consumatori e si concentra nuovamente sul suo core business. Il Financial Times ha riportato che gli investitori sono più interessati a vedere OpenAI combinare ChatGPT con assistenti di codifica per sviluppare un "super app" mirata a trasformare il modo in cui le aziende operano, una visione con una monetizzazione più chiara e meno rischi reputazionali rispetto alla generazione video o ai chatbot erotici.

      OpenAI ha dichiarato che riallocherà risorse alla robotica e agli agenti software autonomi, aree in cui il percorso dalla ricerca al valore commerciale è più diretto e il panorama normativo, sebbene complesso, non comporta la tossicità specifica dell'IA sessualizzata e dei fallimenti nella sicurezza dei minori.

      Il modello

      C'è una dinamica ricorrente nella strategia di prodotto di OpenAI: annunciare in modo ambizioso, affrontare le complicazioni del mondo reale che organizzazioni meno sicure potrebbero aver anticipato, e poi ritirarsi mentre si inquadra il ritiro come una ricerca prudente. La modalità adulta è stata annunciata prima che i problemi tecnici della generazione di contenuti sicuri fossero risolti, prima che il sistema di verifica dell'età potesse raggiungere un'accuratezza accettabile e prima che le preoccupazioni del consiglio consultivo sui danni alla salute mentale fossero state affrontate. La partnership Sora con Disney è stata annunciata prima che il prodotto avesse dimostrato la sua viabilità commerciale. In entrambi i casi, l'annuncio ha generato copertura e segnalato ambizione, ma il seguito ha rivelato lacune tra ciò che era stato promesso e ciò che poteva essere consegnato.

      La disponibilità dell'azienda a mettere in pausa la funzionalità, piuttosto che spingerla nonostante i rischi, è di per sé degna di nota. Suggerisce che la pressione delle cause legali, degli investitori e del dissenso interno sta iniziando a funzionare come un meccanismo correttivo, riportando OpenAI dai confini di ciò che è tecnicamente possibile verso ciò che è commercialmente ed eticamente sostenibile. Se quel meccanismo sia affidabile, o semplicemente reattivo alle crisi più visibili, è una domanda a cui risponderà il prossimo annuncio di prodotto.

OpenAI mette da parte ChatGPT erotico dopo la rivolta di personale, investitori e consulenti

Other articles

Xero e Anthropic si uniscono per portare le finanze delle piccole imprese in Claude Xero e Anthropic si uniscono per portare le finanze delle piccole imprese in Claude L'accordo pluriennale di Xero con Anthropic integra Claude nella sua piattaforma contabile e porta dati finanziari in tempo reale in Claude.ai per 4,6 milioni di abbonati. Google espande Search Live a livello globale con intelligenza artificiale vocale e per la fotocamera Google espande Search Live a livello globale con intelligenza artificiale vocale e per la fotocamera Google ha espanso Search Live a livello globale, portando la ricerca vocale e tramite fotocamera alimentata dall'IA in oltre 200 paesi e in più lingue. Risulta che, se chiedi a un'IA di comportarsi da esperto, diventa meno affidabile. Risulta che, se chiedi a un'IA di comportarsi da esperto, diventa meno affidabile. Dire a un'IA di "comportarsi come un esperto" sembra un'ottima idea, ma un nuovo studio suggerisce che potrebbe effettivamente danneggiare la sua accuratezza. ChatGPT non avrà una modalità erotica, dopotutto. ChatGPT non avrà una modalità erotica, dopotutto. La proposta di "modalità adulta" di ChatGPT è ora sospesa a tempo indeterminato, con OpenAI che dà priorità agli strumenti principali. L'azienda afferma di aver bisogno di ulteriori ricerche sui rischi come la dipendenza emotiva e i contenuti espliciti. Blossom Health raccoglie 20 milioni di dollari per affiancare i copiloti AI agli psichiatri Blossom Health raccoglie 20 milioni di dollari per affiancare i copiloti AI agli psichiatri Blossom Health, una startup di telepsichiatria con sede a New York fondata nel 2024, ha raccolto 20 milioni di dollari in finanziamenti combinati seed e Serie A per scalare una piattaforma alimentata da intelligenza artificiale che abbina psichiatri con copiloti clinici e amministrazione automatizzata. L'IA amplifica tutto ciò che le fornisci, compresa la confusione. L'IA amplifica tutto ciò che le fornisci, compresa la confusione. L'IA sta fallendo non a causa della tecnologia, ma perché le organizzazioni non riescono a separare il segnale dal rumore, lasciando i dati poco chiari, le decisioni deboli e il ROI sfuggente.

OpenAI mette da parte ChatGPT erotico dopo la rivolta di personale, investitori e consulenti

OpenAI ha messo in pausa indefinitamente la sua modalità per adulti per ChatGPT, il terzo cambiamento di prodotto in una settimana dopo la chiusura di Sora e la perdita di un accordo da 1 miliardo di dollari con Disney.