La Cina sta già preparando regole per contrastare i rischi derivanti dagli esseri umani digitali generati dall'IA.
La Cina sta intensificando gli sforzi per regolare la sua industria dei "digital human" in rapida crescita, poiché gli avatar AI emotivamente immersivi – alcuni modellati su cari defunti – stanno guadagnando una vasta popolarità in tutto il paese. Questa mossa arriva mentre il potenziale commerciale della tecnologia e i rischi etici diventano sempre più evidenti.
Lutto, Tecnologia e un'Industria in Crescita
Zhang Xinyu, una donna di 47 anni della provincia di Liaoning, si è rivolta all'intelligenza artificiale dopo aver perso suo padre a causa del cancro. Collaborando con un'azienda chiamata Super Brain, ha creato un avatar digitale che assomiglia e suona come lui, permettendole di continuare le conversazioni online. L'esperienza, ha raccontato ad AFP, l'ha aiutata a far fronte al lutto e a ritrovare la forza emotiva.
AI Chatbots Unsplash
La sua storia riflette una tendenza più ampia in Cina, dove gli "esseri umani digitali" generati dall'AI stanno rapidamente guadagnando popolarità. Questi avatar – spesso realistici nell'aspetto e nel comportamento – sono ampiamente utilizzati sui social media, specialmente nell'e-commerce e nella creazione di contenuti. Secondo l'Agenzia di Stampa Xinhua, il settore è stato valutato intorno ai 4,1 miliardi di yuan (600 milioni di dollari) nel 2024, con una crescita dell'85% anno su anno.
Tuttavia, non tutti vedono la tecnologia in modo positivo. Alcuni critici avvertono che tali avatar potrebbero creare dipendenza emotiva o offrire quello che Zhang stessa ha descritto come "falsa consolazione", anche se i sentimenti sottostanti sono genuini.
La Regolamentazione Raggiunge il Punto
In risposta a queste preoccupazioni, l'Amministrazione del Cyberspazio della Cina ha emesso delle bozze di regolamento mirate a stringere il controllo. Le normative proposte richiedono un'etichettatura chiara dei contenuti generati dall'AI e vietano la creazione di repliche digitali senza il consenso dell'individuo.
Le regole cercano anche di prevenire abusi, inclusi truffe, disinformazione e contenuti che potrebbero minacciare la stabilità sociale o la sicurezza nazionale. Le aziende che violano queste linee guida potrebbero affrontare multe che vanno da 10.000 yuan (1.460 dollari) a 200.000 yuan (29.300 dollari).
L'urgenza della regolamentazione è stata sottolineata da un incidente virale che ha coinvolto una donna anziana che ha interagito senza saperlo con un avatar altamente realistico di suo figlio defunto. Il video, ampiamente condiviso sui social media cinesi, ha suscitato un dibattito su se tali usi dell'AI rappresentino conforto o inganno.
Equilibrare Innovazione e Rischio
Gli esperti affermano che l'approccio della Cina riflette un modello familiare: rapido sviluppo tecnologico seguito da un intervento normativo veloce. Le autorità sono particolarmente preoccupate di proteggere i minori, con regole proposte che vietano i sistemi AI che incoraggiano la dipendenza emotiva o simulano relazioni intime per i bambini.
AI Chatbots Unsplash
Allo stesso tempo, gli attori del settore riconoscono che la regolamentazione è inevitabile. Il fondatore di Super Brain ha descritto le bozze di regolamento come un passo necessario per bilanciare innovazione e responsabilità.
Cosa Ci Aspetta
Le bozze di regolamento della Cina sono aperte ai commenti pubblici fino all'inizio di maggio, dopo di che ci si aspetta un'applicazione più rigorosa. L'obiettivo più ampio del governo è accelerare l'adozione dell'AI mantenendo un controllo rigoroso sul suo impatto sociale.
Mentre gli "esseri umani digitali" evolvono da novità a strumento di massa, il modello normativo della Cina potrebbe diventare un modello per altri paesi che affrontano domande etiche simili – in particolare riguardo all'identità, al consenso e al potere emotivo dell'AI.
Другие статьи
La Cina sta già preparando regole per contrastare i rischi derivanti dagli esseri umani digitali generati dall'IA.
La Cina prevede regole più severe per gli "umani digitali" dell'IA, bilanciando casi d'uso emotivi come il supporto al lutto con preoccupazioni riguardanti il consenso, l'inganno e l'abuso.
