China ya está preparando reglas para contrarrestar el riesgo de los humanos digitales generados por IA.
China está intensificando sus esfuerzos para regular su industria de "humanos digitales" de rápido crecimiento, ya que los avatares de IA emocionalmente inmersivos – algunos modelados a partir de seres queridos fallecidos – ganan una amplia aceptación en todo el país. Este movimiento se produce a medida que tanto el potencial comercial de la tecnología como los riesgos éticos se vuelven cada vez más visibles.
Duelo, Tecnología Y Una Industria Creciente
Zhang Xinyu, una mujer de 47 años de la provincia de Liaoning, recurrió a la inteligencia artificial después de perder a su padre por cáncer. Trabajando con una empresa llamada Super Brain, creó un avatar digital que se parece y suena como él, lo que le permite continuar conversaciones en línea. La experiencia, dijo a AFP, le ayudó a sobrellevar el duelo y recuperar la fortaleza emocional.
Chatbots de IA Unsplash
Su historia refleja una tendencia más amplia en China, donde los "humanos digitales" generados por IA están ganando popularidad rápidamente. Estos avatares – a menudo realistas en apariencia y comportamiento – se utilizan ampliamente en las redes sociales, especialmente en el comercio electrónico y la creación de contenido. Según la Agencia de Noticias Xinhua, el sector fue valorado en alrededor de 4.1 mil millones de yuanes (600 millones de dólares) en 2024, creciendo un 85% interanual.
Sin embargo, no todos ven la tecnología de manera positiva. Algunos críticos advierten que tales avatares pueden crear dependencia emocional u ofrecer lo que Zhang misma describió como "falso consuelo", incluso si los sentimientos subyacentes son genuinos.
La Regulación Se Pone al Día
En respuesta a estas preocupaciones, la Administración del Ciberespacio de China ha emitido un borrador de reglas destinadas a reforzar la supervisión. Las regulaciones propuestas requieren un etiquetado claro del contenido generado por IA y prohíben la creación de réplicas digitales sin el consentimiento de un individuo.
Las reglas también buscan prevenir el uso indebido, incluidos fraudes, desinformación y contenido que podría amenazar la estabilidad social o la seguridad nacional. Las empresas que violen estas pautas podrían enfrentar multas que oscilan entre 10,000 yuanes (1,460 dólares) y 200,000 yuanes (29,300 dólares).
La urgencia de la regulación fue subrayada por un incidente viral que involucró a una anciana que interactuó sin saberlo con un avatar altamente realista de su hijo fallecido. El clip, ampliamente compartido en las redes sociales chinas, suscitó un debate sobre si tales usos de la IA representan consuelo o engaño.
Equilibrando Innovación Y Riesgo
Los expertos dicen que el enfoque de China refleja un patrón familiar: un rápido desarrollo tecnológico seguido de una rápida intervención regulatoria. Las autoridades están particularmente preocupadas por proteger a los menores, con reglas propuestas que prohíben sistemas de IA que fomenten la dependencia emocional o simulen relaciones íntimas para los niños.
Chatbots de IA Unsplash
Al mismo tiempo, los actores de la industria reconocen que la regulación es inevitable. El fundador de Super Brain ha descrito el borrador de reglas como un paso necesario hacia el equilibrio entre la innovación y la responsabilidad.
Qué Nos Espera
Las regulaciones propuestas de China están abiertas a comentarios públicos hasta principios de mayo, después de lo cual se espera una aplicación más estricta. El objetivo más amplio del gobierno es acelerar la adopción de la IA mientras mantiene un control estricto sobre su impacto social.
A medida que los "humanos digitales" evolucionan de novedad a herramienta convencional, el modelo regulatorio de China podría convertirse en un modelo para otros países que enfrentan preguntas éticas similares – particularmente en torno a la identidad, el consentimiento y el poder emocional de la IA.
Otros artículos
China ya está preparando reglas para contrarrestar el riesgo de los humanos digitales generados por IA.
China planea reglas más estrictas para los "humanos digitales" de IA, equilibrando casos de uso emocional como el apoyo en el duelo con preocupaciones sobre el consentimiento, el engaño y el uso indebido.
