ChatGPT no tendrá un modo erótico, después de todo.
OpenAI se echa atrás mientras el “modo adulto” enfrenta mayores preocupaciones
Si esperabas que ChatGPT tuviera un “modo erótico”, esa idea está oficialmente fuera de la mesa. Según Financial Times, el modo picante de OpenAI está en espera “indefinidamente”.
Dentro de la lucha de OpenAI por dar vida al modo adulto
El llamado “modo adulto” de OpenAI para ChatGPT nunca estuvo destinado a ser completamente explícito. Informes anteriores indicaron que se limitaría a la erotica basada en texto, con estrictas medidas de seguridad para evitar contenido gráfico o inseguro. Se esperaba que la función también estuviera restringida a usuarios adultos verificados, añadiendo otra capa de control.
Sin embargo, el lanzamiento seguía siendo retrasado. OpenAI citó preocupaciones de seguridad, limitaciones técnicas y la necesidad de priorizar mejoras más amplias en las capacidades fundamentales de ChatGPT.
La empresa planea volver a centrarse en sus productos principales, por ahora. El movimiento también se produce tras las preocupaciones tanto del personal como de los inversores sobre el impacto social más amplio del contenido sexualizado de IA.
OpenAI ha dicho que quiere estudiar los efectos a largo plazo de las conversaciones explícitas y la dependencia emocional antes de tomar una decisión final, señalando que actualmente no hay evidencia sólida que guíe tales decisiones.
Por qué la retirada de OpenAI tiene sentido en este momento
Desde que se anunció que OpenAI planeaba un modo erótico para ChatGPT dirigido a adultos, se han planteado muchas preocupaciones. Los chatbots de IA, incluido ChatGPT, están ahora enredados en casos legales donde las conversaciones terminaron con una vida perdida. En los últimos años han surgido una serie de suicidios e incidentes de comportamiento violento vinculados a la influencia de la IA.
El año pasado, una pareja de California demandó a OpenAI, alegando que su hijo se quitó la vida después de ser alentado a hacerlo por ChatGPT. Matthew Bergman del Social Media Victims Law Center ha presentado siete casos contra OpenAI, incluido uno junto a Laura Marquez-Garrett, cuyo hijo de 17 años también se ahorcó tras conversaciones con ChatGPT.
Además de esto, ha habido numerosos casos en los que ChatGPT dio consejos médicos dañinos, uno de los cuales provocó un raro caso de intoxicación por bromuro en un individuo. Luego está el impacto psicológico, donde se ha encontrado que los usuarios establecen vínculos más profundos (y perturbadores) con personalidades de IA.
Hace apenas un día, OpenAI también canceló su generador de video Sora AI, lo que provocó una reacción negativa por derechos de autor y algunas tendencias inquietantes en internet. En tales escenarios preocupantes, tendría sentido que OpenAI cancelara el “modo adulto” para ChatGPT en lugar de jugar con otro fuego.
Manisha le gusta cubrir tecnología que es parte de la vida cotidiana, desde smartphones y aplicaciones hasta juegos y streaming…
El último Ryzen 9 9950X3D2 de AMD lleva el X3D al límite
Doble 3D V-Cache, mayor potencia y un enfoque en el rendimiento entusiasta
AMD ha presentado lo que podría ser su CPU de escritorio más extrema hasta ahora, el Ryzen 9 9950X3D2. Y está apostando todo por una cosa: caché.
Leer más
El avance de la IA de próxima generación promete chatbots que pueden leer mejor el ambiente
Los investigadores están enseñando a los chatbots de IA a leer entre líneas
¿Alguna vez le has preguntado algo a un chatbot y sentiste que no entendió tu punto? Dices algo con un poco de matiz, y la IA pierde por completo la sutileza. Ese es exactamente el problema que los investigadores están tratando de resolver. Aunque la conexión emocional con la IA puede sentirse más profunda que la conversación humana para muchos usuarios, la mayoría de los sistemas de IA hoy en día todavía tratan una oración como un solo bloque de sentimiento. Si mezclas elogios y críticas, el matiz a menudo se pierde.
Leer más
Resulta que, si le pides a una IA que actúe como un experto, se vuelve menos confiable
Pedirle a la IA que finja ser un experto puede salir mal, pero los investigadores pueden haber encontrado una solución.
Probablemente has visto el consejo flotando: dile a la IA que actúe como un experto en un campo, y obtendrás mejores respuestas. Es un consejo popular, y a veces funciona. Sin embargo, un nuevo estudio sugiere que usar personalidades de IA puede no ser tan efectivo como pensábamos. Los investigadores de la Universidad de California probaron 12 personalidades diferentes en seis modelos de lenguaje. Las personalidades iban desde expertos en matemáticas y programación hasta escritores creativos y monitores de seguridad. El objetivo era averiguar qué tan bien se desempeña la IA cuando se le instruye a actuar como un experto.
Leer más
Otros artículos
ChatGPT no tendrá un modo erótico, después de todo.
El "modo adulto" propuesto por ChatGPT está ahora en espera indefinida, con OpenAI priorizando herramientas fundamentales en su lugar. La empresa dice que necesita más investigación sobre riesgos como la dependencia emocional y el contenido explícito.
