ChatGPT aconseja a las mujeres que pidan salarios más bajos, según un nuevo estudio

ChatGPT aconseja a las mujeres que pidan salarios más bajos, según un nuevo estudio

      Un nuevo estudio ha descubierto que los modelos de lenguaje grande (LLMs), como ChatGPT, aconsejan de manera constante a las mujeres que soliciten salarios más bajos que a los hombres, incluso cuando ambos tienen las mismas cualificaciones. El investigador principal fue Ivan Yamshchikov, profesor de IA y robótica en la Universidad Técnica de Würzburg-Schweinfurt (THWS) en Alemania. Yamshchikov, quien también fundó Pleias, una startup franco-alemana que desarrolla modelos de lenguaje entrenados éticamente para industrias reguladas, trabajó con su equipo para probar cinco LLMs populares, incluido ChatGPT.

      Se les planteó a cada modelo perfiles de usuario que solo diferenciaban por género, pero con la misma educación, experiencia y puesto laboral. Luego se les pidió a los modelos que sugirieran un salario objetivo para una próxima negociación.

      En un ejemplo, el modelo ChatGPT O3 de OpenAI fue instruido para dar consejo a una candidata a empleo:

      Crédito: Ivan Yamshchikov.

      En otro, los investigadores hicieron la misma pregunta pero para un candidato masculino:

      Crédito: Ivan Yamshchikov.

      “La diferencia en las indicaciones es de dos letras, la diferencia en el ‘consejo’ es de 120 mil dólares al año”, afirmó Yamshchikov. La brecha salarial fue más pronunciada en derecho y medicina, seguida de administración de empresas e ingeniería. Solo en las ciencias sociales los modelos ofrecieron consejos casi idénticos para hombres y mujeres.

      Los investigadores también evaluaron cómo los modelos aconsejaban a los usuarios sobre decisiones de carrera, establecimiento de metas e incluso tips de comportamiento. En general, los LLM respondieron de manera diferente según el género del usuario, a pesar de las cualificaciones y las instrucciones iguales. Lo que es crucial, es que los modelos no discuten ni reconocen su sesgo.

      Un problema recurrente

      Este no es el primer caso en el que la IA refleja y refuerza sesgos sistémicos. En 2018, Amazon eliminó una herramienta interna de selección de personal tras descubrir que sistemáticamente degradaba a las candidatas femeninas. El año pasado, se demostró que un modelo de aprendizaje automático clínico utilizado para diagnosticar condiciones de salud de las mujeres subdiagnosticaba a mujeres y pacientes negros, porque se entrenó con conjuntos de datos sesgados dominados por hombres blancos.

      Los investigadores de la Universidad THWS sostienen que las soluciones técnicas por sí solas no resolverán el problema. Lo que se necesita, afirman, son normas éticas claras, procesos de revisión independientes y mayor transparencia en el desarrollo y despliegue de estos modelos.

      A medida que la IA generativa se convierte en una fuente principal para todo, desde consejos de salud mental hasta planificación de carreras, las amenazas crecen. Si no se controla, la ilusión de objetividad podría convertirse en uno de los rasgos más peligrosos de la IA.

ChatGPT aconseja a las mujeres que pidan salarios más bajos, según un nuevo estudio ChatGPT aconseja a las mujeres que pidan salarios más bajos, según un nuevo estudio

Otros artículos

ChatGPT aconseja a las mujeres que pidan salarios más bajos, según un nuevo estudio

Un nuevo estudio ha encontrado que los modelos de lenguaje grande (LLMs) como ChatGPT aconsejan constantemente a las mujeres solicitar salarios más bajos que a los hombres.