Investigaciones recientes demuestran que estas tecnologías, lejos de ser neutrales, están profundamente sesgadas.
En el marco del mes del Día Internacional de la Mujer, Fardo analizo interacciones con los motores de AI y revelo una alarmante cara de la desigualdad de género: los sesgos presentes en los Modelos de Lenguaje Masivos (LLMs) de Inteligencia Artificial (IA), que no solo replican, sino que amplifican estereotipos dañinos, con un impacto desproporcionado en Latinoamérica y Argentina.
Investigaciones recientes demuestran que estas tecnologías, lejos de ser neutrales, están profundamente sesgadas. Un estudio de Fardo que analizó más de 60,000 interacciones en Latam, encontró que los LLMs refuerzan estereotipos de género latinos, asociando a las mujeres con la inestabilidad emocional y la incompetencia profesional, mientras que los hombres son vinculados a roles de liderazgo y negocios.
Los datos son contundentes y revelan una “mirada sesgada” que amenaza con revertir décadas de avances en materia de igualdad:
– Amplificación de estereotipos: Los LLMs son entre 3 y 6 veces más propensos a asignar a una persona una ocupación que se alinea con los estereotipos de género tradicionales.
– Roles domésticos: El modelo Llama 2 de Meta asigna roles domésticos a las mujeres cuatro veces más que a los hombres, asociándolas a términos como “familia”, “hogar” e “hijos”.
– Brecha de género en la industria: En Latinoamérica, las mujeres representan solo el 28.2% de la fuerza laboral en ciencia y tecnología (STEM/ICT), y adoptan herramientas de IA a una tasa un 25% menor que los hombres, lo que las deja en una doble desventaja.
– Consejos financieros sexistas: Un experimento con ChatGPT-3.5 mostró que, ante la misma consulta, aconsejaba a las mujeres planificar comidas para ahorrar, mientras que a los hombres les recomendaba actualizar sus testamentos.
– Discriminación laboral automatizada: Al generar currículums, ChatGPT crea perfiles de mujeres con 1.6 años menos de experiencia que los hombres, perpetuando la brecha salarial y de oportunidades.

El impacto en Argentina y la región:
En Latinoamérica, la fragilidad institucional y las desigualdades preexistentes crean un terreno fértil para que estos sesgos se magnifiquen. Los sistemas de IA ya se están utilizando en áreas críticas como la justicia, la seguridad pública, el mercado laboral y el acceso al crédito, con riesgos concretos:
– Justicia: En Argentina, algunos tribunales ya utilizan software con IA, lo que podría perpetuar sesgos en decisiones judiciales que afectan a miles de personas.
– Seguridad: Las tecnologías de reconocimiento facial tienen una tasa de falsos positivos desproporcionadamente alta en mujeres, especialmente mujeres racializadas, lo que puede llevar a detenciones injustas.
– Xenofobia y género: Los LLMs no solo muestran sesgos de género, sino también xenófobos. Se ha detectado un fuerte sesgo discriminatorio contra los migrantes venezolanos, y las mujeres migrantes enfrentan una discriminación multiplicada.
La interseccionalidad agrava el problema. Una mujer indígena, migrante, pobre o de mayor edad puede enfrentar una discriminación hasta 10 o 15 veces mayor que un hombre joven, blanco y urbano.
Un llamado a la acción
Frente a esta realidad, diversas organizaciones y expertas hacen un llamado urgente a la acción. Es imperativo desarrollar marcos regulatorios claros, realizar auditorías de sesgo obligatorias para sistemas de alto impacto y fomentar una mayor diversidad en los equipos que diseñan estas tecnologías.
“La inteligencia artificial no tiene intenciones, pero refleja las de sus creadores y las de la sociedad de la que aprende“, señala un informe de la UNESCO. Para que la IA cumpla su promesa de beneficiar a toda la humanidad, es crucial abordar estos sesgos de manera proactiva y fundamental, asegurando que la tecnología que construimos refleje el mundo equitativo al que aspiramos, y no los prejuicios del pasado.

Malena Martín CEO & founder de Fardo suma: “La inteligencia artificial no es neutral. Es un espejo que amplifica lo que ya somos como sociedad. Si los datos están sesgados, las respuestas también lo estarán. Y en Latinoamérica eso duele más, porque partimos de brechas estructurales profundas”.
Desde Fardo consideran que no alcanza con medir visibilidad: hay que medir responsabilidad. “Si los motores de IA van a intermediar decisiones laborales, financieras y judiciales, entonces necesitamos auditar, cuestionar y rediseñar esos sistemas con perspectiva de género e interseccionalidad. La tecnología que no se revisa, perpetúa desigualdad. La que se mide, se puede transformar“, concluye Martín.






