Friedrich-Ebert-Stiftung en América Central

20.09.2024

Inteligencia artificial: breve acercamiento a la discriminación y al género

Con el auge de la inteligencia artificial, pareciera que el mundo evoluciona, ¿será así? Acá un breve análisis sobre la IA, género y discriminación.

En la última década el crecimiento exponencial de la inteligencia artificial (IA) la ha convertido en una fuerza transformadora en las sociedades actuales. La IA se centra en la creación de sistemas y máquinas inteligentes que puedan realizar tareas que normalmente requieren inteligencia humana, como el aprendizaje, el “razonamiento” y la resolución de problemas. Para IBM la IA “es tecnología que permite que las computadoras simulen la inteligencia humana y las capacidades humanas de resolución de problemas” (IBM, s.f.).   

Para Rouhiainen (2018) la IA es: ­­

“«la habilidad de los ordenadores para hacer actividades que normalmente requieren inteligencia humana» … Es la capacidad de las máquinas para usar algoritmos, aprender de los datos y utilizar lo aprendido en la toma de decisiones tal y como lo haría un ser humano. Sin embargo, a diferencia de las personas, los dispositivos basados en IA no necesitan descansar y pueden analizar grandes volúmenes de información a la vez. Asimismo, la proporción de errores es significativamente menor en las máquinas que realizan las mismas tareas que sus contrapartes humanas” (p.17).

La aplicación de IA va abarcando cada día más áreas como: medicina,  educación, agricultura, comercio, economía, política, comunicación, etc. Para muchos sectores puede presentar una gran ventaja; para otros, no tanto, sobre todo cuando lo abordamos desde el enfoque de los derechos humanos. Por ello, en el presente análisis se realiza un abordaje desde la perspectiva del género y la discriminación.

Sesgos algorítmicos: la discriminación codificada

Los sesgos algorítmicos se originan a partir de la introducción de datos sesgados en los sistemas de IA. Estos, utilizados para entrenar a los algoritmos, pueden perpetuar estereotipos y prejuicios existentes, amplificando la discriminación y la desigualdad en diferentes sectores de la sociedad. Por ello es importante plantear la interrogante ¿quién introduce estos datos a los sistemas?

Un ejemplo emblemático es el caso del algoritmo utilizado por COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), un sistema de predicción de reincidencia criminal en Estados Unidos. Un estudio publicado por ProPública (2016) demostró que el algoritmo era más propenso a clasificar erróneamente a los acusados afrodescendientes como de alto riesgo de reincidencia, perpetuando así las disparidades raciales en el sistema judicial. Nuevamente surge la pregunta ¿cuál es el perfil de la persona o personas que introducen los datos a los sistemas, en este caso específico COMPAS? 

El ejemplo de COMPAS, muestra un claro patrón de discriminación algorítmica hacia afrodescendientes.  El tema del género y discriminación se sigue perpetuando con la inteligencia artificial, según UNESCO el 20% de los empleados en puestos técnicos de las principales empresas de Machine Learning (aprendizaje automático) -una de las ramas más importantes de la IA-, son mujeres, un 12% de las personas investigadoras de inteligencia artificial a nivel mundial son mujeres y solo un 6% de profesionales en desarrollo de software son mujeres.

De estos porcentajes de mujeres ¿cuántas son afrodescendientes? ¿Cuántas son indígenas? ¿Cuántas poseen alguna discapacidad? ¿Cuántas viven las desigualdades sociales? Las mismas interrogantes se pueden plantear para el amplio porcentaje de hombres en el mundo que rodea la inteligencia artificial. 

UNESCO,  presenta datos alarmantes sobre la participación de mujeres y las niñas en la IA: 25% menos de probabilidades que los hombres de saber aprovechar la tecnología digital para fines básicos, cuatro veces menos de saber programar ordenadores y 13 veces menos de solicitar una patente TIC (tecnologías de la información y de las comunicaciones). 

En el tema del sexismo de los asistentes digitales, expuesto por la UNESCO en la publicación Me sonrojaría si pudiera. El sexismo oculto en los asistentes virtuales, evidencia el potencial de difundir y reforzar la idea de que las mujeres son serviles y sumisas, un ejemplo de ello lo vemos en los asistentes virtuales con voz femenina, como Siri o Alexa, a menudo adoptan un tono servil o sumiso, reforzando estereotipos de género y normalizando la desigualdad. Asimismo, los algoritmos utilizados en las redes sociales pueden sesgar los resultados de búsqueda y las recomendaciones de contenido, favoreciendo la información creada por hombres o que refuerza roles de género tradicionales.

Los sesgos de género pueden manifestarse en la IA de varias maneras, desde asistentes virtuales que responden de manera estereotipada a comentarios sexistas hasta algoritmos médicos que subdiagnostican enfermedades en mujeres debido a datos sesgados. Es una necesidad que la IA sea representativa en su configuración. El incremento de la pornografía creada con IA, está perpetuando  los estereotipos de género  negativos y ponen en desventaja  a las mujeres y a la población LGBTQ+.

Las mujeres, personas indígenas, afrodescendientes o las poblaciones más vulnerables en el mundo presencial o “real”  también son las mismas que se ven particularmente afectadas por estos sesgos algorítmicos en el mundo digital. Las oportunidades no son las mismas para todas las personas. Análisis, como el publicado por la Revista Occidente: Sesgos de género en la inteligencia artificial, realizado por Lucía Zárate,  han mostrado que la falta de diversidad en los equipos de desarrollo de IA también contribuye a estos problemas, ya que perspectivas diversas son cruciales para identificar y mitigar sesgos antes de que se incorporen en los sistemas.

Trabajo y discriminación 

En el campo laboral, como lo indica Miyagusuku & León (2019) el “Derecho Laboral no es ajeno a la revolución tecnológica que viene presentándose”, y es que dada la ventaja de ahorro de tiempo que brinda IA las empresas tecnologizadas, cada vez se suman más  a la toma de decisiones  con base en algoritmos. Estos autores nos plantean las siguientes interrogantes: ¿puede un algoritmo despedirme? ¿Puede definir mi contratación? ¿Será viable que mida mi productividad? ¿Mi bono dependerá de la decisión de un algoritmo automatizado? y para ello nos plantean un ejemplo:

“Un trabajador viene prestando servicios para su empleador desde hace cuatro años. Viene cumpliendo adecuadamente con sus labores, siempre ha alcanzado las metas trazadas y, además, es un muy buen compañero de trabajo. Sus jefes están muy contentos con él y han decidido promoverlo recientemente a supervisor. Sin embargo, ha surgido un problema familiar muy serio que lo tiene muy preocupado y no puede concentrarse. Como consecuencia de ello, va registrando cuatro meses consecutivos de baja productividad en comparación con su productividad anterior y los estándares regulares de la empresa. Sin que nadie le pregunte las razones de este repentino cambio, recibe un correo titulado: “Carta de despido”. ¿Qué sucedió? Un algoritmo emitió una alerta roja y, sin dudarlo, lo despidió” (p.256).

Las desigualdades pueden surgir tanto por diseño como por la implementación de algoritmos de IA, lo que subraya la necesidad de una evaluación crítica y medidas correctivas para asegurar que la tecnología beneficie a todos de manera equitativa. ¿Se podrá lograr una equidad en la IA?

La IA puede reflejar y amplificar sesgos raciales y étnicos presentes en los datos utilizados para su entrenamiento. Por ejemplo, algoritmos utilizados en la selección de personal para puestos de trabajo pueden discriminar involuntariamente a individuos de minorías raciales debido a datos históricos que reflejan disparidades sistémicas en la sociedad. Esto perpetúa ciclos de desigualdad económica y social.

A manera de conclusión

La inteligencia artificial cada día se incorpora más en la vida de las personas, desde las nuevas configuraciones de los dispositivos con la obligatoriedad de los datos biométricos, hasta los asistentes virtuales que escuchan todo. Aunque este análisis no va en la línea de la IA y libertad de expresión y privacidad como derecho humano, es importante indicar que todo está vinculado con la discriminación y  los derechos humanos. 

A medida que la IA se integra profundamente en sectores cruciales como la salud, la educación, la justicia, la agricultura, entre otros, es crucial evaluar cómo estos sistemas pueden afectar de manera desigual a diferentes grupos de la sociedad. Para abordar las desigualdades en la IA es importante el enfoque ético y social, así como la inclusividad y diversidad en todos los espacios, al identificar y mitigar los sesgos podemos avanzar hacia una implementación más equitativa y justa de la tecnología, asegurando que la IA contribuya positivamente a la igualdad de oportunidades y al bienestar de la mayorías. 

La IA tiene un enorme potencial para transformar positivamente la sociedad. Sin embargo, es indispensable abordar el problema del racismo y el machismo. Es inaceptable que las tecnologías perpetúen y amplifiquen las desigualdades existentes.

Es necesario adoptar un enfoque responsable en el desarrollo e implementación de la IA, priorizando la diversidad, la inclusión y la transparencia. Se deben implementar medidas para detectar y eliminar sesgos algorítmicos y fomentar la participación de grupos excluidos  en el desarrollo de estas tecnologías.

La UNESCO, con la creación del primer instrumento normativo para la IA  para el bien de la humanidad, el medio ambiente y los ecosistemas crea unas importantes recomendaciones para tomar en cuenta: Recomendación de la UNESCO sobre la Ética de la Inteligencia Artificial.

Escrito por: Verónica Vivar, Guatemala. Agente de Cambio 2015.Comunicadora científica, social y política.

sverov(at)gmail.com