Con el auge de la inteligencia artificial, pareciera que el mundo evoluciona, ¿será así? Acá un breve análisis sobre la IA, género y discriminación.
En la última década el crecimiento exponencial de la inteligencia artificial (IA) la ha convertido en una fuerza transformadora en las sociedades actuales. La IA se centra en la creación de sistemas y máquinas inteligentes que puedan realizar tareas que normalmente requieren inteligencia humana, como el aprendizaje, el “razonamiento” y la resolución de problemas. Para IBM la IA “es tecnología que permite que las computadoras simulen la inteligencia humana y las capacidades humanas de resolución de problemas” (IBM, s.f.).
Para Rouhiainen (2018) la IA es:
“«la habilidad de los ordenadores para hacer actividades que normalmente requieren inteligencia humana» … Es la capacidad de las máquinas para usar algoritmos, aprender de los datos y utilizar lo aprendido en la toma de decisiones tal y como lo haría un ser humano. Sin embargo, a diferencia de las personas, los dispositivos basados en IA no necesitan descansar y pueden analizar grandes volúmenes de información a la vez. Asimismo, la proporción de errores es significativamente menor en las máquinas que realizan las mismas tareas que sus contrapartes humanas” (p.17).
La aplicación de IA va abarcando cada día más áreas como: medicina, educación, agricultura, comercio, economía, política, comunicación, etc. Para muchos sectores puede presentar una gran ventaja; para otros, no tanto, sobre todo cuando lo abordamos desde el enfoque de los derechos humanos. Por ello, en el presente análisis se realiza un abordaje desde la perspectiva del género y la discriminación.
Los sesgos algorítmicos se originan a partir de la introducción de datos sesgados en los sistemas de IA. Estos, utilizados para entrenar a los algoritmos, pueden perpetuar estereotipos y prejuicios existentes, amplificando la discriminación y la desigualdad en diferentes sectores de la sociedad. Por ello es importante plantear la interrogante ¿quién introduce estos datos a los sistemas?
Un ejemplo emblemático es el caso del algoritmo utilizado por COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), un sistema de predicción de reincidencia criminal en Estados Unidos. Un estudio publicado por ProPública (2016) demostró que el algoritmo era más propenso a clasificar erróneamente a los acusados afrodescendientes como de alto riesgo de reincidencia, perpetuando así las disparidades raciales en el sistema judicial. Nuevamente surge la pregunta ¿cuál es el perfil de la persona o personas que introducen los datos a los sistemas, en este caso específico COMPAS?
El ejemplo de COMPAS, muestra un claro patrón de discriminación algorítmica hacia afrodescendientes. El tema del género y discriminación se sigue perpetuando con la inteligencia artificial, según UNESCO el 20% de los empleados en puestos técnicos de las principales empresas de Machine Learning (aprendizaje automático) -una de las ramas más importantes de la IA-, son mujeres, un 12% de las personas investigadoras de inteligencia artificial a nivel mundial son mujeres y solo un 6% de profesionales en desarrollo de software son mujeres.
De estos porcentajes de mujeres ¿cuántas son afrodescendientes? ¿Cuántas son indígenas? ¿Cuántas poseen alguna discapacidad? ¿Cuántas viven las desigualdades sociales? Las mismas interrogantes se pueden plantear para el amplio porcentaje de hombres en el mundo que rodea la inteligencia artificial.
UNESCO, presenta datos alarmantes sobre la participación de mujeres y las niñas en la IA: 25% menos de probabilidades que los hombres de saber aprovechar la tecnología digital para fines básicos, cuatro veces menos de saber programar ordenadores y 13 veces menos de solicitar una patente TIC (tecnologías de la información y de las comunicaciones).
En el tema del sexismo de los asistentes digitales, expuesto por la UNESCO en la publicación Me sonrojaría si pudiera. El sexismo oculto en los asistentes virtuales, evidencia el potencial de difundir y reforzar la idea de que las mujeres son serviles y sumisas, un ejemplo de ello lo vemos en los asistentes virtuales con voz femenina, como Siri o Alexa, a menudo adoptan un tono servil o sumiso, reforzando estereotipos de género y normalizando la desigualdad. Asimismo, los algoritmos utilizados en las redes sociales pueden sesgar los resultados de búsqueda y las recomendaciones de contenido, favoreciendo la información creada por hombres o que refuerza roles de género tradicionales.
Los sesgos de género pueden manifestarse en la IA de varias maneras, desde asistentes virtuales que responden de manera estereotipada a comentarios sexistas hasta algoritmos médicos que subdiagnostican enfermedades en mujeres debido a datos sesgados. Es una necesidad que la IA sea representativa en su configuración. El incremento de la pornografía creada con IA, está perpetuando los estereotipos de género negativos y ponen en desventaja a las mujeres y a la población LGBTQ+.
Las mujeres, personas indígenas, afrodescendientes o las poblaciones más vulnerables en el mundo presencial o “real” también son las mismas que se ven particularmente afectadas por estos sesgos algorítmicos en el mundo digital. Las oportunidades no son las mismas para todas las personas. Análisis, como el publicado por la Revista Occidente: Sesgos de género en la inteligencia artificial, realizado por Lucía Zárate, han mostrado que la falta de diversidad en los equipos de desarrollo de IA también contribuye a estos problemas, ya que perspectivas diversas son cruciales para identificar y mitigar sesgos antes de que se incorporen en los sistemas.
En el campo laboral, como lo indica Miyagusuku & León (2019) el “Derecho Laboral no es ajeno a la revolución tecnológica que viene presentándose”, y es que dada la ventaja de ahorro de tiempo que brinda IA las empresas tecnologizadas, cada vez se suman más a la toma de decisiones con base en algoritmos. Estos autores nos plantean las siguientes interrogantes: ¿puede un algoritmo despedirme? ¿Puede definir mi contratación? ¿Será viable que mida mi productividad? ¿Mi bono dependerá de la decisión de un algoritmo automatizado? y para ello nos plantean un ejemplo:
“Un trabajador viene prestando servicios para su empleador desde hace cuatro años. Viene cumpliendo adecuadamente con sus labores, siempre ha alcanzado las metas trazadas y, además, es un muy buen compañero de trabajo. Sus jefes están muy contentos con él y han decidido promoverlo recientemente a supervisor. Sin embargo, ha surgido un problema familiar muy serio que lo tiene muy preocupado y no puede concentrarse. Como consecuencia de ello, va registrando cuatro meses consecutivos de baja productividad en comparación con su productividad anterior y los estándares regulares de la empresa. Sin que nadie le pregunte las razones de este repentino cambio, recibe un correo titulado: “Carta de despido”. ¿Qué sucedió? Un algoritmo emitió una alerta roja y, sin dudarlo, lo despidió” (p.256).
Las desigualdades pueden surgir tanto por diseño como por la implementación de algoritmos de IA, lo que subraya la necesidad de una evaluación crítica y medidas correctivas para asegurar que la tecnología beneficie a todos de manera equitativa. ¿Se podrá lograr una equidad en la IA?
La IA puede reflejar y amplificar sesgos raciales y étnicos presentes en los datos utilizados para su entrenamiento. Por ejemplo, algoritmos utilizados en la selección de personal para puestos de trabajo pueden discriminar involuntariamente a individuos de minorías raciales debido a datos históricos que reflejan disparidades sistémicas en la sociedad. Esto perpetúa ciclos de desigualdad económica y social.
La inteligencia artificial cada día se incorpora más en la vida de las personas, desde las nuevas configuraciones de los dispositivos con la obligatoriedad de los datos biométricos, hasta los asistentes virtuales que escuchan todo. Aunque este análisis no va en la línea de la IA y libertad de expresión y privacidad como derecho humano, es importante indicar que todo está vinculado con la discriminación y los derechos humanos.
A medida que la IA se integra profundamente en sectores cruciales como la salud, la educación, la justicia, la agricultura, entre otros, es crucial evaluar cómo estos sistemas pueden afectar de manera desigual a diferentes grupos de la sociedad. Para abordar las desigualdades en la IA es importante el enfoque ético y social, así como la inclusividad y diversidad en todos los espacios, al identificar y mitigar los sesgos podemos avanzar hacia una implementación más equitativa y justa de la tecnología, asegurando que la IA contribuya positivamente a la igualdad de oportunidades y al bienestar de la mayorías.
La IA tiene un enorme potencial para transformar positivamente la sociedad. Sin embargo, es indispensable abordar el problema del racismo y el machismo. Es inaceptable que las tecnologías perpetúen y amplifiquen las desigualdades existentes.
Es necesario adoptar un enfoque responsable en el desarrollo e implementación de la IA, priorizando la diversidad, la inclusión y la transparencia. Se deben implementar medidas para detectar y eliminar sesgos algorítmicos y fomentar la participación de grupos excluidos en el desarrollo de estas tecnologías.
La UNESCO, con la creación del primer instrumento normativo para la IA para el bien de la humanidad, el medio ambiente y los ecosistemas crea unas importantes recomendaciones para tomar en cuenta: Recomendación de la UNESCO sobre la Ética de la Inteligencia Artificial.
Escrito por: Verónica Vivar, Guatemala. Agente de Cambio 2015.Comunicadora científica, social y política.
sverov(at)gmail.com
¿Qué necesitamos hacer para construir una verdadera identidad nacional inclusiva? Stefani Corrales nos explica.
This site uses third-party website tracking technologies to provide and continually improve our services, and to display advertisements according to users' interests. I agree and may revoke or change my consent at any time with effect for the future.
These technologies are required to activate the core functionality of the website.
This is an self hosted web analytics platform.
Data Purposes
This list represents the purposes of the data collection and processing.
Technologies Used
Data Collected
This list represents all (personal) data that is collected by or through the use of this service.
Legal Basis
In the following the required legal basis for the processing of data is listed.
Retention Period
The retention period is the time span the collected data is saved for the processing purposes. The data needs to be deleted as soon as it is no longer needed for the stated processing purposes.
The data will be deleted as soon as they are no longer needed for the processing purposes.
These technologies enable us to analyse the use of the website in order to measure and improve performance.
This is a video player service.
Processing Company
Google Ireland Limited
Google Building Gordon House, 4 Barrow St, Dublin, D04 E5W5, Ireland
Location of Processing
European Union
Data Recipients
Data Protection Officer of Processing Company
Below you can find the email address of the data protection officer of the processing company.
https://support.google.com/policies/contact/general_privacy_form
Transfer to Third Countries
This service may forward the collected data to a different country. Please note that this service might transfer the data to a country without the required data protection standards. If the data is transferred to the USA, there is a risk that your data can be processed by US authorities, for control and surveillance measures, possibly without legal remedies. Below you can find a list of countries to which the data is being transferred. For more information regarding safeguards please refer to the website provider’s privacy policy or contact the website provider directly.
Worldwide
Click here to read the privacy policy of the data processor
https://policies.google.com/privacy?hl=en
Click here to opt out from this processor across all domains
https://safety.google/privacy/privacy-controls/
Click here to read the cookie policy of the data processor
https://policies.google.com/technologies/cookies?hl=en
Storage Information
Below you can see the longest potential duration for storage on a device, as set when using the cookie method of storage and if there are any other methods used.
This service uses different means of storing information on a user’s device as listed below.
This cookie stores your preferences and other information, in particular preferred language, how many search results you wish to be shown on your page, and whether or not you wish to have Google’s SafeSearch filter turned on.
This cookie measures your bandwidth to determine whether you get the new player interface or the old.
This cookie increments the views counter on the YouTube video.
This is set on pages with embedded YouTube video.
This is a service for displaying video content.
Vimeo LLC
555 West 18th Street, New York, New York 10011, United States of America
United States of America
Privacy(at)vimeo.com
https://vimeo.com/privacy
https://vimeo.com/cookie_policy
This cookie is used in conjunction with a video player. If the visitor is interrupted while viewing video content, the cookie remembers where to start the video when the visitor reloads the video.
An indicator of if the visitor has ever logged in.
Registers a unique ID that is used by Vimeo.
Saves the user's preferences when playing embedded videos from Vimeo.
Set after a user's first upload.
This is an integrated map service.
Gordon House, 4 Barrow St, Dublin 4, Ireland
https://support.google.com/policies/troubleshooter/7575787?hl=en
United States of America,Singapore,Taiwan,Chile
http://www.google.com/intl/de/policies/privacy/