- Las tecnologías reproducen estereotipos, violencias de género y desigualdades si no se diseñan con una perspectiva inclusiva
- También ofrecen oportunidades: existen iniciativas con IA para prevenir el acoso online, fomentar la salud mental de la infancia o impulsar sus derechos
Es una tecnología que crea sistemas capaces de realizar tareas propias de la inteligencia humana. La Inteligencia Artificial (IA) ha supuesto una revolución, pero no está libre de riesgos: ya está teniendo impacto en la economía, empleo, educación, medioambiente y en nuestras vidas. También en la igualdad de género, dado que puede amplificar las brechas de género, la discriminación y los sesgos que afectan a las mujeres.
¿Cómo podemos construir un ecosistema tecnológico más inclusivo, equitativo y representativo para todas? Nataly Buslón, especialista regional en IA y género de ONU Mujeres, abordó este tema en el webinar Impacto de la Inteligencia Artificial desde la perspectiva de las mujeres, el pasado 20 de febrero. En él se analizaron las principales zonas de riesgo de la IA y cómo su desarrollo puede profundizar en las desigualdades si no se diseña con una perspectiva inclusiva.
La IA y su impacto en la equidad de género
Uno de los problemas radica en la baja representación femenina en IA: solo un 12% de las personas que hacen machine learning en los equipos son mujeres. “Esto genera una visión sesgada, es más difícil ver los riesgos”, dice Buslón. La desigualdad en los datos de entrenamiento refuerza estos sesgos, pues muchos sistemas de IA no consideran diferencias de género, lo que afecta la precisión en ámbitos como la salud, la seguridad y el reconocimiento facial.
Solo un 12% de las personas que hacen machine learning en los equipos son mujeres. “Esto genera una visión sesgada”
La experta ha puesto varios ejemplos de cómo la IA impacta en las vidas de las mujeres:
Uno de los principales problemas es el riesgo a la desinformación y manipulación mediática. “Cuando buscábamos en Google teníamos muchas respuestas, podíamos ir contrastando hasta llegar a un contenido verídico”, explica la especialista de ONU Mujeres. “Hoy usamos herramientas como ChatGPT, que limitan la diversidad y no dan la fuente. Muchas veces son predictores de palabras que generan un contenido que no tiene que ser verídico”.
Otro de los problemas son los sesgos algorítmicos, es decir, la reproducción de estereotipos y discriminación en decisiones automatizadas. Buslón explica que los sistemas de IA heredan sesgos de sus datos de entrenamiento y, al diseñarlos, interviene el factor humano, con decisiones sobre qué parámetros incluir. Esto genera sesgos cognitivos y culturales. Si los datos utilizados no representan adecuadamente a toda la población, los resultados serán imprecisos.
Ejemplos de sesgos en IA:
Salud
La IA en medicina ha sido entrenada con datos masculinos, lo que reduce la efectividad en la detección de enfermedades femeninas. “Muchas investigaciones se han basado en estudios con ratones machos y clinical training con hombres. Esto ha llevado a que las mujeres no tengan la misma precisión en la prevención de enfermedades cardiovasculares o diabetes, entre otras”, señala Buslón.
Un caso específico es el oxímetro de pulso utilizado durante la pandemia de COVID-19, que mostró menor efectividad en mujeres por estar diseñado para dedos de mayor tamaño.
Seguridad vial
Las mujeres tienen un 47% más de probabilidades de sufrir lesiones graves en un accidente de coche porque los dummies (muñecos para hacer simulaciones de los airbag) están diseñados en base a cuerpos masculinos. “Esto hace que no sean tan precisos los sistemas de seguridad. Y cuando hacemos simuladores en IA automatizados estamos reproduciendo esta problemática”, añade.
Asistentes de voz
Siri, Alexa y otros asistentes virtuales suelen tener nombres femeninos, reforzando estereotipos de género que asocian a las mujeres con roles de servicio.
Violencia de género y tecnología
Las tecnologías de IA también facilitan nuevas formas de violencia de género, incluyendo prácticas como el doxxing (divulgación no consentida de información personal para facilitar ataques), el hacking (uso de tecnología para obtener y divulgar información privada con fines denigrantes) y el acoso cibernético, que puede incluir amenazas, coacción y uso de imágenes íntimas sin consentimiento.
Una tecnología como el deepfakes puede suponer un grave riesgo para miles de mujeres de todas edades: aunque las imágenes no son reales, el impacto en las víctimas (que en su 99% son mujeres, incluyendo niñas) es muy alto.
“En el ámbito de redes sociales vemos que es muy común el discurso de odio que se reproduce con bots, robots, imágenes deepfake, se generan contenidos falsos que se utilizan muchas veces para atacar a las mujeres, para webs pornográficas”, explica la especialista. “Se ataca a mujeres desde su entorno familiar, a niñas en espacios escolares, a políticas y líderes sociales para desacreditarlas. Muchos informes indican que esto afecta desproporcionadamente a las mujeres”.
Ética y buenas prácticas en IA
El webinar ofrece recomendaciones para lograr sistemas de IA más inclusivos. “Necesitamos incrementar datos de mujeres y género, acceso a herramientas y liderazgo en las tomas de decisiones y los equipos, y ser conscientes de los estereotipos, violencias y peligros que se está generando”, dice Buslón. Para enfrentar estos desafíos, es crucial incrementar la representación femenina en la toma de decisiones sobre IA, mejorar el acceso a herramientas digitales y promover el liderazgo de las mujeres en el desarrollo tecnológico.
También, adoptar marcos éticos regulatorios, como el AI Act de la Unión Europea y las guías éticas de la UNESCO. Costa Rica y España lideran a nivel mundial el diálogo sobre la regulación de la IA de acuerdo con la ponente.
“Necesitamos incrementar datos de mujeres, su liderazgo en las tomas de decisiones y ser conscientes de los estereotipos, violencias y peligros que se está generando”
A pesar de sus riesgos, la IA también tiene un gran potencial para mejorar la sociedad si se diseña con ética y responsabilidad. Por ejemplo en medicina, donde los sistemas de inteligencia artificial están logrando detectar el cáncer de mama hasta cinco años antes de su aparición, algo que será más eficiente si incorporamos perspectiva de género.
Buenas prácticas
En salud mental, la IA puede ayudar para detectar depresión, suicidio o anorexia mirando patrones de sueño, publicaciones en redes sociales, y dar recomendaciones de mejora, asistencia, etc. Aquí, la perspectiva de género también permite una mayor eficiencia, ya que hombres y mujeres no publican lo mismo. Un ejemplo es STOP, un proyecto de investigación sobre salud mental en redes sociales que identifica riesgos de suicidio y depresión.
Otro estudio marcó putas para predecir anorexia en publicaciones en redes sociales, analizando primero las diferencias predictivas entre géneros.
Otro uso es la detección de acoso escolar. La aplicación WatsomApp identifica ciberacoso y el discurso de odio. Además, el proyecto Generation AI de UNICEF está diseñado para impulsar los derechos de la infancia.
“La inteligencia artificial es reflejo de nuestras decisiones y estructuras. Si las desarrollamos con ética y responsabilidad, impulsaremos innovación, eficiencia y equidad. El futuro de la IA depende de las acciones que definamos hoy”, concluye la experta.