¿Favorece la inteligencia artificial la equidad de género?

FAVORECE-LA-INTELIGENCIA-ARTIFICIAL-CONTEXTO-UDLAP

¿Favorece la inteligencia artificial la equidad de género?

Esta pregunta es relevante en días actuales. La UNESCO (West et al., 2019) señaló en un estudio que los sistemas IA con voz femenina pueden reforzar la creencia de que la mujer está siempre dispuesta a escuchar y ayudar y/o complacer a quien le pide algo.

En su tesis doctoral Pisanelli (Pisanelli, 2023), argumenta que los sistemas de Inteligencia Artificial (IA) reciben algunos de los prejuicios humanos al momento de su entrenamiento.

Ella hace referencia a los sistemas de IA que se aplican en el área de contrataciones de algunas empresas, señala dos tipos de sistemas: Predictivos y Software de valoración (Assesment software).

Los algoritmos de software predictivo se “entrenan” con base a las características y desempeño de trabajadores empleados con anterioridad y operan con base en probabilidad de ocurrencia. Los de valoración por su parte, analizan grandes cantidades de datos específicos contenidos en solicitudes de empleo.

Los sistemas predictivos indirectamente se basan en discriminación basada en género. Ya que sus algoritmos identifican patrones que los llevan a inferir el género del solicitante y lo ligan a puestos de trabajo donde tradicionalmente participan mayorías de género. Por ejemplo, en el caso de las áreas como Recursos Humanos, donde abundan más mujeres que hombres o a la inversa como el caso de ingeniería. Esto se liga también a los antecedentes educativos profesionales como formación en psicología, donde por lo general hay más mujeres y las áreas de tecnología y ciencias exactas predominantemente masculinas.

Si partimos del argumento arriba expuesto, quizás la IA predictiva sea menos conveniente que la de valoración en un contexto de selección de personal.

En otro estudio que partió al momento de diseñar y crear un sistema de IA, Marsden (Marsden et al., 2022) y sus colaboradores optaron por hacer Investigación y desarrollo extendido a género Gender Extended Research and Development GERD (Klumbyte, 2018).

Este concepto se basa en estrategias de discusión entre grupos heterogéneos de personas para diseñar los algoritmos. No únicamente haciendo distinción de género sino inclusive grupo étnico y antecedentes culturales.

En su investigación, los autores se dieron cuenta que desarrollar un software que resulte no discriminatorio en género es mucho más difícil de lo que parece, empezando por las propias características de funcionamiento. Por ejemplo, la mayoría de los sistemas IA, basta con recordar los de uso doméstico: SIRI, ALEXA, GOOGLE MAPS, tienen voces femeninas. Este aspecto en sí conlleva cierta predisposición de comunicación usuario-sistema. Hay que mencionar también que generar un sistema de síntesis de voz es costoso en recursos y desarrollo (Franco-Galván, 2021) por lo que personalizarlo no es trivial.

A opinión de quien escribe estas líneas, la IA todavía no tiene capacidad de promover la igualdad de género en los sistemas predictivos. Este tipo de sistemas vuelven más eficiente su respuesta mientras más información tienen de determinado concepto. Los datos referentes a igualdad de género son un claro reflejo de la sociedad que los produce y seguirá produciendo de acuerdo con nuestras creencias y entorno cultural, por eso resulta tan difícil de producir un sistema IA sin ningún tipo de prejuicio.

La IA que opera bajo sistemas de valoración, lo hace bajo datos muy concretos que se obtienen de documentos elaborados bajo formato específico, de nueva cuenta, la calidad de la información que arroje este software dependerá de la veracidad de los documentos. Dicho de otro modo: “Queremos sistemas de IA que promuevan la igualdad de género, debemos convertirnos en individuos sin prejuicios y que se manejen siempre con honestidad”. Suena a novela de ciencia ficción, pero la máquina es reflejo de su creador o creadora.

Referencias:

  • Franco-Galván, C. A. (2021). An Advanced Study to Validate Synthesized Speech Parameterized by Cepstral Coefficients and LSP. New Visions in Science and Technology Vol. 9, 35–44.
  • Klumbyte, G. (2018). Acceptability by Design: Integrating Gender Research in HCI. Extended Abstracts of the 2018 CHI Conference on Human Factors in Computing Systems
  • Marsden, N., Bhattacharyya, S., Meyer-Christodoulou, J., Martin, L., & Peine, A. (2022). Co-Design for Gender Equality in an AI-Based Virtual Assistant for Intensive Care Units. 2022 IEEE 28th International Conference on Engineering, Technology and Innovation, ICE/ITMC 2022 and 31st International Association for Management of Technology, IAMOT 2022 Joint Conference – Proceedings.
  • Pisanelli, E. (2023). Artificial intelligence , gender and work. November.
  • West, M., Kraut, R., & Ei Chew, H. (2019). EQUALS y Unesco – 2019 – I’d blush if I could closing gender divides in. Unesco, 144.

Sobre el autor:

Carlos Ángel Franco Galván Doctor en Computación por la UNAM.Maestro en Tecnología Musical por la universidad de York, Inglaterra.

Licenciado en Ingeniería Electrónica y Técnico en Música por la BUAP.

Actualmente se desempeña como profesor investigador en la Facultad de Artes y ARPA de la BUAP. Docente de cátedra en las universidades Iberoamericana Puebla y UDLAP.

Tiene diversos artículos publicados en revistas indexadas y una amplia discografía como músico, productor y compositor.

Contacto: carlos.franco@udlap.mx

Share this post