La feminización de la inteligencia artificial y la antropomorfización de los asistentes virtuales
Resumen:
La asignación de voces y características de comportamiento relacionadas con la feminidad en los asistentes virtuales impulsados por inteligencia artificial refleja y amplifica los sesgos de género, perpetuando estereotipos y afectando negativamente las percepciones y comportamientos sociales hacia las mujeres. El presente artículo busca profundizar en las causas detrás de este fenómeno, sus implicaciones sociales y las soluciones que han sido propuestas en el desarrollo de nuevas tecnologías.
Referencias:
- Adams, R. (2020). Helen A’Loy and other tales of female automata: a gendered reading of the narratives of hopes and fears of intelligent machines and artificial intelligence. AI & Society, 35(3), 569–579. https://doi-org.udlap.idm.oclc.org/10.1007/s00146-019-00918-7
- Antonopoulou, C. (2023). Algorithmic bias in anthropomorphic artificial intelligence: Critical perspectives through the practice of women media artists and designers. Technoetic Arts: A Journal of Speculative Research, 21(2), 157–174. https://doi-org.udlap.idm.oclc.org/10.1386/tear_00109_1
- Costa, P., & Ribas, L. (2019). AI becomes her: Discussing gender and artificial intelligence. Technoetic Arts: A Journal of Speculative Research, 17(1/2), 171–193. https://doi-org.udlap.idm.oclc.org/10.1386/tear_00014_1
- Hall, P., & Ellis, D. (2023). A systematic review of socio-technical gender bias in AI algorithms. Online Information Review, 47(7), 1264–1279. https://doi-org.udlap.idm.oclc.org/10.1108/OIR-08-2021-0452
- Marinucci, L. (2022). Exposing implicit biases and stereotypes in human and artifcial intelligence: state of the art and challenges with a focus on gender. AI & Society, 38, 747–761. https://doi.org/10.1007/s00146-022-01474-3
- Vilà, C. (2021). Reproducción de discursos dominantes en la tecnología: Análisis crítico del discurso aplicado a los asistentes de voz virtuales. Discurso & Sociedad, 15(3) 679-700. https://dialnet.unirioja.es/servlet/articulo?codigo=8168329
- Wellner, G. P. (2020). When AI is Gender-biased: The Effects of Biased AI on the Everyday Experiences of Women. Humana Mente, 12(37), 127–150.
- Woods, H. S. (2018). Asking more of Siri and Alexa: feminine persona in service of surveillance capitalism. Critical Studies in Media Communication, 35(4), 334–349. https://doi-org.udlap.idm.oclc.org/10.1080/15295036.2018.1488082
Sobre el autor:
Daniela Renée Ramírez Gutiérrez, estudiante de la licenciatura en Ciencia de Datos e integrante del Programa de Honores en la Universidad de las Américas Puebla. Ha desarrollado proyectos de investigación del área de biotecnología con acreditaciones nacionales e internacionales. Previamente, certificó estudios en las áreas de emprendimiento e ingenierías por el programa POP del Bachillerato Internacional (IB).
Contacto: daniela.ramirezgz@udlap.mx
Tutor académico:
Miguel Ángel Reyes Cortés, Doctor en Estadística e Investigación Operativa por la Universidad de La Coruña. Además, Maestro en Técnicas Estadísticas, Maestro en Demografía, y Licenciado en Física por la Benemérita Universidad Autónoma de Puebla. Actualmente, es Coordinador de la Licenciatura en Ciencia de Datos UDLAP.
Contacto: miguel.reyes@udlap.mx