En el campo de la Inteligencia Artificial generativa, las aplicaciones como Dall-E, ChatGPT o Lensa se convirtieron en la sensación de internet por sus capacidades de crear imágenes o textos a partir de las peticiones de los usuarios; sin embargo, se trata de sistemas que reproducen sesgos de género y tienen un impacto negativo sobre las mujeres.
Lensa, por ejemplo, es una aplicación desarrollada por Stable Diffusion que se hizo popular por generar diferentes versiones de las personas a partir de sus selfies. En el caso de los hombres, estos se veían como astronautas o personas exitosas, pero a las mujeres los resultados las hipersexualizaba sin siquiera haber subido fotos con esas características.
Una investigación del diario The Guardian usó fotos de hombres y mujeres en ropa interior, haciendo ejercicio o usando pruebas médicas con desnudez parcial. Los hallazgos fueron que los algoritmos de Google, Microsoft y Amazon etiquetaron las imágenes de las mujeres en estas situaciones cotidianas como sexualmente sugerentes a comparación de las de los varones.
Pero este problema no sucede únicamente con las imágenes. Durante su podcast, la periodista ganadora de un premio pulitzer, Karen Hunter, expuso que cuando le preguntó a ChatGPT sobre la influencia de la cantante de blues Bessie Smith en la cantante de gospel, Mahalia Jackson, el chatbot sólo dio información biográfica de ambas, pero no algo que las relacionara.
Smith fue pionera en la música popular e influyó en Mahalia Jackson, así como en otros cientos de artistas, entre los que destacan Billie Holiday, Janis Joplin o incluso Elvis Presley. No obstante, la herramienta digital no las conectó debido a la información sesgada con la que se alimentó.
Al respecto, la futurista Fernanda Rocha resalta el problema de que la información en internet actualmente tiene diferentes tipos de sesgos que afectan el funcionamiento de las plataformas de IA generativa, y los estereotipos en torno al género es uno de los principales temas que no se ha logrado aminorar.
Mikhail Yurochkin, investigador del instituto IBM-Watson, menciona que ante esta situación, los desarrolladores de la tecnología deben poner más atención no en los datos que recolectan, sino en la forma en que los modelos están entrenados para procesar la data.
El equipo de Yurochkin, por ejemplo, trabaja en un proyecto llamado InFairness, que busca ser más inclusivo en los modelos de aprendizaje automático, pues en sus procedimientos se evalúa si existe alguna vulneración de justicia individual, incluye esa información en el análisis de los modelo para que los tenga en cuenta durante su entrenamiento y aminore la reproducción de sesgos.
Inequidad en el campo laboral afecta a la tecnología
La mente maestra detrás de ChatGPT es una mujer. Se llama Mira Murati y aunque la propia plataforma no ubica quién es, se trata de una de las mujeres más importantes en el mundo de la actualidad actualmente, pues es la líder de tecnología en OpenAI, empresa responsable de ChatGPT, Dall-E o Codex, entre otras herramientas de IA generativa.
Si bien Murati está en un puesto directivo en una de las compañías que están moldeando el futuro, la realidad es que las mujeres están subrepresentadas en esta industria, desde el acceso a la tecnología, hasta la formación de talento, algo que invariablemente impacta en los sesgos que tiene la IA.
De acuerdo con datos de la directora ejecutiva de ONU Mujeres, Sima Bauhaus, “las mujeres tienen un 18% menos de probabilidades que los hombres de poseer un teléfono inteligente y muchas menos de acceder a internet o utilizarlo”.
A nivel global, por otra parte, los varones tienen un 25% más de probabilidades de contar con conocimientos y habilidades para usar la tecnología que las mujeres y en Latinoamérica, el 40% de las mujeres (89 millones) no están conectadas o no pueden costear el acceso a internet.
En el tema de la IA, según datos presentados por la investigadora del Instituto Tecnológico Autónomo de México (ITAM), Regina García, únicamente el 22% de las profesionistas son mujeres, Además, de las publicaciones e investigaciones que hay al respecto, sólo el 14% son de autoría femenina y la mayoría de puestos técnicos y de liderazgo los ocupan hombres.
En este sentido, Yurochkin concluye en la necesidad de mayor diversidad en los grupos de desarrollo, donde también se eduque a las personas acerca de estos problemas, con el objetivo de generar productos más inclusivos y con menores sesgos.
Expansión