La Inteligencia Artificial se puede convertir en un aliado dentro de los procesos de las empresas, pues permiten la toma de decisiones en tiempo real de una manera más veloz en diferentes sectores; no obstante, todavía no se puede confiar completamente en ella, pues puede incluir sesgos que generen discriminación.

“La IA la programan personas con prejuicios”. Esa es una de las frases más comunes en el mundo de la tecnología y hablar de este tema es importante, mencionan especialistas. En el futuro, la tecnología automatizada orientará importantes decisiones como quién puede acceder a un puesto de trabajo, a un préstamo bancario o un seguro de vida.

El tema ya ha generado controversia en el pasado. En 2014, un equipo de Amazon hizo un software para revisar currículums, pero tras un año de uso se dieron cuenta de que su algoritmo discriminaba a mujeres para puestos técnicos y prefería a los hombres para las mismas labores.

Noemí Pereira, ingeniera de datos en NTT Data destacó que para mitigar el sesgo de género en la IA primero se debe hacer conciencia entre los desarrolladores sobre el problema para que suceda en menor medida hasta desaparecer, mientras que a nivel técnico hay diferentes herramientas identificar y administrar la data al respecto.

Las empresas que utilizan la IA, comentó Jesús Mantas, global managing partner de IBM Consulting, se están enfrentando a más demandas internas y externas para diseñar sus algoritmos para que sean justos, seguros y confiables.

Para el experto, una forma de disminuir los sesgos es conformar equipos multidisciplinarios y de colaboración, en los que se integre a muchas áreas y habilidades de la compañía, con el propósito de alimentar con datos de calidad a los sistemas.

De acuerdo con un estudio global del IBM Institute for Business Value , 68% de las organizaciones encuestadas reconocen que tener un lugar de trabajo diverso e inclusivo es importante para mitigar el sesgo en la IA.

No obstante, estas cifras también muestran en dónde se debe poner atención, ya que los equipos de IA siguen siendo sustancialmente menos diversos que la fuerza laboral de sus organizaciones: 5.5 veces menos inclusivo para las mujeres, así como cuatro veces menos inclusivo para las personas de la comunidad LGBT+.

Germán García, country manager de Herman Pro —una startup de herramientas empresariales de IA aplicada—, aportó que elementos como el género, raza o edad no son datos de calidad para una IA, pues estos son asuntos subjetivos que no transmiten la capacidad de la persona y, más bien, pueden generar discriminación.

Expertas que participaron en la discusión de la Recomendación sobre la ética de la IA de la UNESCO , también han resaltado que en la evolución de la IA es necesaria una visión interseccional donde se tomen en cuenta a grupos de personas con discapacidad y afrodescendientes.

Andrea Cuernavaca, experta en estrategia de Inteligencia Artificial de NTT Data, resaltó que desde 2018 en la Unión Europea se han hecho esfuerzos para impulsar la ética en el desarrollo de la IA a nivel regulatorio y normativo, gracias a una propuesta de ley que publicó la Comisión Europea, donde uno de los puntos centrales es poner atención en la representatividad de los datos para afrontar el sesgo de la IA.

“Una de las líneas es que menciona la propuesta es la generación de un código de conducta voluntario para las empresas, para que se suscriban a generar equipos de desarrollo más balanceados, donde se incluya a más mujeres”, concluye.

Expansión

Conéctate con Formato7:

Alertan de posible derrumbe en el puente El Diablo de Coatepec, Veracruz