Como parte de un nuevo marco para el uso y optando como Google por la aplicación ética de la inteligencia artificial, Microsoft dejará de vender el llamado software de inteligencia artificial (IA) de detección de emociones y restringirá el uso de capacidades de reconocimiento facial.

Se convierte en la empresa de tecnología importante más nueva en abandonar los métodos polémicos para combatir la posibilidad de prejuicio y discriminación en la IA.

Hace unos meses, Microsoft dijo que dejará de fabricar una tecnología de inteligencia artificial basada en la nube que infiere las emociones de las personas y que está disponible para todos.

A pesar de que la empresa admitió que la tecnología de reconocimiento de emociones tiene «riesgos», resulta que la tecnología seguirá estando disponible en la aplicación de un usuario con problemas de visión.

De hecho, a pesar del creciente escepticismo con respecto a la creación y el uso de la detección de emociones conflictivas en el software común, tanto Google como Microsoft aún incluyen capacidades basadas en IA en sus ofertas.

El canal de personas Seeing AI, según Saqib Shaikh, gerente de ingeniería de software y líder de proyecto de Seeing AI en Microsoft que trabajó en el desarrollo de la aplicación, “le permite detectar personas y obtener una descripción de ellas, incluida una estimación de su edad. y también su sentimiento.”

Cuando usó Seeing AI para tomar una foto de su conocido, la voz automatizada de la aplicación lo identificó como un «hombre de 36 años que usa anteojos y se ve alegre». «Eso es bastante interesante», dijo Shaikh, «ya que puedes determinar instantáneamente la expresión facial de alguien».

Microsoft dijo el 21 de junio que «retirará» su software de reconocimiento facial, que trata de determinar las emociones, el género, la edad y otros rasgos de una persona.

La firma destacó los problemas de privacidad, «la falta de acuerdo sobre una definición de» emociones «y la» incapacidad de generalizar la asociación entre la expresión facial y el estado emocional en casos de uso, geografías y personas «.

Pero para Seeing AI, los objetivos de accesibilidad eran más importantes que esos problemas.

Microsoft dijo en un comunicado enviado a Protocol que trabajó con personas de las poblaciones ciegas y con baja visión que “daron un aporte crucial de que la función de detección de emociones es esencial para ellos, para reducir la brecha de igualdad entre la experiencia y las personas videntes”. La empresa rechazó una solicitud.

El software de reconocimiento de emociones de acciones de Google

Google también ha tenido problemas con la cantidad de IA basada en visión por computadora que debe usar para determinar si es probable que una persona muestre un estado de ánimo particular o un conjunto de rasgos faciales.

Según una descripción corporativa, la API de Cloud Vision de la compañía contiene «modelos de API de Vision pre entrenados para detectar emociones, leer el idioma y más».

Según el algoritmo, una cara en una imagen es «desconocida» o «extremadamente improbable» a «altamente probable» de mostrar ira, placer, dolor o sorpresa.

Además, la herramienta ML Kit de Google para aplicaciones móviles contiene un componente que reconoce los «puntos de referencia» de la cara y clasifica las características faciales para determinar si alguien está sonriendo o tiene los ojos abiertos.

Un portavoz de Google cuestionó la idea de que su computadora “detecta emociones”, señalando que su Vision API predice la percepción de las emociones que se muestran en el rostro en lugar de detectar las emociones declaradas, aunque ocasionalmente lo afirma en su literatura.

La sinceridad de sentir AI ha llamado mucho la atención y con frecuencia plantea preocupaciones éticas. Organizaciones de defensa como Brookings Institution y AI Now Institute han pedido una restricción en la tecnología para casos de uso particulares.

Google se negó a dar una entrevista para esta historia, citando un informe de Reuters de 2021 que indicó que la compañía decidió no agregar nuevas capacidades a su herramienta Cloud Vision API para detectar la probabilidad de emociones adicionales además de la ira, la alegría, la tristeza y la sorpresa después. llevar a cabo una revisión ética interna.

El estudio «encontró que inferir emociones podría ser insensible porque, entre otras razones, las señales faciales están conectadas con los estados de ánimo de manera diferente en todas las culturas».

Mitchell le reveló a Protocol que mientras trabajaba en Google, era miembro del equipo que trabajó para persuadir a la empresa de que no agregara más estados emocionales a la lista de los cuatro que ya eran compatibles con Cloud Vision API.

Mitchell, codirector del equipo de inteligencia artificial ética de Google, perdió su trabajo en febrero de 2021 como resultado de una investigación interna sobre violaciones del protocolo de seguridad al mover datos comerciales.

Su renuncia se produjo después de otro despido destacado de Timnit Gebru, el colíder de su equipo de ética de IA.

El conflicto sobre un estudio que cuestionó las consecuencias sociales, económicas y ambientales de los modelos de aprendizaje automático de lenguajes extensos es una de las razones por las que se despidió a Gebru.

Los investigadores están avanzando en la inteligencia artificial emocional.

Algunos trabajos de investigación aprobados en la conferencia internacional de visión por computadora y reconocimiento de patrones en Nueva Orleans en junio trataron el trabajo sobre la identificación de puntos faciales y el reconocimiento de emociones faciales, por ejemplo.

Nirit Pisano, directora de psicología de Cognovi Labs, dijo: «Solo estamos saliendo a la superficie, y dondequiera que miro hay más y más [IA emocional] en desarrollo».

Cognovi Labs proporciona tecnología de IA de emociones a anunciantes y fabricantes farmacéuticos que la utilizan para medir las reacciones de los consumidores a los mensajes de marketing y comprender cómo se sienten las personas con respecto a medicamentos específicos.

Microsoft dijo que al mantener el reconocimiento de emociones en Seeing AI, promoverá su objetivo de accesibilidad.

En una publicación de blog publicada el mes pasado, Sarah Bird, gerente principal de productos del grupo en Azure AI de Microsoft, afirmó que la compañía «sigue comprometida con la tecnología de soporte para personas con discapacidades».

También que «seguiría usando estas capacidades para apoyar este objetivo integrándolas en aplicaciones como Seeing AI».

El sistema de detección de emociones, que emplea la visión por computadora para identificar datos faciales, es criticado por Gebru, un experto en visión por computadora.

Aunque «hay numerosas situaciones en las que el acceso se utiliza como causa» para la detección de emociones, como para aumentar la accesibilidad para las personas con discapacidad visual, dijo que el Protocolo puede ser útil «todo el tiempo» según la situación.

La Verdad noticias

Conéctate con Formato7:

APUNTES | AMLO en la desesperación