Los sistemas de realidad virtual son ideales para realizar la traducción de la Lengua de Señas Mexicana (LSM), así como la simulación de humanos que permitan la inclusión de personas sordas para no limitar su comunicación con el resto de los integrantes de la sociedad, resaltó Ana Luisa Solís González Cosío, investigadora de la Facultad de Ciencias de la Universidad Nacional Autónoma de México (UNAM).
Al impartir la charla “Avances en la animación 3D en Lengua de Señas Mexicana”, que ofreció en el Seminario de Interfaces Inteligentes, realizado durante la última semana de octubre por el Centro de Investigación en Inteligencia Artificial (CIIA) de la Universidad Veracruzana (UV), se refirió al desarrollo de un traductor bidireccional que desde hace algunos años promueven ambas casas de estudios como resultado de un proyecto de movilidad.
En su ponencia, explicó que la LSM es el medio de comunicación que utiliza la comunidad de sordos/mudos y consiste en una serie de signos gestuales articulados con manos y brazos, acompañados de expresiones faciales, mirada intencional y movimiento corporal.
Al emplearla, este sector busca una identidad lingüística y cultural, pues les permite tener una convivencia de naturaleza visual.
Aseveró que este lenguaje implica una señal que se produce principalmente con las manos y se recibe visualmente. “Suponen una modalidad visuo-manual, a diferencia de las lenguas orales que son acústico-vocales”.
Se trata de otro lenguaje como puede ser el chino, inglés o francés, y las señas también son muy diferentes a las que emplean personas sordas de otras partes del mundo.
Enfatizó que para personas sordas, lo principal es aprender el alfabeto en señas y después empezar a hablar con las manos: “La lengua de señas es importante pues fortalece su identidad y amplía sus posibilidades de participación social.”
No obstante, su uso pone en duda la concepción de que los integrantes de este sector son individuos discapacitados, lo cual es falso ya que necesitan otra forma de comunicarse con los demás.
Por nuestra parte, dijo, debemos entenderlos, incorporarlos y darles las facilidades para que exista esa comunicación. Precisamente con ese objetivo, la UV –a través del CIIA– y la UNAM elaboran esta herramienta orientada hacia el ámbito médico, con el propósito de facilitar la comunicación médico-paciente.
Detalló que en un hospital, la comunidad no es la única que se enfrenta al problema de las barreras lingüísticas. Por ejemplo, en Estados Unidos hay muchas personas que no hablan inglés y necesitan de manos virtuales para comunicarse con el personal médico.
En México existe esta misma situación con los habitantes de zonas indígenas y con niños que padecen autismo. “Son problemas de comunicación y en todos ellos se puede emplear un humano virtual que ayude a establecerla”.
Al destacar algunos avances en la creación de este sistema de traducción y los problemas a los que se han enfrentado, comentó que para llevarlo a cabo primero fue necesario conocer la estructura de la LSM, porque es muy importante tener una inmersión para entenderla y simularla, de lo contrario se afecta la investigación.
Otro de los aspectos que ayudan en su realización es conocer el área de animación por computadora, ya que el sistema es totalmente visual y por lo tanto debe tener un humano virtual que tome la posición de la persona que no habla.
“El objetivo es darle un texto en español y que después haya un agente humano que genere las señas para que lo pueda entender el sordo.”
Asimismo, se requiere de un área especial que es el Embodied Conversational Agents for Multimodal Emotional Communication, un agente con cuerpo que entable una comunicación multimodal y emocional.
También es importante definir una arquitectura para la traducción, “pues una vez que sabemos cómo es la estructura de la lengua de señas tenemos que ver cómo generarla para resolver la comunicación”.
Ana Luisa Solís González Cosío subrayó que otra recomendación es contar con un equipo especial para captura de movimiento de cara, cuerpo y manos porque son los elementos con los cuales se hará la comunicación.
Actualmente, para ello se emplea el Kinect, así como visión computacional, pero también un Framework para la animación de humanos virtuales. Todo esto se desarrolla dentro de un ambiente virtual como puede ser: Ogre, Unity y 3D.
Indicó que hoy en día, la mayoría de los sistemas de LSM realizados toman un subconjunto del lenguaje de señas y no incorporan estructuras complejas como ideogramas,
Este último término tiene que ver con un símbolo que signifique algo como agua o montaña. En la LSM también se manejan.
“Lo que queremos es construir herramientas donde la entrada es texto en español y la salida es en LSM, es imaginar un humano virtual en 3D que pueda realizar el lenguaje de señas.”
Por tanto, reiteró que los sistemas de realidad virtual son un buen espacio para llevar a cabo la traducción; sin embargo, el reto es que además de implementar la traducción de oraciones parecidas al español, también se considere aquellas que no se encuentran en nuestro idioma, que son complejas y se relacionen con el movimiento de manos.
Claudia Peralta Vázquez/Prensa UV