Con la participación de estudiantes de la Licenciatura en Ciencias de la Computación de la Facultad de Ciencias de la Universidad Nacional Autónoma de México (UNAM), inició el Seminario de Interfaces Inteligentes en el Centro de Investigación en Inteligencia Artificial (CIIA) de la Universidad Veracruzana (UV).

El evento se realizó los días jueves 25 y viernes 26 de octubre en el auditorio del CIIA, contó con la participación de académicos y estudiantes de la UNAM y de la UV en temáticas como robótica móvil, interacción humano-computadora, interacción humano-robot, reconocimiento y síntesis de la lengua de señas mexicana, robótica de servicios, graficación por computadora, generación de escenarios virtuales, interfaces para rehabilitación y juegos serios.

Así lo detalló en la inauguración Homero Vladimir Ríos Figueroa, académico e investigador del CIIA, quien dio paso a la primera ponencia a cargo de Julio Ezequiel González Rojas, egresado de la Licenciatura de Ciencias de la Computación en la UNAM, quien presentó el trabajo “Generación procedural con gramáticas y funciones de ruido para ambientes urbanos delimitados por distritos”.

El universitario explicó que los resultados son parte de su trabajo de tesis, precisó que la generación procedural hace referencia al uso de un algoritmo para generar contenido que comúnmente sería producido por un ser humano.

Dentro del cómputo gráfico esto es de particular interés porque facilita el trabajo de generar un ambiente urbano virtual, vegetación, caminos, mallas, mapas o texturas en 3D; también “es una buena opción para desarrolladores que no tengan un alto presupuesto y por consiguiente no pueden contratar personal especializado”, comentó.

“Una de las partes importantes al utilizar las interfaces inteligentes es el ambiente en que las modelamos; en este caso podemos tener un ambiente que pueda ser simulado por un agente robótico dentro de un ambiente urbano”, explicó.

Las principales aplicaciones de este procedimiento están dentro de los videojuegos, animación y simulación en ambientes virtuales, refirió González Rojas al comentar que su trabajo de tesis se enfocó a la generación de uno de estos ambientes utilizando funciones de ruido y gramáticas adaptadas al sistema L.

Explicó que el realismo en términos de diseño de un ambiente virtual se refiere a la inmersión que tiene el usuario dentro del ambiente, “también debe tener elementos de imprevisibilidad”.

A continuación, Ulises Manuel Cárdenas, también egresado de la UNAM, en colaboración con el propio Julio Ezequiel González presentaron la ponencia “Interpretación de gestos de construcción de objetos para el sensor de movimiento Leap Motion’”.

Ulises Manuel precisó: “Nuestro proyecto está motivado para generar una interfaz que sea intuitiva para seres humanos y sea utilizada de manera muy sencilla en un ambiente con gestos para construir objetos”.

Leap Motion es un sensor de movimiento que utiliza un campo infrarrojo para detectar los movimientos que realiza una mano y los digitaliza; en ello se asemeja a la consola de videojuegos Kinect, explicó.

Esta interfaz, dependiendo de la capacidad de cómputo del equipo y de la aplicación que se esté utilizando, puede generar aproximadamente entre 20 y 200 cuadros por segundo, que en este caso se llaman Snapshot o capturas del estado de la mano en movimiento en 3D.

Su propuesta consiste en explorar dos formas distintas para definir los gestos del movimiento de la mano, captado por Leap Motion; el primero se basa en la identificación de “banderas” y el segundo se basa en el uso de una red neuronal.

La “bandera” es un tipo de dato cualquiera que cuando cumple determinado valor libera una secuencia de acciones, que en este caso se establecen para las distintas articulaciones de la mano y permitan identificar un gesto, que puede estar integrado por más de una “bandera”.

Entre las ventajas de su proyecto está la aproximación a través de “banderas”, que les permitirá hacer una abstracción a nivel de código y en el análisis de gestos simples es sencillo de implementar.

Por otro lado, entre las desventajas reconoció que cuando la mano realiza un gesto complejo no será posible elaborar un código simple ni abstraer fácilmente las “banderas” involucradas a nivel de programación.

Para resolver tal problemática, ambos han propuesto la implementación de una red neuronal que “puede servirnos mucho y debe cumplir tres características principales: debe ser capaz de interpretar gestos que se parezcan entre sí; debe evitar interpretar más de un gesto a la vez y debe ser bastante veloz”.

David Sandoval Rodríguez/Prensa UV