Desarrolladores estadounidenses han creado un algoritmo que puede animar las figuras de personas en imágenes bidimensionales. La inteligencia artificial crea un modelo tridimensional de la persona, y luego reproduce la animación con la persona saliendo de la imagen. Los detalles de la investigación han sido publicados en arXiv.org.
Al mirar una foto, una persona generalmente puede imaginar cómo se movieron los objetos, pero para los algoritmos esta tarea sigue siendo bastante complicada. Hasta ahora, los investigadores se dedican principalmente al desarrollo de algoritmos que pueden recrear solo una pequeña parte de los movimientos de las personas en las imágenes. El año pasado, los desarrolladores de la Universidad de Tel Aviv y Facebook enseñaron el algoritmo a animar las expresiones faciales en los retratos.
Imagenes bidimensionales
Otro grupo de la Universidad de Washington y Facebook, dirigido por Ira Kemelmacher-Shlizerman, desarrolló un algoritmo que puede crear una animación completa de una persona que incluso sale de la imagen, basándose en una foto bidimensional.
El sistema creado por los investigadores es un conjunto de varios algoritmos desarrollados previamente. Inicialmente, toma una imagen bidimensional y la procesa utilizando la red neuronal Mask R-CNN. En esta etapa, el algoritmo reconoce el área con una persona en la imagen y la separa del fondo. Luego, otro algoritmo convierte esta área en un modelo bidimensional del esqueleto, que consiste de segmentos rectos y sus conexiones. Después, otro algoritmo crea un fondo realista en áreas de la foto que originalmente fue tapada por la persona.
Después de crear un modelo bidimensional, el algoritmo crea en su base un modelo tridimensional y le pone una textura creada en base a la imagen de la persona de la foto original. Como resultado, el usuario obtiene un modelo que puede realizar movimientos arbitrarios, por ejemplo, salir de la imagen. Además, el usuario puede cambiar manualmente la posición de las partes del cuerpo del modelo antes de comenzar la animación.
Los desarrolladores han creado varios modos de funcionamiento del algoritmo. En uno de ellos, el algoritmo crea la animación habitual en el monitor, y en el otro, puede mostrarlo en realidad aumentada. De esta manera, los desarrolladores convirtieron una imagen ordinaria en una interactiva.
Hace unos meses, la Universidad de California, Berkeley y la Universidad Carnegie Mellon se unieron para desarrollar un algoritmo que puede detectar inconsistencias en una imagen adulterada. Este sistema ha sido entrenado con más de 400.000 fotos de Flickr. El equipo se valió de la información que proporcionaban los metadatos o datos EXIF.
Fuente: nmas1.org