El aprendizaje automático y uso de big data avanza a pasos agigantados. Sin embargo, ¿hasta qué punto puede entender una máquina?
Los alcances de la inteligencia humana siguen siendo objeto de debates. A pesar de esto, se habla abiertamente de una incipiente inteligencia artificial en rubros cada vez más amplios. Hoy, las máquinas pueden predecir tendencias, la efectividad de una operación, la eficiencia del transporte, etc, aunque los aspectos del conocimiento y la inteligencia son mucho más complejos.
La idea de la inteligencia artificial no es nueva. Desde los años 50, el debate sobre la inteligencia de las máquinas ya era un hecho. Basta recordar el famoso Test Turing, de Alan Turing, donde se ponía a prueba la capacidad de una máquina para actuar como humano. Sin embargo, Turing también fue uno de los primeros en plantear la dificultades para definir facultades como el “pensamiento” dentro de una máquina “pensante”.
Para aprender hace falta tener algún tipo de inteligencia y en el caso de los humanos nos encontramos con sistemas abiertos y heterogéneos, con dinámicas que incluso la ciencia moderna sigue estudiando. La complejidad de la inteligencia humana ha sido objeto de debates, donde nos encontramos con teorías que apuntan a las inteligencias múltiples (lingüística, cinestésica, interpersonal, lógica, etc) y otras que la ven como algo unitario.
Es justamente este debate el que nos lleva a pensar qué tan inteligente puede ser realmente una máquina, sobre todo desde un punto de vista proyectivo. ¿Será que la inteligencia lógica podrá eventualmente llegar a entender las demás o siempre estará relegada a un espacio particular dentro del amplio mundo de la epistemología? Pablo Castro, argentino experto en IA, conversó con FayerWayer sobre el tema durante el Microsoft Data & AI Experience 2018 LATAM, celebrado en Buenos Aires, Argentina:
En este momento, el estado del arte es que estamos entendiendo cómo podemos repetir ciertos razonamientos, estamos estudiando mucho cómo “representar conocimiento”, explotarlo y hacerlo funcionar. Estos sistemas (de machine learning) están ‘aprendiendo a ver’, pero en un sentido muy mecánico.
¿Puede una máquina entender la complejidad del lenguaje?
Otro tema relevante tiene que ver con los algoritmos de aprendizaje en el lenguaje, donde Castro es un referente internacional. El estudio del lenguaje en el mundo real funciona de una manera no lineal, vale decir, depende mucho del contexto o la intención detrás de las palabras. Por ejemplo, la ironía o el sarcasmo podría representar un significado distinto al literal. Pues entonces, ¿cómo puede una máquina interpretar esto de forma asertiva?
Estamos aprendiendo a entender los lenguajes. Es muy difícil describir un idioma humano entero en reglas, pero los aspectos de la inteligencia artificial nos ayudan. Al final, todas estas herramientas son mecánicas. En lo personal, yo no me veo trabajando en aspectos no mecánicos todavía, porque estamos en los comienzos de este gran proceso.
Considerando los avances de la IA y el temor con el que se ve muchas veces esta área, no es menor preguntarse hasta qué punto podría llegar una “inteligencia” de este tipo. Para Castro, a los desarrolladores de algoritmos de aprendizaje y a la ciencia de datos, aún le queda mucho camino por recorrer:
Yo creo que no hay una respuesta general. Eso sí, se están haciendo cosas. El nivel en el que entienden las personas es mucho más sofisticado, pero hay cosas sencillas, como entender la forma de representar palabras; en esto tenemos los word vectors (vectores de palabras), que son representaciones que aceptan que los conceptos no son discretos. Es fascinante ver esto, porque tiene un poco más de detalle, un poco más del sabor del lenguaje que modelos del pasado, discretos, donde se definen las palabras con un significado absoluto, que no es como las personas usan el idioma.
FayerWayer | César Muñoz