Predecir lo que alguien va a hacer a continuación basándose en su lenguaje corporal es algo natural para los humanos, pero no para los ordenadores o robots. Cuando conocemos a otra persona, puede saludarnos con un “hola”, un apretón de manos o de otras maneras. Puede que no sepamos qué va a hacer exactamente, pero podemos leer la situación y reaccionar adecuadamente.

Unos científicos de la Universidad de Columbia en la ciudad de Nueva York han desarrollado un algoritmo de visión por ordenador para predecir las interacciones humanas a partir del lenguaje corporal. El aprendizaje por parte del sistema se basa en observar videos de personas interactuando entre ellas. Esta capacidad de predicción podría darles a los robots y a otras máquinas un sentido más intuitivo de lo que ocurrirá a continuación en sus interacciones con humanos. Las aplicaciones potenciales son muchas, abarcando, entre otras, los sistemas de ayuda física a personas ancianas o con discapacidades, los vehículos autoconducidos, y los robots capaces de trabajar de manera cooperativa con obreros humanos.

Hasta donde sabe el equipo de Carl Vondrick, Dídac Surís y Ruoshi Liu, su método es el más preciso hasta la fecha para predecir acciones en vídeo hasta varios minutos en el futuro.

Tras analizar miles de horas de películas, series y otros programas televisivos, el sistema ha aprendido a predecir cientos de actividades, desde un apretón de manos hasta un choque amistoso de puños. Cuando no puede predecir la acción concreta, encuentra el concepto de nivel superior que las relaciona, en este caso, la palabra «saludo».