Lo llaman inteligencia artificial, no porque la inteligencia sea de alguna manera falsa. Es inteligencia real, pero sigue siendo hecha por humanos. Eso significa que la IA – una herramienta de poder que puede añadir velocidad, eficiencia, perspicacia y precisión al trabajo de un investigador – tiene muchas limitaciones.

 

Solo es tan buena como los métodos y datos que se le hayan dado. Por sí misma, no sabe si falta información, cuánto peso tiene que dar a los diferentes tipos de información o si los datos de los que se nutre son incorrectos o están corrompidos. No puede tratar con precisión la incertidumbre o los eventos aleatorios, a menos que aprenda cómo hacerlo. Confiando exclusivamente en los datos, como suelen hacer los modelos de aprendizaje automático, no aprovecha el conocimiento que los expertos han acumulado a lo largo de los años y los modelos físicos que sustentan los fenómenos físicos y químicos. Ha sido difícil enseñar a una computadora a organizar e integrar información de fuentes muy diferentes.

 

Ahora, unos investigadores de la Universidad de Delaware y de la Universidad de Massachusetts-Amherst han publicado detalles de un nuevo enfoque para la inteligencia artificial que incorpora a sus cálculos la incertidumbre, el error, las leyes físicas, el conocimiento experto y los datos que faltan y que, en última instancia, conduce a modelos mucho más fiables. El nuevo método proporciona garantías que típicamente faltan en los modelos de inteligencia artificial, mostrando cuán valioso – o no – puede ser el modelo para lograr el resultado deseado.

 

Joshua Lansford, estudiante de doctorado en el Departamento de Ingeniería Química y Biomolecular de la UD, y el Prof. Dion Vlachos, director del Centro de Catálisis para la Innovación Energética de la UD, son coautores del artículo publicado en la revista Science Advances. También contribuyeron Jinchao Feng y Markos Katsoulakis del Departamento de Matemáticas y Estadística de la Universidad de Massachusetts-Amherst.

 

El nuevo marco matemático podría producir una mayor eficiencia, precisión e innovación para los modelos informáticos utilizados en muchos campos de investigación. Tales modelos proporcionan poderosas formas de analizar datos, estudiar materiales e interacciones complejas y ajustar variables de forma virtual en lugar de en el laboratorio.