Las redes neurales son una serie de capas conectadas de neuronas artificiales (dispositivos que emulan el funcionamiento de las neuronas), donde la señal de salida de una capa proporciona la señal de entrada para la siguiente. La generación de esa señal de entrada se hace aplicando un cálculo matemático llamado función de activación no lineal. Esta es una parte fundamental del funcionamiento de una red neural. Pero la aplicación de esta función requiere mucha potencia de cálculo y circuitos porque implica la transferencia de datos de ida y vuelta entre dos unidades separadas: la memoria y un procesador externo.

Ahora, un equipo que incluye a Duygu Kuzum y Sangheon Oh, ambos de la Universidad de California en San Diego, Estados Unidos, ha desarrollado un dispositivo de tamaño nanométrico que puede llevar a cabo la función de activación de forma eficiente.

El nuevo dispositivo puede ejecutar cálculos de redes neurales utilizando entre 100 y 1000 veces menos energía y área que el hardware existente basado en la tecnología CMOS. En el aspecto energético, las neuronas artificiales serían más similares a las biológicas de lo que son hoy en día.

Adiestrar a redes neurales para que realicen tareas, como el reconocimiento de imágenes o la conducción de coches autopilotados, podría algún día requerir menos potencia de cálculo y menos hardware gracias a este nuevo dispositivo.

Esta tecnología, según sus creadores, podría ampliarse para realizar tareas más complejas, como el reconocimiento facial y de objetos en los coches autoconducidos. Con el interés y la colaboración de la industria, esto podría suceder, reitera Kuzum. «En este momento, se trata solo de una prueba de concepto. La versión actual es un sistema diminuto en el que solo hemos apilado una capa de sinapsis y una capa de activación. Apilando más de estas capas, se podría hacer un sistema más complejo para diferentes aplicaciones».