Los sensores de imagen estándar, como los cerca de mil millones que ya están instalados en prácticamente todos los smartphones actuales, captan la intensidad de la luz y el color. Estas cámaras, que se basan en una tecnología común y corriente, son cada vez más pequeñas y potentes y ahora ofrecen una resolución que alcanza las decenas de megapíxeles. Pero siguen viendo en solo dos dimensiones, captando imágenes planas. Esta limitación podría desaparecer pronto.

 

El equipo de Okan Atalar, de la Universidad de Stanford en Estados Unidos, ha ideado un modo de lograr que esos sensores estándar de imagen vean la luz en tres dimensiones. Concretamente, estas cámaras comunes podrían utilizarse pronto para medir la distancia a objetos.

 

Eso revolucionaría numerosos procedimientos y sistemas en diversos campos.

 

La medición, mediante luz, de la distancia entre objetos solo es posible actualmente con sistemas LiDAR (Light Detection And Ranging), aparatos especializados y costosos. Estos sistemas emplean rayos láser de baja potencia para medir las distancias entre objetos. Los coches autoconducidos se valen típicamente de sistemas LiDAR para detectar riesgos de colisión. El LiDAR es como un radar, pero con luz en vez de ondas de radio. Al proyectar un láser sobre los objetos y medir la luz que rebota, se puede saber a qué distancia está un objeto, a qué velocidad se desplaza, si se acerca o se aleja y, lo que es más importante, se puede calcular si las trayectorias de dos objetos en movimiento se cruzarán en algún momento en el futuro si mantienen su trayectoria y su velocidad.

 

Los sistemas LiDAR existentes son voluminosos además de caros. En un futuro cercano, para dotar de sistema LiDAR a millones de drones autónomos u otros vehículos robóticos ligeros, será imprescindible miniaturizarlos lo suficiente, reducir su consumo energético y garantizar que no pierdan eficiencia.

 

El avance logrado por el equipo de Atalar ofrece dos importantes opciones de desarrollo:

 

En primer lugar, podría permitir una resolución de megapíxeles en los sistemas LiDAR, un umbral que no es posible en la actualidad. Una mayor resolución permitiría al LiDAR identificar objetivos a mayor distancia. Un coche autónomo, por ejemplo, podría distinguir a un ciclista de un peatón desde más lejos, es decir, antes, y permitir que el coche evitase más fácilmente un accidente.

 

En segundo lugar, cualquier sensor de imagen disponible hoy en día, incluido el millar de millones de teléfonos inteligentes actuales, podría capturar imágenes 3D ricas con mínimas adiciones de hardware.

 

Uno de los métodos para añadir a los sensores estándar la capacidad de ver en 3D es añadir una fuente de luz (fácil de hacer) y un modulador (no tan fácil de hacer, al menos con el diseño clásico de los moduladores) que enciende y apaga la luz muy rápidamente, millones de veces cada segundo. Al medir las variaciones de la luz, es posible calcular la distancia. Los moduladores existentes lo hacen, pero requieren grandes cantidades de energía. Tan grandes, de hecho, que ello los hace inviables para aplicaciones cotidianas.

 

La solución ideada por el equipo de Atalar se basa en un fenómeno conocido como resonancia acústica. El equipo construyó un sencillo modulador acústico utilizando una fina oblea de niobato de litio (un cristal transparente muy apreciado por sus propiedades eléctricas, acústicas y ópticas) recubierta por dos electrodos transparentes.