El objetivo es que los sistemas de visión artificial registren el entorno, que los algoritmos resuelvan el acertijo y que los vehículos autónomos entiendan el mundo a la primera. Pero los ojos electrónicos no llegan todavía a todos los rincones, y el punto flaco reside en lo que los expertos denominan los corner cases. Aunque cada una de las tecnologías que utilizan los vehículos autopilotados está preparada para cubrir las debilidades de las demás, existen aún circunstancias peliagudas, casos extraños, que se escapan al control de la inteligencia artificial .
El radar detecta que tiene un objeto delante, por ejemplo, pero no sabe cuál es; la cámara ofrece una resolución altísima y representa muy bien el entorno, pero no acierta a averiguar la profundidad de campo; el Lidar (acrónimo del inglés Laser Imaging Detection and Ranging), por su parte, calcula la distancia, sin prospecciones ni cálculos computacionales, pero proporciona una baja definición de imagen. Los expertos asumen que, en último término, no queda más remedio que jugar a este piedra, papel o tijera de la visión artificial.
En el terreno de las cámaras, Mobileye fabrica chips que "explotan al máximo la tecnología de extracción de información, calculando distancias con sus algoritmos propios", cuenta Francisco Izquierdo, director técnico de Track Surveying Solutions, representante en España de Mobileye.
La algoritmia clásica hace una segmentación de imagen basada en colores y en formas, mediante filtros y superpixeles que permiten definir qué pixeles corresponden a un objeto determinado. "Con eso se consiguen muy buenos resultados identificando personas y la parte trasera de los vehículos, es decir, la combinación de luces más matrícula", explica Izquierdo. Pero la investigación avanza por otro lado. Mobileye, que pertenece a Intel desde 2017 y que colabora con BMW, Nissan y Volkswagen, utiliza otra técnica para extraer la información: las redes neuronales. "Han evolucionado mucho en los últimos cinco años gracias a Google y a Facebook, entre otros, gigantes que tienen muchísimos datos y que han sido capaces de etiquetar la información", adelanta Izquierdo.
Ante una imagen captada por una cámara, la red disuelve pixeles, busca patrones y aplica una serie de pesos que contextualizan la escena e indican al vehículo que está en una carretera, que eso es una señal y en concreto qué señal es. "El cuello de botella está en tener mucha información de origen segmentada, porque tú a la red neuronal le tienes que enseñar", añade el director técnico de Track Surveying Solutions. "Las redes neuronales tienen una gran capacidad de aprendizaje mediante algoritmos de machine learning y deep learning y pueden llegar al autoaprendizaje, pero el sistema necesita datos. Primero le enseñamos qué es un coche, qué es una moto y también qué no es un coche y qué no es una moto", concreta Marga Sáez, responsable del área de Sistemas de Visión del Centro Tecnológico de Automoción de Galicia. "La cámara tiene una ventaja fundamental, que es la gran potencia de clasificación de objetos. Y con las cámaras de alta definición actuales se puede hacer con una precisión alta", añade Sáez.
La lluvia, enemiga de la IA
La inteligencia artificial, sin embargo, no sortea bien todos los obstáculos. "En algunos casos, los semáforos son difíciles de interpretar. Por ejemplo, cuando hay tres carriles y dos de ellos están regulados por una luz y el tercero, por otra independiente. Y es peor en Estados Unidos, donde hay una luz para cada carril. Son muchas combinaciones posibles para el ordenador. Tiene que interpretar las luces, las líneas de carril… El humano soluciona esta situación sin demasiados problemas, pero un coche autónomo necesita que todo esté perfectamente estipulado", explica Izquierdo.
Poner fin a los puntos ciegos
Los avances en la tecnología Lidar son constantes. La startup estadounidense AEye presentó en 2017 un dispositivo integrado por un lídar en estado sólido, una cámara y varios chips que ejecutan algoritmos, gracias a los cuales el sistema puede escanear una imagen, detectar las zonas clave y enviar los rayos láser donde la inteligencia artificial considere: automóviles, peatones o cualquier objeto significativo. Es decir, simular la visión humana y centrarse en lo que importa. La clave reside en evitar las zonas muertas que generan los dispositivos mecánicos. En septiembre, LeddarTech lanzó un Lidar en estado sólido que garantiza un ángulo de visión de 180 grados sin puntos ciegos, frente a los 70 que cubre el sistema de AEye.
La niebla es otra de las situaciones que suscita problemas a la visión artificial. Una cámara convencional ve tan mal como el ojo humano, o peor, y el lidar no recibe rebotes cuando hay agua en suspensión, pues esta absorbe la luz. Una de las soluciones más brillantes la mostraron el año pasado tres investigadores del MIT Media Lab. Su sistema de detección se basa en una cámara que lanza ráfagas de láser hacia los objetos y calcula el tiempo que tarda la luz en volver. Un algoritmo propio es capaz de descubrir patrones de luz reflejada, por mucho que esta se disperse en el agua, de manera que puede determinar con precisión a qué distancia están los objetos.
Ante la inabarcable cantidad de casos especiales con los que se encontrarán los coches autónomos, "la única salida es la combinación de tecnologías, como se hace en aviación. Tienen que existir procesos decisorios en paralelo para que el vehículo no se quede colgado", concluye Izquierdo.
Otras noticias de Vehículos autónomos
Más leídas de Tecnología
Similares a los Ray-ban de Meta. Samsung tendrá su línea de anteojos inteligentes en 2025
Auto clásico. Cómo se vería el histórico Dodge GTX modelo 2025, según la IA
Cuidado. Qué significa quitar la foto de perfil en WhatsApp, según un psicólogo
Google. Así es juego interactivo que Google le dedica a la Luna de noviembre