Pulen sistemas de sensores de autos autónomos
- John R. Quain
Los autos autónomos pueden generar imágenes en 3D, pero tienen limitantes de distancia y pueden ser obstaculizado en lluvias intensas.
![Usan cámaras de AdaSky sensores infrarrojos lejanos para crear una imagen más precisa para vehículos autónomos. Foto/ Adasky.](https://www.panamaamerica.com.pa/sites/default/files/imagenes/2019/10/18/autos_0.jpg)
Usan cámaras de AdaSky sensores infrarrojos lejanos para crear una imagen más precisa para vehículos autónomos. Foto/ Adasky.
Entre los diseñadores de vehículos autónomos crece el consenso respecto a que estos autos no son tan perceptivos para ser lo suficientemente seguros. Así que ahora los ingenieros consideran el uso de tecnología y sensores más sofisticados.
“Aún hay deficiencias en el conjunto de sensores”, dijo Bobby Hambrick, director general de AutonomouStuff, proveedor de tecnología autónoma para investigadores y desarrolladores.
VEA TAMBIÉN: Marca 'Gucci' opta por suministros neutros en carbono
Él y otros señalan que el problema es que los autos no pueden determinar qué está a su alrededor si no pueden ver los objetos.
Hasta ahora, el modelo estándar de vehículos autónomos ha usado combinaciones de sensores: videocámaras, radar, sensores ultrasónicos y lidar.
El problema principal es que los autos autónomos no pueden ver lo suficientemente bien para maniobrar de manera segura en tráfico pesado o ver delante a una distancia suficiente para sortear condiciones de manejo en cualquier tipo de clima.
Las videocámaras pueden fallar por el resplandor. El radar estándar puede juzgar la velocidad relativa de objetos, pero tiene mala visión. Los sensores ultrasónicos sólo pueden percibir objetos cercanos —y de manera no muy clara.
El lidar, aunque puede generar imágenes en 3D, tiene limitantes de distancia y puede ser obstaculizado en lluvia intensa. E incluso el software más sofisticado no puede hacer nada si no cuenta con los datos de percepción en primer lugar.
VEA TAMBIÉN: Planta de carbón abandonada es convertida en un museo contemporáneo
Las compañías están considerando otras tecnologías, como cámaras “infrarrojas lejanas” que revelan imágenes de objetos invisibles a simple vista y georradar que detecta características subterráneas.
Un aguacero en una feria tecnológica hace año y medio podría haber sido un hito en la carrera por desarrollar coches autónomos. Una compañía, AdaSky, demostró cómo sus cámaras infrarrojas lejanas podían ver personas a más de 100 metros en una lluvia torrencial, mientras que otras compañías tuvieron que mantener sus vehículos estacionados.
Las cámaras infrarrojas lejanas de AdaSky pueden detectar longitudes de onda por debajo del espectro visible que indica calor. Funcionan particularmente bien para ver seres vivos en la oscuridad, y ya han sido usadas en sistemas de visión nocturna.
Sin embargo, se podría tener que incorporar tecnología menos conocida, como el georradar de WaveSense.
Con sensores adaptados bajo un vehículo, este radar puede generar una huella digital de las características geológicas regulares bajo el pavimento, ubicando con precisión dónde está el vehículo en cualquier momento.
WaveSense utiliza módulos de radar que pueden ver 3 metros bajo tierra, muy por debajo de la línea de congelación.
VEA TAMBIÉN: Los gatos son más afectivos con las personas que le demuestran más atención
En la carrera del lidar, compañías como Luminar y Blackmore Sensors and Analytics trabajan en modelos de longitud de onda más alta que podrían ofrecer sistemas de velocidad en carretera de mayor alcance que puedan ver a través de lluvia y nevadas ligeras.
Y los fabricantes automotrices “aún están en modo de desarrollo”, apuntó Jim Curry, cofundador de Blackmore.
“El hardware de sensor que usamos sigue siendo un trabajo en progreso, en especial en términos de alcanzar producción masiva y calidad de grado automotriz”, dijo Alan Hall, vocero de Argo AI, subsidiaria de autos de manejo autónomo de Ford.
Para comentar debes registrarte y completar los datos generales.