Tecnología de sensores automotrices: LiDAR Vs. Radar Vs. Cámaras
Hay docenas de empresas emergentes que impulsan el LiDAR como el futuro de la tecnología de vehículos autónomos, pero un número creciente de empresas está buscando alternativas que incluyen cámaras y radar. ¿Cuál es la tecnología definitiva para AVs? ¿Cuál saldrá en la cima? Esa pregunta aún no ha sido respondida, pero hay algunas compañías únicas que intentan repensar la tecnología de sensores automotrices. Sus creaciones podrían proporcionar algunas pistas de lo que depara el futuro.
” Tuvimos un stand en CES hace un año y medio, y el comentario más común que recibimos fue, ‘¿Dónde está tu LiDAR? Ustedes no son una compañía LiDAR'”, dijo Paul Banks, fundador y CEO de TetraVue, una startup que construye cámaras de video LiDAR 4D. “En cierto sentido, eso es cierto. Somos una empresa de cámaras y la cámara es capaz de realizar una medición de distancia para cada píxel y cada fotograma.”La tecnología de TetraVue no es técnicamente LiDAR, pero Banks dijo que su firma utiliza” las mismas medidas físicas básicas.”
“Tenemos lo que llamamos ‘ tiempo óptico de vuelo'”, explicó Banks. “Tenemos este modulador óptico que colocamos delante de un sensor de cámara normal, como el que está en su teléfono celular, y ese modulador nos permite medir la distancia de cada píxel para la misma imagen. En lugar de 64 puntos, hemos hecho cámaras HD, por lo que obtienes 2 millones de mediciones de distancia al mismo tiempo.”Esto da como resultado un sensor que puede visualizar claramente una amplia gama de detalles, no solo otros automóviles, sino también obstáculos potenciales, peatones o un niño que viaja en triciclo.
TetraVue no es la única compañía que intenta usar cámaras para superar las deficiencias de LiDAR. Outsight es otra empresa de este tipo, desarrollando una cámara semántica 3D que puede detectar el tamaño, la posición y la composición química de objetos, incluida la piel, el plástico, el metal y la nieve, sin aprendizaje automático. El cofundador Raúl Bravo cree que esta es una parte importante del desarrollo de la cámara.
“Hay una tendencia de aprendizaje automático”, dijo Bravo. “Nuestro enfoque contrario es que el aprendizaje automático no es una solución mágica. No es algo que deba usarse en todas las situaciones.”Bravo imagina un mundo en el que los vehículos sean capaces de reconocer que algo está allí, una persona u objeto que no pertenece, sin preocuparse necesariamente por los detalles.
“Si está frente a usted, en su carril y no debería estar allí, a veces solo tiene que reaccionar”, dijo Bravo. Le preocupa que si un automóvil confía en el aprendizaje automático, podría perder demasiado tiempo evaluando el escenario en lugar de reaccionar. Con visión de futuro, espera que los automóviles logren un mayor grado de conciencia situacional.
“Significa no solo sentir el entorno, sino también comprender el entorno”, agregó. “Estamos fusionando, en un sensor, la detección y la comprensión que necesita para que funcionen las máquinas inteligentes.”John Xin, cofundador y CEO de Lunewave, una startup que desarrolla un sistema de sensores de radar para automóviles de alto rendimiento y alto valor para AVs, ve valor en todas las tecnologías. Pero también reconoce sus debilidades.
“Creo que las cámaras son una ventaja distintiva de la interpretación de señales, por lo que son extremadamente importantes”, dijo Xin, cuya compañía ofrece antenas de lentes Luneburg hechas a medida en varios tamaños. “El ultrasonido es principalmente para estacionar, la parte complicada es que es a muy corta distancia, realmente no puede detectar más de unos pocos pies.”LiDAR, por otro lado, tiene una resolución angular muy fina, lo que lo hace ideal para diferenciar entre objetos. Pero cuando llega la niebla o una tormenta de nieve, tanto el LiDAR como las cámaras tienen dificultades para funcionar a plena capacidad.
“Esta es la razón por la que la industria sabe que el radar está aquí para quedarse”, dijo Xin. “Es el único que funciona bien en condiciones climáticas adversas.