Automated Driving Toolbox

 

Automated Driving Toolbox

Diseño, simulación y pruebas de sistemas de asistencia avanzada a la conducción (ADAS) y de conducción autónoma

 

Automated Driving Toolbox™ proporciona algoritmos y herramientas para diseñar, simular y probar sistemas de asistencia avanzada a la conducción (ADAS) y de conducción autónoma. Es posible diseñar y probar sistemas de percepción de visión y lidar, así como controladores de fusión de sensores, planificación de trayectorias y vehículos. Entre las herramientas de visualización están un diagrama y un visor de vista aérea de cobertura de los sensores, detecciones y seguimientos, así como visualizaciones para vídeo, lidar y mapas. La toolbox permite importar datos de HERE HD Live Map y redes de carreteras de OpenDRIVE®, así como trabajar con ellos.

Mediante la app Ground Truth Labeler, es posible automatizar el etiquetado de validación (ground-truth) para entrenar y evaluar los algoritmos de percepción. Para las pruebas hardware-in-the-loop (HIL) y la simulación de escritorio de la fusión de sensores, la planificación de trayectorias y la lógica de control, se pueden generar y simular escenarios de conducción y salidas de sensores de radar y cámara.  

Automated Driving Toolbox proporciona ejemplos de aplicaciones de referencia para características habituales de ADAS y conducción autónoma, incluidas FCW, AEB, ACC, LKA y estacionamiento. Esta toolbox soporta la generación de código C/C++ para el prototipado rápido y las pruebas HIL, y admite algoritmos de control de fusión de sensores, seguimiento, planificación de trayectorias y vehículos.

Comience:

Aplicaciones de referencia

Utilice las aplicaciones de referencia como base para desarrollar funciones de conducción autónoma. Automated Driving Toolbox incluye aplicaciones de referencia para advertencia de colisión frontal (FCW), asistencia de mantenimiento de carril (LKA) y estacionamiento automático.

Detección de vehículos y carriles en el ejemplo de referencia sobre el diseño de un sistema de percepción visual. 

Generación de escenarios y modelos de sensores

Pruebe los algoritmos de conducción autónoma mediante escenarios creados y detecciones sintéticas de modelos de sensores de radar y cámara.

Creación de escenarios de conducción

Defina redes de carreteras, actores y sensores mediante la app Driving Scenario Designer. Importe pruebas de Euro NCAP y redes de carreteras de OpenDRIVE prediseñadas.

Modelización de la salida de un sistema de visión, incluidas las detecciones de vehículos y carriles. 

Pruebas de algoritmos mediante datos sintéticos

Pruebe y valide algoritmos de percepción, fusión de sensores y control en configuraciones de lazo abierto y cerrado mediante datos simulados de escenarios de conducción y modelos de sensores.

Prueba de un sistema de asistencia de mantenimiento de carril (LKA) mediante datos simulados.

Etiquetado de validación (ground-truth)

Automatice el etiquetado de datos reales del terreno (ground-truth) y compare la salida de un algoritmo puesto a prueba con datos de validación.

Etiquetado de validación (ground-truth)

Etiquetado de validación (ground-truth) interactivo y automatizado para detección de objetos, segmentación semántica y clasificación de escenas.

Pruebas de algoritmos de percepción

Evalúe el rendimiento de los algoritmos de percepción mediante la comparación de los datos de validación (ground-truth) con las salidas de los algoritmos.

Evaluación de la salida de detección de carriles con respecto a datos de validación (ground-truth).

Percepción con lidar y visión artificial

Desarrolle y pruebe algoritmos de procesamiento de visión y lidar para la conducción autónoma.

Diseño de sistemas de visión

Desarrolle algoritmos de visión artificial para la detección de vehículos y peatones, la detección de carriles y la clasificación.

Salida de la simulación de un sensor de cámara monocular.

Procesamiento de lidar

Utilice datos de lidar para detectar obstáculos y segmentar los planos de tierra.

Detección de obstáculos en nubes de puntos lidar.

Fusión de sensores y seguimiento

Lleve a cabo la fusión de varios sensores mediante un marco de seguimiento multiobjeto con filtros de Kalman.

Mapas

Acceda a datos de mapas de alta definición mediante el servicio HERE HD Live Map y visualice las ubicaciones de vehículos y objetos en visores de streaming de mapas.

Planificación de trayectorias

Planifique trayectorias de conducción mediante el uso de mapas de coste de vehículos y algoritmos de planificación de movimiento.

Controladores de vehículos

Utilice controladores laterales y longitudinales para seguir una trayectoria planificada.

Funcionalidades más recientes

Lector de HERE HD Live Map

Lea y visualice datos de mapas de alta definición diseñados para aplicaciones de conducción autónoma.

Lector de escenarios

Lea escenarios de conducción en Simulink a fin de probar los controladores y los algoritmos de fusión de sensores.

Visor de vista aérea para Simulink

Analice la cobertura de sensores, las detecciones y los seguimientos en su modelo.

Escenarios de conducción prediseñados

Pruebe los algoritmos de conducción con escenarios de Euro NCAP y otros escenarios prediseñados.

Planificación de trayectorias

Planifique trayectorias de conducción mediante un mapa de coste y un planificador de trayectorias RRT*.

Consulte las notas de la versión para obtener detalles sobre estas características y las funciones correspondientes.

Consiga una prueba gratuita

30 días de exploración a su alcance.

Descargar ahora

¿Listo para comprar?

Solicitar precio y explore los productos relacionados.

¿Eres estudiante?

Obtenga el software para estudiantes de MATLAB y Simulink.

Más información