Deep Learning HDL Toolbox

 

Deep Learning HDL Toolbox

Prototipe y despliegue redes de Deep Learning en FPGA y SoC

Prototipado e implementación de redes de Deep Learning en FPGA para el despliegue en dispositivos edge.
Diagrama de bloques de un procesador de Deep Learning programable.

Uso de un procesador de Deep Learning basado en FPGA

La toolbox incluye un procesador de Deep Learning que ofrece capas de Deep Learning genéricas controladas por lógica de planificación. Este procesador efectúa inferencias de redes basadas en FPGA con Deep Learning Toolbox.

Detección de un camión blanco con un cuadro delimitador.

Compilación y despliegue de redes

Compile una red de Deep Learning en un conjunto de instrucciones que el procesador de Deep Learning deberá ejecutar. Despliegue la red en la FPGA y ejecute predicción mientras captura métricas de rendimiento reales en el dispositivo.

Introducción a secuencias de bits prediseñadas

Realice prototipado rápido de una red de memoria a corto-largo plazo (LSTM) utilizando secuencias de bits prediseñadas disponibles. Personalice la configuración de secuencias de bits para cumplir con los requisitos de uso de recursos.

Fragmento de código con secuencias de bits de Xilinx conectadas a una placa FPGA de desarrollo.

Despliegue de redes en FPGA

Utilice Deep Learning Toolbox para desarrollar redes RNN y CNN o importar una red. Luego, programe una FPGA con el comando deploy y despliegue en FPGA de AMD o Intel.

Código de MATLAB que utiliza un lazo while para una llamada de predicción.

Ejecución de inferencia basada en FPGA en aplicaciones de MATLAB

Ejecute una aplicación completa en MATLAB, incluidos el banco de pruebas, los algoritmos de preprocesamiento y posprocesamiento, y la inferencia de Deep Learning basada en FPGA. Un solo comando de MATLAB, predict, realiza la inferencia en FPGA y devuelve los resultados en el área de trabajo de MATLAB.

Perfilado de inferencia en FGPA y ajuste de diseños de redes

Con las métricas de perfil, puede ajustar la configuración de la red midiendo la latencia en nivel de capa mientras ejecuta predicciones en la FPGA para identificar cuellos de botella de rendimiento.

Compresión de la red de Deep Learning para desplegarla en FPGA

Reduzca el uso de recursos comprimiendo la red de Deep Learning con cuantificación y recorte. Analice los tradeoffs entre precisión y uso de recursos con el paquete de soporte de Model Quantization Library.

Personalización de la configuración del procesador de Deep Learning

Especifique las opciones de arquitectura de hardware para implementar el procesador de Deep Learning, tales como el número de subprocesos paralelos o el tamaño máximo de una capa.

Codificación de secuencia de bits personalizada.

Generación de núcleos PI y RTL sintetizables

Utilice HDL Coder para generar RTL sintetizable desde el procesador de Deep Learning. Genere un núcleo PI con interfaces AXI estándar para integrarlo en diseños de SoC de AMD e Intel.