Deep Learning HDL Toolbox proporciona funciones y herramientas para realizar prototipado e implementar redes de Deep Learning en FPGA y SOC. Ofrece secuencias de bits prediseñados para ejecutar diversas redes de Deep Learning en dispositivos FPGA y SoC de AMD® e Intel® admitidos. Las herramientas de perfilado y estimación permiten personalizar una red de Deep Learning mediante la exploración de tradeoffs de diseño, rendimiento y utilización de recursos.
Deep Learning HDL Toolbox permite personalizar la implementación en hardware de su red de Deep Learning y generar código Verilog®, SystemVerilog y VHDL® portátil y sintetizable para el despliegue en cualquier FPGA o SOC (con HDL Coder y Simulink).
Uso de un procesador de Deep Learning basado en FPGA
La toolbox incluye un procesador de Deep Learning que ofrece capas de Deep Learning genéricas controladas por lógica de planificación. Este procesador efectúa inferencias de redes basadas en FPGA con Deep Learning Toolbox.
Compilación y despliegue de redes
Compile una red de Deep Learning en un conjunto de instrucciones que el procesador de Deep Learning deberá ejecutar. Despliegue la red en la FPGA y ejecute predicción mientras captura métricas de rendimiento reales en el dispositivo.
Introducción a secuencias de bits prediseñadas
Realice prototipado rápido de una red de memoria a corto-largo plazo (LSTM) utilizando secuencias de bits prediseñadas disponibles. Personalice la configuración de secuencias de bits para cumplir con los requisitos de uso de recursos.
Despliegue de redes en FPGA
Utilice Deep Learning Toolbox para desarrollar redes RNN y CNN o importar una red. Luego, programe una FPGA con el comando deploy
y despliegue en FPGA de AMD o Intel.
Ejecución de inferencia basada en FPGA en aplicaciones de MATLAB
Ejecute una aplicación completa en MATLAB, incluidos el banco de pruebas, los algoritmos de preprocesamiento y posprocesamiento, y la inferencia de Deep Learning basada en FPGA. Un solo comando de MATLAB, predict
, realiza la inferencia en FPGA y devuelve los resultados en el área de trabajo de MATLAB.
Perfilado de inferencia en FGPA y ajuste de diseños de redes
Con las métricas de perfil, puede ajustar la configuración de la red midiendo la latencia en nivel de capa mientras ejecuta predicciones en la FPGA para identificar cuellos de botella de rendimiento.
Compresión de la red de Deep Learning para desplegarla en FPGA
Reduzca el uso de recursos comprimiendo la red de Deep Learning con cuantificación y recorte. Analice los tradeoffs entre precisión y uso de recursos con el paquete de soporte de Model Quantization Library.
Personalización de la configuración del procesador de Deep Learning
Especifique las opciones de arquitectura de hardware para implementar el procesador de Deep Learning, tales como el número de subprocesos paralelos o el tamaño máximo de una capa.
Generación de núcleos PI y RTL sintetizables
Utilice HDL Coder para generar RTL sintetizable desde el procesador de Deep Learning. Genere un núcleo PI con interfaces AXI estándar para integrarlo en diseños de SoC de AMD e Intel.