Deep Learning

IA para dispositivos edge con MATLAB y Simulink

Despliegue aplicaciones de Machine Learning y Deep Learning en sistemas integrados

Simule, pruebe y despliegue modelos de Machine Learning y Deep Learning en dispositivos edge y sistemas integrados. Genere código para aplicaciones de IA completas, incluidos algoritmos de preprocesamiento y posprocesamiento.

Con MATLAB® y Simulink®, puede:

  • Generar código C/C++ y CUDA optimizado para desplegarlo en CPU y GPU
  • Generar código VHDL y Verilog sintetizable para desplegarlo en FPGA y SoC
  • Acelerar la inferencia con librerías de Deep Learning optimizadas para hardware, tales como oneDNN, Arm Compute Library y TensorRT
  • Incorporar modelos de TensorFlow Lite (TFLite) previamente entrenados en aplicaciones desplegadas en hardware
  • Comprimir modelos de IA para inferencia en hardware con recursos limitados mediante herramientas para ajuste de hiperparámetros, cuantización y recorte de redes

“MATLAB incluye todas las herramientas que necesitamos para anotar datos, y seleccionar, entrenar, probar y ajustar un modelo de Deep Learning. Con GPU Coder, pudimos desplegar rápidamente en GPU de NVIDIA, a pesar de que teníamos poca experiencia con GPU”.

Valerio Imbriolo, Drass Group
Código C/C++ desplegado en hardware integrado.

CPU y microcontroladores

Genere código C/C++ optimizado y portátil a partir de modelos entrenados de Machine Learning y Deep Learning con MATLAB Coder™ y Simulink Coder™. Si prefiere, puede incluir llamadas a librerías específicas de proveedores optimizadas para inferencia de Deep Learning en el código generado, tales como oneDNN y Arm® Compute Library.

Código C/C++ en Simulink desplegado en un equipo de escritorio de NVIDIA y una GPU integrada.

GPU

Genere código CUDA® optimizado para redes de Deep Learning entrenadas con GPU Coder™. Incluya preprocesamiento y posprocesamiento junto con las redes para desplegar algoritmos completos en equipos de escritorio, servidores y GPU integradas. Utilice librerías CUDA de NVIDIA®, tales como TensorRT™ y cuDNN, para optimizar el rendimiento.

Ejecución de inferencia de Deep Learning basada en FPGA en un hardware de prototipado desde MATLAB y generación de un núcleo IP HDL de Deep Learning para desplegarlo en cualquier FPGA o ASIC.

FPGA y SoC

Realice prototipado de redes de Deep Learning e impleméntelas en FPGA y SoC con Deep Learning HDL Toolbox™. Programe procesadores de Deep Learning y núcleos IP de movimiento de datos con flujos de bits predefinidos para kits de desarrollo de FPGA más populares. Genere flujos de bits y núcleos IP de procesadores de Deep Learning personalizados con HDL Coder™.

Gráfico de capas, estadísticas de calibración y resultados de validación para optimizar modelos de IA para despliegue integrado.

Compresión de modelos de IA

Reduzca los requisitos de memoria de modelos de Machine Learning y Deep Learning con ajuste de hiperparámetros y cuantización de pesos, sesgos y activaciones. Recorte las conexiones de capas insignificantes para reducir el tamaño de una red neuronal profunda.