Soporte de cálculo GPU en MATLAB
para GPUs compatibles con NVIDIA CUDA
Ejecute cálculos con MATLAB en GPUs compatibles con NVIDIA CUDA
Ejecute cálculos con MATLAB en GPUs compatibles con NVIDIA CUDA
MATLAB le permite utilizar GPUs NVIDIA® para acelerar los análisis de IA y de deep learning y otros análisis que requieran cálculos intensivos sin necesidad de ser programador de CUDA®. Con MATLAB y Parallel Computing Toolbox, puede hacer lo siguiente:
MATLAB permite que un solo usuario implemente un flujo de trabajo de extremo a extremo para desarrollar y entrenar modelos de deep learning mediante Deep Learning Toolbox. A continuación, puede escalar el entrenamiento con recursos de la nube y de cluster mediante Parallel Computing Toolbox y MATLAB Parallel Server, y realizar la implementación en centros de datos o dispositivos embebidos con GPU Coder.
MATLAB es una plataforma de flujo de trabajo de extremo a extremo para el desarrollo de IA y deep learning. MATLAB proporciona herramientas y apps para la importación de conjuntos de datos de entrenamiento, la visualización y la depuración, el escalado de redes neuronales convolucionales y su despliegue.
Escale para incorporar recursos de cálculo y GPU adicionales en el escritorio, nubes y clusters con una sola línea de código.
Explorar productos
Pruebe su propio hardware de CPU y GPU mediante gpuBench.
Ejecute código de MATLAB en GPUs NVIDIA mediante más de 1000 funciones de MATLAB compatibles con CUDA. Utilice funciones compatibles con GPU en toolboxes para aplicaciones tales como deep learning, machine learning, visión artificial y procesamiento de señales. Parallel Computing Toolbox incluye gpuArray, un tipo de array especial con funciones asociadas, que le permite realizar cálculos en GPU NVIDIA compatibles con CUDA directamente desde MATLAB sin tener que aprender librerías de cálculo GPU de bajo nivel.
Los ingenieros pueden utilizar recursos de GPU sin tener que escribir nada de código adicional, para así centrarse en sus aplicaciones en lugar de en ajustar el rendimiento.
Mediante construcciones de lenguaje paralelo tales como parfor y spmd, puede realizar cálculos en varias GPUs. Entrenar un modelo en varias GPUs es cuestión simplemente de cambiar una opción de entrenamiento.
MATLAB también le permite integrar sus kernels CUDA existentes en aplicaciones de MATLAB sin necesidad de ninguna programación en C adicional.
Explorar productos
Utilice GPU Coder para generar código CUDA optimizado a partir de código de MATLAB para deep learning, visión embebida y sistemas autónomos. El código generado llama automáticamente a librerías de NVIDIA CUDA, tales como TensorRT, cuDNN y cuBLAS, para su ejecución en GPUs NVIDIA con baja latencia y alto rendimiento. Integre el código generado en su proyecto en forma de código fuente, librerías estáticas o librerías dinámicas, y realice su implementación para que se ejecuten en GPUs tales como NVIDIA Volta®, NVIDIA Tesla®, NVIDIA Jetson® y NVIDIA DRIVE®.