Main Content

La traducción de esta página aún no se ha actualizado a la versión más reciente. Haga clic aquí para ver la última versión en inglés.

relu

Aplicar la activación de unidad lineal rectificada

Sintaxis

Descripción

La operación de activación de unidad lineal rectificada (ReLU) lleva a cabo una operación de umbral no lineal en la que cualquier valor de entrada inferior a cero se establece en cero.

Esta operación es equivalente a

f(x)={x,x>00,x0.

Nota

Esta función aplica la operación ReLU a los datos de dlarray. Si desea aplicar activación ReLU dentro de un objeto layerGraph o un arreglo Layer, utilice la siguiente capa:

ejemplo

Y = relu(X) calcula la activación ReLU de la entrada X aplicando una operación de umbral. Todos los valores de X inferiores a cero se establecen en cero.

Ejemplos

contraer todo

Utilice la función relu para establecer los valores negativos de los datos de entrada en cero.

Cree los datos de entrada como una observación única de valores aleatorios con una altura y una anchura de 12 y 32 canales.

height = 12;
width = 12;
channels = 32;
observations = 1;

X = randn(height,width,channels,observations);
X = dlarray(X,'SSCB');

Calcule la activación Leaky ReLU.

Y = relu(X);

Ahora todos los valores negativos de X están establecidos en 0.

Argumentos de entrada

contraer todo

Datos de entrada, especificados como un arreglo dlarray formateado, un arreglo dlarray sin formato o un arreglo numérico.

Tipos de datos: single | double

Argumentos de salida

contraer todo

Activaciones ReLU, devueltas como un arreglo dlarray. La salida Y contiene el mismo tipo de datos subyacentes que la entrada X.

Si los datos de entrada de X son un arreglo dlarray formateado, Y tiene el mismo formato de dimensión que X. Si los datos de entrada no son un arreglo dlarray formateado, Y es un arreglo dlarray sin formato con el mismo orden de dimensiones que los datos de entrada.

Capacidades ampliadas

Historial de versiones

Introducido en R2019b