leakyrelu
Aplicar la activación de unidad lineal rectificada con fugas
Descripción
La operación de activación de unidad lineal rectificada (ReLU) con fugas lleva a cabo una operación de umbral no lineal en la que cualquier valor de entrada inferior a cero se multiplica por un factor de escala fijo.
Esta operación es equivalente a
Nota
Esta función aplica la operación ReLU con fugas a los datos de objetos dlarray
. Si desea aplicar la activación ReLU con fugas dentro de un objeto dlnetwork
, use leakyReluLayer
.
especifica el factor de escala para la operación ReLU con fugas. Y
= leakyrelu(X
,scaleFactor
)
Ejemplos
Argumentos de entrada
Argumentos de salida
Capacidades ampliadas
Historial de versiones
Introducido en R2019b