leakyrelu
Aplicar la activación de unidad lineal rectificada con fugas
Descripción
La operación de activación de unidad lineal rectificada (ReLU) con fugas lleva a cabo una operación de umbral no lineal en la que cualquier valor de entrada inferior a cero se multiplica por un factor de escala fijo.
Esta operación es equivalente a
Nota
Esta función aplica la operación ReLU con fugas a los datos de objetos dlarray. Si desea aplicar la activación ReLU con fugas dentro de un objeto dlnetwork, use leakyReluLayer.
especifica el factor de escala para la operación ReLU con fugas. Y = leakyrelu(X,scaleFactor)
Ejemplos
Argumentos de entrada
Argumentos de salida
Capacidades ampliadas
Historial de versiones
Introducido en R2019b