leakyReluLayer
Capa de unidad lineal rectificada (ReLU) con fugas
Descripción
Una capa de unidad lineal rectificada (ReLU) con fugas lleva a cabo una operación de umbral, en la que cualquier valor de entrada inferior a cero se multiplica por un escalar fijo.
Esta operación es equivalente a:
Creación
Descripción
devuelve una capa ReLU con fugas.layer
= leakyReluLayer
devuelve una capa ReLU con fugas con un escalar multiplicador para valores de entrada negativos iguales a layer
= leakyReluLayer(scale
)scale
.
Propiedades
Ejemplos
Algoritmos
Referencias
[1] Maas, Andrew L., Awni Y. Hannun, and Andrew Y. Ng. "Rectifier nonlinearities improve neural network acoustic models." In Proc. ICML, vol. 30, no. 1. 2013.
Capacidades ampliadas
Historial de versiones
Introducido en R2017b
Consulte también
trainnet
| trainingOptions
| preluLayer
| dlnetwork
| reluLayer
| clippedReluLayer
| swishLayer