eluLayer
Capa de unidad lineal exponencial (ELU)
Descripción
Una capa de activación de unidad lineal exponencial (ELU) lleva a cabo la operación de identidad en entradas positivas y una no linealidad exponencial en entradas negativas.
La capa lleva a cabo la siguiente operación:
El valor predeterminado de α es 1. Especifique un valor de α para la capa estableciendo la propiedad Alpha.
Creación
Descripción
crea una capa ELU.layer = eluLayer
crea una capa ELU y especifica la propiedad layer = eluLayer(alpha)Alpha.
Propiedades
Ejemplos
Algoritmos
Referencias
[1] Clevert, Djork-Arné, Thomas Unterthiner, and Sepp Hochreiter. "Fast and accurate deep network learning by exponential linear units (ELUs)." arXiv preprint arXiv:1511.07289 (2015).
Capacidades ampliadas
Historial de versiones
Introducido en R2019a
Consulte también
trainnet | trainingOptions | dlnetwork | batchNormalizationLayer | leakyReluLayer | clippedReluLayer | reluLayer | swishLayer