clippedReluLayer
Capa de unidad lineal rectificada (ReLU) recortada
Descripción
Una capa de unidad lineal rectificada (ReLU) recortada lleva a cabo una operación de umbral, en la que cualquier valor de entrada inferior a cero se establece en cero y cualquier valor por encima del techo de recorte se establece en dicho techo de recorte.
Esta operación es equivalente a:
Este recorte evita que la salida sea demasiado grande.
Creación
Propiedades
Ejemplos
Algoritmos
Referencias
[1] Hannun, Awni, Carl Case, Jared Casper, Bryan Catanzaro, Greg Diamos, Erich Elsen, Ryan Prenger, et al. "Deep speech: Scaling up end-to-end speech recognition." Preprint, submitted 17 Dec 2014. http://arxiv.org/abs/1412.5567
Capacidades ampliadas
Historial de versiones
Introducido en R2017b
Consulte también
trainnet
| trainingOptions
| dlnetwork
| reluLayer
| leakyReluLayer
| swishLayer