Main Content

clippedReluLayer

Capa de unidad lineal rectificada (ReLU) recortada

Descripción

Una capa de unidad lineal rectificada (ReLU) recortada lleva a cabo una operación de umbral, en la que cualquier valor de entrada inferior a cero se establece en cero y cualquier valor por encima del techo de recorte se establece en dicho techo de recorte.

Esta operación es equivalente a:

f(x)={0,x<0x,0x<ceilingceiling,xceiling.

Este recorte evita que la salida sea demasiado grande.

Creación

Descripción

layer = clippedReluLayer(ceiling) devuelve una capa ReLU recortada con el techo de recorte igual a ceiling.

ejemplo

layer = clippedReluLayer(ceiling,'Name',Name) establece la propiedad opcional Name.

Propiedades

expandir todo

ReLU recortada

Techo para recorte de entrada, especificado como un escalar positivo.

Ejemplo: 10

Capa

Nombre de la capa, especificado como un vector de caracteres o un escalar de cadena. Para entradas en forma de arreglo Layer, las funciones trainnet y dlnetwork asignan automáticamente nombres a las capas con el nombre "".

El objeto ClippedReLULayer almacena esta propiedad como un vector de caracteres.

Tipos de datos: char | string

Esta propiedad o parámetro es de solo lectura.

Número de entradas a la capa, devuelto como 1. Esta capa solo admite una entrada.

Tipos de datos: double

Esta propiedad o parámetro es de solo lectura.

Nombres de entrada, devueltos como {'in'}. Esta capa solo admite una entrada.

Tipos de datos: cell

Esta propiedad o parámetro es de solo lectura.

Número de salidas de la capa, devuelto como 1. Esta capa solo tiene una salida.

Tipos de datos: double

Esta propiedad o parámetro es de solo lectura.

Nombres de salida, devueltos como {'out'}. Esta capa solo tiene una salida.

Tipos de datos: cell

Ejemplos

contraer todo

Cree una capa ReLU recortada con el nombre clip1 y el techo de recorte igual a 10.

layer = clippedReluLayer(10,Name="clip1")
layer = 
  ClippedReLULayer with properties:

       Name: 'clip1'

   Hyperparameters
    Ceiling: 10

Incluya una capa ReLU recortada en un arreglo Layer.

layers = [ ...
    imageInputLayer([28 28 1])
    convolution2dLayer(5,20)
    clippedReluLayer(10)
    maxPooling2dLayer(2,Stride=2)
    fullyConnectedLayer(10)
    softmaxLayer]
layers = 
  6x1 Layer array with layers:

     1   ''   Image Input       28x28x1 images with 'zerocenter' normalization
     2   ''   2-D Convolution   20 5x5 convolutions with stride [1  1] and padding [0  0  0  0]
     3   ''   Clipped ReLU      Clipped ReLU with ceiling 10
     4   ''   2-D Max Pooling   2x2 max pooling with stride [2  2] and padding [0  0  0  0]
     5   ''   Fully Connected   10 fully connected layer
     6   ''   Softmax           softmax

Algoritmos

expandir todo

Referencias

[1] Hannun, Awni, Carl Case, Jared Casper, Bryan Catanzaro, Greg Diamos, Erich Elsen, Ryan Prenger, et al. "Deep speech: Scaling up end-to-end speech recognition." Preprint, submitted 17 Dec 2014. http://arxiv.org/abs/1412.5567

Capacidades ampliadas

Generación de código C/C++
Genere código C y C++ mediante MATLAB® Coder™.

Generación de código de GPU
Genere código CUDA® para GPU NVIDIA® mediante GPU Coder™.

Historial de versiones

Introducido en R2017b