Contenido principal

La traducción de esta página aún no se ha actualizado a la versión más reciente. Haga clic aquí para ver la última versión en inglés.

clippedReluLayer

Capa de unidad lineal rectificada (ReLU) recortada

Descripción

Una capa de unidad lineal rectificada (ReLU) recortada lleva a cabo una operación de umbral, en la que cualquier valor de entrada inferior a cero se establece en cero y cualquier valor por encima del techo de recorte se establece en dicho techo de recorte.

Esta operación es equivalente a:

f(x)={0,x<0x,0x<ceilingceiling,xceiling.

Este recorte evita que la salida sea demasiado grande.

Creación

Descripción

layer = clippedReluLayer(ceiling) devuelve una capa ReLU recortada con el techo de recorte igual a ceiling.

layer = clippedReluLayer(ceiling,'Name',Name) establece la propiedad opcional Name.

ejemplo

Propiedades

expandir todo

ReLU recortada

Techo para recorte de entrada, especificado como un escalar positivo.

Ejemplo: 10

Capa

Nombre de la capa, especificado como un vector de caracteres o un escalar de cadena. Para entradas en forma de arreglo Layer, las funciones trainnet y dlnetwork asignan automáticamente nombres a las capas sin nombre.

El objeto ClippedReLULayer almacena esta propiedad como un vector de caracteres.

Tipos de datos: char | string

Esta propiedad o parámetro es de solo lectura.

Número de entradas a la capa, almacenado como 1. Esta capa solo admite una entrada.

Tipos de datos: double

Esta propiedad o parámetro es de solo lectura.

Nombres de entrada, almacenados como {'in'}. Esta capa solo admite una entrada.

Tipos de datos: cell

Esta propiedad o parámetro es de solo lectura.

Número de salidas de la capa, almacenado como 1. Esta capa solo tiene una salida.

Tipos de datos: double

Esta propiedad o parámetro es de solo lectura.

Nombres de salida, almacenados como {'out'}. Esta capa solo tiene una salida.

Tipos de datos: cell

Ejemplos

contraer todo

Cree una capa ReLU recortada con el nombre clip1 y el techo de recorte igual a 10.

layer = clippedReluLayer(10,Name="clip1")
layer = 
  ClippedReLULayer with properties:

       Name: 'clip1'

   Hyperparameters
    Ceiling: 10

Incluya una capa ReLU recortada en un arreglo Layer.

layers = [ ...
    imageInputLayer([28 28 1])
    convolution2dLayer(5,20)
    clippedReluLayer(10)
    maxPooling2dLayer(2,Stride=2)
    fullyConnectedLayer(10)
    softmaxLayer]
layers = 
  6×1 Layer array with layers:

     1   ''   Image Input       28×28×1 images with 'zerocenter' normalization
     2   ''   2-D Convolution   20 5×5 convolutions with stride [1  1] and padding [0  0  0  0]
     3   ''   Clipped ReLU      Clipped ReLU with ceiling 10
     4   ''   2-D Max Pooling   2×2 max pooling with stride [2  2] and padding [0  0  0  0]
     5   ''   Fully Connected   10 fully connected layer
     6   ''   Softmax           softmax

Algoritmos

expandir todo

Referencias

[1] Hannun, Awni, Carl Case, Jared Casper, Bryan Catanzaro, Greg Diamos, Erich Elsen, Ryan Prenger, et al. "Deep speech: Scaling up end-to-end speech recognition." Preprint, submitted 17 Dec 2014. http://arxiv.org/abs/1412.5567

Capacidades ampliadas

expandir todo

Generación de código C/C++
Genere código C y C++ mediante MATLAB® Coder™.

Generación de código de GPU
Genere código CUDA® para GPU NVIDIA® mediante GPU Coder™.

Historial de versiones

Introducido en R2017b