Main Content

leakyReluLayer

Capa de unidad lineal rectificada (ReLU) con fugas

Descripción

Una capa de unidad lineal rectificada (ReLU) con fugas lleva a cabo una operación de umbral, en la que cualquier valor de entrada inferior a cero se multiplica por un escalar fijo.

Esta operación es equivalente a:

f(x)={x,x0scale*x,x<0.

Creación

Descripción

layer = leakyReluLayer devuelve una capa ReLU con fugas.

layer = leakyReluLayer(scale) devuelve una capa ReLU con fugas con un escalar multiplicador para valores de entrada negativos iguales a scale.

ejemplo

layer = leakyReluLayer(___,'Name',Name) devuelve una capa ReLU con fugas y establece la propiedad opcional Name.

Propiedades

expandir todo

ReLU con fugas

Escalar multiplicador para valores de entrada negativos, especificado como un escalar numérico.

Ejemplo: 0.4

Capa

Nombre de la capa, especificado como un vector de caracteres o un escalar de cadena. Para entradas en forma de arreglo Layer, las funciones trainnet y dlnetwork asignan automáticamente nombres a las capas con el nombre "".

El objeto LeakyReLULayer almacena esta propiedad como un vector de caracteres.

Tipos de datos: char | string

Esta propiedad o parámetro es de solo lectura.

Número de entradas a la capa, devuelto como 1. Esta capa solo admite una entrada.

Tipos de datos: double

Esta propiedad o parámetro es de solo lectura.

Nombres de entrada, devueltos como {'in'}. Esta capa solo admite una entrada.

Tipos de datos: cell

Esta propiedad o parámetro es de solo lectura.

Número de salidas de la capa, devuelto como 1. Esta capa solo tiene una salida.

Tipos de datos: double

Esta propiedad o parámetro es de solo lectura.

Nombres de salida, devueltos como {'out'}. Esta capa solo tiene una salida.

Tipos de datos: cell

Ejemplos

contraer todo

Cree una capa ReLU con fugas con el nombre 'leaky1' y un escalar multiplicador para valores de entrada negativos igual a 0.1.

layer = leakyReluLayer(0.1,'Name','leaky1')
layer = 
  LeakyReLULayer with properties:

     Name: 'leaky1'

   Hyperparameters
    Scale: 0.1000

Incluya una capa ReLU con fugas en un arreglo Layer.

layers = [
    imageInputLayer([28 28 1])
    convolution2dLayer(3,16)
    batchNormalizationLayer
    leakyReluLayer
    
    maxPooling2dLayer(2,'Stride',2)
    convolution2dLayer(3,32)
    batchNormalizationLayer
    leakyReluLayer
    
    fullyConnectedLayer(10)
    softmaxLayer]
layers = 
  10x1 Layer array with layers:

     1   ''   Image Input           28x28x1 images with 'zerocenter' normalization
     2   ''   2-D Convolution       16 3x3 convolutions with stride [1  1] and padding [0  0  0  0]
     3   ''   Batch Normalization   Batch normalization
     4   ''   Leaky ReLU            Leaky ReLU with scale 0.01
     5   ''   2-D Max Pooling       2x2 max pooling with stride [2  2] and padding [0  0  0  0]
     6   ''   2-D Convolution       32 3x3 convolutions with stride [1  1] and padding [0  0  0  0]
     7   ''   Batch Normalization   Batch normalization
     8   ''   Leaky ReLU            Leaky ReLU with scale 0.01
     9   ''   Fully Connected       10 fully connected layer
    10   ''   Softmax               softmax

Algoritmos

expandir todo

Referencias

[1] Maas, Andrew L., Awni Y. Hannun, and Andrew Y. Ng. "Rectifier nonlinearities improve neural network acoustic models." In Proc. ICML, vol. 30, no. 1. 2013.

Capacidades ampliadas

Generación de código C/C++
Genere código C y C++ mediante MATLAB® Coder™.

Generación de código de GPU
Genere código CUDA® para GPU NVIDIA® mediante GPU Coder™.

Historial de versiones

Introducido en R2017b