Main Content

reluLayer

Couche ReLU (Rectified Linear Unit)

Description

Une couche ReLU effectue une opération de seuil sur chaque élément de l’entrée où toute valeur inférieure à zéro est définie à zéro.

Cette opération est équivalente à

f(x)={x,x00,x<0.

Création

Description

layer = reluLayer crée une couche ReLU.

exemple

layer = reluLayer('Name',Name) crée une couche ReLU et définit la propriété optionnelle Name avec une paire nom-valeur. Par exemple, reluLayer('Name','relu1') crée une couche ReLU avec le nom 'relu1'.

Propriétés

développer tout

Nom de la couche, défini par un vecteur de caractères ou un string scalar. Pour le tableau de Layer en entrée, les fonctions trainnet et dlnetwork attribuent automatiquement des noms aux couches avec le nom "".

L’objet ReLULayer stocke cette propriété comme un vecteur de caractères.

Types de données : char | string

Ce propriété est en lecture seule.

Nombre d’entrées de la couche, renvoyé comme étant 1. Cette couche accepte seulement une entrée unique.

Types de données : double

Ce propriété est en lecture seule.

Noms des entrées, renvoyés comme étant {'in'}. Cette couche accepte seulement une entrée unique.

Types de données : cell

Ce propriété est en lecture seule.

Nombre de sorties de la couche, renvoyé comme étant 1. Cette couche a seulement une sortie unique.

Types de données : double

Ce propriété est en lecture seule.

Noms des sorties, renvoyés comme étant {'out'}. Cette couche a seulement une sortie unique.

Types de données : cell

Exemples

réduire tout

Créez une couche ReLU avec le nom relu1.

layer = reluLayer(Name="relu1")
layer = 
  ReLULayer with properties:

    Name: 'relu1'

Incluez une couche ReLU dans un tableau de Layer.

layers = [ ...
    imageInputLayer([28 28 1])
    convolution2dLayer(5,20)
    reluLayer
    maxPooling2dLayer(2,Stride=2)
    fullyConnectedLayer(10)
    softmaxLayer]
layers = 
  6x1 Layer array with layers:

     1   ''   Image Input       28x28x1 images with 'zerocenter' normalization
     2   ''   2-D Convolution   20 5x5 convolutions with stride [1  1] and padding [0  0  0  0]
     3   ''   ReLU              ReLU
     4   ''   2-D Max Pooling   2x2 max pooling with stride [2  2] and padding [0  0  0  0]
     5   ''   Fully Connected   10 fully connected layer
     6   ''   Softmax           softmax

En savoir plus

développer tout

Références

[1] Nair, Vinod, and Geoffrey E. Hinton. "Rectified linear units improve restricted boltzmann machines." In Proceedings of the 27th international conference on machine learning (ICML-10), pp. 807-814. 2010.

Capacités étendues

Génération de code C/C++
Générez du code C et C++ avec MATLAB® Coder™.

Génération de code GPU
Générez du code CUDA® pour les GPU NVIDIA® avec GPU Coder™.

Historique des versions

Introduit dans R2016a