Main Content

La traduction de cette page n'est pas à jour. Cliquez ici pour voir la dernière version en anglais.

reluLayer

Couche ReLU (Rectified Linear Unit)

Description

Une couche ReLU effectue une opération de seuil sur chaque élément de l’entrée où toute valeur inférieure à zéro est définie à zéro.

Cette opération est équivalente à

f(x)={x,x00,x<0.

Création

Description

layer = reluLayer crée une couche ReLU.

exemple

layer = reluLayer('Name',Name) crée une couche ReLU et définit la propriété optionnelle Name avec une paire nom-valeur. Par exemple, reluLayer('Name','relu1') crée une couche ReLU avec le nom 'relu1'.

Propriétés

développer tout

Le nom de la couche est spécifié comme un vecteur de caractères ou un scalaire de type string (string scalar). Pour le tableau de Layer en entrée, les fonctions trainNetwork, assembleNetwork, layerGraph et dlnetwork attribuent automatiquement des noms aux couches avec le nom ''.

Types de données : char | string

Ce propriété est en lecture seule.

Nombre d’entrées de la couche. Cette couche accepte seulement une entrée unique.

Types de données : double

Ce propriété est en lecture seule.

Noms des entrées de la couche. Cette couche accepte seulement une entrée unique.

Types de données : cell

Ce propriété est en lecture seule.

Nombre de sorties de la couche. Cette couche a seulement une sortie unique.

Types de données : double

Ce propriété est en lecture seule.

Noms des sorties de la couche. Cette couche a seulement une sortie unique.

Types de données : cell

Exemples

réduire tout

Créez une couche ReLU avec le nom 'relu1'.

layer = reluLayer('Name','relu1')
layer = 
  ReLULayer with properties:

    Name: 'relu1'

Incluez une couche ReLU dans un tableau de Layer.

layers = [ ...
    imageInputLayer([28 28 1])
    convolution2dLayer(5,20)
    reluLayer
    maxPooling2dLayer(2,'Stride',2)
    fullyConnectedLayer(10)
    softmaxLayer
    classificationLayer]
layers = 
  7x1 Layer array with layers:

     1   ''   Image Input             28x28x1 images with 'zerocenter' normalization
     2   ''   2-D Convolution         20 5x5 convolutions with stride [1  1] and padding [0  0  0  0]
     3   ''   ReLU                    ReLU
     4   ''   2-D Max Pooling         2x2 max pooling with stride [2  2] and padding [0  0  0  0]
     5   ''   Fully Connected         10 fully connected layer
     6   ''   Softmax                 softmax
     7   ''   Classification Output   crossentropyex

En savoir plus

développer tout

Références

[1] Nair, Vinod, and Geoffrey E. Hinton. "Rectified linear units improve restricted boltzmann machines." In Proceedings of the 27th international conference on machine learning (ICML-10), pp. 807-814. 2010.

Capacités étendues

Génération de code C/C++
Générez du code C et C++ avec MATLAB® Coder™.

Génération de code GPU
Générez du code CUDA® pour les GPU NVIDIA® avec GPU Coder™.

Historique des versions

Introduit dans R2016a