Contenu principal

relu

Appliquer une activation ReLU (Rectified Linear Unit)

Description

L’opération d’activation ReLU (Rectified Linear Unit) effectue une opération de seuil non linéaire où toute valeur en entrée inférieure à zéro est définie à zéro.

Cette opération est équivalente à :

ReLU(x)={x,x>00,x0

Remarque

Cette fonction applique l’opération ReLU aux données dlarray. Si vous voulez appliquer l’activation ReLU dans un objet dlnetwork, utilisez reluLayer.

Y = relu(X) calcule l’activation ReLU de l’entrée X en appliquant une opération de seuil. Toutes les valeurs de X inférieures à zéro sont définies à zéro.

exemple

Exemples

réduire tout

Créez un objet dlarray formaté contenant un batch de 128 images en 28 x 28 avec 3 canaux. Spécifiez le format 'SSCB' (spatial, spatial, channel, batch).

miniBatchSize = 128;
inputSize = [28 28];
numChannels = 3;
X = rand(inputSize(1),inputSize(2),numChannels,miniBatchSize);
X = dlarray(X,"SSCB");

Affichez la taille et le format des données d’entrée.

size(X)
ans = 1×4

    28    28     3   128

dims(X)
ans = 
'SSCB'

Appliquez l’opération ReLU avec la fonction relu.

Y = relu(X);

Affichez la taille et le format de la sortie.

size(Y)
ans = 1×4

    28    28     3   128

dims(Y)
ans = 
'SSCB'

Arguments d'entrée

réduire tout

Données en entrée, définies par un objet dlarray formaté ou non formaté.

Arguments de sortie

réduire tout

Activations ReLU, renvoyées en tant que dlarray. La sortie Y a le même type de données sous-jacentes que l’entrée X.

Si les données en entrée X sont un dlarray formaté, Y a le même format de dimension que X. Si les données en entrée sont un dlarray non formaté, Y est un dlarray non formaté avec le même ordre de dimension que les données en entrée.

Capacités étendues

développer tout

Génération de code C/C++
Générez du code C et C++ avec MATLAB® Coder™.

Génération de code GPU
Générez du code CUDA® pour les GPU NVIDIA® avec GPU Coder™.

Historique des versions

Introduit dans R2019b