La traduction de cette page n'est pas à jour. Cliquez ici pour voir la dernière version en anglais.
reluLayer
Couche ReLU (Rectified Linear Unit)
Description
Une couche ReLU effectue une opération de seuil sur chaque élément de l’entrée où toute valeur inférieure à zéro est définie à zéro.
Cette opération est équivalente à
Création
Propriétés
Exemples
En savoir plus
Références
[1] Nair, Vinod, and Geoffrey E. Hinton. "Rectified linear units improve restricted boltzmann machines." In Proceedings of the 27th international conference on machine learning (ICML-10), pp. 807-814. 2010.
Capacités étendues
Historique des versions
Introduit dans R2016a
Voir aussi
trainnet
| trainingOptions
| dlnetwork
| batchNormalizationLayer
| leakyReluLayer
| clippedReluLayer
| swishLayer
| Deep Network Designer