reluLayer
Couche ReLU (Rectified Linear Unit)
Description
Une couche ReLU effectue une opération de seuil sur chaque élément de l’entrée où toute valeur inférieure à zéro est définie à zéro.
Cette opération est équivalente à
Création
Propriétés
Exemples
En savoir plus
Références
[1] Nair, Vinod, and Geoffrey E. Hinton. "Rectified linear units improve restricted boltzmann machines." In Proceedings of the 27th international conference on machine learning (ICML-10), pp. 807-814. 2010.
Capacités étendues
Historique des versions
Introduit dans R2016a
Voir aussi
trainnet
| trainingOptions
| dlnetwork
| batchNormalizationLayer
| leakyReluLayer
| clippedReluLayer
| swishLayer
| Deep Network Designer