relu
Appliquer une activation ReLU (Rectified Linear Unit)
Syntaxe
Description
L’opération d’activation ReLU (Rectified Linear Unit) effectue une opération de seuil non linéaire où toute valeur en entrée inférieure à zéro est définie à zéro.
Cette opération est équivalente à :
Exemples
Arguments d'entrée
Arguments de sortie
Capacités étendues
Historique des versions
Introduit dans R2019b