Main Content

Opérations

Développer des fonctions de Deep Learning personnalisées

Les couches prédéfinies conviennent à la plupart des tâches. Si aucune couche prédéfinie ne correspond aux besoins de votre tâche, vous pouvez définir votre propre couche personnalisée. Pour ce faire, vous pouvez utiliser des paramètres entraînables et des paramètres d’état. Après avoir défini une couche personnalisée, vous pouvez vérifier qu’elle est valide, compatible GPU et renvoie des gradients correctement définis en sortie. Pour en savoir plus, veuillez consulter Define Custom Deep Learning Layers. Pour une liste des couches supportées, veuillez consulter List of Deep Learning Layers.

Si la fonction trainingOptions ne propose pas les options d’apprentissage dont vous avez besoin pour votre tâche ou si vous avez une fonction de perte non supportée par la fonction trainnet, vous pouvez définir une boucle d’apprentissage personnalisée. Si un modèle ne peut pas être spécifié comme un réseau de couches, vous pouvez le définir comme une fonction. Pour en savoir plus, veuillez consulter Define Custom Training Loops, Loss Functions, and Networks.

Utilisez des opérations de Deep Learning pour développer du code MATLAB® pour des couches personnalisées, des boucles d’apprentissage et des fonctions de modèle.

Fonctions

développer tout

dlarrayDeep learning array for customization (depuis R2019b)
dimsÉtiquettes des dimensions de dlarray (depuis R2019b)
finddimFind dimensions with specified label (depuis R2019b)
stripdimsRemove dlarray data format (depuis R2019b)
extractdataExtract data from dlarray (depuis R2019b)
isdlarrayCheck if object is dlarray (depuis R2020b)
dlconvDeep learning convolution (depuis R2019b)
dltranspconvDeep learning transposed convolution (depuis R2019b)
lstmLong short-term memory (depuis R2019b)
gruGated recurrent unit (depuis R2020a)
attentionDot-product attention (depuis R2022b)
embedEmbed discrete data (depuis R2020b)
fullyconnectSum all weighted input data and apply a bias (depuis R2019b)
dlode45Deep learning solution of nonstiff ordinary differential equation (ODE) (depuis R2021b)
batchnormNormalize data across all observations for each channel independently (depuis R2019b)
crosschannelnormCross channel square-normalize using local responses (depuis R2020a)
groupnormNormalize data across grouped subsets of channels for each observation independently (depuis R2020b)
instancenormNormalize across each channel for each observation independently (depuis R2021a)
layernormNormalize data across all channels for each observation independently (depuis R2021a)
avgpoolPool data to average values over spatial dimensions (depuis R2019b)
maxpoolPool data to maximum value (depuis R2019b)
maxunpoolUnpool the output of a maximum pooling operation (depuis R2019b)
reluApply rectified linear unit activation (depuis R2019b)
leakyreluApply leaky rectified linear unit activation (depuis R2019b)
geluApply Gaussian error linear unit (GELU) activation (depuis R2022b)
softmaxApply softmax activation to channel dimension (depuis R2019b)
sigmoidAppliquer l’activation sigmoïde (depuis R2019b)
crossentropyCross-entropy loss for classification tasks (depuis R2019b)
l1lossL1 loss for regression tasks (depuis R2021b)
l2lossL2 loss for regression tasks (depuis R2021b)
huberHuber loss for regression tasks (depuis R2021a)
mseHalf mean squared error (depuis R2019b)
ctcConnectionist temporal classification (CTC) loss for unaligned sequence classification (depuis R2021a)
dlaccelerateAccelerate deep learning function for custom training loops (depuis R2021a)
AcceleratedFunctionAccelerated deep learning function (depuis R2021a)
clearCacheClear accelerated deep learning function trace cache (depuis R2021a)

Rubriques

Différenciation automatique

Fonctions de modèle

Accélération des fonctions de Deep Learning