Main Content

La traduction de cette page n'est pas à jour. Cliquez ici pour voir la dernière version en anglais.

Opérations

Développer des fonctions de Deep Learning personnalisées

Les couches prédéfinies conviennent à la plupart des tâches. Si aucune couche prédéfinie ne correspond aux besoins de votre tâche, vous pouvez définir votre propre couche personnalisée. Pour ce faire, vous pouvez utiliser des paramètres entraînables et des paramètres d’état. Après avoir défini une couche personnalisée, vous pouvez vérifier qu’elle est valide, compatible GPU et renvoie des gradients correctement définis en sortie. Pour en savoir plus, veuillez consulter Define Custom Deep Learning Layers. Pour une liste des couches supportées, veuillez consulter List of Deep Learning Layers.

Si la fonction trainingOptions ne propose pas les options d’apprentissage dont vous avez besoin pour votre tâche ou si vous avez une fonction de perte non supportée par la fonction trainnet, vous pouvez définir une boucle d’apprentissage personnalisée. Si un modèle ne peut pas être spécifié comme un réseau de couches, vous pouvez le définir comme une fonction. Pour en savoir plus, veuillez consulter Define Custom Training Loops, Loss Functions, and Networks.

Utilisez des opérations de Deep Learning pour développer du code MATLAB® pour des couches personnalisées, des boucles d’apprentissage et des fonctions de modèle.

Fonctions

développer tout

dlarrayDeep learning array for customization
dimsÉtiquettes des dimensions de dlarray
finddimFind dimensions with specified label
stripdimsRemove dlarray data format
extractdataExtract data from dlarray
isdlarrayCheck if object is dlarray (depuis R2020b)
dlconvDeep learning convolution
dltranspconvDeep learning transposed convolution
lstmLong short-term memory
gruGated recurrent unit (depuis R2020a)
attentionDot-product attention (depuis R2022b)
embedEmbed discrete data (depuis R2020b)
fullyconnectSum all weighted input data and apply a bias
dlode45Deep learning solution of nonstiff ordinary differential equation (ODE) (depuis R2021b)
batchnormNormalize data across all observations for each channel independently
crosschannelnormCross channel square-normalize using local responses (depuis R2020a)
groupnormNormalize data across grouped subsets of channels for each observation independently (depuis R2020b)
instancenormNormalize across each channel for each observation independently (depuis R2021a)
layernormNormalize data across all channels for each observation independently (depuis R2021a)
avgpoolPool data to average values over spatial dimensions
maxpoolPool data to maximum value
maxunpoolUnpool the output of a maximum pooling operation
reluApply rectified linear unit activation
leakyreluApply leaky rectified linear unit activation
geluApply Gaussian error linear unit (GELU) activation (depuis R2022b)
softmaxApply softmax activation to channel dimension
sigmoidAppliquer l’activation sigmoïde
crossentropyCross-entropy loss for classification tasks
l1lossL1 loss for regression tasks (depuis R2021b)
l2lossL2 loss for regression tasks (depuis R2021b)
huberHuber loss for regression tasks (depuis R2021a)
mseHalf mean squared error
ctcConnectionist temporal classification (CTC) loss for unaligned sequence classification (depuis R2021a)
dlaccelerateAccelerate deep learning function for custom training loops (depuis R2021a)
AcceleratedFunctionAccelerated deep learning function (depuis R2021a)
clearCacheClear accelerated deep learning function trace cache (depuis R2021a)

Rubriques

Différenciation automatique

Fonctions de modèle

Accélération des fonctions de Deep Learning

Exemples présentés