Main Content

Créer des réseaux de neurones profonds

Créer des réseaux pour des données séquentielles et tabulaires avec du code MATLAB® ou de manière interactive avec Deep Network Designer

Créez de nouveaux réseaux profonds pour des tâches comme la classification, la régression et la prévision en définissant l’architecture du réseau à partir de zéro. Créez des réseaux avec MATLAB ou de manière interactive avec Deep Network Designer.

Les couches prédéfinies conviennent à la plupart des tâches. Si aucune couche prédéfinie ne correspond aux besoins de votre tâche, vous pouvez définir votre propre couche personnalisée. Pour ce faire, vous pouvez utiliser des paramètres entraînables et des paramètres d’état. Après avoir défini une couche personnalisée, vous pouvez vérifier qu’elle est valide, compatible GPU et renvoie des gradients correctement définis en sortie. Pour une liste des couches supportées, veuillez consulter List of Deep Learning Layers.

Si un modèle ne peut pas être spécifié comme un réseau de couches, vous pouvez le définir comme une fonction. Pour en savoir plus, veuillez consulter Define Custom Training Loops, Loss Functions, and Networks.

Applications

Deep Network DesignerConcevoir et visualiser des réseaux de Deep Learning

Fonctions

développer tout

Couches d’entrée

sequenceInputLayerSequence input layer
featureInputLayerFeature input layer (depuis R2020b)

Couches récurrentes

lstmLayerLong short-term memory (LSTM) layer for recurrent neural network (RNN)
bilstmLayerBidirectional long short-term memory (BiLSTM) layer for recurrent neural network (RNN)
gruLayerGated recurrent unit (GRU) layer for recurrent neural network (RNN) (depuis R2020a)
lstmProjectedLayerLong short-term memory (LSTM) projected layer for recurrent neural network (RNN) (depuis R2022b)
gruProjectedLayerGated recurrent unit (GRU) projected layer for recurrent neural network (RNN) (depuis R2023b)

Couches de transformateur

selfAttentionLayerSelf-attention layer (depuis R2023a)
attentionLayerDot-product attention layer (depuis R2024a)
positionEmbeddingLayerPosition embedding layer (depuis R2023b)
sinusoidalPositionEncodingLayerSinusoidal position encoding layer (depuis R2023b)
embeddingConcatenationLayerEmbedding concatenation layer (depuis R2023b)
indexing1dLayer1-D indexing layer (depuis R2023b)

Couches d’ODE neuronales

neuralODELayerNeural ODE layer (depuis R2023b)

Couches de convolution et couches entièrement connectées

convolution1dLayer1-D convolutional layer (depuis R2021b)
transposedConv1dLayerTransposed 1-D convolution layer (depuis R2022a)
fullyConnectedLayerFully connected layer

Couches d’activation et de dropout

reluLayerCouche ReLU (Rectified Linear Unit)
leakyReluLayerLeaky Rectified Linear Unit (ReLU) layer
preluLayerParametrized Rectified Linear Unit (PReLU) layer (depuis R2024a)
clippedReluLayerClipped Rectified Linear Unit (ReLU) layer
eluLayerExponential linear unit (ELU) layer
tanhLayerHyperbolic tangent (tanh) layer
swishLayerSwish layer (depuis R2021a)
geluLayerGaussian error linear unit (GELU) layer (depuis R2022b)
sigmoidLayerSigmoid layer (depuis R2020b)
softmaxLayerCouche softmax
dropoutLayerDropout layer
spatialDropoutLayerSpatial dropout layer (depuis R2024a)
functionLayerFunction layer (depuis R2021b)

Couches de normalisation

batchNormalizationLayerBatch normalization layer
groupNormalizationLayerGroup normalization layer (depuis R2020b)
instanceNormalizationLayerInstance normalization layer (depuis R2021a)
layerNormalizationLayerLayer normalization layer (depuis R2021a)
crossChannelNormalizationLayer Channel-wise local response normalization layer

Couches de pooling

maxPooling1dLayer1-D max pooling layer (depuis R2021b)
averagePooling1dLayer1-D average pooling layer (depuis R2021b)
globalMaxPooling1dLayer1-D global max pooling layer (depuis R2021b)
globalAveragePooling1dLayer1-D global average pooling layer (depuis R2021b)
adaptiveAveragePooling2dLayerAdaptive average pooling 2-D layer (depuis R2024a)

Couches de combinaison

additionLayerAddition layer
multiplicationLayerMultiplication layer (depuis R2020b)
concatenationLayerConcatenation layer
depthConcatenationLayerDepth concatenation layer
dlnetworkDeep learning neural network (depuis R2019b)
addLayersAdd layers to neural network
removeLayersRemove layers from neural network
replaceLayerReplace layer in neural network
connectLayersConnect layers in neural network
disconnectLayersDisconnect layers in neural network
addInputLayerAdd input layer to network (depuis R2022b)
initializeInitialize learnable and state parameters of a dlnetwork (depuis R2021a)
networkLayerNetwork Layer (depuis R2024a)
expandLayersExpand network layers (depuis R2024a)
groupLayersGroup layers into network layers (depuis R2024a)
networkDataLayoutDeep learning network data layout for learnable parameter initialization (depuis R2022b)
setL2FactorSet L2 regularization factor of layer learnable parameter
getL2FactorGet L2 regularization factor of layer learnable parameter
setLearnRateFactorSet learn rate factor of layer learnable parameter
getLearnRateFactorGet learn rate factor of layer learnable parameter
plotPlot neural network architecture
summaryImprimer la synthèse d'un réseau (depuis R2022b)
analyzeNetworkAnalyze deep learning network architecture
checkLayerCheck validity of custom or function layer
isequalCheck equality of neural networks (depuis R2021a)
isequalnCheck equality of neural networks ignoring NaN values (depuis R2021a)

Rubriques

Couches prédéfinies

Couches personnalisées