Contenu principal

layrecnet

Réseau de neurones récurrents par couche

Description

layrecnet(layerDelays,hiddenSizes,trainFcn) prend ces arguments :

  • Vecteur ligne de retards nuls ou positifs croissants, layerDelays

  • Vecteur ligne d'une ou de plusieurs tailles de couches cachées, hiddenSizes

  • Fonction d’apprentissage par rétropropagation, trainFcn

et renvoie un réseau de neurones récurrents par couche.

Les réseaux de neurones récurrents par couche sont similaires aux réseaux feedforward si ce n’est que chaque couche présente une connexion récurrente associée à un retard. Le réseau peut ainsi avoir une réponse dynamique infinie aux données de série temporelle en entrée. Ce réseau est similaire aux réseaux de neurones à retard temporel (timedelaynet) et à retard distribué (distdelaynet) qui comportent des réponses finies en entrée.

exemple

Exemples

réduire tout

Cet exemple montre comment utiliser un réseau de neurones récurrents par couche pour résoudre un problème simple de séries temporelles.

[X,T] = simpleseries_dataset;
net = layrecnet(1:2,10);
[Xs,Xi,Ai,Ts] = preparets(net,X,T);
net = train(net,Xs,Ts,Xi,Ai);

Figure Neural Network Training (09-Aug-2025 13:37:15) contains an object of type uigridlayout.

view(net)

Y = net(Xs,Xi,Ai);
perf = perform(net,Y,Ts)
perf = 
6.1239e-11

Arguments d'entrée

réduire tout

Retards en entrée nuls ou positifs, définis par un vecteur ligne croissant.

Tailles des couches cachées, définies par un vecteur ligne d’un ou de plusieurs éléments.

Nom de la fonction d’apprentissage, défini par l’un des éléments suivants.

Fonction d’apprentissageAlgorithme
'trainlm'

Levenberg-Marquardt

'trainbr'

Régularisation bayésienne

'trainbfg'

BFGS quasi-Newton

'trainrp'

Rétropropagation résiliente

'trainscg'

Gradient conjugué à l’échelle

'traincgb'

Gradient conjugué avec redémarrages Powell-Beale

'traincgf'

Gradient conjugué Fletcher-Powell

'traincgp'

Gradient conjugué Polak-Ribière

'trainoss'

Sécante en une seule étape

'traingdx'

Descente de gradient avec taux d’apprentissage variable

'traingdm'

Descente de gradient avec momentum

'traingd'

Descente de gradient

Exemple : Par exemple, vous pouvez spécifier l’algorithme de descente de gradient avec taux d’apprentissage variable en tant qu'algorithme d’apprentissage comme suit : 'traingdx'

Pour plus d’informations sur les fonctions d’apprentissage, veuillez consulter Entraîner et appliquer des réseaux de neurones peu profonds multicouches et Choose a Multilayer Neural Network Training Function.

Types de données : char

Historique des versions

Introduit dans R2010b