Contenu principal

cascadeforwardnet

Générer un réseau de neurones feedforward en cascade

Description

net = cascadeforwardnet(hiddenSizes,trainFcn) renvoie un réseau de neurones feedforward en cascade avec une taille de couche cachée de hiddenSizes et une fonction d’apprentissage, spécifiée par trainFcn.

Les réseau feedforward en cascade sont similaires aux réseaux feedforward si ce n’est qu’ils comportent une connexion depuis la couche d'entrée et chaque couche précédente, vers les couches suivantes.

Tout comme pour les réseaux feedforward, un réseau en cascade à au moins deux couches peut apprendre n'importe quelle relation entrée/sortie finie de manière arbitraire, à condition que le nombre de neurones cachés soit suffisant.

exemple

Exemples

réduire tout

Cet exemple montre comment utiliser un réseaux de neurones feedforward en cascade pour résoudre un problème simple.

Chargez les données d’apprentissage.

[x,t] = simplefit_dataset;

La matrice x de 1 x 94 contient les valeurs en entrée et la matrice t de 1 x 94 contient les valeurs cibles associées en sortie.

Construisez un réseau de neurones feedforward en cascade avec une couche cachée de taille 10.

net = cascadeforwardnet(10);

Entraînez le réseau net avec les données d’apprentissage.

net = train(net,x,t);

Figure Neural Network Training (09-Aug-2025 13:46:48) contains an object of type uigridlayout.

Affichez le réseau entraîné.

view(net)

Estimez les cibles avec le réseau entraîné.

y = net(x);

Évaluez les performances du réseau entraîné. La fonction de performance par défaut est l’erreur quadratique moyenne.

perf = perform(net,y,t)
perf = 
1.9372e-05

Arguments d'entrée

réduire tout

Taille des couches cachées dans le réseau, définie par un vecteur ligne. La longueur du vecteur détermine le nombre de couches cachées dans le réseau.

Exemple : Par exemple, vous pouvez spécifier un réseau avec 3 couches cachées, où la taille de la première couche est 10, celle de la deuxième est 8 et celle de la troisième est 5, comme suit : [10,8,5]

La taille de l’entrée et la taille de la sortie sont définies à zéro. Le software ajuste ces tailles pendant l’apprentissage selon les données d’apprentissage.

Types de données : single | double

Nom de la fonction d’apprentissage, défini par l’un des éléments suivants.

Fonction d’apprentissageAlgorithme
'trainlm'

Levenberg-Marquardt

'trainbr'

Régularisation bayésienne

'trainbfg'

BFGS quasi-Newton

'trainrp'

Rétropropagation résiliente

'trainscg'

Gradient conjugué à l’échelle

'traincgb'

Gradient conjugué avec redémarrages Powell-Beale

'traincgf'

Gradient conjugué Fletcher-Powell

'traincgp'

Gradient conjugué Polak-Ribière

'trainoss'

Sécante en une seule étape

'traingdx'

Descente de gradient avec taux d’apprentissage variable

'traingdm'

Descente de gradient avec momentum

'traingd'

Descente de gradient

Exemple : Par exemple, vous pouvez spécifier l’algorithme de descente de gradient avec taux d’apprentissage variable en tant qu'algorithme d’apprentissage comme suit : 'traingdx'

Pour plus d’informations sur les fonctions d’apprentissage, veuillez consulter Entraîner et appliquer des réseaux de neurones peu profonds multicouches et Choose a Multilayer Neural Network Training Function.

Types de données : char

Arguments de sortie

réduire tout

Réseau de réseaux feedforward en cascade renvoyé comme un objet network.

Historique des versions

Introduit dans R2010b