newrb
Design d’un réseau radial de base
Description
prend deux des arguments suivants :net = newrb(P,T,goal,spread,MN,DF)
P: matriceRxQdeQvecteurs en entréeT: matriceSxQdeQvecteurs de classes ciblesgoal: objectif en terme d'erreur quadratique moyennespread: étendue des fonctions de base radialesMN: nombre maximal de neuronesDF: nombre de neurones à ajouter entre les affichages
Les réseaux radiaux de base peuvent être utilisés pour approximer des fonctions. newrb ajoute des neurones à la couche cachée d'un réseau radial de base jusqu'à ce qu'il atteigne l'erreur quadratique moyenne visée.
Plus la valeur spread est élevée, plus l'approximation de la fonction est lisse. Un spread trop important signifie qu'un grand nombre de neurones est nécessaire pour correspondre à une fonction à évolution rapide. Un spread trop faible signifie que de nombreux neurones sont nécessaires pour correspondre à une fonction lisse. Le réseau risque alors de ne pas bien se généraliser. Appelez newrb avec différentes valeurs de spread afin d‘identifier la valeur optimale pour un problème donné.
Exemples
Arguments d'entrée
Arguments de sortie
Algorithmes
newrb crée un réseau à deux couches. La première couche a des neurones radbas et calcule ses entrées pondérées avec dist et son entrée nette avec netprod. La deuxième couche a des neurones purelin et calcule son entrée pondérée avec dotprod et ses entrées nettes avec netsum. Les deux couches ont des biais.
Au départ, la couche radbas n’a pas de neurones. Les étapes suivantes sont répétées jusqu'à ce que l'erreur quadratique moyenne du réseau soit inférieure à goal.
Le réseau est simulé.
Le vecteur d'entrée présentant l'erreur la plus importante est identifié.
Un neurone
radbasest ajouté avec des poids correspondant à ce vecteur.Les poids de la couche
purelinsont redéfinis afin de minimiser l'erreur.
Historique des versions
Introduit avant R2006a