Main Content

La traduction de cette page n'est pas à jour. Cliquez ici pour voir la dernière version en anglais.

perceptron

Classifieur binaire simple à couche unique

Description

exemple

Remarque

Deep Learning Toolbox™ supporte les perceptrons pour leur intérêt historique. Pour de meilleurs résultats, vous devez utiliser à la place patternnet, qui peut résoudre des problèmes non linéairement séparables. Le terme « perceptron » fait parfois référence à des réseaux de reconnaissance de formes feedforward, mais le perceptron d’origine, décrit ici, peut seulement résoudre des problèmes simples.

perceptron(hardlimitTF,perceptronLF) prend une fonction de transfert aux limites strictes, hardlimitTF, et une règle d’apprentissage du perceptron, perceptronLF, et renvoie un perceptron.

Outre la fonction de transfert aux limites strictes par défaut, les perceptrons peuvent être créés avec la fonction de transfert hardlims. L’autre option pour la règle d’apprentissage du perceptron est learnpn.

Les perceptrons sont des classifieurs binaires simples à couche unique qui divisent l’espace d’entrée avec une limite de décision linéaire.

Les perceptrons peuvent être entraînés pour résoudre une gamme restreinte de problèmes de classification. Ils ont été parmi les premiers réseaux de neurones capables de résoudre de manière fiable une classe donnée de problème. Leur avantage est une règle d’apprentissage simple.

Exemples

réduire tout

Cet exemple montre comment utiliser un perceptron pour résoudre un problème de classification simple implémentant la fonction logique OR.

x = [0 0 1 1; 0 1 0 1];
t = [0 1 1 1];
net = perceptron;
net = train(net,x,t);

{"String":"Figure Neural Network Training (05-Nov-2022 09:57:49) contains an object of type uigridlayout.","Tex":[],"LaTex":[]}

view(net)

y = net(x);

Arguments d'entrée

réduire tout

Fonction de transfert aux limites strictes.

Règle d’apprentissage du perceptron.

Historique des versions

Introduit dans R2010b