CG : nm
CT : Cette applet illustre une forme simple d’apprentissage supervisé appelée la règle d’apprentissage du perceptron. Avec cette applet, vous pouvez entraîner le perceptron de manière à ce qu’il agisse comme une unité logique binaire. Il peut calculer ou approximer la plupart des fonctions booléennes à deux entrées. Cependant, un problème apparaît lorsqu’on essaye de lui faire apprendre le OU exclusif (XOR) ou le non-OU exclusif (XNOR). L’applet fournit une solution pour résoudre ce problème en introduisant une entrée supplémentaire.
S : http://lcn.epfl.ch/tutorial/french/perceptron/html/ (consulté le 20.11.2014)
N : 1. Sur le modèle du mot « perception », formé à partir du nom « percept » (ce qui est perçu comme tel sans référence au concept comme résultat de l’acte de la perception) et de l’élément formant « -tron » (suffixe tiré de la syllabe finale de « électron », entrant dans la construction de substantif masculin).
perceptron, PSYCHOL., CYBERN. : Appareil de simulation des processus perceptifs fondé sur l’apprentissage par une série de circuits d’un ensemble de caractères statistiques du message (Commun. 1971).
Nombre de dér. en -tron, désignant des marques déposées, n’obéissent à aucun principe ling. (comme p. ex. Alphatron, Amplitron, Carcinotron, Platinotron, Technétron, Vapotron).
2. L’algorithme du perceptron a été inventé en 1957 au laboratoire aéronautique de Cornell par Frank Rosenblatt, financé par le Bureau de recherche navale des Etats-Unis. Le perceptron a été destiné à être une machine, plutôt que d’un programme, et alors que sa première mise en œuvre était dans les logiciels pour l’IBM 704, il a ensuite été mis en œuvre dans le matériel sur mesure comme le «Mark 1 perceptron ». Cette machine a été conçue pour la reconnaissance d’image: il y avait un tableau de 400 cellules photoélectriques, connecté au hasard pour les « neurones ». Les poids ont été encodés dans potentiomètres et des mises à jour de poids au cours de l’apprentissage ont été effectuées par des moteurs électriques.
En 1958 une conférence de presse organisée par l’US Navy, Rosenblatt a fait des déclarations au sujet de la perceptron qui a provoqué une vive controverse dans la communauté naissante AI; sur la base des déclarations de Rosenblatt, Le New York Times a rapporté le perceptron pour être « l’embryon d’un calculateur électronique qui attend sera en mesure de marcher, parler, voir, écrire, se reproduire et être conscient de son existence. »
3. Réseau neuronal de type associatif constitué de deux couches de neurones artificiels, dont une couche d’entrée qui reçoit les stimulations et une couche de sortie qui donne la réponse correspondante.
4. Le perceptron a la capacité d’apprendre à reconnaître des formes linéairement séparables.
5. Le perceptron multicouche (réseau neuronal constitué d’au moins trois couches de neurones artificiels et dont toutes les cellules ont des fonctions modifiables par apprentissage) peut être utilisé pour réaliser diverses fonctions telles que : mémoire associative (en mode autoassociation) ou classification (en mode hétéroassociation).
6. Dans un perceptron multicouche, on trouve une couche d’entrée sur laquelle sont entrées les données, une couche cachée constituée de cellules associatives et une couche de sortie comprenant des cellules de décision. C’est la variabilité des connexions entre les deux dernières couches qui dote le perceptron multicouche de capacités d’apprentissage.
S : 1. CNRTL – http://www.cnrtl.fr/definition/percept ; http://www.cnrtl.fr/definition/-tron (consulté le 28.02.2015) ; FCB. 2. http://monindependancefinanciere.com/lenciclopedie/seccion-p/perceptron.php (consulté le 28.02.2015). 3 et 4. GDT. 5 et 6. GDT.
SYN :
S :