Logo ÉTS
Session
Cours
Responsable(s) Éric Granger

Se connecter
 

Sauvegarde réussie
Echec de sauvegarde
Avertissement
École de technologie supérieure

Responsable(s) de cours : Éric Granger


PLAN DE COURS

Automne 2021
SYS843 : Réseaux de neurones et systèmes flous (3 crédits)





Préalables
Aucun préalable requis




Descriptif du cours

Acquérir les notions fondamentales sur les réseaux de neurones et les systèmes flous, et se familiariser avec les principaux modèles permettant d’analyser les avantages et les limites d’une application donnée.

Réseaux de neurones : définitions, caractéristiques, fondements biologiques, structure et fonctionnement de base. Méthodologie de construction et description des principaux modèles : Perceptron, Adaline-Madaline, rétropropagation, Hopfield, Kohonen, ART, etc. Réalisation d'une application simple à l'aide d'un simulateur. Sous-ensembles flous : définitions, opérations sur les sous-ensembles flous, les a-coupes, produit cartésien, principe d'extension, normes et conormes triangulaires. Relations et quantités floues, mesure d'imprécision. Variables linguistiques et propositions floues.




Objectifs du cours

Introduire les notions fondamentales des réseaux de neurones artificiels et des systèmes flous, et présenter les principaux modèles de façon à ce qu'il(elle) puisse en analyser les avantages et les limitations pour une application donnée.




Stratégies pédagogiques

Un cours magistral d’une durée de trois (3) heures aura lieu une fois par semaine, pendant une période de douze (12) semaines.  La partie A du cours portera sur les réseaux de neurones artificiels, en particulier les réseaux multicouches sans rétroaction (Multi-Layer Perceptrons) et les réseaux profonds (Deep Neural Networks), comme les réseaux de neurones convolutifs et récurrents. La partie B du cours couvrira les différents aspects théoriques et pratiques des méthodes floues. La partie C portera sur les modèles conventionnels et profonds pour l'apprentissage non-supervisé, faiblement-supervisé (incluant l’apprentissage semi-supervisé et par instances multiples), et l’adaptation domaine. En fin de cours (partie D), nous aborderons plusieurs techniques d’optimisation, incluant l’optimisation évolutionnaire. Plusieurs applications et technologies seront présentées à travers des études de cas. Enfin, la treizième semaine sera consacrée à la présentation orale projets de session par les étudiants.

Un projet de session portera obligatoirement sur un aspect spécifique de la matière présentée au cours.  Ce projet d'envergure va prendre la forme d'une étude comparative de différentes techniques, de préférence pour une application liée au domaine de recherche de l'étudiant(e).  Dans un premier temps, une synthèse de littérature servira de véhicule pour approfondir les connaissances sur des modèles neuroniques, flous et évolutionnaires pour le traitement d’information. Dans un deuxième temps, une étude expérimentale permettra d’évaluer et de comparer les performances de ces algorithmes avec une base de données conséquente.  Les exigences pédagogiques résident dans deux quiz, la rédaction de deux rapports techniques (une synthèse de littérature et une étude expérimentale), et d’une présentation orale du projet de session par tous les étudiants.




Utilisation d’appareils électroniques

Ne s'applique pas.




Horaire
Groupe Jour Heure Activité
01 Mardi 08:30 - 12:00 Activité de cours
Mardi 13:30 - 16:30 Travaux pratiques
02 Jeudi 08:30 - 12:00 Activité de cours
Jeudi 13:30 - 16:30 Travaux pratiques



Coordonnées de l’enseignant
Groupe Nom Activité Courriel Local Disponibilité
01 Éric Granger Activité de cours Eric.Granger@etsmtl.ca A-3481
01 Arthur Josi Travaux pratiques arthur.josi.1@ens.etsmtl.ca
02 Soufiane Belharbi Activité de cours soufiane.belharbi@etsmtl.ca A-3736



Cours

Cours

 

Description

(voir les lectures sur le site de cours)

1

 

 

- Présentation personnelle
- Organisation du cours
- Réseaux de neurones
- Systèmes flous
- Reconnaissance de formes

 

2

 

 

 2 et 3

 

 

 

 

4

 

 

 

 

5 et 6

 

 

 

 

 

A. Réseaux de neurones artificiels:

A.1 Introduction:

−    historique et défis
−    neurones biologiques et artificiels
−    règles apprentissage et adaptation

A.2 Classifieur de type perceptron monocouche:

−    modèles de représentation et classification 
−    fonctions discriminantes
−    machine linéaire et classification à distance minimum 
−    perceptron discret: algorithme d'apprentissage et exemple de classification pour R=2 classes
−    perceptron continu appliqué à la classification d'observations linéairement séparables pour R=2 classes
−    réseau perceptron monocouche: problèmes de classification à R=N classes

A.3 Réseaux de neurones multicouches sans rétroaction (MLP):

−    classification de données linéairement non-séparables
−    règle d'apprentissage delta pour une couche de perceptrons
−    règle d'apprentissage delta généralisée
−    entraînement par la rétro-propagation des erreurs
−    stratégies et facteurs d'apprentissage
−    applications et limitations

A.4 Apprentissage profond (DL): 

−    motivation et défis des réseaux de neurones profonds (DNN)
−    stratégies d’entrainement 
−    modèles auto-encodeurs
−    réseaux de neurones convolutifs (CNN)
−    réseaux récurrents (RNN)
−    interprétation et visualisation 
−    compression et accélération 
−    attaques adversaires et sécurité

7

 

 

 

 

B. Systèmes flous:

−    définitions et opérations sur les sous-ensembles flous
−    les ?-coupes associées à un sous-ensemble flou
−    produit cartésien de sous-ensembles flous
−    principe d'extension
−    normes et co-normes triangulaires
−    principes généraux pour la conception d’un moteur d’inférence flou
−    modèles neuro-flous

 

8 et 9

 

 

 

 

 

10

 

 

 

11

C. Reconnaissance avec Données partiellement annotées :

C.1 Apprentissage non-supervisé et catégorisation:

−    algorithme statistique k-means 
−    mélanges de Gaussiennes (GMM)
−    catégorisation à noyaux et spectrale
−    algorithme fuzzy C-means
−    réseaux de neurones auto-organisateurs : compétitifs, ART  et SOM
−    modèles profonds pour la catégorisation
−    apprentissage non-supervisé de représentations
−    réseaux adverses génératifs (GAN)

C2. Apprentissage faiblement supervisé

−    taxonomie des approches 
−    apprentissage semi-supervisé
−    apprentissage par instances multiples
−    modèles profonds

C.3 Adaptation domaine: 

−    adaptation supervisé par transfert
−    décalage des représentations entre domaines
−    adaptation non-supervisé au domaine    
−    modèles profonds
−    distillation de connaissances

12

 

D. Méta heuristique et optimisation évolutionnaire:

−    algorithmes génétiques
−    optimisation  par essaims particulaires
−    optimisation avec multiples critères
−    techniques d'optimisation évolutionnaires appliquées aux systèmes    neuronales et flous 
−    optimisation conjoint des paramètres de classifieurs
−    méthodes par ensembles

13 et 14

Présentation orale des projets de session




Laboratoires et travaux pratiques

Ne s'applique pas.




Évaluation

Les deux rapports techniques pour le projet de session – (1) synthèse de littérature et (2) étude expérimentale – devront être dactylographiés, et avoir une longueur maximum de 50 pages (caractère de 12 points, en double interligne). Les projets de session feront l’objet d’une présentation orale en fin de session. 

Activités Pondération Échéance

Proposition de projet

5%

24 septembre

Quiz  A 

10%

groupe 01: 26 octobre
groupe 02: 28 octobre 

Rapport 1 — synthèse de littérature

25%

29 octobre

Quiz  B 

10%

groupe 01: 30 novembre
groupe 02:  2 décembre 

Rapport 2 — étude expérimentale

35%

22 décembre

Présentation orale du projet

15%

groupe 01: 7 et 14 décembre
groupe 02: 9 et 16 décembre

 

 




Politique de retard des travaux
Tout travail (devoir pratique, rapport de laboratoire, rapport de projet, etc.) remis en retard sans motif valable, c’est-à-dire autre que ceux mentionnés dans le Règlement des études (1er cycle, article 7.2.7 b / cycles supérieurs, article 6.5.4 b) se verra attribuer la note zéro, à moins que d’autres dispositions ne soient communiquées par écrit par l’enseignant dans les consignes de chaque travail à remettre ou dans le plan de cours pour l’ensemble des travaux.

Dispositions additionnelles

Ne s'applique pas.




Absence à un examen
Dans les cinq (5) jours ouvrables suivant la tenue de son examen, l’étudiant devra justifier son absence d’un examen durant le trimestre auprès de la coordonnatrice – Affaires départementales qui en référera au directeur de département. Pour un examen final, l’étudiant devra justifier son absence auprès du Bureau du registraire. Toute absence non justifiée par un motif majeur (maladie certifiée par un billet de médecin, décès d’un parent immédiat ou autre) à un examen entraînera l’attribution de la note (0).



Infractions de nature académique
Les clauses du « Règlement sur les infractions de nature académique de l’ÉTS » s’appliquent dans ce cours ainsi que dans tous les cours du département. Les étudiants doivent consulter le Règlement sur les infractions de nature académique (https://www.etsmtl.ca/docs/ETS/Gouvernance/Secretariat-general/Cadre-reglementaire/Documents/Infractions-nature-academique ) pour identifier les actes considérés comme étant des infractions de nature académique ainsi que prendre connaissance des sanctions prévues à cet effet.  À l’ÉTS, le respect de la propriété intellectuelle est une valeur essentielle et les étudiants sont invités à consulter la page Citer, pas plagier ! (https://www.etsmtl.ca/Etudiants-actuels/Baccalaureat/Citer-pas-plagier).



Documentation obligatoire

Documentation obligatoire

  • Les notes de cours péparées par le professeur et les références pertinentes seront disponibles sur le site Internet du cours: https://ena.etsmtl.ca



Ouvrages de références

Références optionnelles

  • W. Banzhaf, Foundations of Genetic Algorithms, Morgan Kaufmann, 1999.
  • C. M. Bishop, Neural Networks for Pattern Recognition, Oxford University Press, 1995.
  • C. M. Bishop, Pattern Recognition and Machine Learning, Springer, 2006.
  • R. O. Duda, P. E. Hart et D. G. Stork, Pattern Classification, 2e ed., John Wiley & Sons, 2000.
  • S. Haykin, Neural Networks and Machine Learning, 3e ed., Prentice Hall, 2009.
  • G.J. Klir et  T.A. Folger, Fuzzy sets, Uncertainty and Information, Prentice Hall Int’l, 1988.
  • L. I. Kuncheva, Combining Pattern Classifiers: Methods and Algorithms, Wiley, 2004.
  • K.F. Man, K.S. Tang et S. Kwong, Genetic Algorithms, Concepts and Design, Springer-Verlag, 2e ed., 1999.
  • J. Zurada, J.M., Introduction to Artificial Neural Systems, West Publishing Co, 1992.
  • H.J. Zimmermann, Fuzzy Set Theory and its Applications, 4e ed., Springer, 2001.
  • I. Goodfellow, Y. Bengio, A. Courville, Deep Learning, MIT Press, Cambridge, MA, 2016
  • F-F Li, J. Johnson, S. Yeung, CS231n: Convolutional Neural Networks for Visual Recognition, Stanford University, 2017
  • SYS843 Réseaux de neurones et systèmes flous, Notes de cours, vol 1, Réseaux de neurones, Robert Sabourin, Rév1, 2000.

.




Adresse internet du site de cours et autres liens utiles

https://ena.etsmtl.ca




Autres informations

Eric Granger:

Local:  A-3481

Disponibilité: sur rendez-vous, par courriel (eric.granger@etsmtl.ca)

 

Soufiane Belharbi:

Local:  A-3736

Disponibilité: sur rendez-vous, par courriel (cc-Soufiane.Belharbi@etsmtl.ca)