Logo ÉTS
Session
Cours
Responsable(s) Éric Granger

Se connecter
 

Sauvegarde réussie
Echec de sauvegarde
Avertissement





Cours

Cours

 

Description

(voir les lectures sur le site de cours)

1

 

 

- Présentation personnelle
- Organisation du cours
- Réseaux de neurones
- Systèmes flous
- Reconnaissance de formes

 

2

 

 

 2 et 3

 

 

 

 

4

 

 

 

 

5 et 6

 

 

 

 

 

A. Réseaux de neurones artificiels:

A.1 Introduction:

−    historique et défis
−    neurones biologiques et artificiels
−    règles apprentissage et adaptation

A.2 Classifieur de type perceptron monocouche:

−    modèles de représentation et classification 
−    fonctions discriminantes
−    machine linéaire et classification à distance minimum 
−    perceptron discret: algorithme d'apprentissage et exemple de classification pour R=2 classes
−    perceptron continu appliqué à la classification d'observations linéairement séparables pour R=2 classes
−    réseau perceptron monocouche: problèmes de classification à R=N classes

A.3 Réseaux de neurones multicouches sans rétroaction (MLP):

−    classification de données linéairement non-séparables
−    règle d'apprentissage delta pour une couche de perceptrons
−    règle d'apprentissage delta généralisée
−    entraînement par la rétro-propagation des erreurs
−    stratégies et facteurs d'apprentissage
−    applications et limitations

A.4 Apprentissage profond (DL): 

−    motivation et défis des réseaux de neurones profonds (DNN)
−    stratégies d’entrainement 
−    modèles auto-encodeurs
−    réseaux de neurones convolutifs (CNN)
−    réseaux récurrents (RNN)
−    interprétation et visualisation 
−    compression et accélération 
−    attaques adversaires et sécurité

7

 

 

 

 

B. Systèmes flous:

−    définitions et opérations sur les sous-ensembles flous
−    les ?-coupes associées à un sous-ensemble flou
−    produit cartésien de sous-ensembles flous
−    principe d'extension
−    normes et co-normes triangulaires
−    principes généraux pour la conception d’un moteur d’inférence flou
−    modèles neuro-flous

 

8 et 9

 

 

 

 

 

10

 

 

 

11

C. Reconnaissance avec Données partiellement annotées :

C.1 Apprentissage non-supervisé et catégorisation:

−    algorithme statistique k-means 
−    mélanges de Gaussiennes (GMM)
−    catégorisation à noyaux et spectrale
−    algorithme fuzzy C-means
−    réseaux de neurones auto-organisateurs : compétitifs, ART  et SOM
−    modèles profonds pour la catégorisation
−    apprentissage non-supervisé de représentations
−    réseaux adverses génératifs (GAN)

C2. Apprentissage faiblement supervisé

−    taxonomie des approches 
−    apprentissage semi-supervisé
−    apprentissage par instances multiples
−    modèles profonds

C.3 Adaptation domaine: 

−    adaptation supervisé par transfert
−    décalage des représentations entre domaines
−    adaptation non-supervisé au domaine    
−    modèles profonds
−    distillation de connaissances

12

 

D. Méta heuristique et optimisation évolutionnaire:

−    algorithmes génétiques
−    optimisation  par essaims particulaires
−    optimisation avec multiples critères
−    techniques d'optimisation évolutionnaires appliquées aux systèmes    neuronales et flous 
−    optimisation conjoint des paramètres de classifieurs
−    méthodes par ensembles

13 et 14

Présentation orale des projets de session