Logo ÉTS
Session
Cours
Responsable(s) Éric Granger

Se connecter
 

Sauvegarde réussie
Echec de sauvegarde
Avertissement





Cours

Semaine

(date)

Description

(voir les lectures sur le site de cours)

1

(5 janvier)

 

 

Organisation du cours :

  • présentation personnelle
  • plan détaillé du cours

Introduction à l’intelligence artificielle :

  • historique et applications
  • problèmes de classification, régression et catégorisation
  • réseaux de neurones vs système flous

 

2

(12 janvier)

 

 

 

 

3.

(19 janvier)

 

 

 

4.

(26 janvier)

 

 

 

5.

(2 février)

 

 

 

6.

(9 février)

 

 

 

7.

(16 février)

A. Réseaux de neurones artificiels:

A.1 Introduction:

  • neurones biologiques et artificiels
  • principaux modèles de réseaux de neurones artificiels
  • les traitements effectués par les réseaux de neurones
  • règles apprentissage et adaptation

A.2 Classifieur de type perceptron monocouche:

  • approche paramétrique vs non paramétrique
  • modèles de classification, caractéristiques et régions de décision
  • fonctions discriminantes
  • classifieur à distance minimum et du plus proche voisin (k-NN)
  • le perceptron discret: algorithme d'apprentissage et exemple de classification pour R=2 classes
  • le perceptron continu appliqué à la classification d'observations linéairement séparables pour R=2 classes
  • le réseau de neurones de type perceptron monocouche: problèmes de classification à R=N classes

Livrable : Proposition de projet

A.3 Réseaux de neurones multicouches sans rétroaction (MLP):

  • classification d'objets linéairement non-séparables
  • règle d'apprentissage delta pour une couche de perceptrons
  • règle d'apprentissage delta généralisée
  • entraînement par la rétro-propagation des erreurs
  • stratégies et facteurs d'apprentissage
  • applications et limitations

A.4 Apprentissage profond (DL): 

  • motivation et défis des réseaux de neurones profonds (DNN)
  • apprentissage non-supervisé de représentations
  • modèles auto-encodeurs
  • réseaux de neurones convolutifs (CNN)
  • stratégies d’entrainement des réseaux profonds
  • réseaux récurrents (RNN)
  • réseaux adverses génératifs (GAN)

Quiz A

8.

(23 février)

 

Congé relâche

9.

(2 mars)

 

B. Systèmes flous:

  • définitions et opérations sur les sous-ensembles flous
  • les a-coupes associées à un sous-ensemble flou
  • produit cartésien de sous-ensembles flous
  • principe d'extension
  • normes et co-normes triangulaires
  • principes généraux pour la conception d’un moteur d’inférence flou

Livrable : Rapport 1 (synthèse de littérature)

 

10.

(9 mars)

 

 

 

 

 

11.

(16 mars)

 

 

 

 

12.

(23 mars)

 

C. Reconnaissance avec Données partiellement annotées :

C.1 Apprentissage non-supervisé et catégorisation:

  • algorithme statistique k-means
  • mélanges de Gaussiennes (GMM)
  • réseaux de neurones auto-organisateurs : compétitifs, ART  et SOM
  • algorithme fuzzy C-means
  • catégorisation à noyaux et spectrale
  • modèles profonds pour la catégorisation

C2. Apprentissage faiblement supervisé

  • taxonomie des approches
  • apprentissage semi-supervisé
  • apprentissage par instances multiples
  • modèles profonds

C.3 Adaptation domaine: 

  • adaptation supervisé par transfert
  • décalage des représentations entre domaines
  • adaptation non-supervisé au domaine    
  • modèles profonds

Quiz B

13.

(30 mars)

 

 

D. Méta heuristique et optimisation évolutionnaire:

  • algorithmes génétiques
  • optimisation  par essaims particulaires
  • optimisation avec multiples critères
  • techniques d'optimisation évolutionnaires appliquées aux systèmes   neuronales et flous
  • optimisation conjoint des paramètres de classifieurs

 

14.

(6 et 13 avril)

Présentation orale des projets de session