Logo ÉTS
Session
Cours
Responsable(s) Christian Desrosiers, Hervé Lombaert, Alessandro Lameiras Koerich

Se connecter
 

Sauvegarde réussie
Echec de sauvegarde
Avertissement





Cours

Concepts fondamentaux (3 heures)

  • Types d'apprentissage. Régularisation. Sélection de modèles. Conception d'un système intelligent. Exemples d’applications. Étude de cas. Méthodes d'évaluation de performance.

Préparation de données et extraction de primitives (3 heures)

  • Le spectre de la structure. Types de variables. Préparation de données. ETL. Normalisation. Extraction de primitives. Apprentissage de la représentation. One-Hot-Encoding. Exemples d'applications sur vidéo, images et audio.

Réduction de la dimensionnalité (3 heures)

  • Sélection de sous-ensembles. Analyse des composantes principales (PCA). Analyse discriminante linéaire (LDA).

Théorie de la décision de Bayes (3 heures)

  • Classification bayésienne. Pertes et risques. Fonctions discriminantes. Valeur de l’information. Classificateur optimal de Bayes.

Méthodes paramétriques (3 heures)

  • Estimation à maximum de vraisemblance. Biais et variance. Classification et régression paramétrique. Méthodes à plusieurs variables. Données à plusieurs variables. Estimation des paramètres. Classification et régression multivariée.

Méthodes non-paramétriques (3 heures)

  • Estimation de densité non paramétrique. Estimation par histogrammes. Estimation de noyaux. Estimation par k-plus
    proche voisins.

Discrimination linéaire (3 heures

  • Modèle linéaire. Géométrie. Descente du gradient. Discrimination logistique. Régression de Ridge.

Réseaux de neurones profonds (6 heures)

  • Perceptron multicouches. Algorithme de propagation rétroactive. Procédure d’entraînement. Réseaux profonds. Apprentissage de représentations. Réseaux convolutifs. Réseaux récurrents et récursifs. Autoencodeurs.

Machines à vecteurs de support (6 heures)

  • Hyperplan séparateur et marge maximale. Astuce du noyau. Classification par SVM. Régression par SVM. SVM à une classe. SVM multi-classe.

Combinaison de modèles d'apprentissage et rejet (3 heures)

  • Génération de modèles d'apprentissage. Combinaison d'experts. Combinaison à plusieurs étages. Système de vote. Importance du rejet. Règle idéale. Concept de rejet. Critères de rejet.

Regroupement (3 heures)

  • Introduction. Mélange de densités. Regroupement k-moyennes. Algorithme de maximisation de l’espérance. Algorithmes hiérarchiques.
 

Laboratoires et travaux pratiques

Les laboratoires sont essentiels à la compréhension de la matière. Ils permettent à l’étudiant(e) de mettre en pratique la matière vue en classe.

Laboratoire 1: Analyse de données, extraction de primitives et visualisation

Ce laboratoire servira à faire une démonstration d'extraction de primitives d'un problème de classification, normalisation de donnés et de primitives, réduction de dimensionnalité et visualisation de données.

  • Logiciels: Python, OpenCV et scikit-learn.
  • Durée : quatre (4) séances.

Laboratoire 2 : Discrimination linéaire et réseaux de neurones profonds

Ce laboratoire servira à faire un travail pratique d’apprentissage machine, en particulier avec les algorithmes linéaires et réseaux de neurones profonds.

  • Logiciels: Python, scikit-learn, TensorFlow et Keras.
  • Durée : quatre (4) séances.

Laboratoire 3 : Machines à vecteurs de support et combinaison de modèles d’apprentissage

Ce laboratoire servira à faire un travail pratique d’apprentissage des machines à vecteurs de support et combinaison de modèles d’apprentissage.

  • Logiciels: Python, scikit-learn, TensorFlow et Keras.
  • Durée : quatre (4) séances.