Logo ÉTS
Session
Cours
Responsable(s) Christian Desrosiers, Hervé Lombaert, Alessandro Lameiras Koerich

Se connecter
 

Sauvegarde réussie
Echec de sauvegarde
Avertissement
École de technologie supérieure

Responsable(s) de cours : Christian Desrosiers, Hervé Lombaert, Alessandro Lameiras Koerich


PLAN DE COURS

Automne 2024
GTI771 : Apprentissage machine avancé (3 crédits)





Préalables
Programme(s) : 7065,7070,7365,7610
             
  Profils(s) : Tous profils  
             
    MAT472 ET LOG635    
             
Unités d'agrément
Total d'unités d'agrément : 58,8 60,0 % 40,0 %




Qualités de l'ingénieur

Qn
Qualité visée dans ce cours  
Qn
  Qualité visée dans un autre cours  
  Indicateur enseigné
  Indicateur évalué
  Indicateur enseigné et évalué



Descriptif du cours
Ce cours présente les concepts d’apprentissage automatique par les ordinateurs. Plusieurs problèmes applicatifs seront étudiés et différentes méthodes d’apprentissage automatique émanant du génie des technologies de l’information, de la théorie de l’information et de l’intelligence artificielle seront étudiées.

À la fin de ce cours, les étudiantes et les étudiants seront en mesure de : illustrer et expliquer la nature des systèmes intelligents; appliquer les connaissances en intelligence artificielle requises pour concevoir et maintenir de tels systèmes; utiliser les outils appropriés pour valider et évaluer la performance des systèmes intelligents. La théorie de Bayes, les approches non supervisées et celles supervisées sont quelques exemples de méthodes étudiées en classe.

Les sujets abordés incluent en autres : théorie de Bayes; les approches non supervisées et celles supervisées.

Note sur les préalables :
LOG635 Systèmes intelligents et algorithmes (3 cr.), MAT472 Algèbre linéaire et géométrie de l'espace (4 cr.) pour les programmes de baccalauréat en génie logiciel et baccalauréat en génie des technologies de l’information; ou
LOG635 Systèmes intelligents et algorithmes (3 cr.) pour le programme de baccalauréat en informatique distribuée.



Objectifs du cours
  • Compréhension approfondie des algorithmes fondamentaux d'apprentissage machine: Les étudiants devraient être capables d'expliquer et de mettre en œuvre des algorithmes tels que les paramétriques et non-paramétriques, la régression linéaire, la régression logistique, les machines à vecteurs de support, les réseaux de neurones et les techniques de regroupement.
  • Introduction à l'apprentissage profond: Les étudiants devraient avoir une compréhension de base des réseaux de neurones profonds, des réseaux de neurones convolutifs, des réseaux de neurones récurrents, transformers et de leurs applications.
  • Connaissance de la théorie de l'apprentissage statistique: Les étudiants devraient comprendre des concepts tels que le compromis biais-variance, le sur-apprentissage, le sous-apprentissage, les techniques de régularisation et les métriques d'évaluation de modèles.
  • Familiarité avec les techniques d'optimisation: Les étudiants devraient être capables d'appliquer des algorithmes d'optimisation tels que la descente de gradient et la descente de gradient stochastique pour entraîner des modèles de machine learning.
  • Capacité à appliquer les techniques d'apprentissage machine à des problèmes réels: Les étudiants devraient être capables d'identifier des algorithmes de machine learning appropriés pour diverses tâches, de prétraiter les données, d'entraîner des modèles et d'évaluer leurs performances.
  • Expérience pratique avec les outils et les bibliothèques d'apprentissage machine: Les étudiants devraient être compétents dans l'utilisation de bibliothèques d'apprentissage machine telles que scikit-learn, TensorFlow et PyTorch.



Stratégies pédagogiques
  • 3,5 heures de cours et 2 heures de laboratoire par semaine. Toutes les notes de cours seront disponibles à l’étudiant(e) sous format électronique dans Moodle;
  • Les laboratoires visent l'assimilation des notions vues au cours, la mise au point des travaux et la conception des modèles d'apprentissage machine pour les tâches de classification et régression.



Utilisation d’appareils électroniques

Les outils montrés en classe ou en laboratoire utilisent notamment :

  • Python
  • Scikit-learn
  • TensorFlow
  • PyTorch
  • OpenCV

Cependant, les étudiants sont libres d’utiliser les bibliotèques de leur choix pour la réalisation des laboratoires.

Par ailleurs, de nombreuses approches d’apprentissage automatisé sont présentées en classe (ex : discrimination linéaire, réseaux de neurones avancées, SVM, combinaison de expertes). Ces approches peuvent être perçues comme des outils ayant chacun leur avantages et inconvénients.




Horaire
Groupe Jour Heure Activité
01 Mercredi 08:30 - 12:00 Activité de cours
Vendredi 13:30 - 15:30 Laboratoire (Groupe A)
Vendredi 15:30 - 17:30 Laboratoire (Groupe B)



Coordonnées du personnel enseignant le cours
Groupe Nom Activité Courriel Local Disponibilité
01 Alessandro Lameiras Koerich Activité de cours Alessandro.LameirasKoerich@etsmtl.ca A-4487
01 Alessandro Lameiras Koerich Laboratoire (Groupe A) Alessandro.LameirasKoerich@etsmtl.ca A-4487



Cours

Concepts fondamentaux (3 heures)

  • Types d'apprentissage. Régularisation. Sélection de modèles. Conception d'un système intelligent. Exemples d’applications. Étude de cas. Méthodes d'évaluation de performance.

Préparation de données et extraction de primitives (3 heures)

  • Le spectre de la structure. Types de variables. Préparation de données. Traitement par lots et ETL. Normalisation. Extraction de primitives. Apprentissage de la représentation. Encodage One-Hot. Exemples d'applications sur vidéo, images et audio.

Réduction de la dimensionnalité (3 heures)

  • Sélection de sous-ensembles. Analyse des composantes principales (PCA). Analyse discriminante linéaire (LDA).

Théorie de la décision de Bayes et méthodes paramétriques (3 heures)

  • Classification bayésienne. Pertes et risques. Fonctions discriminantes. Valeur de l’information. Classificateur optimal de Bayes. Estimation à maximum de vraisemblance. Biais et variance. Classification et régression paramétrique. Méthodes à plusieurs variables. Données à plusieurs variables. Estimation des paramètres. Classification et régression multivariée.

Méthodes non-paramétriques (3 heures)

  • Estimation de densité non paramétrique. Estimation par histogrammes. Estimation de noyaux. Estimation par k-plus
    proche voisins.

Modèles discriminatifs linéaires (3 heures) 

  • Modèle linéaire. Géométrie. Descente du gradient. Discrimination logistique.

Réseaux de neurones profonds (3 heures)

  • Perceptron multicouches. Algorithme de propagation rétroactive. Procédure d’entraînement. Réseaux profonds. Apprentissage de représentations. Réseaux convolutifs. Réseaux récurrents et récursifs. Autoencodeurs.

Réseaux de neurones convolutifs (3 heures)

  • Neurone à convolution. Couche de regroupement. Réseaux convolutifs. Régularisation de réseaux. Réseaux récurrents et récursifs. Autoencodeurs.

Transformers (3 heures)

  • Modèles séquence-à-séquence. Mechanisms d'auto-attention. Encodage positionnel. Structure encodeur-décodeur. Modèles basés sur les transformers.

Machines à vecteurs de support (3 heures)

  • Hyperplan séparateur et marge maximale. Astuce du noyau. Classification par SVM. Régression par SVM. SVM à une classe. SVM multi-classe.

Combinaison de modèles d'apprentissage (3 heures)

  • Génération de modèles d'apprentissage. Combinaison d'experts. Combinaison à plusieurs étages. Système de vote.

Regroupement (3 heures)

  • Introduction. Mélange de densités. Regroupement k-moyennes. Algorithme de maximisation de l’espérance. Algorithmes hiérarchiques.



Laboratoires et travaux pratiques

Laboratoires et travaux pratiques 

Les laboratoires sont essentiels à la compréhension de la matière. Ils permettent à l’étudiant(e) de mettre en pratique la matière vue en classe.


Laboratoire 1: Préparation et visualisation de données
Laboratoire 2: Extraction de primitives artisanales
Laboratoire 3: Extraction de primitives deep
Laboratoire 4: Réduction de la dimensionnalité
Laboratoire 5: Régression linéaire
Laboratoire 6: Réseau de neurones MLP
Laboratoire 7: Réseaux de neurones convolutifs
Laboratoire 8: Machines à vecteur de support




Utilisation d'outils d'ingénierie

n/a




Évaluation
Examen intra 30 %
Examen final 35 %
Laboratoires     35 %

À noter qu'une moyenne inférieure à 50% à l'ensemble des examens intra et final entraine automatiquement un échec au cours.




Double seuil
Note minimale : 50



Dates des examens intra
Groupe(s) Date
1 23 octobre 2024



Date de l'examen final
Votre examen final aura lieu pendant la période des examens finaux, veuillez consulter l'horaire à l'adresse suivante : https://www.etsmtl.ca/programmes-et-formations/horaire-des-examens-finaux


Politique de retard des travaux
Tout travail (devoir pratique, rapport de laboratoire, rapport de projet, etc.) remis en retard sans motif valable, c’est-à-dire autre que ceux mentionnés dans le Règlement des études (1er cycle, article 7.2.5/ cycles supérieurs, article 6.5.2) se verra attribuer la note zéro, à moins que d’autres dispositions ne soient communiquées par écrit par l’enseignante ou l’enseignant dans les consignes de chaque travail à remettre ou dans le plan de cours pour l’ensemble des travaux.



Absence à une évaluation

Afin de faire valider une absence à une évaluation en vue d’obtenir un examen de compensation, l’étudiante ou l’étudiant doit utiliser le formulaire prévu à cet effet dans son portail MonÉTS pour un examen final qui se déroule durant la période des examens finaux ou pour tout autre élément d’évaluation surveillé de 15% et plus durant la session. Si l’absence concerne un élément d’évaluation de moins de 15% durant la session, l’étudiant ou l’étudiante doit soumettre une demande par écrit à son enseignante ou enseignant.

Toute demande de validation d’absence doit se faire dans les cinq (5) jours ouvrables suivant la tenue de l’évaluation, sauf dans les cas d’une absence pour participation à une activité prévue aux règlements des études où la demande doit être soumise dans les cinq (5) jours ouvrables avant le jour de départ de l’ÉTS pour se rendre à l’activité.

Toute absence non justifiée par un motif majeur (voir articles 7.2.6.1 du RÉPC et 6.5.2 du RÉCS) entraînera l’attribution de la note zéro (0).




Infractions de nature académique
Les clauses du « Règlement sur les infractions de nature académique de l’ÉTS » s’appliquent dans ce cours ainsi que dans tous les cours du département. Les étudiantes et les étudiants doivent consulter le Règlement sur les infractions de nature académique (www.etsmtl.ca/a-propos/gouvernance/secretariat-general/cadre-reglementaire/reglement-sur-les-infractions-de-nature-academique) pour identifier les actes considérés comme étant des infractions de nature académique ainsi que prendre connaissance des sanctions prévues à cet effet. À l’ÉTS, le respect de la propriété intellectuelle est une valeur essentielle et tous les membres de la communauté étudiante sont invités à consulter la page Citer, pas plagier ! (www.etsmtl.ca/Etudiants-actuels/Baccalaureat/Citer-pas-plagier).

Systèmes d’intelligence artificielle générative (SIAG)
L’utilisation des systèmes d’intelligence artificielle générative (SIAG) dans les activités d’évaluation constitue une infraction de nature académique au sens du Règlement sur les infractions de nature académique, sauf si elle est explicitement autorisée par l’enseignante ou l’enseignant du cours.



Documentation obligatoire
  • Alpaydin, Ethem. 2014. Introduction to machine learning, 3rd edition. Coll. « Adaptive computation and machine learning ». Cambridge, Mass.: MIT Press.

  • Vous avez accès au document électronique complet à partir de books24x7.




Ouvrages de références
  • I. Goodfellow, Y. Bengio et A. Courville. 2016. Deep Learning. MIT Press. Available at http://www.deeplearningbook.org 

  • Mitchell, Tom M. 1997. Machine Learning. New York: McGraw-Hill, 414 p.

  • Duda, Richard O., Peter E. Hart et David G. Stork. 2001. Pattern classification, 2nd ed. New York ; Toronto: John Wiley & Sons, 654 p.

  • Bishop, Christopher M. 2006. Pattern recognition and machine learning. New York: Springer, 738 p.

  • Theodoridis, Sergios, et Konstantinos Koutroumbas. 2009. Pattern recognition, 4th Edition. Burlington, Mass.: Academic Press.

  • Vous avez accès au document électronique complet à partir de books24x7.




Adresse internet du site de cours et autres liens utiles

Moodle GTI771  – https://ena.etsmtl.ca/course/view.php?id=24219