Logo ÉTS
Session
Cours
Responsable(s) Christian Desrosiers, Hervé Lombaert, Alessandro Lameiras Koerich

Se connecter
 

Sauvegarde réussie
La notification a été envoyée
Echec de sauvegarde
Avertissement
École de technologie supérieure

Responsable(s) de cours : Christian Desrosiers, Hervé Lombaert, Alessandro Lameiras Koerich


PLAN DE COURS

Automne 2025
GTI771 : Apprentissage machine avancé (3 crédits)


Préalables
Pour tous profils : LOG635, MAT472



Description du cours
Ce cours présente les concepts d’apprentissage automatique par les ordinateurs. Plusieurs problèmes applicatifs seront étudiés et différentes méthodes d’apprentissage automatique émanant du génie des technologies de l’information, de la théorie de l’information et de l’intelligence artificielle seront étudiées.

À la fin de ce cours, les étudiantes et les étudiants seront en mesure de : illustrer et expliquer la nature des systèmes intelligents; appliquer les connaissances en intelligence artificielle requises pour concevoir et maintenir de tels systèmes; utiliser les outils appropriés pour valider et évaluer la performance des systèmes intelligents. La théorie de Bayes, les approches non supervisées et celles supervisées sont quelques exemples de méthodes étudiées en classe.

Les sujets abordés incluent en autres : théorie de Bayes; les approches non supervisées et celles supervisées.

Note sur les préalables :
LOG635 Systèmes intelligents et algorithmes (3 cr.), MAT472 Algèbre linéaire et géométrie de l'espace (4 cr.) pour les programmes de baccalauréat en génie logiciel et baccalauréat en génie des technologies de l’information; ou
LOG635 Systèmes intelligents et algorithmes (3 cr.) pour le programme de baccalauréat en informatique distribuée.



Stratégies pédagogiques
  • 3,5 heures de cours et 2 heures de laboratoire par semaine. Toutes les notes de cours seront disponibles à l’étudiant(e) sous format électronique dans Moodle;
  • Les laboratoires visent l'assimilation des notions vues au cours, la mise au point des travaux et la conception des modèles d'apprentissage machine pour les tâches de classification et régression.



Informations concernant l’agrément du BCAPG
Ce cours compte 58,8 unités d'agrément réparties comme suit :

Catégories de UA Nombre Proportion Matière(s) traitée(s)
Science du génie 35,3 UA 60,03 %
Conception Ingénierie 23,5 UA 39,97 %






Utilisation d’appareils électroniques

Les outils montrés en classe ou en laboratoire utilisent notamment :

  • Python
  • Scikit-learn
  • TensorFlow
  • PyTorch
  • OpenCV

Cependant, les étudiants sont libres d’utiliser les bibliotèques de leur choix pour la réalisation des laboratoires.

Par ailleurs, de nombreuses approches d’apprentissage automatisé sont présentées en classe (ex : discrimination linéaire, réseaux de neurones avancées, SVM, combinaison de expertes). Ces approches peuvent être perçues comme des outils ayant chacun leur avantages et inconvénients.




Horaire
Groupe Jour Heure Activité
01 Lundi 08:30 - 12:00 Activité de cours
Jeudi 13:30 - 15:30 Laboratoire (Groupe A)
Jeudi 15:30 - 17:30 Laboratoire (Groupe B)



Coordonnées du personnel enseignant le cours
Groupe Nom Activité Courriel Local Disponibilité
01 Alessandro Lameiras Koerich Activité de cours alessandro.lameiras-koerich@etsmtl.ca A-4487
01 Alessandro Lameiras Koerich Laboratoire (Groupe A) alessandro.lameiras-koerich@etsmtl.ca A-4487



Cours

Concepts fondamentaux (3 heures)

  • Types d'apprentissage. Régularisation. Sélection de modèles. Conception d'un système intelligent. Exemples d’applications. Étude de cas. Méthodes d'évaluation de performance.

Préparation de données et extraction de primitives (3 heures)

  • Le spectre de la structure. Types de variables. Préparation de données. Traitement par lots et ETL. Normalisation. Extraction de primitives. Apprentissage de la représentation. Encodage One-Hot. Exemples d'applications sur vidéo, images et audio.

Réduction de la dimensionnalité (3 heures)

  • Sélection de sous-ensembles. Analyse des composantes principales (PCA). Analyse discriminante linéaire (LDA).

Théorie de la décision de Bayes et méthodes paramétriques (3 heures)

  • Classification bayésienne. Pertes et risques. Fonctions discriminantes. Valeur de l’information. Classificateur optimal de Bayes. Estimation à maximum de vraisemblance. Biais et variance. Classification et régression paramétrique. Méthodes à plusieurs variables. Données à plusieurs variables. Estimation des paramètres. Classification et régression multivariée.

Méthodes non-paramétriques (3 heures)

  • Estimation de densité non paramétrique. Estimation par histogrammes. Estimation de noyaux. Estimation par k-plus
    proche voisins.

Modèles discriminatifs linéaires (3 heures) 

  • Modèle linéaire. Géométrie. Descente du gradient. Discrimination logistique.

Réseaux de neurones profonds (3 heures)

  • Perceptron multicouches. Algorithme de propagation rétroactive. Procédure d’entraînement. Réseaux profonds. Apprentissage de représentations. Réseaux convolutifs. Réseaux récurrents et récursifs. Autoencodeurs.

Réseaux de neurones convolutifs (3 heures)

  • Neurone à convolution. Couche de regroupement. Réseaux convolutifs. Régularisation de réseaux. Réseaux récurrents et récursifs. Autoencodeurs.

Transformers (3 heures)

  • Modèles séquence-à-séquence. Mechanisms d'auto-attention. Encodage positionnel. Structure encodeur-décodeur. Modèles basés sur les transformers.

Machines à vecteurs de support (3 heures)

  • Hyperplan séparateur et marge maximale. Astuce du noyau. Classification par SVM. Régression par SVM. SVM à une classe. SVM multi-classe.

Combinaison de modèles d'apprentissage (3 heures)

  • Génération de modèles d'apprentissage. Combinaison d'experts. Combinaison à plusieurs étages. Système de vote.

Regroupement (3 heures)

  • Introduction. Mélange de densités. Regroupement k-moyennes. Algorithme de maximisation de l’espérance. Algorithmes hiérarchiques.

L'ordre et le contenu peut être modifié en cours de session en fonction de circonstances particulières.




Laboratoires et travaux pratiques

Laboratoires et travaux pratiques 

Les laboratoires sont essentiels à la compréhension de la matière. Ils permettent à l’étudiant(e) de mettre en pratique la matière vue en classe.


Laboratoire 1: Préparation et visualisation de données
Laboratoire 2: Extraction de primitives artisanales
Laboratoire 3: Extraction de primitives deep
Laboratoire 4: Réduction de la dimensionnalité
Laboratoire 5: Régression linéaire
Laboratoire 6: Réseau de neurones MLP
Laboratoire 7: Réseaux de neurones convolutifs
Laboratoire 8: Machines à vecteur de support

 

L'ordre, le nombre et le contenu peut être modifié en cours de session en fonction de circonstances particulières.




Utilisation d'outils d'ingénierie

n/a




Évaluation


Informations additionnelles :
Examen intra 30 %
Examen final 35 %
Laboratoires     35 %

Une moyenne inférieure à 50% dans les évaluations individuelles entraîne automatiquement un échec au cours. Ceci est une condition nécessaire mais non suffisante pour réussir ce cours."

 




Seuil de passage pour les éléments à caractère individuel
Pour réussir ce cours, l’étudiante ou l’étudiant doit obtenir la note de passage établie par le titulaire de ce cours pour la totalité des éléments évaluation du cours. De plus, le titulaire impose une note minimale de 55 % pour l’ensemble des éléments d’évaluation à caractère individuel.
Note minimale : 50



Dates des examens intra
Groupe(s) Date
1 20 octobre 2025



Politique de retard des travaux
Tout travail (devoir pratique, rapport de laboratoire, rapport de projet, etc.) remis en retard sans motif valable, c’est-à-dire autre que ceux mentionnés dans le Règlement des études (1er cycle, article 7.2.5/ cycles supérieurs, article 6.5.2) se verra attribuer la note zéro, à moins que d’autres dispositions ne soient communiquées par écrit par l’enseignante ou l’enseignant dans les consignes de chaque travail à remettre ou dans le plan de cours pour l’ensemble des travaux.



Absence à une évaluation

Afin de faire valider une absence à une évaluation en vue d’obtenir un examen de compensation, l’étudiante ou l’étudiant doit utiliser le formulaire prévu à cet effet dans son portail MonÉTS pour un examen final qui se déroule durant la période des examens finaux ou pour tout autre élément d’évaluation surveillé de 15% et plus durant la session. Si l’absence concerne un élément d’évaluation de moins de 15% durant la session, l’étudiant ou l’étudiante doit soumettre une demande par écrit à son enseignante ou enseignant.

Toute demande de validation d’absence doit se faire dans les cinq (5) jours ouvrables suivant la tenue de l’évaluation, sauf dans les cas d’une absence pour participation à une activité prévue aux règlements des études où la demande doit être soumise dans les cinq (5) jours ouvrables avant le jour de départ de l’ÉTS pour se rendre à l’activité.

Toute absence non justifiée par un motif majeur (voir articles 7.2.6.1 du RÉPC et 6.5.2 du RÉCS) entraînera l’attribution de la note zéro (0).




Infractions de nature académique
Les clauses du « Règlement sur les infractions de nature académique de l’ÉTS » s’appliquent dans ce cours ainsi que dans tous les cours du département. Les étudiantes et les étudiants doivent consulter le Règlement sur les infractions de nature académique (www.etsmtl.ca/a-propos/gouvernance/secretariat-general/cadre-reglementaire/reglement-sur-les-infractions-de-nature-academique) pour identifier les actes considérés comme étant des infractions de nature académique ainsi que prendre connaissance des sanctions prévues à cet effet. À l’ÉTS, le respect de la propriété intellectuelle est une valeur essentielle et tous les membres de la communauté étudiante sont invités à consulter la page Citer, pas plagier ! (www.etsmtl.ca/Etudiants-actuels/Baccalaureat/Citer-pas-plagier).

Systèmes d’intelligence artificielle générative (SIAG)
L’utilisation des systèmes d’intelligence artificielle générative (SIAG) dans les activités d’évaluation constitue une infraction de nature académique au sens du Règlement sur les infractions de nature académique, sauf si elle est explicitement autorisée par l’enseignante ou l’enseignant du cours.



Documentation obligatoire
  • Alpaydin, Ethem. 2014. Introduction to machine learning, 3rd edition. Coll. « Adaptive computation and machine learning ». Cambridge, Mass.: MIT Press.

  • Vous avez accès au document électronique complet à partir de books24x7.




Ouvrages de références
  • I. Goodfellow, Y. Bengio et A. Courville. 2016. Deep Learning. MIT Press. Available at http://www.deeplearningbook.org 

  • Prince, Simon JD. Understanding deep learning. MIT press, 2023.

  • Mitchell, Tom M. 1997. Machine Learning. New York: McGraw-Hill, 414 p.

  • Duda, Richard O., Peter E. Hart et David G. Stork. 2001. Pattern classification, 2nd ed. New York ; Toronto: John Wiley & Sons, 654 p.

  • Bishop, Christopher M. 2006. Pattern recognition and machine learning. New York: Springer, 738 p.

  • Theodoridis, Sergios, et Konstantinos Koutroumbas. 2009. Pattern recognition, 4th Edition. Burlington, Mass.: Academic Press.

  • Vous avez accès au document électronique complet à partir de books24x7.




Adresse internet du site de cours et autres liens utiles

https://ena.etsmtl.ca/course/view.php?id=27852