Logo ÉTS
Session
Cours
Responsable(s) Marco Pedersoli

Se connecter
 

Sauvegarde réussie
La notification a été envoyée
Echec de sauvegarde
Avertissement
École de technologie supérieure

Responsable(s) de cours : Marco Pedersoli


PLAN DE COURS

Hiver 2026
GPA710 : Apprentissage profond (3 crédits)


Préalables
Aucun préalable requis.



Description du cours
Au terme de ce cours, l’étudiante ou l'étudiant sera en mesure de maîtriser et expérimenter les concepts de base de l’apprentissage profond, incluant : différents types d'architectures de réseaux de neurones profonds, leurs applications, et les avantages et limitations de ces architectures; conception et optimisation de modèles pour une application donnée; l’entrainement des réseaux profonds : fonctions de coûts, rétro‐propagation, descente de gradient stochastique, régularisation et augmentation des données; réseaux de neurones à convolution; réseaux récurrents; modèles génératifs : auto-encodeurs, réseaux adversaires génératifs; apprentissage faiblement supervisé; robustesse des réseaux profonds et attaques adverses; interprétabilité des réseaux profonds; apprentissage par renforcement.



Stratégies pédagogiques

39    heures de cours magistral (enseignement théorique)

26    heures de laboratoire

  3    heures de travail personnel (en moyenne) par semaine

Pour atteindre les objectifs, l’étudiant assistera à des exposés magistraux à raison de 3h par semaine et à des séances de laboratoire (2 h par semaine) durant lesquelles il pourra simuler le fonctionnement de divers modèles d'apprentissage profond appliqués à des problèmes en reconnaissance visuelle et géneration du texte.




Informations concernant l’agrément du BCAPG
Ce cours compte 58,8 unités d'agrément réparties comme suit :

Catégories de UA Nombre Proportion Matière(s) traitée(s)
Science du génie 19,4 UA 32,99 %
Conception Ingénierie 39,4 UA 67,01 %






Utilisation d’appareils électroniques

Les appareils électroniques (iPod Touch, téléphone intelligent, tablette, ordinateur portable) sont permis durant les cours, à des fins pédagogiques uniquement. La calculatrice est permise durant les cours et est le seul appareil électronique permis durant les examens.




Horaire
Groupe Jour Heure Activité
01 Mardi 08:30 - 10:30 Laboratoire
Jeudi 08:30 - 12:00 Activité de cours



Coordonnées du personnel enseignant le cours
Groupe Nom Activité Courriel Local Disponibilité
01 Marco Pedersoli Activité de cours Marco.Pedersoli@etsmtl.ca F-5090



Cours

Le plan de cours prévu se veut complet et ordonnancé chronologiquement, mais certaines modifications peuvent être apportées en cours de session.

 

Semaines

Description

Heures

S1

08 janvier

Organisation du cours

  • Présentation personnelle
  • Plan détaillé du cours
  • Historique et applications de l'apprentissage profond

 

3

S2

15 janvier

L'appentissage automatique

  • Tâches d'apprentissage et types de supervision
  • Fonction de coût et optimisation
  • Complexité des modèles et sur-apprentissage
  • Protocoles de validation

 

 

3

S3

22 janvier

Perceptron et apprentissage

  • Perceptron de Rosenblatt
  • Algorithme d'apprentissage
  • Limites

 

3

S4

29 janvier

Réseaux de neurones multicouches

  • Structure d'une réseau de neurones
  • Fonctions de coût et l'algorithme du gradient
  • Algorithme de rétro-propagation
  • Apprentissage incremental, par lots et mini-lots 

 

3

S5

5 février

Apprentissage profond

  • Stratégies d'entraînement: taux d'apprentissage, fonction d'activation, initialisation
  • Acceleration du gradient: moment, adam,normalisations
  • Régularisation: norm l1, l2, dropout, augmentations

 

3

S6

12 février

 

Reseaux convolutifs

  • Equivariance spatiale et partage de paramètres
  • Couches de convoluiton et de pooling 
  • Architectures et amelioration
  • Detection et segmentation semantique

 

3

 

S7

19 février

Examen de mi-session

 

3

S8

26 février

Autoencodeurs

  •  Autoencodeur
  • Autoencodeur variationnel
  • Reseau generatif adversariel
  • Modèles de diffusion

 

3

S9

12 mars

 

Modèles autoregressifs

  • Reseau recurrent
  • Transformer
  • Modèles de language

 

3

 

S10

19 mars

 
 

Réduction de la complexité

  • Élagage et quantification d'un réseau
  • Calcul Conditionnel
  • Réduction du rang
  • Recherche d'architecture neuronal

 

3

S11

26 mars

Réduction de la supervision

  • Apprentissage semi-supervisé
  • Apprentissage faiblement-supervisé
  • Apprentissage auto-supervisé
  • Adaptation de domaine

 

3

S12

2 avril

Apprentissage par renforcement

  • Introduction
  • Q-learning
  • Policy gradients
  • Acteur-critique

 

3

S13

9 avril

Révision du cours

3

Total      

39

 




Laboratoires et travaux pratiques

Semaines

Description

Heures

 

1,2

Laboratoire 0 (non évalué) - Introduction à la programmation scientifique en python

  • Jupyter
  • Colab
  • Jax

 

4

 

3,4

Laboratoire 1 - Entrainement d'un perceptron

  • Construction d'un perceptron
  • Entrinement par exemple
  • Entrainement par lot

 

4

 

5,6

Laboratoire 2 - Entrainement d'un réseau de neurones

  • Construction d'un réseau de neurones
  • Entrainment par mini-lots

 

4

 

7,8

Laboratoire 3 - Autoencodeurs

  • Autoencodeur normal
  • Autoencodeur variationnel

 

4

 

9,10

Laboratoire 4 - Réseaux convolutifs

  • Pytorch
  • Réseau Convolutif
  • Détéction avec un réseau convolutif

 

4

 

11,12,13

Laboratoire 5 - Modeles autoregressifs

  • Réseau recurrent
  • Transformer

 

6

Total          

26




Utilisation d'outils d'ingénierie

QUIPEMENTS UTILISÉS AU LABORATOIRE :

  • PCs
  • Logiciels de simulation de réseaux de neurones : python, scikit-learn, jax et pytorch



Évaluation


Informations additionnelles :

Activités

Pondération

1.   Laboratoires (5 laboratoires de 6% chacun)

30%

2.   Examen intra

30%

3.   Examen final

40%

 




Dates des examens intra
Groupe(s) Date
1 19 février 2026



Politique de retard des travaux
Tout travail (devoir pratique, rapport de laboratoire, rapport de projet, etc.) remis en retard sans motif valable, c’est-à-dire autre que ceux mentionnés dans le Règlement des études (1er cycle, article 7.2.5/ cycles supérieurs, article 6.5.2) se verra attribuer la note zéro, à moins que d’autres dispositions ne soient communiquées par écrit par l’enseignante ou l’enseignant dans les consignes de chaque travail à remettre ou dans le plan de cours pour l’ensemble des travaux.

Dispositions additionnelles

Aucun retard ne sera permis pour la remise des travaux. Une pénalité de 10% par jour ouvrable sera imposée. Les règlements concernant le plagiat, tentative de plagiat et situations connexes seront appliquées.




Absence à une évaluation

Afin de faire valider une absence à une évaluation en vue d’obtenir un examen de compensation, l’étudiante ou l’étudiant doit utiliser le formulaire prévu à cet effet dans son portail MonÉTS pour un examen final qui se déroule durant la période des examens finaux ou pour tout autre élément d’évaluation surveillé de 15% et plus durant la session. Si l’absence concerne un élément d’évaluation de moins de 15% durant la session, l’étudiant ou l’étudiante doit soumettre une demande par écrit à son enseignante ou enseignant.

Toute demande de validation d’absence doit se faire dans les cinq (5) jours ouvrables suivant la tenue de l’évaluation, sauf dans les cas d’une absence pour participation à une activité prévue aux règlements des études où la demande doit être soumise dans les cinq (5) jours ouvrables avant le jour de départ de l’ÉTS pour se rendre à l’activité.

Toute absence non justifiée par un motif majeur (voir articles 7.2.6.1 du RÉPC et 6.5.2 du RÉCS) entraînera l’attribution de la note zéro (0).




Infractions de nature académique
Les clauses du « Règlement sur les infractions de nature académique de l’ÉTS » s’appliquent dans ce cours ainsi que dans tous les cours du département. Les étudiantes et les étudiants doivent consulter le Règlement sur les infractions de nature académique (www.etsmtl.ca/a-propos/gouvernance/secretariat-general/cadre-reglementaire/reglement-sur-les-infractions-de-nature-academique) pour identifier les actes considérés comme étant des infractions de nature académique ainsi que prendre connaissance des sanctions prévues à cet effet. À l’ÉTS, le respect de la propriété intellectuelle est une valeur essentielle et tous les membres de la communauté étudiante sont invités à consulter la page Citer, pas plagier ! (www.etsmtl.ca/Etudiants-actuels/Baccalaureat/Citer-pas-plagier).

Systèmes d’intelligence artificielle générative (SIAG)
L’utilisation des systèmes d’intelligence artificielle générative (SIAG) dans les activités d’évaluation constitue une infraction de nature académique au sens du Règlement sur les infractions de nature académique, sauf si elle est explicitement autorisée par la personne enseignante du cours ou la personne coordonnatrice dans le cas des stages.



Documentation obligatoire

Aucune.




Ouvrages de références
  • I. Goodfellow, Y. Bengio, A. Courville. Deep Learning , MIT Press, http://www.deeplearningbook.org.
  • Simon J.D. Prince, Understanding Deep Learning, MIT Press, https://udlbook.github.io/udlbook/.
  • Zhang, Aston and Lipton, Zachary C. and Li, Mu and Smola, Alexander J., Dive into Deep Learning, Cambridge University Press, https://D2L.ai.
  • C. M. Bishop.  Pattern Recognition and Machine Learning , Springer.
  • R. S. Sutton, A. G. Barto.  Reinforcement Learning: An Introduction, MIT Press.



Adresse internet du site de cours et autres liens utiles



Autres informations

Pour tout type de probleme envoier un courriel à l'ensegnant ou au chargé de laboratoire.

L'objet du courriel doit toujours commencer par "GPA-710".

Marco Pedersoli (ensegnant)

email: marco.pedersoli@etsmtl.ca

David Latortue (chargé de laboratoire)

email: david.latortue.1@ens.etsmtl.ca