Logo ÉTS
Session
Cours
Responsable(s) Marco Pedersoli

Se connecter
 

Sauvegarde réussie
Echec de sauvegarde
Avertissement
École de technologie supérieure

Responsable(s) de cours : Marco Pedersoli


PLAN DE COURS

Hiver 2024
GPA710 : Apprentissage profond (3 crédits)





Préalables
Programme(s) : 7885
             
  Profils(s) : Tous profils  
             
    GPA671    
             
Unités d'agrément
Total d'unités d'agrément : 58,8 33,0 % 67,0 %




Qualités de l'ingénieur

Qn
Qualité visée dans ce cours  
Qn
  Qualité visée dans un autre cours  
  Indicateur enseigné
  Indicateur évalué
  Indicateur enseigné et évalué



Descriptif du cours

Au terme de ce cours, l’étudiant ou l'étudiante sera en mesure de maîtriser et expérimenter les concepts de base de l’apprentissage profond, incluant : différents types d'architectures de réseaux de neurones profonds, leurs applications, et les avantages et limitations de ces architectures; conception et optimisation de modèles pour une application donnée; l’entrainement des réseaux profonds : fonctions de coûts, rétro-propagation, descente de gradient stochastique, régularisation et augmentation des données; réseaux de neurones à convolution; réseaux récurrents; modèles génératifs : auto-encodeurs, réseaux adversaires génératifs; apprentissage faiblement supervisé; robustesse des réseaux profonds et attaques adverses; interprétabilité des réseaux profonds; apprentissage par renforcement.




Objectifs du cours

L'objectif de ce cours est d’acquérir des notions avancées sur l’apprentissage profond, notamment l'apprentissage de différents types d'architectures neuronales et leurs applications.

Le cours est divisé en deux parties:

La première partie du cours couvrira l’apprentissage supervisé des architectures neuronales profondes, en considérant l’apprentissage et l'optimisation de modèles avec des millions de paramètres.

La deuxième partie du cours portera sur l’apprentissage de modèles plus avancés tels que les auto-encodeurs et les modèles autorégressifs et sûr la réduction de calcul et de supervision.




Stratégies pédagogiques

39    heures de cours magistral (enseignement théorique)

26    heures de laboratoire

  3    heures de travail personnel (en moyenne) par semaine

Pour atteindre les objectifs, l’étudiant assistera à des exposés magistraux à raison de 3h par semaine et à des séances de laboratoire (2 h par semaine) durant lesquelles il pourra simuler le fonctionnement de divers modèles d'apprentissage profond appliqués à des problèmes en reconnaissance visuelle et géneration du texte.




Utilisation d’appareils électroniques

Les appareils électroniques (iPod Touch, téléphone intelligent, tablette, ordinateur portable) sont permis durant les cours, à des fins pédagogiques uniquement. La calculatrice est permise durant les cours et est le seul appareil électronique permis durant les examens.




Horaire
Groupe Jour Heure Activité
01 Mercredi 13:30 - 15:30 Laboratoire
Jeudi 08:30 - 12:00 Activité de cours



Coordonnées de l’enseignant
Groupe Nom Activité Courriel Local Disponibilité
01 Marco Pedersoli Activité de cours Marco.Pedersoli@etsmtl.ca A-3480 RDV par courriel



Cours

Le plan de cours prévu se veut complet et ordonnancé chronologiquement, mais certaines modifications peuvent être apportées en cours de session.

 

Semaines

Description

Heures

S1

04 janvier

Organisation du cours

  • Présentation personnelle
  • Plan détaillé du cours
  • Historique et applications de l'apprentissage profond

 

3

S2

11 janvier

L'appentissage automatique

  • Tâches d'apprentissage et types de supervision
  • Fonction de coût et optimisation
  • Complexité des modèles et sur-apprentissage
  • Protocoles de validation

 

 

3

S3

18 janvier

Perceptron et apprentissage

  • Perceptron de Rosenblatt
  • Algorithme d'apprentissage
  • Limites

 

3

S4

25 janvier

Réseaux de neurones multicouches

  • Structure d'une réseau de neurones
  • Fonctions de coût et l'algorithme du gradient
  • Algorithme de rétro-propagation
  • Apprentissage incremental, par lots et mini-lots 

 

3

S5

1er février

Apprentissage profond

  • Stratégies d'entraînement: taux d'apprentissage, fonction d'activation, initialisation
  • Acceleration du gradient: moment, adam,normalisations
  • Régularisation: norm l1, l2, dropout, augmentations

 

3

S6

8 février

 

Reseaux convolutifs

  • Equivariance spatiale et partage de paramètres
  • Couches de convoluiton et de pooling 
  • Architectures et amelioration
  • Detection et segmentation semantique

 

3

 

S7

15 février

Examen de mi-session

 

3

S8

22 février

Autoencodeurs

  •  Autoencodeur
  • Autoencodeur variationnel
  • Reseau generatif adversariel
  • Modèles de diffusion

 

3

S9

29 février

 

Modèles autoregressifs

  • Reseau recurrent
  • Transformer
  • Modèles de language

 

3

 

S10

14 mars

 
 

Réduction de la complexité

  • Élagage et quantification d'un réseau
  • Calcul Conditionnel
  • Réduction du rang
  • Recherche d'architecture neuronal

 

3

S11

21 mars

Réduction de la supervision

  • Apprentissage semi-supervisé
  • Apprentissage faiblement-supervisé
  • Apprentissage auto-supervisé
  • Adaptation de domaine

 

3

S12

28 mars

Apprentissage par renforcement

  • Introduction
  • Q-learning
  • Policy gradients
  • Acteur-critique

 

3

S13

11 avril

Révision du cours

3

Total      

39

 




Laboratoires et travaux pratiques

Semaines

Description

Heures

 

1,2

Laboratoire 0 (non évalué) - Introduction à la programmation scientifique en python

  • Jupyter
  • Colab
  • Jax

 

4

 

3,4

Laboratoire 1 - Entrainement d'un perceptron

  • Construction d'un perceptron
  • Entrinement par exemple
  • Entrainement par lot

 

4

 

5,6

Laboratoire 2 - Entrainement d'un réseau de neurones

  • Construction d'un réseau de neurones
  • Entrainment par mini-lots

 

4

 

7,8

Laboratoire 3 - Autoencodeurs

  • Autoencodeur normal
  • Autoencodeur variationnel

 

4

 

9,10

Laboratoire 4 - Réseaux convolutifs

  • Pytorch
  • Réseau Convolutif
  • Détéction avec un réseau convolutif

 

4

 

11,12,13

Laboratoire 5 - Modeles autoregressifs

  • Réseau recurrent
  • Transformer

 

6

Total          

26




Utilisation d'outils d'ingénierie

QUIPEMENTS UTILISÉS AU LABORATOIRE :

  • PCs
  • Logiciels de simulation de réseaux de neurones : python, scikit-learn, jax et pytorch



Évaluation

Activités

Pondération

1.   Laboratoires (5 laboratoires de 6% chacun)

30%

2.   Examen intra

30%

3.   Examen final

40%

 




Dates des examens intra
Groupe(s) Date
1 15 février 2024



Date de l'examen final
Votre examen final aura lieu pendant la période des examens finaux, veuillez consulter l'horaire à l'adresse suivante : http://etsmtl.ca/Etudiants-actuels/Baccalaureat/Examens-finaux


Politique de retard des travaux
Tout travail (devoir pratique, rapport de laboratoire, rapport de projet, etc.) remis en retard sans motif valable, c’est-à-dire autre que ceux mentionnés dans le Règlement des études (1er cycle, article 7.2.7 b / cycles supérieurs, article 6.5.4 b) se verra attribuer la note zéro, à moins que d’autres dispositions ne soient communiquées par écrit par l’enseignant dans les consignes de chaque travail à remettre ou dans le plan de cours pour l’ensemble des travaux.

Dispositions additionnelles

Aucun retard ne sera permis pour la remise des travaux. Une pénalité de 10% par jour ouvrable sera imposée. Les règlements concernant le plagiat, tentative de plagiat et situations connexes seront appliquées.




Absence à un examen
Dans les cinq (5) jours ouvrables suivants, la tenue de son examen, l’étudiant devra justifier son absence d’un examen durant le trimestre auprès de la coordonnatrice – Affaires départementales qui en référera au directeur du département ou du SEG. Pour un examen final, l’étudiant devra justifier son absence auprès du Bureau du registraire. Dans tous les cas, l’étudiant doit effectuer sa demande en complétant le formulaire prévu à cet effet qui se trouve dans son portail Mon ÉTS/Formulaires. Toute absence non justifiée par un motif majeur (maladie certifiée par un billet de médecin, décès d’un parent immédiat, Activité compétitive d’un étudiant appartenant à un club scientifique ou un club sportif d’élite de l’ÉTS ou au programme « Alliance sport étude » ou autre) à un examen entraînera l’attribution de la note zéro (0).



Infractions de nature académique
À l’ÉTS, le respect de la propriété intellectuelle est une valeur essentielle et les étudiants sont invités à consulter la page "Citer, pas plagier !" (https://www.etsmtl.ca/Etudes/citer-pas-plagier). Les clauses du règlement sur les infractions de nature académique de l’ÉTS (« Règlement ») s’appliquent dans ce cours ainsi que dans tous les cours du département. Les étudiants doivent consulter le règlement sur les infractions de nature académique (https://www.etsmtl.ca/docs/ETS/Gouvernance/Secretariat-general/Cadre-reglementaire/Documents/Infractions-nature-academique) pour identifier les actes qui constituent des infractions de nature académique au sens du Règlement ainsi que prendre connaissance des sanctions prévues à cet effet.

Systèmes d’intelligence artificielle générative (SIAG)
L’utilisation des systèmes d’intelligence artificielle générative (SIAG) dans les activités d’évaluation constitue une infraction de nature académique au sens du Règlement sur les infractions de nature académique, sauf si elle est explicitement autorisée par l’enseignant(e) du cours.



Documentation obligatoire

Aucune.




Ouvrages de références
  • I. Goodfellow, Y. Bengio, A. Courville. Deep Learning , MIT Press, http://www.deeplearningbook.org.
  • Simon J.D. Prince, Understanding Deep Learning, MIT Press, https://udlbook.github.io/udlbook/.
  • Zhang, Aston and Lipton, Zachary C. and Li, Mu and Smola, Alexander J., Dive into Deep Learning, Cambridge University Press, https://D2L.ai.
  • C. M. Bishop.  Pattern Recognition and Machine Learning , Springer.
  • R. S. Sutton, A. G. Barto.  Reinforcement Learning: An Introduction, MIT Press.



Adresse internet du site de cours et autres liens utiles



Autres informations

Pour tout type de probleme envoier un courriel à l'ensegnant ou au chargé de laboratoire.

L'objet du courriel doit toujours commencer par "GPA-710".

Marco Pedersoli (ensegnant)

email: marco.pedersoli@etsmtl.ca

David Latortue (chargé de laboratoire)

email: david.latortue.1@ens.etsmtl.ca