Logo ÉTS
Session
Cours
Responsable(s) Marco Pedersoli

Se connecter
 

Sauvegarde réussie
Echec de sauvegarde
Avertissement
École de technologie supérieure

Responsable(s) de cours : Marco Pedersoli


PLAN DE COURS

Automne 2023
SYS819 : Apprentissage profond (3 crédits)





Préalables
Aucun préalable requis




Descriptif du cours

Au terme de ce cours, l’étudiant ou l'étudiante sera en mesure :

  • de maîtriser les différents types d'architectures neuronales pour l’apprentissage profond et leurs applications;
  • d’analyser les avantages et les limitations de ces architectures pour une application donnée.

Le cours est divisé en deux parties :

  • la première partie porte sur les architectures neuronales profondes, en particulier l’apprentissage supervisé des réseaux neuronaux convolutifs et récurrents.
  • la deuxième partie porte principalement sur la réduction de la complexité de ces architectures, l’apprentissage de modèles génératifs et l’apprentissage par renforcement.

Apprentissage profond : motivation et vision historique, niveau de supervision, réseaux multicouches, réseaux convolutifs, architectures, comparatives. Entraînement : rétropropagation, descente de gradient, régularisation, augmentation de données. Réseaux récurrents : propagation du gradient, réseaux LSTM, réseaux multi-résolutions, applications. Modèles génératifs : autoencoders, réseaux adversaires génératifs, applications. Apprentissage avec supervision réduite : modèles faiblement supervisés et partiellement supervisés, modèles attentifs, apprentissage curriculaire. Apprentissage par renforcement : processus de décision de Markov, programmation dynamique, différence temporelle, méthodes de Monte-Carlo, applications.




Objectifs du cours

Acquérir des notions avancées sur l’apprentissage profond, notamment l'apprentissage de différents types d'architectures neuronales et leurs applications.

Le cours est divisé en deux parties: la première partie du cours couvrira l’apprentissage supervisé des architectures neuronales profondes, en particulier les réseaux neuronaux convolutionnels et récurrents.

La deuxième partie du cours portera principalement sur l’apprentissage de modèles génératifs, la réducion de calcul et l’apprentissage par renforcement.




Stratégies pédagogiques
  • 36 heures de cours magistral (enseignement théorique)
  • 6 heures de présentations des travaux
  • 5 heures de travail personnel (en moyenne) par semaine

Pour atteindre les objectifs, l’étudiant assistera à des exposés magistraux à raison de 3h par semaine.

L'étudiant sera aussi impliqué dans un projet pratique dans le domaine de l'apprentissage machine.




Utilisation d’appareils électroniques

Les appareils électroniques (iPod Touch, téléphone intelligent, tablette, ordinateur portable) sont permis durant les cours, à des fins pédagogiques uniquement.

La calculatrice est permise durant les cours et est le seul appareil électronique permis durant les examens.




Horaire
Groupe Jour Heure Activité
01 Mardi 13:30 - 17:00 Activité de cours



Coordonnées de l’enseignant
Groupe Nom Activité Courriel Local Disponibilité
01 Marco Pedersoli Activité de cours Marco.Pedersoli@etsmtl.ca A-3480



Cours

Le plan de cours prévu se veut complet et ordonnancé chronologiquement, mais certaines modifications peuvent être apportées en cours de session.

 

Cours et date Description

S1: 5 Septembre

Introduction à l’Apprentissage Machine

  • Prérequis
  • Organisation du cours
  • Contexte historique
  • Applications

S2: 12 Septembre

Méthodes d’apprentissage

  • Tâches d'apprentissage
  • Types de supervision
  • Fonction de coût
  • Optimisation

S3: 19 Septembre

Réseaux Neuronaux

  • Architecture d’une neurone
  • Réseaux multicouches
  • Rétropropagation

S4: 26 Septembre

Propositions de Projets

S5: 3 Octobre

Entraînement I

  • Gradient stochastique
  • Momentum
  • ADAM, etc..

À remettre: Proposition de projet

S6: 17 Octobre

Entraînement II

  • Régularisation: L1,L2,Dropout...
  • Normalisation du lot (batch normalization)
  • Augmentation des données

S7: 24 Octobre

Réseaux Convolutifs

  • Convolution
  • Pooling
  • Architectures

S8: 31 Octobre

Réseaux récurrents et transformer

  • Réseau récurrent basique
  • LSTM et autres
  • Transformer

À remettre: Synthèse de la littérature

S9: 7 Novembre

Détection d’objets et segmentation d’images

  • La famille R-CNN
  • Modèles de segmentation

S10: 14 Novembre

Réduction de la complexité

  • Quantification
  • Réduction de paramètres
  • Régularisation (Sparseness inducing)

S11: 21 Novembre

Modélisation générative

  • Auto-encodeurs
  • Pixel RNN et CNN
  • Réseaux adversaires génératifs

S12: 28 Novembre

Apprentissage par renforcement

  • Introduction
  • Q-learning
  • Policy gradients
  • Acteur-critique

S13: 5 Décembre

Présentation des projets

Période d’examens: Présentation des projets

À remettre: étude expérimentale

 




Laboratoires et travaux pratiques

Dans le cours les étudiants devront développer un projet sur l'étude ou l'évaluation de techniques d'apprentissage machine.

L'évaluation sera effectuée pendant le cours avec 2 présentations orales et 3 remises de travail.

Proposition de projet:

Chaque étudiant devra présenter sa proposition de projet. Avec les commentaires du professeur et des autres étudiants, chaque étudiant devra ainsi préparer une proposition de projet.

Synthèse de la littérature:

Chaque étudiant devra remettre une synthèse de la littérature pertinente au projet.

Étude expérimentale:

Chaque étudiant devra présenter une étude expérimentale développée pendant le cours, avec une évaluation d'une ou plusieurs méthodes d'apprentissage machine. Il aura aussi une remise des résultats de l'étude expérimentale.

 




Évaluation

Activité

Pondération

Échéance

Présentation de la proposition de projet

10%

S4

Proposition de projet

15%

S5

Synthèse de la littérature

30%

S8

Présentation du projet

15%

S13

Étude expérimentale

30%

S14

 




Politique de retard des travaux
Tout travail (devoir pratique, rapport de laboratoire, rapport de projet, etc.) remis en retard sans motif valable, c’est-à-dire autre que ceux mentionnés dans le Règlement des études (1er cycle, article 7.2.7 b / cycles supérieurs, article 6.5.4 b) se verra attribuer la note zéro, à moins que d’autres dispositions ne soient communiquées par écrit par l’enseignant dans les consignes de chaque travail à remettre ou dans le plan de cours pour l’ensemble des travaux.

Dispositions additionnelles

* Aucun retard ne sera permis pour la remise des travaux. Une pénalité de 10 % par jour ouvrable sera imposée. Les règlements concernant le plagiat, tentative de plagiat et situations connexes seront appliquées.




Absence à un examen
Dans les cinq (5) jours ouvrables suivant la tenue de son examen, l’étudiant devra justifier son absence d’un examen durant le trimestre auprès de la coordonnatrice – Affaires départementales qui en référera au directeur de département. Pour un examen final, l’étudiant devra justifier son absence auprès du Bureau du registraire. Toute absence non justifiée par un motif majeur (maladie certifiée par un billet de médecin, décès d’un parent immédiat ou autre) à un examen entraînera l’attribution de la note (0).



Infractions de nature académique
Les clauses du « Règlement sur les infractions de nature académique de l’ÉTS » s’appliquent dans ce cours ainsi que dans tous les cours du département. Les étudiants doivent consulter le Règlement sur les infractions de nature académique (https://www.etsmtl.ca/docs/ETS/Gouvernance/Secretariat-general/Cadre-reglementaire/Documents/Infractions-nature-academique ) pour identifier les actes considérés comme étant des infractions de nature académique ainsi que prendre connaissance des sanctions prévues à cet effet.  À l’ÉTS, le respect de la propriété intellectuelle est une valeur essentielle et les étudiants sont invités à consulter la page Citer, pas plagier ! (https://www.etsmtl.ca/Etudiants-actuels/Baccalaureat/Citer-pas-plagier).



Documentation obligatoire

Aucune




Ouvrages de références
  • I. Goodfellow, Y. Bengio, A. Courville. Deep Learning , MIT Press, http://www.deeplearningbook.org.
  • Zhang, Aston and Lipton, Zachary C. and Li, Mu and Smola, Alexander J., Dive into Deep Learning, Cambridge University Press, https://D2L.ai.
  • S. Haykin. (2009).  Neural Networks and Learning Machines , 3 e éd., Pearson Education.
  • C. M. Bishop.  Pattern Recognition and Machine Learning , Springer.
  • R. S. Sutton, A. G. Barto.  Reinforcement Learning: An Introduction, MIT Press.



Adresse internet du site de cours et autres liens utiles

https://ena.etsmtl.ca/course/view.php?id=13428




Autres informations

Ne s'applique pas.