Logo ÉTS
Session
Cours
Responsable(s) Eric Paquette

Se connecter
 

Sauvegarde réussie
Echec de sauvegarde
Avertissement


Préalables

Aucun préalable requis
 


Descriptif du cours

Sujets d'intérêt majeur dans le domaine des technologies de l’information et familiarisation avec les derniers développements technologiques dans un ou plusieurs domaines de pointe. Sujets particuliers dans différentes spécialités du domaine des technologies de l’information. Le sujet proposé peut varier à chaque fois que cette activité est mise à l’horaire.

Cours offerts à la session d'hiver 2023 :

Cours offerts à la session d'été 2023 :

Cours offerts à la session d'automne 2023 :






Objectifs du cours

L'objectif du cours est d'utiliser les mathématiques pour explorer certains aspects du fonctionnement des réseaux de neurones profonds.


Plus précisément, au terme de ce cours, l'étudiant sera notamment en mesure

  • De comprendre les fondements du fonctionnement des réseaux de neurones profonds et d'interpréter mathématiquement la mécanique de ceux-ci.
  • D'utiliser différents outils mathématiques pour améliorer l'implémentation d'un réseau de neurones.
  • D'identifier et de comprendre certains obstacles à l'apprentissage et d'expliquer mathématiquement le fonctionnement de certaines techniques de régularisation.
  • De comprendre différents aspects théoriques des réseaux de neurones, notamment leur universalité et le rôle de la profondeur dans l'expressivité.
  • De comprendre les fondements de l'apprentissage géométrique et d'identifier les aspects mathématiques à considérer dans la confection d'un réseau qui vise à apprendre sur des espaces non-euclidiens.
  • D'expliquer le fonctionnement mathématique de certaines techniques de réduction de la dimension.
  • De comprendre les principes probabilistes permettant la réalisation d'un autoencodeur variationnel.
  • D'expliquer certains concepts mis de l'avant dans la recherche récente sur l'apprentissage géométrique tel que décrit dans l'article de Bronstein et al. 
  • D'expliquer les principes mathématiques qui permettent la conception de larges modèles de language comme ChatGPT.
  • De lire certains articles scientifiques de pointe sur la recherche active en deep learning et d'en expliquer les idées principales.

 

Les thèmes suivants seront abordés :

Rappels d'algèbre linéaire et de calcul différentiel. Structure d'un réseau de neurones, hyperparamètres, activation et propagation avant. Équations de la propagation arrière. Problèmes d'apprentissage, régularisation, fonctions de coût, distance et entropie croisée. Problèmes de grands et petits gradients. Universalité, théorème de Cybenko. Rôle de la profondeur dans la puissance expressive, théorème de Telgarsky. Apprentissage profond géométrique, théorie spectrale du graphe-Laplacien. Réduction de la dimension, analyse en composantes principales. Séparation, astuce du noyau, algorithmes de Belkin-Niyogi. Introduction aux variétés différentielles, espaces et plongements hyperboliques. Éléments de la théorie des probabilités, distributions, théorème de Bayes. Entropie croisée, divergence de Kullback-Liebler, maximum de vraisemblance. Autoencodeurs et autoencodeurs variationnels. Apprentissage géométrique : grilles, groupes, graphes et géodésiques. Transformers. Modèle de diffusion.


Stratégies pédagogiques

Le cours se donne sous forme magistrale (3 heures par semaine) en classe et parfois sur Zoom. Lorsque le cours aura lieu en ligne, les étudiants seront avertis quelques jours d'avance. Les notes de cours seront écrites au tableau (ou au tableau blanc) et du matériel numérique sera également offert au besoin. Un feuillet hebdomadaire d'exercices sera distribué sur Moodle.

 



Utilisation d’appareils électroniques

Les ordinateurs sont permis lors de l'enseignement magistral. 

Aucun enregistrement (photographie, film ou audio) n'est permis sans permission préalable de l'enseignant.



Coordonnées du personnel enseignant le cours

* Double-cliquez sur le champ pour modifier le contenu