Conférence « IA générative et société », tenue le 21 sept 2023 devant la promo de M1 2023/24, Université Paris – Dauphine PSL, coordinatrice Aurore HAAS.
DOCUMENT PRINCIPAL : les slides en pdf, suivre le lien.
Autres documents :
personal page
Conférence « IA générative et société », tenue le 21 sept 2023 devant la promo de M1 2023/24, Université Paris – Dauphine PSL, coordinatrice Aurore HAAS.
DOCUMENT PRINCIPAL : les slides en pdf, suivre le lien.
Autres documents :
Responsable: Gabriel TURINICI
1/ Introduction au reinforcement learning
2/ Formalisme théorique : « Markov decision processes » (MDP), function valeur ( équation de Belman et Hamilton- Jacobi – Bellman) etc.
3/ Stratégies usuelles, sur l’exemple de “multi-armed bandit”
4/ Stratégies en deep learning: Q-learning et DQN
5/ Stratégies en deep learning: SARSA et variantes
6/ Stratégies en deep learning: Actor-Critic et variantes
7/ Implémentations Python variées
8/ Perspectives.
Gym: jeu Frozen Lake (v2023) (version 2022)
Q-Learning : avec Frozen Lake, version python ou version notebook
-jouer avec gym/Atari-Breakout: version python ou version notebook
Deep Q Learning (DQN) : Apprendre avec gym/Atari-Breakout: version 2023 : python ou notebook
Anciennes version (2022): version python ou version notebook
Projets : cf. Teams
Responsable de cours: Gabriel TURINICI
Contenu:
1 Introduction
2 EDO
3 Calcul de dérivée et contrôle
4 EDS
Bibliographie: poly distribué
Supports de cours: livre « Simulations numériques des problèmes dépendant du temps: appliquées à l’épidémiologie, l’intelligence artificielle et les finances«
Seances de TD: 2022/23
Responsable: Gabriel TURINICI
Contenu
Note historique: nom du cours 2019/21: « Approches déterministes et stochastiques pour la valuation d’options »
Responsable: Gabriel TURINICI (voir aussi les interventions de C. Vincent)
Contenu:
1/ Deep learning : applications majeures, références, culture
2/ Types d’approches: supervisé, renforcement, non-supervisé
3/ Réseaux neuronaux: présentation des objets: neurones, opérations, fonction loss, optimisation, architecture
4/ Focus sur les algorithmes d’optimisation stochastique et preuve de convergence de SGD
5/ Réseaux convolutifs (CNN) : filtres, couches, architectures
6/ Technique: back-propagation, régularisation, hyperparamètres
7/ Réseaux particuliers: réseaux récurrents (RNN) et LSTM; réseaux génératifs (GAN, VAE)
8/ Environnements de programmation pour réseaux neuronaux: Tensorflow, Keras, PyTorch et travail sur les exemples vus en cours
9/ Si le temps permet: NLP: word2vec and Glove: exemples d’utilisation : femme-homme+roi = reine
![]() (aucune distribution n’est autorisée sans accord ECRIT de l’auteur) | ![]() |
Code approximation de fonctions par NN : version notebook, version py Resultats (approximation et convergence) ![]() ![]() ![]() ![]() Le même après 5 fois plus d’époques ![]() ![]() Référence « officielle » du code: https://doi.org/10.5281/zenodo.7220367 | Preuve convergence SGD (version francaise) SGD convergence proof (english version) |
Implementation keras/Iris | Autres implémentations: exemple « à la main » sans Keras ni tf ni pytorch : couches denses (bd=iris) – autres implementations : cf. doc. |
Responsable: Gabriel TURINICI
Contenu Rappels du cadre classique: critère moyenne-variance, Markowitz, CAPM / MEDAF
En fonction du temps: introduction à l’allocation tactique à travers l’analyse et les indicateurs techniques
Bibliographie
![]() « actions » classique (proba historique) | ![]() Brownien et évaluation d’actifs dérivés |
Autres ressources pour le cours :
M1 mathématiques appliquées, Université Paris Dauphine -PSL
Responsable: Gabriel TURINICI
Contenu
Supports de cours | ||
![]() | ![]() | ![]() |
Supports de cours | ||
![]() (dernière mise à jour 6 mai 2021). | ![]() | ![]() |
![]() « Motivation » vidéo Youtube ![]() | ![]() « Inégalités » vidéo Youtube ![]() | ![]() « Thm. de convergence classique » vidéo ![]() |
![]() « Rappels espérance conditionnelle » vidéo Youtube ![]() | ![]() « Rappel variables symétriques » vidéo Youtube ![]() | ![]() « Rappels sur les tests paramétriques (1) » vidéo ![]() |
Notes du cours : poly annoté cours 1et 2 (lien ancien, ne pas utiliser) , cours 3 , cours 3,4 notes manuscrites
corrigé ex 2018: regarder l’exo 3 qui démontre le fait que la convergence des cdf en tout point de continuité est pareil que celle de l’inverse généralisée.
Vidéos des séances de cours pendant confinement printemps 2020:
Vidéo youtube sur le test du signe;
Vidéo Youtube: test de Wilcoxon,
Vidéo Youtube: propriétés des rangs.;
Test de Mann-Whitney partie 1/2;
Test de Mann-Whitney partie 2/2,
Estimation de densité partie 1/1,
Estimation de densité par estimateurs à noyau,
vidéo régression non paramétrique,
vidéos: régression non paramétrique par polynomes locaux,
et régression: validation croisée et phénomène d’overfit,
Responsable: Gabriel TURINICI
Contenu
Supports de cours: POLY , attention il s’agit d’une version mise à jour au fur et à mesure (dernière mise à jour: 5/3/2021).
Autres : poly annoté, notes manuscrites
Partie introductive: poly analyse numérique, regarder chapitre « EDS » pour rappels de calcul sto.
M1 mathématiques appliquées, Université Paris Dauphine -PSL, 2019-2020
Responsable: Gabriel TURINICI
Contenu
1 Introduction et rappels
2 Estimation de la fonction de répartition
3 Tests robustes
4 Estimation de densités par estimateurs à noyau
5 Régression non paramétrique
Bibliographie: poly distribué
Supports de cours
poly distribué, attention il s’agit d’une version mise à jour au fur et à mesure (dernière mise à jour 26/3/20).
Notes du cours : poly annoté cours 1et 2 (lien ancien, ne pas utiliser) , cours 3 , cours 3,4 notes manuscrites
feuilles de TD: TD1,
Nouveau (6/5/2020): version poly avec les TD3,TD4
Séance prévue le 27 mars 2020: vidéo youtube ICI
Sinon: utiliser le poly du cours usuel, les notes manuscrites et annotations ci-dessus.
Séance prévue le 2 avril 2020: vidéos youtube ICI (2 vidéos) :
Séance prévue le 3 avril 2020: vidéos youtube ICI (2 vidéos) :
Test de Mann-Whitney partie 1/2
Test de Mann-Whitney partie 2/2
Séance prévue le 24 avril 2020: vidéo youtube ICI (1 vidéo):
Estimation de densité partie 1/1
Séance prévue le 30 avril 2020: début de séance = consultation de la vidéo:
Estimation de densité par estimateurs à noyau
Ensuite : questions reunion « teams ».
Séance prévue le 7 mai 2020: début de séance = consultation de la vidéo:régression non paramétrique
Ensuite : questions reunion « teams ».
Séance prévue le 15 mai 2020: début de séance = consultation des vidéos: régression non paramétrique par polynomes locaux, ET régression: validation croisée et phénomène d’overfit,
Ensuite : questions reunion « teams ».
EXAMEN
Examen le 28/5 2020 à 14H00 (1H d’examen): conectez vous sur MYCOURSE. Il s’agit d’un QCM à remplir en ligne (PAS d’envoi par email, il ne sera pas noté).