« Adaptive high order stochastic descent algorithms » at the NANMAT 2022 conference

This is a talk presented at the Numerical Analysis, Numerical Modeling, Approximation Theory (NA-NM-AT 2022) conference, Cluj-Napoca, Romania, Oct 26-28 2022

Talk materials: the slides of the presentation.

Abstract: motivated by statistical learning applications, the stochastic descent optimization algorithms are widely used today to tackle difficult numerical problems. One of the most known among them, the Stochastic Gradient Descent (SGD), has been extended in various ways resulting in Adam, Nesterov, momentum, etc. After a brief introduction to this framework, we introduce in this talk a new approach, called SGD-G2, which is a high order Runge-Kutta stochastic descent algorithm; the procedure allows for step adaptation in order to strike a optimal balance between convergence speed and stability. Numerical tests on standard datasets in machine learning are also presented together with further theoretical extensions.

« Algorithms that get old : the case of generative deep neural networks », LOD 2022 conference

This is a talk presented at

The 8th International Online & Onsite Conference on Machine Learning, Optimization, and Data Science – September 18 – 22, 2022 – Certosa di Pontignano, Siena – Tuscany, Italy

Talk materials: the slides of the presentation.

Workshop on « Models, Human Behaviour and Infectious Diseases », Institut Pasteur, Paris, May 23rd 2022

Workshop on « Models, Human Behaviour and Infectious Diseases » of the Coordinated Action on Modelling of Infectious Diseases, Institut Pasteur, Paris May 23rd, 2022

Slides of the talk « From vaccination to lock-down compliance: Mean Field Games approaches to behavioral epidemiology »

Statistique non-paramétrique (M1 Math 2019-22)

M1 mathématiques appliquées, Université Paris Dauphine -PSL

Responsable: Gabriel TURINICI

Contenu

  • 1 Introduction et rappels
  • 2 Estimation de la fonction de répartition
  • 3 Tests robustes
  • 4 Estimation de densités par estimateurs à noyau
  • 5 Régression non paramétrique  
      Bibliographie: poly distribué

Documents de support de cours, autres documents

NOTA BENE: Tous des documents sont soumis au droit d’auteur, et ne peuvent pas être distribués sauf accord préalable ÉCRIT de l’auteur.


Supports de cours
poly 2021/22, (MaJ=24/01/2022).Poly annoté: à venirnotes manuscrites: à venir

A PARTIR d’ici version ancienne 2020/21

Supports de cours
poly 2020/21,
(dernière mise à jour 6 mai 2021).
Poly annoténotes manuscrites
Cours 1 : sections 1.1-1.2
« Motivation »
vidéo Youtube
Cours 1: section 1.3
« Inégalités »
vidéo Youtube
Cours 1, section 1.4
« Thm. de convergence classique »
vidéo Youtube
Cours 2 :section 1.5
« Rappels espérance conditionnelle »
vidéo Youtube
Cours 2 section 1.6
« Rappel variables symétriques »
vidéo Youtube
Cours 2 section 1.7.1
« Rappels sur les tests paramétriques (1) »
vidéo Youtube


A PARTIR d’ici version ancienne 2019/20

Notes du cours :  poly annoté cours 1et 2 (lien ancien, ne pas utiliser) , cours 3 , cours 3,4  notes manuscrites

corrigé ex 2018: regarder l’exo 3 qui démontre le fait que la convergence des cdf en tout point de continuité est pareil que celle de l’inverse généralisée.

Vidéos des séances de cours pendant confinement printemps 2020: Vidéo youtube sur le test du signe; Vidéo Youtube: test de Wilcoxon, Vidéo Youtube: propriétés des rangs.; Test de Mann-Whitney partie 1/2;    Test de Mann-Whitney partie 2/2, Estimation de densité partie 1/1, Estimation de densité par estimateurs à noyau, vidéo régression non paramétrique, vidéos: régression non paramétrique par polynomes locaux et régression: validation croisée et phénomène d’overfit,



Modèles de taux (M2 ISF App + M2 MASEF, 2019-21)

Responsable: Gabriel TURINICI

Contenu

  • 1 Quelques rappels de calcul stochastique
  • 2 Generalites sur les modeles de taux
  • 3 Produits de taux classiques
  • 4 Le modele LGM
  • 5 Le modele BGM
  • 6 Modele SABR  
  • 7 Modele d’Heston (en fonction du temps)  
  • Bibliographie: poly distribué

Documents de support de cours, autres documents

NOTA BENE: Tous des documents sont soumis au droit d’auteur, et ne peuvent pas être distribués sauf accord préalable ECRIT de l’auteur.

Supports de cours: POLY , attention il s’agit d’une version mise à jour au fur et à mesure (dernière mise à jour: 5/3/2021).

Autres :  poly annoté, notes manuscrites

Partie introductive: poly analyse numérique, regarder chapitre « EDS » pour rappels de calcul sto.

 1_2

« Convergence dynamics of Generative Adversarial Networks: the dual metric flows » at the CADL workshop (ICPR 2020 conference)

This is a talk presented at the CADL (Computational Aspects of Deep Learning) workshop held during the 25th ICPR conference (held virtually in Milano, IT, Jan 10-15 2021) ICPR 2020 conference

Talk materials: