François Boulier
Calcul Numérique
Programmation Numérique
Ce cours du S5 en IS3 et IS2A3 consiste en une introduction superficielle à Python et à quelques méthodes de calcul numérique.
Progression des cours
- Nombres à virgule flottante, bibliothèques numpy et matplotlib en Python
- Interpolation polynomiale. Algorithme de Neville, différences divisées de Newton, splines cubiques
- Intégration numérique. Ordre d'une méthode. Formules de Newton Cotes. Quadratures de Gauss
Documents
- L'excellente Introduction à l'Analyse Numérique (juin 2005) (en Français) de Ernst Hairer et Gerhard Wanner, à l'Université de Genève.
Algèbre Linéaire Numérique
Ce cours du S6 en IS3 et IS2A3 porte sur l'algèbre linéaire numérique. Les applications visées sont les moindres carrés (développé dans le cours d'IS4) et l'analyse en composante principale.
Je tiens à exprimer mes vifs remerciements à l'entreprise MapleSoft pour son aide dans l'enseignement de ce cours en 2019-2020 dans le contexte de la pandémie.
Progression des cours
- Systèmes triangulaires. Algorithmes de substitution avant et arrière. Résolution d'un système carré connaissant une factorisation LU
- Factorisation triangulaire. Algorithme de factorisation LU. Matrices symétriques définies positives. Algorithme de Cholesky
- Conditionnement, stabilité
- Factorisation QR. Algorithme de Householder. Matrices orthogonales
- Valeurs propres. Nécessité des algorithmes itératifs. Méthode de la puissance, de la puissance inverse. Algorithme QR naïf
- Valeurs propres. Algorithme de mise sous forme de Hessenberg. Algorithme de la bisection
- Valeurs singulières.
Documents
- L'excellente Introduction à l'Analyse Numérique (juin 2005) (en Français) de Ernst Hairer et Gerhard Wanner, à l'Université de Genève, notamment les chapitres IV et V.
- L'excellent Numerical Linear Algebra de Lloyd N. Trefethen et David Bau III (SIAM)
- Les documents (support de cours, feuilles de TD et de TP) sont palcés sur des dépôts git :
Algorithmique Numérique pour l'Optimisation
Ce cours du S7 en IS4 (et du S9 en IS2A5) porte sur l'algorithmique numérique de l'optimisation. Les objectifs visés sont la compréhension de l'algorithme du gradient, notamment dans un contexte d'apprentissage statistique ainsi que la notion de multiplicateurs de Lagrange
Progression des cours
- Moindres carrés linéaires. Méthode historique (équations normales, Cholesky) et méthode moderne (factorisation QR)
- Méthode de Newton en une variable. Vitesse de convergence. Application à la recherche d'extrema locaux
- Méthode de Newton en plusieurs variables
- Optimisation non contrainte. Jacobienne, gradient et hessienne d'une fonction objectif. Recherche de points stationnaires par la méthode de Newton et par l'algorithme du gradient
- Optimisation sous contrainte. Multiplicateurs de Lagrange. Conditions de Karuhn, Kush et Tucker
Documents
- Le Numerical Optimization de Jorge Nocedal et Stephen J. Wright (Springer Series in Operations Research)
- Les documents (support de cours, feuilles de TP, ...) sont placés sur des dépôts git :