PrérequisCours de Calcul Différentiel (Analyse S5)
ValidationCC avec ET
Enseignant
Volume hebdomadaire 2 h CM , 2 h TD , 0.75 h TP

Syllabus

Les objectifs du cours sont :

  • de savoir formuler un problème d'optimisation dans $\mathbb{R}^n$, avec ou sans contraintes;
  • de savoir écrire les conditions d'optimalité ;
  • de connaître et maîtriser les algorithmes de base (simplexe, gradient, gradient conjugué, Newton)

Sommaire

  1. Cas sans contrainte : Existence, convexité (stricte, forte), coercivité, conditions d'optimalité.
  2. Cas sans contrainte 1D : méthode de recherche linéaire (Armijo, Wolfe, Goldstein), Newton.
  3. Cas sans contrainte ND : algorithme de gradient à pas fixe, à pas optimal, Newton.
  4. Cas avec contraintes : Lagrangien, conditions d'optimalité (Kuhn-Tucker).
  5. Cas avec contraintes : algorithme de gradient projeté, d'Uzawa, méthode de pénalisation.
  6. Cas linéaire avec contraintes : algorithme du simplexe.

Bibliographie

  1. Michel Bierlaire. Introduction à l'optimisation différentiable. Presses polytechniques et universitaires romandes, 2013.
  2. J. Frédéric Bonnans, Jean Charles Gilbert, Claude Lemaréchal, and Claudia Sagastizábal. Optimisation numérique, volume 27 of Mathématiques & Applications (Berlin). Springer-Verlag, Berlin, 1997.
  3. Stephen Boyd and Lieven Vandenberghe. Convex Optimization Boyd and Vandenberghe. Cambridge Univerity Press, 2004.
  4. Philippe G. Ciarlet. Introduction à l'analyse numérique matricielle et à l'optimisation. Dunod, 2007.
  5. Jean-Baptiste Hiriart-Urruty. Optimisation et analyse convexe. EDP Sciences, 2009.