Équation de Hamilton-Jacobi et jeux à champ moyen sur les réseaux (Hamilton-Jacobi equations and Mean field games on networks) Dao, Manh Khang - (2018-10-17) / Universite de Rennes 1 - Équation de Hamilton-Jacobi et jeux à champ moyen sur les réseaux
| |||
Langue : Anglais Directeur(s) de thèse: Ley, Olivier; Achdou, Yves Discipline : Mathématiques et leurs interactions Laboratoire : IRMAR Ecole Doctorale : MATHSTIC Classification : Mathématiques Mots-clés : Problèmes de contrôle optimal, équation de Hamilton-Jacobi, solution de viscosité, jeux à champ moyen, réseaux
| |||
Résumé : Cette thèse porte sur l'étude d'équation de Hamilton-Jacobi-Bellman associées à des problèmes de contrôle optimal et de jeux à champ moyen avec la particularité qu'on se place sur un réseau (c'est-à-dire, des ensembles constitués d'arêtes connectées par des jonctions) dans les deux problèmes, pour lesquels on autorise différentes dynamiques et différents coûts dans chaque bord d'un réseau. Dans la première partie de cette thèse, on considère un problème de contrôle optimal sur les réseaux dans l'esprit des travaux d'Achdou, Camilli, Cutrì & Tchou (2013) et Imbert, Moneau & Zidani (2013). La principale nouveauté est qu'on rajoute des coûts d'entrée (ou de sortie) aux sommets du réseau conduisant à une éventuelle discontinuité de la fonction valeur. Celle-ci est caractérisée comme l'unique solution de viscosité d'une équation Hamilton-Jacobi pour laquelle une condition de jonction adéquate est établie. L'unicité est une conséquence d'un principe de comparaison pour lequel nous donnons deux preuves différentes, l'une avec des arguments tirés de la théorie du contrôle optimal, inspirée par Achdou, Oudet & Tchou (2015) et l'autre basée sur les équations aux dérivées partielles, d'après Lions & Souganidis (2017). La deuxième partie concerne les jeux à champ moyen stochastiques sur les réseaux. Dans le cas ergodique, ils sont décrits par un système couplant une équation de Hamilton-Jacobi-Bellman et une équation de Fokker- Planck, dont les inconnues sont la densité m de la mesure invariante qui représente la distribution des joueurs, la fonction valeur v qui provient d'un problème de contrôle optimal "moyen" et la constante ergodique ρ. La fonction valeur v est continue et satisfait dans notre problème des conditions de Kirchhoff aux sommets très générales. La fonction m satisfait deux conditions de transmission aux sommets. En particulier, due à la généralité des conditions de Kirchhoff, m est en général discontinue aux sommets. L'existence et l'unicité d'une solution faible sont prouvées pour des Hamiltoniens sous-quadratiques et des hypothèses très générales sur le couplage. Enfin, dans la dernière partie, nous étudions les jeux à champ moyen stochastiques non stationnaires sur les réseaux. Les conditions de transition pour la fonction de valeur v et la densité m sont similaires à celles données dans la deuxième partie. Là aussi, nous prouvons l'existence et l'unicité d'une solution faible pour des Hamiltoniens sous-linéaires et des couplages et dans le cas d'un couplage non-local régularisant et borné inférieurement. La principale difficulté supplémentaire par rapport au cas stationnaire, qui nous impose des hypothèses plus restrictives, est d'établir la régularité des solutions du système posé sur un réseau. Notre approche consiste à étudier la solution de l'équation de Hamilton-Jacobi dérivée pour gagner de la régularité sur la solution de l'équation initiale. Abstract : The dissertation focuses on the study of Hamilton-Jacobi-Bellman equations associated with optimal control problems and mean field games problems in the case when the state space is a network. Different dynamics and running costs are allowed in each edge of the network. In the first part of this thesis, we consider an optimal control on networks in the spirit of the works of Achdou, Camilli, Cutrì & Tchou (2013) and Imbert, Monneau & Zidani (2013). The main new feature is that there are entry (or exit) costs at the edges of the network leading to a possible discontinuous value function. The value function is characterized as the unique viscosity solution of a Hamilton-Jacobi equation for which an adequate junction condition is established. The uniqueness is a consequence of a comparison principle for which we give two different proofs. One uses some arguments from the theory of optimal control and is inspired by Achdou, Oudet & Tchou (2015). The other one is based on partial differential equations techniques and is inspired by a recent work of Lions & Souganidis (2017). The second part is about stochastic mean field games for which the state space is a network. In the ergodic case, they are described by a system coupling a Hamilton- Jacobi-Bellman equation and a Fokker-Planck equation, whose unknowns are the density m of the invariant measure which represents the distribution of the players, the value function v which comes from an "average" optimal control problem and the ergodic constant ρ. The function v is continuous and satisfies general Kirchhoff conditions at the vertices. The density m satisfies dual transmission conditions. In particular, due to the generality of Kirchhoff’s conditions, m is in general discontinuous at the vertices. Existence and uniqueness are proven for subquadratic Hamiltonian and very general assumptions about the coupling term. Finally, in the last part, we study non-stationary stochastic mean field games on networks. The transition conditions for value function v and the density m are similar to the ones given in second part. Here again, we prove the existence and uniqueness of a weak solution for sublinear Hamiltonian and bounded non-local regularizing coupling term. The main additional difficulty compared to the stationary case, which imposes us more restrictive hypotheses, is to establish the regularity of the solutions of the system placed on a network. Our approach is to study the solution of the derived Hamilton-Jacobi equation to gain regularity over the initial equation. |