Convergence d'une suite de min

Bonjour.

Dans le cadre d'un cours d'optimisation assez basique (conditions d'existence et unicité de minimum avec ou sans contrainte, Fritz-John, et rien de plus), un exercice proposé invoque un "théorème du cours" que je ne reconnais nulle part.

On étudie d'abord une fonction $J$ de deux variables réelles définie par : $J(x,y) = x^{2} + y^{2} + 2x$.
Le but de la première partie est de l'optimiser sur l'ensemble $ { x \geq 0} $. Avec toute une artillerie de Fritz-John car l'exercice le demande, mais bon... si ils veulent. On trouve donc un minimum $(x_{0}, y_{0}) = 0$.

Bref, le problème n'est pas de demander pourquoi cette artillerie inutile pour un problème si simple.

La suite demande de considérer la famille de fonctions $J_{\epsilon}(x,y) = J(x,y) + \frac{(x^{-})^{2}}{\epsilon}$, pour $\epsilon$ positif strictement.

On montre facilement que ces fonctions ont un minimum $(x_{\epsilon}, y_{\epsilon})$.
Puis on me demande de montrer que la suite de ces minimums converge vers $(x_{0}, y_{0})$ (quand $ \epsilon $ tend vers 0).

J'admets avoir pataugé un petit moment (je suis probablement rouillé aussi mais ça ne m'a pas l'air si simple), puis j'ai cédé à la correction.

Et voilà donc le théorème de cours que je n'ai vu nulle part entrant en jeu, et dont je n'ai même pas l'énoncé :

"$J$ est bornée intérieurement, inf-compacte, ${x \geq 0}$ est fermé, $ \beta $ est sci, et on a bien $ \beta $ nulle sur cet ensemble, strictement positive sinon (avec $\beta (x,y) = (x^{-})^{2}$). On peut appliquer le théorème du cours et on a la convergence voulue."

J'admets ne pas y voir clair. Vos lumières seraient bienvenues si vous avez un énoncé clair du théorème explicitement utilisé mais non cité.

Merci beaucoup d'avance.
Connectez-vous ou Inscrivez-vous pour répondre.