Principe du maximum

135

Réponses

  • $D^2u(x_0)$ est une matrice et $(\xi_k,\xi_k)$ est le produit scalaire de deux vecteurs, donc c'est un scalaire. Alors $D^2u(x_0)(\xi_k,\xi_k)$ est une matrice.
  • doc écrivait:
    et $(\xi_k,\xi_k)$ est
    > le produit scalaire de deux vecteurs, donc c'est
    > un scalaire.

    :X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X
    OH lalalalalala,
    doc soyons sérieux, revise le calcul differentiel avant de dire ces trucs la!!!!!!!!!!!
  • Oups! Pardon, j'ai confonu $\xi$ qui est un vecteur avec $\xi_k.$
  • Le produit d'une matrice par un vecteur est un vecteur.
    Seulement, $(\xi_k,\xi_k)$ est un vecteur mais qui est dans $\mathbb{R}^2,$ et $D^2u(x_0)$ est une matrice $n \times n.$
    Ce n'est pas normal.
  • ca se voit que tu n a pas jeter un coup d oeil sur le calcul differentiel, mais comment tu avancera sans retour a la base?
    ecrit moi $D^2u(x_0)(\xi_k,\xi_k)$ explicitement en fonction des derivees partielles de $u$ et les composantes de $\xi_k$
  • Bonjour,
    oui, cette notion m'avait complétement echappé, mais j'ai revu mon cours de CDF. On a $$D^2u(x_0)(\xi_k,\xi_k)=\sum_{1 \leqi,j \leq n} \frac{\partial^2u}{\partial x_i \partial x_j}(x_0)(\xi_k)_i(\xi_k)_j$$
    En vous remerciant pour toute votre aide ainsi que pour toute votre patience.
  • Et donc tu n est pas capable d'écrire ta derniere formule sous forme matricielle et vectorielle en fonction de $H$ et $\xi_k$?
  • Si, mais c'est la meme chose
    $$D^2u(x_0)(\xi_k,\xi_k)= \sum_{1\leq i,j\leq n} h_{ij} (\xi_k)_i(\xi_k)_j$$
    Mais je n'arrive pas à l'écrire en fonction des valeurs propres $\lambda_k$
    En vous remerciant pour toute votre aide.
  • Tu n a pas compris
    c est une question d'algèbre linéaire, ecrit moi ta dernière formule sous forme de produit matrice vecteur
  • D'accord, j'ai bien compris la question maintenant.
    Pour ca, j'ai fais un petit exemple avec $n=3,$ puis j'ai genéralisé.
    On trouve que $D^2u(x_0)(\xi_k,\xi_k)$ est un scalaire.
    Et on a: $$D^2u(x_0)(\xi_k,\xi_k)=(H \vec{\xi_k}).\vec{\xi_k}$$
    En vous remerciant pour toute votre aide ainsi que pour toute votre patience.
  • et maintenant les choses sont triviales
  • Non, je n'arrive pas à trouver la relation qui nous permet d'écrire que $$(D^2u(x_0).\vec{\xi_k}).\vec{\xi_k}=\lambda_k$$
    Et je l'ai chercher dans plusieurs cours, mais je n'arrive pas dutout à la retrouver.
    En vous remerciant pour toute votre aide ainsi que pour toute votre patience.
  • Incroyable!!!! c est le niveau L^1!
    que vaut $H\xi_k$??????
  • Oui, mais j'ai oublié quelques trucs alors j'ai du raffraichir ma mémoire.
    Bon, alors je pense bien que j'ai trouvé:
    On a $(H \vec{\xi_k})= \lambda_k \xi_k$
    Donc, $$(H \vec{\xi_k}).\vec{\xi_k}=(\lambda_k \vec{\xi_k}). \vec{\xi_k}= \lambda_k(\vec{\xi_k}.\vec{\xi_k})=\lambda_k$$ parceque $|\vec{\xi_k}|=1.$
    Donc, on a $$D^2u(x_0)(\xi_k,\xi_k)=\lambda_k$$
    Tout est bien correct?
    En vous remerciant pour toute votre aide ainsi que pour toute votre patience.
  • c est bon
  • Svp, just une question sur la toute drnière étape.
    Puisque $A$ est symétrique, alors $$L'u(x_0)=-\sum_{1 \leq i,j \leq n} a_{ij}(x_0)\frac{\partial}{\partial x_i \partial x_j} u(x_0)=-\tr(a(x_0)D^2u(x_0))$$
    pourquoi on a ca ?
    On ne connait pas $a(x_0).$ Et le resultat que je connait dans le cas d'une matrice symétrique $A$ est que $\tr(A)=\sum_{i=1}^n a_{ii}.$
    En vous remerciant pour toute votre aide ainsi que pour toute votre patience.
  • ton ecriture pou $L'$ est fausse
  • Sur le poly il est écrit
    $$L'u(x_0)=-a_{ij}(x_0)\partial_{ij}u(x_0)$$ mais avec la convetion de sommation, celà veut dire que $$L'u(x_0)=-\sum_{i,j=1}^n a_{ij}(x_0)\partial_{ij}u(x_0)$$ Non?
    En vous remerciant pour toute votre aide ainsi que pour toute votre patience.
  • il faut bien écrire les choses
    tu as :
    $$L'u(x_0)=-\sum_{1 \leq i,j \leq n} a_{ij}(x_0)\frac{\partial^2}{\partial x_i \partial x_j} u(x_0)=-tr(a(x_0)D^2u(x_0))$$
  • Oui, justement est mon problème est comment on arive à trouver cette relation et qui est $a(x_0)?$
    En vous remerciant pour toute votre aide.
  • tu dit tu ne connait pas $a_0$, mais tu as essye de faire le calcul de la trace????
  • Non, en fait je ne vois pas dutout d'où vient cette formule. Malgré que j'ai cherché dans plusieurs cours d'algebre.
    En vous remerciant pour toute votre aide ainsi que pour toute votre patience.
  • premierement $a_0$ est connue, c est la matrice des $a_{ij}$, deuxiement, ecrit le produit de $a_0$ par $H$, et note le $C$, ensuite calcul la trace,
    je ne fait pas le calcul
  • Bonsoir,
    non, je demande just l'idée je fais les calculs.
    Svp, le produit de $a(x_0)$ et $H$ nous donne un vecteur et pas une matrice. Donc, on ne peut pas calculer la trace. Non?
    En vous remerciant pour toute votre aide ainsi que pour toute votre patience.
  • Mais commennttttttttttttttttttttttt
    :X:X:X:X
    produit d une matrice par une matrice est un vecteur!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!?????????
  • Excusez-moi svp :-(
    Je viens de me rendre compte que j'ai fait une ENORME erreur. Je revois tout, puis je reviens
  • $$tr C=\sum_{i,j=1}^n a_{ij}h_{ji}$$
    Donc, on a bien $$L'u(x_0)=-\sum_{1 \leq i,j \leq n} a_{ij}(x_0)\frac{\partial^2}{\partial x_i \partial x_j} u(x_0)=-tr(a(x_0)D^2u(x_0))$$
    Après, on utilise le fait que $D^2u(x_0)=\sum_{k=1}^n \lambda_k \xi_k \otimes \xi_k$ C'est une résultat direct parceque la matrice $D^2u(x_0)$ est orthogonalement diagonisable?
    En vous remerciant pour toute votre aide ainsi que pour toute votre patience.
  • oui tu peut dire ca
  • Donc, on a On a
    $$L'u(x_0)=-\sum_{1 \leq i,j \leq n} a_{ij}(x_0)\frac{\partial^2}{\partial x_i \partial x_j} u(x_0)& =-tr(a(x_0)D^2u(x_0))$$
    Et comme $D^2u(x_0)$ est orthogonalemet diagonisable, alors $$D^2u(x_0)=\sum_{k=1}^n \lambda_k \xi_k \otimes \xi_k$$ on a
    \begin{align*}
    L'u(x_0) &= -\tr(a(x_0) \sum_{k=1}^n \lambda_k \xi_k \otimes \xi_k)\\
    & = \sum_{k=1}^n - \lambda_k \tr(a(x_0) \xi_k \otimes \xi_k)\\
    &= - \sum_{k=1}^n \lambda_k \sum_{i,j=1}^n a_{ij}(x_0) (\xi_k)_i(\xi_k)_i
    \end{align*}
    Mais comment passer à l'inégalité suivante
    $$L'u(x_0) \leq - \lambda \sum_{k=1}^n \lambda_k?$$
    En vous remerciant pour toute votre aide ainsi que pour toute votre patience.
  • Tu ne lis pas sa preuve complètement, toujours le même problème, quand tu arrives à une étape, pourquoi ça ?
    Qu'est-ce que je t'ai dit ?
  • Non, j'ai compris qu'ils utilisent le fait que les $\lambda_K$ sont positifs pour déduire le signe de $L'u.$ J'ai compris l'objectif de la preuve.
    Ce que je n'ai pas compris c'est pourquoi on a $$L'u(x_0) \leq - \lambda \sum_{k=1}^n \lambda_k?$$ D'ou sort le $\mambda$ dans le terme de gauche svp?
    En vous remerciant pour toute votre aide ainsi que pour toute votre patience.
  • bah voila , tu n a pas lu la derniere phrase de la preuve!
  • Vous avez raison. C'est parceque $A$ est coércive.
    En vous remerciant pour toute votre aide ainsi que pour toute votre patience.
  • Bonjour,
    On voudrait utiliser le lemme précédent pour caracteriser le minimum de $u.$ Et pour ca, on étudit le lemme suivant:
    Le lemme dit ceci. Soit $u \in C^0(\bar{\Omega}) \cap \mathcal{C}^2(\Omega)$ telle que $L u \geq 0$ dans $\Omega.$ Alors,
    (i) si $c=0$ on a $\min_{\bar{\Omega}} u= \min_{\partial \Omega}u.$
    (ii) si $c \geq 0,$ on a $\min_{\bar{\Omega}}u \geq min(-u_).$

    Avant de faire la démonstration de ce lemme, qui est $c$ svp? C'est le meme que celui utilisé dans le théorème principal qui dit :

    Soit $\Omega$ un ouvert borné de $\mathbb{R}^n.$ On se donne une matrice $n \times n$ symétrique $A$ dont les composantes $a_{ij}$ appartiennent à
    $C^0(\overline{\Omega})$ et telle que
    \begin{itemize}
    \item il existe $\lambda > 0$ avec
    \begin{equation*}
    \sum_{i,j=1}^n a_{ij} \xi_i \xi_j \geq \lambda |\xi|^2 \hbox{ pour toute } x \in \overline{\Omega}\hbox{ et tout } \xi \in \mathbb{R}^n
    \end{equation*}
    \item un vecteur $b \in C^0(\overline{\Omega}, \mathbb{R}^n)$
    \item et une fonction $c \in C^0(\overline{\Omega})$ telle que
    \begin{equation*}
    c(x) \geq 0 \text { dans } \overline{\Omega}
    \end{equation*}
    \end{itemize}
    Toute fonction $u \in C^0(\overline{\Omega}) \cap C^2(\overline{\Omega})$ qui satisfait
    \begin{equation*}
    \begin{cases}
    - \sum_{i,j} a_{ij} \partial_{ij} u(x) + \sum_i b_i(x) \partial_i u(x) + c(x) u(x) \geq 0 & \mathrm{dans\ } \Omega\\
    u(x) \geq 0 & \mathrm{sur\ } \partial \Omega
    \end{cases}
    \end{equation*}
    est positive ou nulle dans $\overline{\Omega}.$?
    Et quel est le but de ce lemme. Caractériser le minimum de $u$ mais comment svp?
    En vous remerciant pour toute votre aide ainsi que pour toute votre patience.
  • Premièrement, je ne suis pas ici pour faire le cour de Hervé Le Dret, si tu avait lu son poly dès le début , tu sais c'est qui $c$, deuxièmement, pour ta deuxième question, tu as repondu avant de poser la question (comme avant) :
    (i) si $c=0$ on a $\min_{\bar{\Omega}} u= \min_{\partial \Omega}u.$
    (ii) si $c \geq 0,$ on a $\min_{\bar{\Omega}}u \geq min(-u_).$
  • Bonsoir,
    bonsoir Cauchy,
    oui, je sais. Mais c'est comme l'histoire de $a(x_0)$ ils n'avaient pas préciser que ca fesait référence à la matrice $A.$
    Svp, On montre le point (i). C'est-à-dire qu'on suppose que $u \in \mathcal{C}^0(\bar{\Omega}) \cap \mathcal{C}^2(\Omega)$ telle que $Lu \geq 0$ dans $\Omega.$ Et on montre que si $c=0,$ alors on a $\min_{\bar{\Omega}} = \min_{\partial \Omega}u.$

    Si $u$ atteint son minimum sur $\partial \Omega$ alors il n'ya plus rien à montrer.
    Si $u$ atteint son minimum en un point $x_0$ interieur à $\Omega,$ alors on a $$D u(x_0)= \sum_{j=1}^n \frac{\partial u}{\partial x_j}(x_0)$$
    et $$\frac{\partial u}{\partial x_j}(x_0)= \lim_{t \rightarrow 0}\frac{u(t+x_0)-u(x_0)}{t}=0$$
    Celà veut dire que $Du(x_0)=0,$ donc on a
    $$L u = \sum_{i,j=1}^n a_{ij}(x_0) \frac{\partial}{\partial x_j}u(x_0)=0$$
    Mais celà n'implique pas que $Lu(x_0)=L'(u_0).$ Si $Du(x_0)=0$ celà ne veut pas dire que $Lu(x_0)=L'u(x_0).$ Non?
    En vous remerciant pour toute votre aide ainsi que pour toute votre patience.
  • :X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X
    :X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X:X
    $$L u = \sum_{i,j=1}^n a_{ij}(x_0) \frac{\partial}{\partial x_j}u(x_0)=0!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!$$ *
    Deux hyper enormes érreurs ici!!
    Parlons honetement, toi tu ne prends pas les choises au sérieu, c 'est la troisième fois que tu ne lit pas les choses aux debut,
    relit le debut du poly et ecrit l expression exacte de $L$
    Si tu écrit encore des conneries je laisse le fil
  • On a
    $$Lu(x)= \sum_{i,j=1}^n a_{ij}(x) \frac{\partial}{\partial x_i \partial x_j} u(x)+ \sum_{i=1}^n b_i(x) \frac{\partial}{\partial x_i}u(x)+c(x)u(x)$$
    On a $$Du(x_0)= \sum_{i=1}^n \frac{\partial u}{\partial x_i}(x_0)$$ et $\frac{\partial u}{\partial x_i}(x_0)=\lim_{t \rightarrow 0}\frac{u(x_0+t x_i)-u(x_0)}{t}=0$ Donc, $Du(x_0)=0.$
    Alors, $$Lu(x_0)=-\sum_{i,j=1}^n a_{ij}(x_0) \frac{\partial}{\partial x_i \partial x_j} u(x)=L'u(x_0)$$
    Et déduit du lemme précédent que $Lu(x) \leq 0.$ Ce qui est une contradiction. Donc, $u$ n'atteint pas son minimum sur l'interieur de $\Omega.$ Il atteint son minimum au bord de $\Omega.$
    En vous remerciant pour toute votre aide ainsi que pour toute votre patience.
  • toujours pas!!!!!!!!!!!!!!!
    tu as le debut du cour de Herve' Le Dret? tu as lu la definition de $L$?
  • Non, excusez-moi j'avais une faute de frappe, mais je l'ai corrigé dans mon précédent message en retard.
    On a $$Lu(x)= \sum_{i,j=1}^n a_{ij}(x) \frac{\partial}{\partial x_i \partial x_j} u(x)+ \sum_{i=1}^n b_i(x) \frac{\partial}{\partial x_i}u(x)+c(x)u(x)$$
    On a $$Du(x_0)= \sum_{i=1}^n \frac{\partial u}{\partial x_i}(x_0)$$ et $\frac{\partial u}{\partial x_i}(x_0)=\lim_{t \rightarrow 0}\frac{u(x_0+t x_i)-u(x_0)}{t}=0$ Donc, $Du(x_0)=0.$
    Alors, $$Lu(x_0)=-\sum_{i,j=1}^n a_{ij}(x_0) \frac{\partial}{\partial x_i \partial x_j} u(x)=L'u(x_0)$$
    Et déduit du lemme précédent que $Lu(x) \leq 0.$ Ce qui est une contradiction. Donc, $u$ n'atteint pas son minimum sur l'interieur de $\Omega.$ Il atteint son minimum au bord de $\Omega.$
    En vous remerciant pour toute votre aide ainsi que pour toute votre patience.
  • revise la definition d une derivee partielle!
  • On a $$Du(x_0)= h_i \sum_{i=1}^n \frac{\partial u}{x_i}(x_0)$$
    et $\displaystyle \frac{\partial u}{\partial x_i}(x_0) = \lim_{t \rightarrow 0} \frac{u(x_{01},x_{02},\ldots, x_{0i}-t, \ldots, x_{0n}) - u(x_{01},\ldots,x_{0n})}{t} = 0$
    En vous remerciant pour toute votre aide.
  • ton ecriture de la differentielle est completement fausse
  • On a
    $$Du(x_0)(h)= \sum_{i=1}^n h_i \frac{\partial u}{\partial x_i}(x_0)$$ et $\frac{\partial u}{\partial x_i}(x_0)=\lim_{t \rightarrow 0}\frac{u(x_{01},x_{02},..,x_{i0}-t,..,x_{0n})-u(x_{01},..,x_{0n})}{t}=0$ et comme $u$ est linéaire, alors cette limite est nulle. Donc, $Du(x_0)=0.$
    En vous remerciant pour toute votre aide ainsi que pour toute votre patience.
  • quoi???????????????????????
    $u$ lineaire???!!!!!!!!!!! ensuite $Du(x_0)$ est toujours fausse
    Desole' je quitte le fil avec ces erreurs vraiment dangereuses
  • http://www.math93.com/theoreme/cours-differentielle_dp.htmlEt bien $u \in \mathcal{C}^2(\Omega)$ celà veut dire que $u$ est dérivable et ses dérivées sont continues jusqu'à la dérivée et sa dérivée seconde. Qi on utilise pas ca comment montrer alors que $Du(x_0)=0?$
    Pour la dérivée partielle $Du(x_0)$ je l'ai recopié du papier suivant Je n'aui pas toutes les formules en tete mais je sais encore les recopier.
    Quelqu'un voudrait me dire ou est l'erreur svp?
  • Bonsoir doc,
    Il y a une erreur de signe dans le papier auquel tu fais référence.
  • Bonjour zephir,

    une erreur dans l'expression de $L$ svp?

    En vous remerciant d'avance pour votre aide.
  • Dans le paragraphe 1-dérivée partielle, à la seconde ligne.
    doc a écrit:
    $ \displaystyle \frac{\partial u}{\partial x_i}(x_0) = \lim_{t \rightarrow 0} \f......{01},x_{02},\ldots, x_{0i}-t, \ldots, x_{0n}) - u(x_{01},\ldots,x_{0n})}{t} = 0$
    Cette formule est recopiée du document et comporte une erreur de signe
  • Bonjour,
    merci zephir,
    Svp, on a
    $$ \dfrac{\partial u}{\partial x_i}(x_0)= \lim_{t \rightarrow 0} \frac{u(x_{01},...,x_{0i-1},x_i0+t,x_{0i+1},...,x_n)-u(x_{01},...,x_{0n})}{t}$$
    On étudie cette limite celon le signe de $t.$ Si $t > 0$ et si $t < 0.$
    Mais comment faire pour le terme du dénominateur $u(x_{01},...,x_{0i-1},x_i0+t,x_{0i+1},...,x_n)-u(x_{01},...,x_{0n})$ tend vers 0?
    En vous remerciant d'avance pour votre aide.
Connectez-vous ou Inscrivez-vous pour répondre.