Calcul différentiel

Ramufasa
Modifié (5 Apr) dans Analyse
Bonjour à tous
Je suis un cours de mécanique analytique et je bloque sur un calcul tout bête de calcul différentiel.
J'ai une fonction $f$ de $\mathbb{R}^n$ dans $\mathbb{R}$ définie par : $f(x) = \langle M(x)^{-1} a, a \rangle$ avec $a$ un vecteur fixé et $M$ une fonction de $\mathbb{R}^n$ dans l'ensemble des matrices réelles inversibles.
Pour mon calcul, je note $h : M -> \langle M a, a \rangle$ et $g : x -> G(x)$ (ce $G(x)$ sera plus tard $M(x)^{-1}$).
J'obtiens que le gradient de $h \circ g$ est : $\nabla (h \circ g) (x) = dg_x^* a a^T$.
Maintenant, comme je l'ai dit : $g$ est en fait $Inv \circ M$, où $Inv$ est l'application "passage à l'inverse".
J'obtiens alors la différentielle de $g$ : $dg_x (h) = - M(x)^{-1} dM_x(h) M(x)^{-1}$.
Et là, je bloque. En fait, je ne sais pas transposer cette application. Je n'ai calculé d'adjoint que dans le cas d'un endomorphisme.
Sinon, s'il y a une méthode plus simple pour calculer le gradient de $f$ je suis aussi preneur.
Pour le contexte, et si cela peut donner des idées, je veux retrouver l'équation hamiltonienne en $p$ des géodésiques à vitesse constante (https://en.wikipedia.org/wiki/Geodesics_as_Hamiltonian_flows#:~:text=Geodesics can be understood to,entirely of the kinetic term.)
Bien à vous,
Ram

Correction : adjoint au lieu de transposée.

Réponses

  • Noveang
    Modifié (4 Apr)
    Bonjour
    Les propriétés $(AB)^\top = B^\top A^\top$ et $(A^{-1})^\top = (A^\top)^{-1}$ devraient, je pense, te suffire.
    Pour ce qui est d'une méthode plus simple je ne sais pas, j'aurais personnellement procédé comme tu l'as fait :)
  • Merci pour ton retour. 

    Effectivement je connais ces propriétés mais mon problème vient du fait que $dg_x^T$ est une application de l'ensemble des matrices réelles inversibles dans $\mathbb{R}^n$ et cela n'apparaît pas clairement en appliquant directement ces propriétés. 
  • Ramufasa
    Modifié (4 Apr)
    En fait, une façon plus simple de le voir c'est d'écrire explicitement : $f(x) = \sum a_i (M(x)^{-1})_{i, j} a_j$ puis d'écrire que $\frac{d}{dx}f (x) = \sum a_i \frac{d}{dx}  (M(x)^{-1})_{i, j} a_j = \sum a_i  (\frac{d}{dx} (M(x)^{-1}))_{i, j} a_j = \langle \frac{d}{dx} M(x)^{-1} a, a \rangle$ mais je n'arrive pas à retomber sur mes pieds.
  • Noveang
    Modifié (4 Apr)
    Je pense comprendre ce qui te bloque, et je pense que ce fil pourra t'éclairer : https://les-mathematiques.net/vanilla/discussion/2145840/

    On y trouve une définition de l'adjoint d'une application linéaire quelconque, et pas seulement d'un endomorphisme :)
  • Barjovrille
    Modifié (4 Apr)
    Bonjour, je crois qu'il y a une erreur dans ton expression avec la transposée (le crochet c'est le produit scalaire  dans $\mathbb{R}^n$ ?).
    Mais sinon si tu calcules le gradient ne mélange pas les gradients et les différentielles parce que sinon ça embrouille. Le gradient c'est une matrice ou un vecteur (selon le contexte) la transposée c'est la transposée classique des matrices (ça revient à faire du calcul en coordonnées) et tu utilises que le gradient d'une composée c'est le produit matriciel des gradients. Soit tu calcules la différentielle directement et alors tu manipules des applications linéaires.
    Tu as déjà calculé $dg_x$ le plus dur est fait.
    Pour la fonction $h(M)= \langle Ma,a \rangle$ tu vérifies facilement que $h(M+H)= h(M)+ h(H)$ donc $dh_M(H)= h(H)$ pour tout $M$.
    Et donc $(d(h \circ g)_x)(v)= (dh_{g(x)}\circ dg_x)(v)=dh_{g(x)}(dg_x(v))=h(dg_x(v))= \langle dg_x(v)a,a \rangle$ et le $dg$ tu l'as calculé.
    (Le problème c'est qu'avec ce que tu manipules certaines écritures ont des identifications implicites donc si tu ne fais pas attention ça peut créer des problèmes).
  • Je suis d'accord avec Barjovrille, mieux vaut ne pas tout mélanger. Je pense que le mieux est de faire à coup de différentielles dans ce cas puis de déduire le gradient au final.

    PS : pour moi le gradient ne concerne que des fonctions à valeurs réelles ce qui signifie que c'est toujours un vecteur, et non une matrice (sauf l'espace vectoriel au départ  est un espace de Hilbert de matrices, mais auquel cas la matrice est un vecteur) ; même si j'ai déjà vu en statistiques des profs employer la notation gradient pour désigner la jacobienne.
  • Bonjour,

    Merci pour vos retours ! Le lien de Noveang semble répondre à mes interrogations.

    @Barjovrille @math2 merci pour vos retours. En fait, je suis tout à fait d'accord avec vous sur la nécessité de ne pas faire de confusion entre gradient et différentielle. Néanmoins, mon problème était de déterminer une formule permettant de calculer le gradient (et pas la différentielle justement) donc en reprenant la dernière expression de @Barjovrille, la question était de savoir comment écrire cette quantité comme $v$ scalaire quelque chose.
  • Barjovrille
    Modifié (5 Apr)
    Si tu prends la définition "classique" du gradient : c'est à dire si tu as $f : E \to \mathbb{R}$ une fonction différentiable et $E$ EV de dimension finie avec un produit scalaire. Alors soit $x \in E$ $df_x : E \to \mathbb{R}$ c'est une forme linéaire continue, alors d'après le théorème de Riesz il existe un unique vecteur de $E$ qu'on note $\nabla f(x)$ tel que $ df_x(h) =\langle \nabla f(x),h \rangle$  pour tout $h \in E$.
    Donc dans ton cas tu as $E= \mathbb{R}^n$ et la relation suivante $(d(h\circ g)_x)(v)= \langle \nabla (h\circ g)(x),v \rangle$ pour tout $v \in \mathbb{R}^n$. D'après ce que je viens de dire $\nabla(h\circ g) (x)$ c'est un vecteur donc il s'écrit $\sum a_i e_i$ avec $(e_i)$ une base (on la prend orthonormale) de $\mathbb{R}^n$.
    Pour avoir le gradient tu dois trouver les $a_i$ et pour trouver les $a_i$ tu fais taper le gradient contre la base orthonormale.
    C'est à dire tu calcules $\langle \nabla (h\circ g)(x), e_i \rangle =(d(h\circ g)_x)(e_i)= \langle dg_x(e_i)a,a \rangle=a_i$. L' expression avec $dg$ tu la connais donc tu peux calculer. (Tu peux  démontrer que ce procédé donne bien les $(a_i)$ en utilisant que $(e_i)$ est orthonormale). Normalement tu devrais obtenir les coordonnées du gradient en fonction de $M^{-1}(x)$ et des dérivées partielles de $M$.
Connectez-vous ou Inscrivez-vous pour répondre.