Pourquoi diagonaliser plutôt qu'échelonner ? — Les-mathematiques.net The most powerful custom community solution in the world

Pourquoi diagonaliser plutôt qu'échelonner ?

Modifié (16 Sep) dans Algèbre
Bonjour,
voici une question un peu bête. J'attends une réponse un peu éclairante, pas de la forme "ben, parce que ceci marche et cela ne marche pas".
Résoudre une équation linéaire, c'est décrire "par extension" le noyau d'une application linéaire $A : E \rightarrow F$. Pour cela, on remplace $A$ par $PA : E \rightarrow G$, où $P : F \rightarrow G$ est un isomorphisme (et donc, $A$ et $PA$ ont le même noyau) mais en choisissant bien $P$ pour que $PA$ ait une forme plus sympa. Voici un peu une façon abstract nonsense de raconter l'échelonnement d'une matrice.
Pourtant, quand on s'intéresse à des systèmes d'équations différentielles linéaires, ou à des équations définissant des suites récurrentes, on essaie de diagonaliser les matrices. Sans que j'arrive à formaliser l'idée, je crois que cela vient du fait que ces équations mettent en jeu l'inconnue de deux formes différentes autour du signe égal et qu'il ne faut pas bidouiller le système n'importe comment, sous peine de perdre la forme particulière de l'équation.
Je peux formuler ma question d'une autre façon : aurais-je pu savoir, a priori, qu'il ne sert à rien d'échelonner la matrice d'un système d'équations différentielles linéaires, et qu'il vaut mieux essayer de la diagonaliser ?
Je voudrais votre avis là-dessus !
Déjà, si la question n'est pas claire, n'hésitez pas à me demander des précisions.

Réponses

  • D'abord, il ne sert pas à rien d'échelonner : on peut résoudre un système triangulaire sans difficulté mais c'est plus ennuyeux qu'un système diagonal parce qu'il faut se taper une variation de la constante pour les $n-1$ premières fonctions inconnues (on trouve $x_n$ facilement puis $x_{n-1},\dots,x_1$ avec variation de la constante).
    Un élément. En échelonnant, on transforme le système en un système équivalent portant sur les mêmes inconnues. Quand on diagonalise, on change les (fonctions) inconnues, ce qui est nécessaire pour se ramener au seul type d'équation qu'on sait commodément résoudre : scalaires linéaires d'ordre un sans second membre.
  • Modifié (16 Sep)
    Une question bête pour commencer : Diagonaliser, ce n'est pas juste faire un échelonnage particulier ?
    Le choix de diagonaliser permet de découpler au max les équations, ce qui rend la résolution vachement plus accessible.
  • Modifié (16 Sep)
    Bonjour
    En fait, tu compares la situation $MX=0$ à la situation $X'=MX$, autrement dit $(DI-M)X=0$ (où $D$ est la dérivation). C'est donc $DI-M$ que tu voudrais améliorer en échelonnant. Or on sait que quand $D$ est une indéterminée, $DI-M$ est équivalente à $DI-M'$ sur $K[D]$ si et seulement si $M$ est semblable à $M'$ sur $K$.
    Tu achètes ?
  • Modifié (16 Sep)
    @Math Coss : Ok pour les variations de constante. D'accord sur le fait que diagonaliser, ça "change les fonctions inconnues". Je vais y réfléchir !
    @Bibix : Euh, ben, non ! Pour moi, échelonner, c'est partir d'une $A$, et trouver une matrice $B$ jolie qui est équivalente à $A$ pour la relation $\exists Q \in GL_n,\ B = QA$ ; alors que diagonaliser (enfin, réduire), c'est partir de $A$ et trouver une matrice $B$ jolie qui est équivalente à $A$ pour la relation $\exists Q \in GL_n,\ B = Q^{-1}AQ$. Ce n'est pas du tout la même chose !
    En fait, j'aimerais arriver à formuler ça en disant que ce sont des équations linéaires particulières et que certaines symétries qui ont habituellement du sens pour des équations linéaires générales, font ici perdre un sens particulier à l'équation. Je ne sais pas si ça vous parle.
    EDIT : Waow, @GaBuZoMeu , effectivement, ça donne envie d'acheter. Prépare la monnaie !
  • Modifié (16 Sep)
    Bonjour
    Ce lien explique peut-être (voir exemples). https://fr.m.wikipedia.org/wiki/Covariance_(équation)
    Les physiciens parlent (à vérifier) de covariance sous l'action d'un groupe de transformation.
    Les équations de la gravitation universelle de Newton ne dépendent pas du système de coordonnées utilisé.
    Newton aurait recherché des équations isotropes, invariantes en temps et en espace.
    Pour les physiciens c'est très embêtant d'obtenir des équations de la physique dont les solutions dépendent du choix des coordonnées.
    Les solutions d'une équation $X'=AX$ peuvent être lues comme les trajectoires (ici lignes de courant car pas de dépendance en temps ie $\partial_t A=0$) d'un champ de vecteur sur une variété (un espace affine ou vectoriel). Le choix d'un système de coordonnées cartésiennes ou pas pour décrire ces lignes de courant ne change rien à l'ensemble des solutions.
    À partir du moment où ça ne dépend pas du choix, on choisit celui qui permet de faire les calculs le plus simplement (et il n'est pas nécessairement linéaire).
  • Modifié (16 Sep)
    Pour moi, quand on réduit, on part de $X' = A X$ et on fait ce que tu as dit pour avoir $A = Q B Q^{-1}$. On a alors $Q^{-1} X$ qui vérifie une équation différentielle plus sympathique. Mais ce que tu veux dire, c'est échelonner ou réduire l'équation linéaire dans sa forme générale (celle de Gabuzomeu) ? 

    Dans tous les cas, tu peux essayer d'avoir des intuitions en prenant des espaces de dim finie (comme $\mathbb{R}_n[X]$) pour pouvoir écrire $D$ sous la forme d'une matrice.
  • Non, voir $D$ comme une matrice gacherait tout. $D$ est une indéterminée, $K[D]$ un anneau de polynômes : l'anneau des opérateurs différentiels à coefficients constants.
  • @Lars : Pas compris.
    @GaBuZoMeu : Je suis pas encore sûr de comprendre pourquoi il faudrait voir $D$ comme une indéterminée ?
     
    Bon, j'ai continué de réfléchir et voici ce que j'ai, pour l'instant.

    Soit $E$ un $\mathbb{K}$-espace vectoriel, soit $\Omega$ un ensemble, et soit $F$ un sous-espace de l'espace des fonctions de $\Omega$ dans $E$. On pose, pour tout $M \in End(E)$, $\tilde{M}$ l'endomorphisme de $E^\Omega$ qui à toute $f$ associe l'application $\omega \mapsto M(f(\omega))$ (au fait, $\tilde{\cdot }$ est un morphisme pour la composition). On suppose que $F$ est stable par tous les $\tilde{M}$.

    On considère ensuite une application $T : F \rightarrow F$ qui commute à tous les $\tilde{M}$ (j'appelle cette propriété la "localité").

    Soit enfin $M \in End(E)$. On s'intéresse à l'équation (d'inconnue $f$) $E_M$ qui énonce $Tf = \tilde{M}f$, ou encore $(T- \tilde{M})(f) = 0$.

    Bon, ben, on voit que $E_M$ et $E_{M'}$ sont des systèmes (intuitivement) équivalents si $M'$ et $M$ sont semblables, puisque dans ce cas, si $P$ est une matrice inversible telle que $M' = P^{-1}MP$, alors $\tilde{P^{-1}}(T-\tilde{M})\tilde{P} = T - \tilde{M'}$. Par contre, c'est la réciproque qui est moins claire, vu que... je n'ai pas encore de définition claire de ce que ça veut dire que les systèmes sont équivalents. Par exemple, je ne comprends pas encore pourquoi ce serait une équivalence dans $\mathbb{K}[T]$ qui serait pertinente ?

    Exemples  : 1) On prend $\Omega := \mathbb{N}$, $E := \mathbb{R}$, $F = \mathbb{R}^{\mathbb{N}}$, et, pour toute suite $u$, et tout $n$, $T(u)_n = u_{n+1}$. On prend $M := \lambda$, et l'équation $Su = \tilde{M}u$ est donc équivalente à $\forall n\in \mathbb{N},\quad u_{n+1} = \lambda u_n$.

    2) On prend $\Omega := \mathbb{N}$, $E := \mathbb{R}^k$, $F := (\mathbb{R}^k)^{\mathbb{N}}$, et, pour toute suite $u$, et tout $n$, $T(u)_n = u_{n+1}$. On considère une matrice $M$ de la forme $\begin{pmatrix}
    0 &1 &0 &\cdots &0\\
    \vdots &\ddots &\ddots &\ddots &\vdots\\
    \vdots & &\ddots &\ddots &0\\
    0 &\cdots &\cdots &0 &1\\
    a_0 &\cdots &\cdots &\cdots &a_{k-1}\\
    \end{pmatrix}.$

    Alors l'équation $Tu = \tilde{M}u$ est donc équivalente à $\forall n\in \mathbb{N},\ u_{n+k} = a_0 u_n + \cdots + a_{k-1} u_{n+k-1}$.

    3) On prend $\Omega := \mathbb{R}$, $E := \mathbb{R}$, $F := C^\infty$, et pour toute $f \in F$, $Tf := f'$. On prend $M = \lambda$, et l'équation $Tf = \tilde{M}f$ est donc équivalente à $f' = \lambda f$.

    4) On prend $\Omega := \mathbb{R}$, $E := \mathbb{R}^k$, $F := (\mathbb{R}^k)^{\mathbb{N}}$, et pour toute $f \in F$, $Tf := f'$ (dérivée coordonnée par coordonnée). On considère une matrice $M$ de la forme
    $\begin{pmatrix}0 &1 &0 &\cdots &0\\\vdots &\ddots &\ddots &\ddots &\vdots\\\vdots & &\ddots &\ddots &0\\0 &\cdots &\cdots &0 &1\\a_0 &\cdots &\cdots &\cdots &a_{k-1}\\\end{pmatrix}$, et l'équation $Tf = \tilde{M}f$ est donc équivalente à $f^{(n)} = a_0f + a_1 f' + \cdots a_{r-1} f^{(r-1)}$.

    5) et 6) Systèmes de suites récurrentes, systèmes d'équations différentielles linéaires.

  • Modifié (17 Sep)
    L'équation (les solutions matricielles de) $m_{11} +m_{13} =0$ dépend du choix du système de coordonnées linéaires.
    L'équation $m_{11}+m_{22}+m_{33}=0$ d'inconnue une matrice M de taille 3x3 ne dépend du système de coordonnées linéaires choisies (ou si on veut de la base choisie...).
    Cette équation peut s'écrire dans un langage qui ne dépend du système de coordonnées (tout comme le système différentiel $X'=AX$).

    Cf. Aussi les opérateurs différentiels utilisés en physique (div, rot même si on apprend leur expression dans un système de coordonnées (linéaire ou pas). Idem pour la différentielle en math. C'est un objet qui ne dépend pas du système de coordonnées (linéaire ou pas) pour l'exprimer.
Connectez-vous ou Inscrivez-vous pour répondre.
Success message!