Pourquoi diagonaliser plutôt qu'échelonner ?
Bonjour,
voici une question un peu bête. J'attends une réponse un peu éclairante, pas de la forme "ben, parce que ceci marche et cela ne marche pas".
voici une question un peu bête. J'attends une réponse un peu éclairante, pas de la forme "ben, parce que ceci marche et cela ne marche pas".
Résoudre une équation linéaire, c'est décrire "par extension" le noyau d'une application linéaire $A : E \rightarrow F$. Pour cela, on remplace $A$ par $PA : E \rightarrow G$, où $P : F \rightarrow G$ est un isomorphisme (et donc, $A$ et $PA$ ont le même noyau) mais en choisissant bien $P$ pour que $PA$ ait une forme plus sympa. Voici un peu une façon abstract nonsense de raconter l'échelonnement d'une matrice.
Pourtant, quand on s'intéresse à des systèmes d'équations différentielles linéaires, ou à des équations définissant des suites récurrentes, on essaie de diagonaliser les matrices. Sans que j'arrive à formaliser l'idée, je crois que cela vient du fait que ces équations mettent en jeu l'inconnue de deux formes différentes autour du signe égal et qu'il ne faut pas bidouiller le système n'importe comment, sous peine de perdre la forme particulière de l'équation.
Je peux formuler ma question d'une autre façon : aurais-je pu savoir, a priori, qu'il ne sert à rien d'échelonner la matrice d'un système d'équations différentielles linéaires, et qu'il vaut mieux essayer de la diagonaliser ?
Je voudrais votre avis là-dessus !
Déjà, si la question n'est pas claire, n'hésitez pas à me demander des précisions.
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
Le choix de diagonaliser permet de découpler au max les équations, ce qui rend la résolution vachement plus accessible.
Les équations de la gravitation universelle de Newton ne dépendent pas du système de coordonnées utilisé.
Newton aurait recherché des équations isotropes, invariantes en temps et en espace.
Pour les physiciens c'est très embêtant d'obtenir des équations de la physique dont les solutions dépendent du choix des coordonnées.
Dans tous les cas, tu peux essayer d'avoir des intuitions en prenant des espaces de dim finie (comme $\mathbb{R}_n[X]$) pour pouvoir écrire $D$ sous la forme d'une matrice.
Bon, j'ai continué de réfléchir et voici ce que j'ai, pour l'instant.
Soit $E$ un $\mathbb{K}$-espace vectoriel, soit $\Omega$ un ensemble, et soit $F$ un sous-espace de l'espace des fonctions de $\Omega$ dans $E$. On pose, pour tout $M \in End(E)$, $\tilde{M}$ l'endomorphisme de $E^\Omega$ qui à toute $f$ associe l'application $\omega \mapsto M(f(\omega))$ (au fait, $\tilde{\cdot }$ est un morphisme pour la composition). On suppose que $F$ est stable par tous les $\tilde{M}$.
On considère ensuite une application $T : F \rightarrow F$ qui commute à tous les $\tilde{M}$ (j'appelle cette propriété la "localité").
Exemples : 1) On prend $\Omega := \mathbb{N}$, $E := \mathbb{R}$, $F = \mathbb{R}^{\mathbb{N}}$, et, pour toute suite $u$, et tout $n$, $T(u)_n = u_{n+1}$. On prend $M := \lambda$, et l'équation $Su = \tilde{M}u$ est donc équivalente à $\forall n\in \mathbb{N},\quad u_{n+1} = \lambda u_n$.
2) On prend $\Omega := \mathbb{N}$, $E := \mathbb{R}^k$, $F := (\mathbb{R}^k)^{\mathbb{N}}$, et, pour toute suite $u$, et tout $n$, $T(u)_n = u_{n+1}$. On considère une matrice $M$ de la forme $\begin{pmatrix}
0 &1 &0 &\cdots &0\\
\vdots &\ddots &\ddots &\ddots &\vdots\\
\vdots & &\ddots &\ddots &0\\
0 &\cdots &\cdots &0 &1\\
a_0 &\cdots &\cdots &\cdots &a_{k-1}\\
\end{pmatrix}.$
Alors l'équation $Tu = \tilde{M}u$ est donc équivalente à $\forall n\in \mathbb{N},\ u_{n+k} = a_0 u_n + \cdots + a_{k-1} u_{n+k-1}$.
3) On prend $\Omega := \mathbb{R}$, $E := \mathbb{R}$, $F := C^\infty$, et pour toute $f \in F$, $Tf := f'$. On prend $M = \lambda$, et l'équation $Tf = \tilde{M}f$ est donc équivalente à $f' = \lambda f$.