Image
Réduction des endomorphismes, applications à l’étude des suites récurrentes linéaires, à l’exponentielle matricielle et à la décomposition de Jordan.

Réduction des endomorphismes

Il est nécessaire avant d’étudier cette partie d’avoir pris connaissance des parties [alglin] et [alglindf] (algèbre linéaire et algèbre linéaire en dimension finie).

La réduction d’un endomorphisme va constituer dans le cas général en la recherche des éléments propres de cet endomorphisme (définition à venir) et dans le cas de la dimension finie en la recherche d’une base dans laquelle cet endomorphisme est représenté par une matrice de forme agréable (voir plus loin). Le lien avec les matrices est donc décisif; cf le chapitre [calculmatriciel].

Dans toute cette partie, \(\mathbb{K}\) désigne \(\mathbb{R}\) ou \(\mathbb{C}\). Néanmoins, la plupart des résultats présentés ici sont valables (avec les mêmes démonstrations) en considérant un corps \(\mathbb{K}\) quelconque.

Le cas général

(stable par \(f\)).
Soit \(E\) un \(\mathbb{K}\)-espace vectoriel et \(f\) un endomorphisme de \(E\); c’est-à-dire \(f \in L(E)\). On se donne \(P\) un polynôme appartenant à \(\mathbb{K}[X]\); \(P=\sum_i p_i.X^i\).

Alors:

\(\bullet\)On dit que \(F\), sous-espace vectoriel de \(E\), est stable par \(f\) si et seulement si \(f(F) \subset F\)

\(\bullet\)Si il existe \(n\) tel que \(Ker\ f^n=Ker\ f^{n+1}\), alors le \(n\) minimal vérifiant cette propriété est appelé indice de \(f\).

\(\bullet\)On note \(P(f)\) l’endomorphisme qui à \(x\) associe \(\sum_i p_i.f^i(x)\).

\(\bullet\)On note \(\mathbb{K}[f]\) l’ensemble des \(Q(f)\) pour \(Q \in \mathbb{K}[X]\); c’est une algèbre commutative (sous-algèbre de l’algèbre \(L(E)\) des endomorphismes)

\(\bullet\)On appelle idéal annulateur de \(f\) l’ensemble des \(Q\in \mathbb{K}[X]\) tels que \(Q(f)=0\) (c’est bien un idéal). Ses éléments sont appelés les polynômes annulateurs de \(f\). On le note \({\cal I}(f)\). \(\mathbb{K}[X]\) étant principal, si \({\cal I}(f)\) est non réduit à \(\{0\}\), il est engendré par un polynôme unitaire que l’on appellera polynôme minimal de \(f\) et que l’on notera \(P_f\).

\(\bullet\)On appelle valeur propre de \(f\) un scalaire \({\lambda}\) tel que \(f-{\lambda}.I\) ne soit pas injectif; dans ce cas \(E_f({\lambda})=Ker\ (f-{\lambda}.I)\) est appelé sous-espace propre associé à la valeur propre \({\lambda}\).

\(\bullet\)On appelle spectre de \(f\) l’ensemble des valeurs propres de \(f\). On le note \(Sp(f)\).

\(\bullet\)On appelle vecteur propre de \(f\) associé à la valeur propre \({\lambda}\) un élément non nul du sous-espace propre associé à la valeur propre \({\lambda}\): \(x\in E\setminus\{0\}\) est un vecteur propre de \(f\) associé à \({\lambda}\) équivaut simplement à \(f(x)={\lambda}.x\).

\(\bullet\)On appelle valeur propre de \(M\) avec \(M\) une matrice carrée de type \((n,n)\) une valeur propre de l’endomorphisme de \(\mathbb{K}^n\) canoniquement associé à \(M\).

\(\bullet\)On appelle sous-espace propre de \(M\) associé à \({\lambda}\) avec \(M\) une matrice carrée de type \((n,n)\) l’espace propre de l’endomorphisme de \(\mathbb{K}^n\) canoniquement associé à \(M\) pour \({\lambda}\) valeur propre de \(M\).

\(\bullet\)On appelle spectre de \(M\) avec \(M\) une matrice carrée de type \((n,n)\) l’ensemble des valeurs propres de \(M\).
En dimension infinie un endomorphisme n’a pas nécessairement .
De plus, le terme de spectre peut avoir un sens différent en analyse fonctionnelle : ce peut-être l’ensemble des \(\lambda\) pour lesquels \(f-{\lambda}.I\) n’est pas inversible (ce qui n’équivaut pas à \(f-{\lambda}.I\) non injectif en dimension infinie).
 \(\bullet\)Avec \(P\) et \(Q\) deux polynômes, \((PQ)(u)=P(u) \circ Q(u)=Q(u) \circ P(u)\) : ceci justifie la commutativité de l’algèbre \(\mathbb{K}[f]\) annoncée dans la définition précédente. Plus précisément, l’application de \(\mathbb{K}[X]\) dans \(L(E)\) qui à \(P\) associe \(P(f)\) est un morphisme d’algèbres, dont le noyau est \({\cal I}(f)\) et dont l’image est \(\mathbb{K}[f]\).

\(\bullet\)Si deux endomorphismes commutent, alors le noyau et l’image de l’un sont stables par l’autre.

\(\bullet\)La suite \(F_n\) définie par \(F_n=Ker\ f^n\) est croissante et la suite \(G_n\) définie par \(G_n=Im\ f^n\) est décroissante.

\(\bullet\)Si \(f\) a un indice fini \(n\), alors pour tout \(i\) supérieur à \(n\), on a \(F_{i+1}=F_i\).

\(\bullet\)Soit \(P\) et \(Q\) deux polynômes, alors \(Ker\ P(f) \cap Ker\ Q(f)=Ker\ ((P\land Q)(f))\)

\(\bullet\)Soit \(P\) et \(Q\) deux polynômes premiers entre eux (i.e. de pgcd \(1\)), alors \(Ker\ (PQ)(f)=Ker\ P(f) \oplus Ker\ Q(f)\).

\(\bullet\)Soit \(P_1,...,P_p\) des polynômes premiers deux à deux tels que \(\prod P_i(f)=0\), alors \(E=\oplus \ Ker\ P_i(f)\).

Les trois derniers \(\bullet\)ont valeur de théorèmes; on les regroupe souvent sous l’appelation lemme des noyaux.
Cela sert un peu partout, dans les résultats de réduction; citons par exemple la partie sur les suites récurrentes linéaires, [srl], ou le théorème de diagonalisation [syl].
Les quatre premiers sont évidents.

Le 5ème se montre grâce à la propriété de Bezout.

Pour le 6ème , la somme est directe en vertu du précédent; et les deux inclusions s’obtiennent par Bezout et par le premier .

Le dernier est facile à déduire du 6ème.
(Pratique de la réduction (sans hypothèse de dimension finie)).
 \(\bullet\)une famille de vecteurs propres associés à des valeurs propres distinctes est libre

\(\bullet\)une somme finie de sous-espaces propres associés à des valeurs propres distinctes est directe

\(\bullet\)si \(f\) et \(g\) sont deux endomorphismes qui commutent, alors les sous-espaces propres de \(f\) sont stables par \(g\)

\(\bullet\)\(\forall ({\lambda},P) \in Sp(f)\times \mathbb{K}[X], \ P({\lambda})\in Sp(P(f))\)

\(\bullet\)Si \(P(f)=0\), alors \({\lambda}\in Sp(f) \to P({\lambda})=0\)

\(\bullet\)Si \(f \in GL(E)\), alors \(Sp(u^{-1})=\{\frac1{{\lambda}} / {\lambda}\in Sp(u) \}\)

En complément de l’avant dernier \(\bullet\)ci-dessus, on a la remarque suivante:

\(\bullet\)Le premier point se démontre en notant que si \(x\) est un vecteur propre de \(f\) associé à la valeur propre \({\lambda}\) (i.e. si \(x\neq 0\) vérifie \(f(x)={\lambda}.x\)), alors \(P(f)(x)=P({\lambda}).x\)

\(\bullet\)Si \(f\in L(E)\) et si on a \(P(f)=0\) avec \(P\in\mathbb{K}[X]\) tel que \(P(0)\neq 0\), alors \(f\in GL(E)\) (i.e. \(f\) est inversible), et on peut calculer simplement \(f^{-1}\).

En effet, on peut écrire \[P=p_nX^n+p_{n-1}X^{n-1}+...+p_1X+p_0\] avec \(p_0\neq 0\), et alors \[P(f)=p_nf^n+p_{n-1}f^{n-1}+...+p_1f+p_0I=0\] implique que \(f\) est inversible, d’inverse \[f^{-1}=-\frac{1}{p_0}\Big(p_nf^{n-1}+p_{n-1}f^{n-2}+...+p_1I\Big).\] Pour s’en convaincre, il suffit de composer à gauche ou à droite cette quantité par \(f\), et on trouve \(I\) en utilisant \(P(f)=0\).

Le cas de la dimension finie

Dans le cas de la dimension finie, la réduction d’un endomorphisme va consister en la recherche d’une base dans laquelle la matrice de l’endomorphisme est diagonale ou, à défaut, triangulaire.

On a vu ci-dessus que pour décomposer un endomorphisme il fallait trouver ses sous-espaces propres et ses valeurs propres. Cela est très lié aux polynômes annulateurs de l’endomorphisme; mais dans le cas général, il y a assez peu de choses à dire. Nous allons voir que la dimension finie est beaucoup plus pratique.

Voyons tout d’abord une liste de propriétés élémentaires très utiles pour la suite:


\(\bullet\)En dimension finie, tout endomorphisme a un indice, inférieur ou égal à la dimension.

\(\bullet\)En dimension finie, l’indice est aussi le plus petit \(n\) tel que \(Im\ f^n=Im\ f^{n+1}\)

\(\bullet\)En dimension finie, avec \(n\) l’indice de \(f\), \(E=Ker\ f^n \oplus Im\ f^n\)

\(\bullet\)En dimension finie, tout endomorphisme admet un idéal annulateur non réduit à \(\{0\}\), et donc admet un polynôme minimal.

\(\bullet\)Si \(F\) est un sous-espace vectoriel de \(E\), si \((e_1,...,e_p,e_{p+1},...,e_n)\) est une base de \(E\) avec \((e_1,...,e_p)\) une base de \(F\), alors \(F\) est stable par \(f\) si et seulement si la matrice de \(f\) dans la base \((e_1,...,e_n)\) est de la forme suivante \[\left( \begin{array}{cc} A & B \\ 0 & D \end{array} \right)\] avec \(A\) une matrice de type \((p,p)\), \(B\) une matrice de type \((p,n-p)\), \(D\) une matrice de type \((n-p,n-p)\).

\(\bullet\)Soient \(F_1\), \(F_2\), ... et \(F_p\) des sous-espaces vectoriels de \(E\) tels que \(E=\oplus F_i\). Soit (\(\forall i\in\{1,...,p\}\)) \(B_i\) une base de \(F_i\).Alors, les \(F_i\) sont stables par \(f\) si et seulement si la matrice de \(f\) dans la base \(B=(B_1,...,B_p)\) (base dite adaptée à la décomposition \(E=\oplus F_i\)) est de la forme \[\left(\begin{array}{ccccc} M_1 & 0 & \dots & 0 & 0 \\ 0 & M_2 & \ddots & & 0 \\ \vdots & \ddots & \ddots & \ddots & \vdots \\ 0 & & \ddots & M_{p-1} & 0 \newline[.2cm] 0 & 0 & \dots & 0 & M_p \end{array}\right)\] avec \(M_i\) de type \((dim\ F_i,dim\ F_i)\).

Dans ce cas, \(M_i\) sera la matrice dans la base \(B_i\) de l’endomorphisme \(f_{|F_i}\) induit par \(f\) sur \(F_i\).

On va maintenant introduire quelques définitions intéressantes dans le cadre de la dimension finie.

(Définitions dans le cadre de la réduction en dimension finie).
\(\bullet\)On appelle polynôme caractéristique d’une matrice carrée \(M\) le polynôme \(det(X.I-M)\).

\(\bullet\)Le polynôme caractéristique de la matrice d’un endomorphisme en dimension finie (le polynôme caractéristique n’est défini que dans ce cadre là) est indépendant de la base choisie; on l’appelle polynôme caractéristique de cet endomorphisme.

On note \(\chi_M\) le polynôme caractéristique de la matrice \(M\) et \(\chi_f\) le polynôme caractéristique de l’endomorphisme \(f\).

maintenant quelques propriétés fondamentales de ces notions, toujours dans le cadre de la réduction en dimension finie; la preuve, très simple, n’en est pas donnée.

\(\bullet\)Le polynôme caractéristique d’une matrice \(M\) est un polynôme (preuve en considérant la définition première du déterminant).

\(\bullet\)Le polynôme caractéristique d’une matrice \(M\) de type \((n,n)\) est de degré \(n\), de coefficient dominant \(1\) (preuve là aussi en considérant la définition du déterminant, et en cherchant l’unique permutation qui donne le terme de degré \(n\) dans le polynôme caractéristique). Le second coefficient est \(-tr\ M\) et le coefficient constant est \(det(-M)=(-1)^n det\ M\).

\(\bullet\)Le polynôme caractéristique d’une matrice \(M\) est le polynôme caractéristique de toute matrice \(N\) semblable à \(M\).

\(\bullet\)L’ensemble des valeurs propres d’un endomorphisme en dimension finie est égal à l’ensemble des zéros de son polynôme caractéristique.

\(\bullet\)Le polynôme caractéristique de \(M\) est égal au polynôme caractéristique de \(^tM\).

\(\bullet\)\(E\) \(\mathbb{K}\)-espace vectoriel de dimension finie, \(F\) sous-espace vectoriel de \(E\), \(f\) endomorphisme de \(E\), \(F\) stable par \(f\), alors \(\chi_{f_{|F}} | \chi_f\)

\(\bullet\)Dans un \(\mathbb{C}\)-espace vectoriel de dimension finie \(\geq 1\), tout endomorphisme admet au moins une valeur propre.

\(\bullet\)Le polynôme caractéristique d’une matrice \(M\) de type \((2,2)\) est \(X \mapsto X^2-tr\ M.X+det\ M\)

\(\bullet\)Le polynôme caractéristique d’une matrice \(M\) de type \((3,3)\) est \(X \mapsto X^3-tr\ M.X^2-tr\ com(M).X -det\ M\)

\(\bullet\)Le polynôme caractéristique d’une matrice \(M\) triangulaire de type \((n,n)\) est \(\prod_{i=1}^n (X-M_{i,i})\)
(ordre).
On appelle ordre d’une valeur propre d’un endomorphisme en dimension finie le degré de multiplicité de cette valeur propre comme racine du polynôme caractéristique.

On appelle sous-espace caractéristique associé à la valeur propre \({\lambda}\) de l’endomorphisme \(f\) d’un \(\mathbb{K}\)-espace vectoriel \(E\) de dimension finie le sous-espace vectoriel \(Ker\ (f-{\lambda}.I)^m\) avec \(m\) l’ordre de la valeur propre \({\lambda}\).

Un endomorphisme en dimension finie est dit diagonalisable si il existe une base dans laquelle cet endomorphisme se représente par une matrice diagonale.

Une matrice en dimension finie est dite diagonalisable si elle est semblable à une matrice diagonale, c’est-à-dire si elle représente un endomorphisme diagonalisable.

Un endomorphisme en dimension finie est dit trigonalisable si il existe une base dans laquelle cet endomorphisme se représente par une matrice triangulaire.

Une matrice en dimension finie est dite trigonalisable si elle est semblable à une matrice triangulaire, c’est-à-dire si elle représente un endomorphisme trigonalisable.
Toute matrice triangulaire supérieure est semblable à une certaine matrice triangulaire inférieure et toute matrice triangulaire inférieure est semblable à une certaine matrice triangulaire supérieure, comme on s’en convaincra simplement en changeant l’ordre des éléments d’une base; ainsi lorsqu’un endomorphisme est trigonalisable, on pourra en considérer indifféremment une représentation triangulaire supérieure ou inférieure. Notons que tout sous-espace caractéristique de \(f\), endomorphisme en dimension finie, est stable par \(f\).

Passons maintenant à quelques « gros » résultats de réduction en dimension finie.

Un endomorphisme \(f\) de \(E\) \(\mathbb{K}\)-espace vectoriel de dimension finie est diagonalisable si et seulement si l’une des conditions équivalentes suivantes est vérifiée:

\(\bullet\)\(E\) est somme directe des sous-espaces propres

\(\bullet\)il existe une base de \(E\) formée de vecteurs propres de \(f\)

\(\bullet\)\(\chi_f\) est scindé dans \(\mathbb{K}[X]\) et la dimension de tout sous-espace propre est égale à l’ordre de multiplicité de la valeur propre associée.

Les deux premiers \(\bullet\) sont rapides. Le troisième est plus délicat:
  • la condition est suffisante, car la somme des sous-espaces propres est toujours directe, et la somme des dimensions des sous-espaces propres est bien la dimension de l’espace, donc l’espace est bien somme directe des sous-espaces propres.

  • la condition est nécessaire; on le voit de manière évidente en considérant une base dans laquelle la matrice de \(f\) est diagonale.

Si \(\chi_f\) est scindé à racines simples, alors \(f\) est diagonalisable.
Si chaque valeur propre est d’ordre \(1\), forcément l’espace propre associé est de dimension \(1\); donc ce corollaire découle immédiatement du théorème précédent.

On va voir un renforcement de ce corollaire ci-dessous.

Un endomorphisme \(f\) de \(E\) \(\mathbb{K}\)-espace vectoriel de dimension finie est diagonalisable si et seulement si il existe \(P\) polynôme scindé à racines simples tel que \(P(f)=0\).

\(\bullet\)Si il existe un tel \(P\), alors \(E\) est la somme directe des \(Ker\ (f-{\lambda}.I)\) pour \({\lambda}\) dans l’ensemble des racines de \(P\) (voir le lemme des noyaux, proposition [ldn]). Donc \(f\) est diagonalisable, clairement.

\(\bullet\)Si \(f\) est diagonalisable, alors le polynôme caractéristique est scindé et la dimension de chaque espace propre est l’ordre de multiplicité de la valeur propre associée comme racine de ce polynôme (d’après le théorème précédent).

On peut alors écrire \(\chi_F=\prod (X-\mu_i)^{r_i}\) avec les \(\mu_i\) distincts deux à deux; considérons \(P=\prod_i (X-\mu_i)\). \(P\) est scindé à racines simples. Il reste à voir que \(P(f)=0\).

\(E\) est la somme directe des \(Ker\ (f-\mu_i.I)\). Soit \(x\) appartenant à \(Ker\ (f-\mu_{i_0}.I)\); on a \(f(x)=\mu_{i_0}.x\). On a \(P=Q_{i_0}.(X-\mu_{i_0})\) avec \(Q=\prod_{i\neq i_0} (X-\mu_i)\) et donc \(P(f)(x)=Q_{i_0}(f)\circ(f-\mu_{i_0}.I)(x) =Q_{i_0}(f)(f(x)-\mu_{i_0}.x)=Q_{i_0}(f)(0)=0\). Donc \(P(f)\) est nul sur des sous-espace vectoriel dont la somme est \(E\); donc \(P(f)\) est nul.

Finalement, voici la méthodologie de la diagonalisation :

\(\bullet\)On se donne \(f\), endomorphisme d’un \(\mathbb{K}\)-espace vectoriel de dimension finie \(n\).

\(\bullet\)On détermine le polynôme caractéristique de \(f\), ou du moins un polynôme annulateur.

\(\bullet\)Si \(\chi_F\) n’est pas scindé, alors on ne peut pas diagonaliser

\(\bullet\)Si \(\chi_F\) est scindé, pour chaque valeur propre \({\lambda}\), on cherche si \(E_f({\lambda})=Ker\ (f-{\lambda}.I)\) est de dimension l’ordre de \({\lambda}\)

\(\bullet\)Si oui, on obtient une base dans laquelle l’endomorphisme est diagonal en réunissant des bases des sous-espaces propres

\(\bullet\)Dans le cas contraire, l’endomorphisme n’est pas diagonalisable; on essaie alors de trigonaliser (voir plus loin).

On peut ajouter quelques remarques permettant de simplifier la détermination de la diagonalisabilité d’une matrice:

\(\bullet\)une matrice \(M\) est diagonalisable si pour tout \({\lambda}\in \mathbb{K}\), \(M+{\lambda}.I\) est diagonalisable; si \(P^{-1}.(M+{\lambda}.I).P=D\), alors \(P^{-1}.M.P=D+{\lambda}.I\)

\(\bullet\)La restriction d’un endomorphisme diagonalisable à un sous-espace stable est diagonalisable (en effet la diagonalisabilité d’un endomorphisme équivaut à l’existence d’un polynôme scindé à racines simples annulant cet endomorphisme).

(Exemples).
On peut ainsi retrouver des cas classiques :

\(\bullet\)Les projections : Soit \(f\in L(E)\) tel que \(f^2=f\). Alors \(P(f)=0\) avec \(P=X^2-X=X(X-1)\) : c’est un polynôme annulateur, donc le polynôme caractéristique est scindé à racines simples. On sait alors que \(f\) est diagonalisable ; et le spectre de \(f\) est contenu dans les zéros de \(P\), donc il existe une base dans laquelle la matrice de \(f\) est diagonale, de la forme

\(\displaystyle\left (\begin{array}{cccccc} 1 & & & & & \\ & \ddots & & & 0 & \\ & & 1 & & & \\ & & & 0 & & \\ & 0 & & & \ddots & \\ & & & & &0 \end{array}\right)\)

(avec éventuellement seulement des \(1\) ou seulement des \(0\) sur la diagonale)

\(\bullet\)Les symétries : Soit \(f\in L(E)\) tel que \(f^2=I\). Alors \(P(f)=0\) avec \(P=X^2-1=(X-1)(X+1)\) : polynôme scindé à racines simples. On sait alors que \(f\) est diagonalisable ; et le spectre de \(f\) est contenu dans les zéros de \(P\), donc il existe une base dans laquelle la matrice de \(f\) est diagonale, de la forme \(\displaystyle\left(\begin{array}{cccccc} 1 & & & & & \\ & \ddots & & & 0 & \\ & & 1 & & & \\ & & & -1 & & \\ & 0 & & & \ddots & \\ & & & & &-1 \end{array}\right)\) (avec éventuellement que des \(1\) ou que des \(-1\) sur la diagonale)

Maintenant, le théorème fondamental de la trigonalisation:

Un endomorphisme en dimension finie est trigonalisable si et seulement si son polynôme caractéristique est scindé.
Il est évident que si l’endomorphisme est trigonalisable, alors son polynôme caractéristique est scindé. La réciproque est donc le problème intéressant. Soit \(f\) un endomorphisme d’un \(\mathbb{K}\)-espace vectoriel \(E\) de dimension finie.

On procède par récurrence sur la dimension de l’espace. En dimension \(1\) le résultat est clair; on suppose maintenant le résultat vrai jusqu’en dimension \(n-1\), et on suppose \(E\) de dimension \(n\).

Le polynôme caractéristique de \(f\) étant scindé, il possède une racine, disons \({\lambda}\). Soit \(e_1\) un vecteur propre associé à \({\lambda}\), et complétons de manière à avoir \((e_1,...,e_n)\) une base de \(E\).

La matrice de \(f\) dans cette base est une matrice \((n,n)\) de la forme \[\left( \begin{array}{cccc} {\lambda}& * & \dots & * \\ 0 & M_{1,1} & \dots & M_{1,n-1} \\ \vdots & \vdots & & \vdots \\ 0 & M_{n-1,1}& \dots & M_{n-1,n-1} \end{array} \right) =\left( \begin{array}{cccc} {\lambda}& * & \dots & * \\ 0 & & & \\ \vdots & & \ \vspace{-1cm}M\ \vspace{1cm}\ & \\ 0 & & & \end{array} \right)\]

La matrice carrée \(M\) (de type \((n-1,n-1)\)) a un polynôme caractéristique scindé, comme on s’en convaincra facilement : en développant le déterminant \(det(X.I-Mat(f))\) par rapport à la première colonne (cf. Proposition [devcol]) on constate que \(\chi_f=(X-{\lambda}).\chi_M\).

Par la propriété de récurrence, \(M\) est donc trigonalisable; \(PMP^{-1}=T\), avec \(T\) matrice triangulaire supérieure.

Alors on considère le produit suivant: \[%{ \left( \begin{array}{cccc} 1 & 0 & \dots & 0 \\ 0 & & & \\ \vdots & & P & \\ 0 & & & \end{array} \right) \left( \begin{array}{cccc} {\lambda}& * & \dots & * \\ 0 & & & \\ \vdots & & M & \\ 0 & & & \\ \end{array} \right) \left( \begin{array}{cccc} 1 & 0 & \dots & 0 \\ 0 & & & \\ \vdots & & P^{-1} & \\ 0 & & & \end{array} \right) = \left( \begin{array}{cccc} {\lambda}& * & \dots & * \\ 0 & & & \\ \vdots & & T & \\ 0 & & & \newline \end{array} \right)%}\] (les \(\) représentant des scalaires quelconques)

Le résultat est ainsi établi, la matrice obtenue étant (comme \(T\)) triangulaire supérieure.
Toute matrice à coefficients complexes est trigonalisable dans \(M_n(\mathbb{C})\).
Rappelons juste le théorème de D’Alembert-Gauss: un polynôme à coefficients complexes est scindé sur \(\mathbb{C}\).

Ce dernier théorème va permettre de démontrer un théorème important, le théorème de Cayley-Hamilton:

(Cayley-Hamilton).
Soit \(f\) un endomorphisme d’un \(\mathbb{K}\)-espace vectoriel de dimension finie. Alors .
\(\bullet\)On montre tout d’abord le résultat pour le corps \(\mathbb{K}=\mathbb{C}\). Ensuite, puisque le polynôme caractéristique d’une matrice à coefficients réels est le même que l’on la considère comme matrice réelle ou complexe, et puisqu’un endomorphisme est nul si et seulement si sa matrice associée est nulle, le résultat sera aussi valable pour \(\mathbb{K}=\mathbb{R}\). De même, on peut travailler sur un corps \(\mathbb{K}\) par l’intermédiaire de sa clôture algébrique.

\(\bullet\)\(\chi_f\) est un polynôme scindé, puisque l’on travaille dans \(\mathbb{C}\); donc on peut trigonaliser \(f\).

\(\bullet\)On se donnne \((e_1,...,e_n)\) une base dans laquelle \(f\) est représenté par une matrice triangulaire supérieure.

\(\bullet\)On sait que \(\chi_f=\prod_{i=1}^n (X-\mu_i)\), avec \(\mu_j\) le \(j\)-ième terme sur la diagonale de la matrice de \(f\) dans la base \((e_1,...,e_n)\).

\(\bullet\)On note \(P_i=\prod_{j=1}^n (X-\mu_j)\).

\(\bullet\)On considère la propriété \(H_i\) définie par \(H_i\! \iff\! \forall j \in [\![1,i]\!],\ P_i(f)(e_j)=0\); on montre facilement par récurrence qu’elle est vraie pour tout \(i\) compris entre \(1\) et \(n\).

On a ainsi \(P_n(f)=\chi_f(f)\) qui s’annule en \(e_1\), ..., \(e_n\), dont on déduit que l’on a bien \(\chi_f(f)=0\).

Notons que ce théorème est en fait valable dans tout corps \(\mathbb{K}\), par la même démonstration que ci-dessus - on peut triangulariser toute matrice dans la clôture algébrique de \(\mathbb{K}\).

Si le polynôme caractéristique est scindé, la dimension d’un sous-espace caractéristique est égale à l’ordre de multiplicité de la valeur propre associée.
Pendant l’ensemble de la preuve, on note \(I_p\) la matrice identité à \(p\) lignes et \(p\) colonnes.

\(\bullet\)Notons \(f\) un endomorphisme d’un espace vectoriel \(E\) de dimension \(n\), de polynôme caractéristique scindé.

\(\bullet\)Soit \(F\) sous-espace caractéristique associé à la valeur propre \({\lambda}\) de multiplicité \(m\).

\(\bullet\)Dans une certaine base, \(f\) est représenté par une matrice triangulaire supérieure (théorème [trigo]). Soit \(M\) cette matrice: \[M=\left( \begin{array}{cc} {\lambda}.Id_m+N & P \\ 0 & Q \end{array} \right)\]\(N\) est triangulaire supérieure à diagonale nulle, \(P\) quelconque, \(Q\) triangulaire supérieure (n’admettant pas \({\lambda}\) pour valeur propre).

\(\bullet\)Une vérification immédiate révèle alors que \((f-{\lambda}Id_n)^m\) est représenté par la matrice suivante (\(N\) est nilpotente d’indice de nilpotence \(<m\)): \[\left( \begin{array}{cc} 0 & P' \newline 0 & (Q-{\lambda}.Id_{n-m})^m \end{array} \right)\]

\(\bullet\)On en déduit donc que le rang de \((f-{\lambda}Id_n)^m\) est \(n-m\) (rappelons que \({\lambda}\) n’est pas valeur propre de \(Q\)).

\(\bullet\)On a donc bien \(dim\ F=n-(n-m)=m\).

On peut alors passer au théorème suivant, fournissant une jolie représentation d’un endomorphisme trigonalisable:

Soit \(f\) un endomorphisme trigonalisable d’un \(\mathbb{K}\)-espace vectoriel \(E\) de dimension finie \(n\). Alors \(E\) est la somme directe des sous-espaces caractéristiques associés à \(f\), et (dans une certaine base) \(f\) a pour matrice \[\left(\begin{array}{ccccc} M_1 & 0 & \dots & 0 & 0 \\ 0 & M_2 & \ddots & & 0 \\ \vdots & \ddots & \ddots & \ddots & \vdots \\ 0 & & \ddots & M_{l-1} & 0 \newline[.2cm] 0 & 0 & \dots & 0 & M_l \end{array}\right)\] avec \(M_i\) une matrice triangulaire supérieure de type \((m_i,m_i)\) comportant seulement des \({\lambda}_i\) sur la diagonale et avec \(m_i\) l’ordre de \({\lambda}_i\).
Le corollaire qui suit, et la partie [cem] de calcul de l’exponentielle d’un endomorphisme donnent des applications à ce résultat.
Il suffit de considérer les espaces caractéristiques; leur somme est directe et égale à \(E\) (par le théorème de Cayley-Hamilton), ils sont stables par \(f\), on peut donc considérer les restrictions aux différents sous-espaces caractéristiques. D’où le résultat.
Si \(f\) est un endomorphisme de polynôme caractéristique scindé d’un \(\mathbb{K}\)-espace vectoriel \(E\) de dimension finie \(n\), alors \(f\) s’écrit de manière unique comme somme d’un endomorphisme diagonalisable et d’un endomorphisme nilpotent, qui commutent.
L’existence de cette écriture est facile; il suffit de considérer la matrice \(M\) donnée par le théorème précédent, et d’écrire \(M=D+N\), avec \(D\) une matrice diagonale, et \(N\) une matrice triangulaire supérieure à diagonale nulle. L’unicité sera ici admise.

Voyons maintenant la méthodologie de la trigonalisation; elle fait suite à celle de la diagonalisation, dans le cas où la diagonalisation est impossible. En fait on ne va pas simplement chercher à trigonaliser; on va essayer si possible d’obtenir une décomposition comme celle proposée dans le théorème [joliematrice].

On se donne un endomorphisme \(f\) d’un \(\mathbb{K}\)-espace vectoriel \(E\) de dimension \(n\).

\(\bullet\)On cherche si le polynôme caractéristique est scindé. S’il ne l’est pas, \(f\) n’est pas trigonalisable

\(\bullet\)On détermine les sous-espaces caractéristiques

\(\bullet\)On détermine une base de chacun de ces sous-espaces, dans laquelle la restriction de l’endomorphisme est représentée par une matrice triangulaire supérieure; cela se fait par récurrence, comme on peut le voir dans la démonstration du théorème [trigo].

\(\bullet\)On prend la réunion de ces bases, et on a une représentation comme souhaitée.

Applications de la réduction d’un endomorphisme

Application au calcul d’un polynôme d’endomorphisme

On se donne \(M\) la matrice de l’endomorphisme \(f\) d’un espace vectoriel de dimension finie \(n\) dans une base \(B\). Son polynôme caractéristique est appelé \(P\).

Par le théorème de Cayley-Hamilton

Supposons que l’on cherche \(Q(f)\), avec \(Q\) un polynôme de \(\mathbb{K}[X]\). On effectue la division euclidienne \(Q=P.A+B\). Alors \[Q(f)=P(f).A(f)+B(f)=B(f) \mbox{ car } P(f)=0\]

Il suffit donc ensuite d’avoir préalablement calculé les \(M^k\) pour \(k\in [\![0,n-1]\!]\).

Par diagonalisation

On suppose ici que \(M\) est diagonalisable. Si \(M=L.D.L^{-1}\), alors \(Q(M)=L.Q(D).L^{-1}\); si \(D\) est choisie diagonale, \(Q(D)\) est donc vite calculée. Cette méthode est efficace seulement si il s’agit de calculer de nombreuses fois des polynômes d’un même endomorphisme; lorsque l’on change d’endomorphisme à chaque fois, la diagonalisation est trop laborieuse.

Application aux suites récurrentes linéaires

On considère une suite d’éléments d’un corps \(\mathbb{K}\) de caractéristique nulle définie par récurrence par \(u_n=a_0u_{n-p}+a_1u_{n-p+1}+a_2u_{n-p+2}+...+a_{p-1}u_{n-1}\) (\(u_i\) étant donné pour \(i<n\)). On peut en fait noter \(X_n={ }^t(u_{n+p-1},u_{n+p},...,u_{n})\); alors \(X_{n+1}=MX_n\), avec \[M= \left(\begin{array}{cccccc} 0 & 1 & 0 & \dots & \dots & 0 \\ 0 & 0 & 1 & \ddots & & \vdots \\ \vdots & & \ddots & \ddots & \ddots & \vdots \\ \vdots & & & \ddots & \ddots & 0 \\ 0 & \dots & \dots & \dots & 0 & 1 \\ a_0 & a_1 & \dots & \dots & a_{p-2} & a_{p-1} \end{array}\right)\]

On suppose \(a_0\) non nul, cas auquel on peut toujours se ramener.

Une telle suite est dite suite récurrente linéaire.

Le polynôme caractéristique de \(M\) est \(P=X^p-a_0-a_1X-a_2X^2-...-a_{p-1}X^{p-1}\). Par définition, ce polynôme est dit polynôme caractéristique de la relation de récurrence linéaire.

L’espace vectoriel \(E\) des suites vérifiant la relation de récurrence donnée est le noyau de \(P(f)\), avec \(f\) l’application qui à une suite \((u_n)\) associe \((u_{n+1})\) (ceci découle immédiatement de la définition de \(P\)!).

On va faire l’hypothèse que \(P\) est scindé, ce qui dans le cas de suites réelles ou complexes est une hypothèse qui n’enlève rien à la généralité, puisqu’on peut toujours supposer la suite complexe. On peut alors appliquer le théorème de D’Alembert-Gauss [luminita] pour conclure que \(P\) est scindé.

Par le lemme des noyaux (proposition [ldn]), on constate que \(E\) est égal à la somme directe des \(Ker\ (f-{\lambda}_i I)^{\nu_i}\) avec les \({\lambda}_i\) les racines de \(P\) avec pour ordres de multiplicité les \(\nu_i\).

On va donc chercher à exprimer les solutions comme combinaisons linéaires d’éléments des \(Ker\ (f-{\lambda}_i I)^{\nu_i}\). Il convient donc de déterminer une base d’un espace de la forme \(Ker\ (f-{\lambda}I)^\nu\).

cela on considère l’opérateur \(\mathbb{D}\) de \(\mathbb{K}[X]\) dans \(\mathbb{K}[X]\) qui à \(Q\) associe \(Q \circ (X+1) -Q\). On identifie \(\mathbb{N}\) à \(\mathbb{N}.1_{\mathbb{K}}\), de manière évidente. On considère alors \(Q\) appartenant à \(\mathbb{K}[X]\), de degré \(< \nu\); on définit ensuite une suite \(u^Q\) par \((u^Q)_n={\lambda}^n Q(n)\). L’image de la suite \(u^Q\) par \(f-{\lambda}I\) est \(n\mapsto {\lambda}^{n+1} \mathbb{D}(Q)(n)\); son image par \((f-{\lambda}I)^2\) est \(n \mapsto {\lambda}^{n+2} \mathbb{D}^2(Q)(n)\), et ainsi de suite jusqu’à son image par \((f-{\lambda}I)^\nu\) qui est \(n \mapsto {\lambda}^{n+\nu} \mathbb{D}^\nu(Q)(n)\). Or on constate immédiatement que \(deg\ \mathbb{D}(Q)=deg\ Q -1\) si \(Q\) est de degré \(\geq 1\), et \(\mathbb{D}(Q)=0\) sinon, et donc vu la limite sur le degré de \(Q\), \((f-{\lambda}I)^\nu(u_n)=0\).

Donc on obtient des éléments de \(E\) en considérant des suites de la forme \(n\mapsto {\lambda}_i^n n^q\), pour \(0\leq q< \nu_i\). Il reste à voir si l’on obtient bien une base de \(E\). Si la famille est libre, alors son cardinal fait que l’on a bien une base de \(E\) (Notons que la dimension de \(E\) est \(p\) : il suffit de voir que l’application de \(E\) dans \(\mathbb{K}^p\) que à \(u\) associe \((u_0,...,u_{p-1})\) est un isomorphisme). Il suffit donc de montrer que cette famille est libre.

Il suffit donc de montrer que l’application \(Q\mapsto u^{Q}\) est linéaire et injective. La linéarité est évidente. Supposons maintenant que \(u^{Q}=0\). Alors \(Q(n)=0\) pour tout \(n>0\) (en effet \({\lambda}={\lambda}_i\) est non nul, car nous avons imposé \(a_0\) non nul; donc \(Q\) est nul.

D’où le résultat désiré. Étant donnés les premiers termes \(u_i\) pour \(i<n\), on peut reconstituer alors la suite en écrivant a priori la suite sous la forme \(\sum Q_i(n){\lambda}_i^n\) avec \(Q_i\) de degré \(<\nu_i\); les coefficients se déduisent par une résolution de système linéaire.

On remarque au passage que tout polynôme unitaire est le polynôme caractéristique d’une certaine matrice : il suffit de prendre une matrice de la forme de \(M\) donnée au début de cette partie.

Calcul d’exponentielle de matrice

On suppose donnée une matrice \(M\), de polynôme caractéristique scindé (hypothèse peu restrictive dans la mesure où l’on considère éventuellement la clôture algébrique).

On cherche à calculer l’exponentielle de \(M\), c’est-à-dire \[\sum_{i=0}^{\infty} M^n/n!\] Cette matrice est la matrice de l’exponentielle de \(f\)\(f\) admet \(M\) pour matrice (point ici admis).

\(M\) peut être trigonalisée, dans une base constituée d’une réunion de bases d’espaces caractéristiques; avec \(P\) la matrice de passage correspondante, \(N=PMP^{-1}\) est donné par la proposition [joliematrice]; une matrice diagonale par blocs, chaque bloc étant somme d’une homothétie et d’un nilpotent.

On a alors \(\exp(M)=P\ \exp(N)P^{-1}\). Le calcul de \(\exp(N)\) peut se faire par blocs. Il suffit donc d’être capable de calculer \(\exp({\lambda}\ I + Q)\), avec \(Q\) nilpotent.

Pour cela il suffit de constater que \(\exp({\lambda}\ I +Q)=e^{\lambda}\exp(Q)\) car \(I\) et \(Q\) commutent, et que \[\exp(Q)=\sum \frac1{k!} Q^k= I + Q + \frac{1}{2!} Q^2 + ... +\frac{1}{p!} Q^p,\] si \(Q^{p+1}=0\); on est ainsi ramené à une somme finie.

Remarquons que dans le cas où \(M\) est diagonalisable, le calcul de \(\exp(M)\) est plus simple. En effet, si on peut écrire (avec \(P\in GL_n(\mathbb{K})\)) \[{ M=P\left(\begin{array}{cccc} {\lambda}_1&0&\dots&0 \\ 0 & {\lambda}_2 & \ddots & \vdots\\ \vdots & \ddots & \ddots & 0\\[.2cm] 0 & \dots & 0 & {\lambda}_n \end{array}\right)P^{-1}, \hbox{ alors } exp(M)=P\left(\begin{array}{cccc} e^{{\lambda}_1}&0&\dots&0 \\ 0 & e^{{\lambda}_2} & \ddots & \vdots\\ \vdots & \ddots & \ddots & 0\\[.2cm] 0 & \dots & 0 & e^{{\lambda}_n} \end{array}\right)P^{-1}. }\]

Complément : la décomposition de Jordan

Dans le Théorème [joliematrice], chaque \(M_i\) (de type \((m_i,m_i)\)) peut s’écrire \[\widetilde{M}_i=\left(\begin{array}{ccccc} {\lambda}_i & \alpha_{i,1} & 0 & \dots & 0 \\ 0 & {\lambda}_i & \alpha_{i,2} & \ddots & \vdots \\ \vdots & \ddots & \ddots & \ddots & 0 \\ \vdots & & \ddots & \ddots & \alpha_{i,m_{i-1}} \\ 0 & \dots & \dots & 0 & {\lambda}_i \end{array}\right), \hbox{ avec }(\forall k\in[\![1,m-1]\!]),\ \alpha_{i,k}=0\hbox{ ou }1.\] Une telle matrice est désignée sous le nom de bloc de Jordan.

Cela vient du fait que dans le Corollaire [diagplusnil] et sa preuve on a \(M_i={\lambda}_iI+N\) avec \(N\) nilpotente, et du fait que toute matrice nilpotente est semblable à une matrice de la forme \[\left(\begin{array}{ccccc} 0 & \alpha_{i,1} & 0 & \dots & 0 \\ 0 & 0 & \alpha_{i,2} & \ddots & \vdots \\ \vdots & \ddots & \ddots & \ddots & 0 \\ \vdots & & \ddots & \ddots & \alpha_{i,m_{i-1}} \newline 0 & \dots & \dots & 0 & 0 \end{array}\right).\] On en déduit la

(Décomposition de Jordan).
Si \(f\) est un endomorphisme d’un espace vectoriel de dimension finie dont le polynôme caractéristique \(\chi_f\) est scindé (ce qui est automatique si \(\mathbb{K}=\mathbb{C}\) par exemple), alors il existe une base de \(E\) dans laquelle la matrice de \(f\) est de la forme \[\left( \begin{array}{cccc} \widetilde{M}_1 & 0 & \dots & 0 \\ 0 & \widetilde{M}_2& \ddots & \vdots \\ \vdots & \ddots & \ddots & 0 \\ 0 & \dots & 0 & \widetilde{M}_l \end{array}\right)\]

Il s’agit donc d’une matrice triangulaire supérieure, dont les seuls termes non nuls sont les \({\lambda}_i\) sur la diagonale, et des 0 et des 1 sur la sur-diagonale.

Notons qu’aux « changements de bloc » (passage de \({\lambda}_i\) à \({\lambda}_{i+1}\)) on a un 0 sur la sur-diagonale au dessus du premier \({\lambda}_{i+1}\), i.e. à droite du dernier \({\lambda}_i\).

Bibliographie


    Barre utilisateur

    [ID: 34] [Date de publication: 19 avril 2021 12:39] [Catégorie(s): Le cours d'agrégation ] [ Nombre commentaires: 0] [nombre d'éditeurs: 1 ] [Editeur(s): Emmanuel Vieillard-Baron ] [nombre d'auteurs: 5 ] [Auteur(s): Christophe Antonini Olivier Teytaud Pierre Borgnat Annie Chateau Edouard Lebeau ]




    Commentaires sur le cours

    Documents à télécharger

    Réduction des endomorphismes
    Télécharger Télécharger avec les commentaires

    L'article complet