Commutation et conjugaison
dans Algèbre
Bonsoir,
on définit pour toute matrice $B$ et toute matrice inversible $P \in GL_n(\C)$ les endomorphismes pour $X \in M_n(\C)$ : $$comm_B(X) = BX-XB\qquad \text{ et }\qquad conj_P(X) = PXP^{-1}.
$$ On montre que $$conj_{P^{-1}} \circ comm_A \circ conj_P(X) = comm_{P^{-1}AP}(X)$$ et que si $A$ est diagonale, la matrice élémentaire $E_{i,j}$ est vecteur propre de $comm_A$, donc $comm_A$ est diagonalisable (base de l'espace).
Maintenant je voudrais montrer que si $A$ est diagonalisable, $comm_A$ l'est aussi.
Si $A$ est diagonale, c'est bon. Sinon, il existe $P$ matrice de passage tel que $A = PDP^{-1}$ où $D$ est diagonale. Donc $comm_{P^{-1}AP}$ est diagonalisable. Or, $conj_P$ est clairement bijectif et $conj_{P}^{-1} = conj_{P^{-1}}$. Mais $$comm_A = conj_{P^{-1}}^{-1} \circ comm_{P^{-1}AP} \circ conj_{P^{-1}} = conj_P \circ comm_{P^{-1}AP} \circ conj_{P^{-1}} =conj_P \circ comm_{D} \circ conj_{P^{-1}}$$ $comm_D$ est diagonalisable, mais je ne sais pas comment cela permet de dire que $comm_A$ est diagonalisable car ses valeurs propres forment une base de l'espace.
Auriez-vous une idée ? La base formée des vecteurs propres est encore une base de vecteurs propres par composition d'isomorphismes ?
on définit pour toute matrice $B$ et toute matrice inversible $P \in GL_n(\C)$ les endomorphismes pour $X \in M_n(\C)$ : $$comm_B(X) = BX-XB\qquad \text{ et }\qquad conj_P(X) = PXP^{-1}.
$$ On montre que $$conj_{P^{-1}} \circ comm_A \circ conj_P(X) = comm_{P^{-1}AP}(X)$$ et que si $A$ est diagonale, la matrice élémentaire $E_{i,j}$ est vecteur propre de $comm_A$, donc $comm_A$ est diagonalisable (base de l'espace).
Maintenant je voudrais montrer que si $A$ est diagonalisable, $comm_A$ l'est aussi.
Si $A$ est diagonale, c'est bon. Sinon, il existe $P$ matrice de passage tel que $A = PDP^{-1}$ où $D$ est diagonale. Donc $comm_{P^{-1}AP}$ est diagonalisable. Or, $conj_P$ est clairement bijectif et $conj_{P}^{-1} = conj_{P^{-1}}$. Mais $$comm_A = conj_{P^{-1}}^{-1} \circ comm_{P^{-1}AP} \circ conj_{P^{-1}} = conj_P \circ comm_{P^{-1}AP} \circ conj_{P^{-1}} =conj_P \circ comm_{D} \circ conj_{P^{-1}}$$ $comm_D$ est diagonalisable, mais je ne sais pas comment cela permet de dire que $comm_A$ est diagonalisable car ses valeurs propres forment une base de l'espace.
Auriez-vous une idée ? La base formée des vecteurs propres est encore une base de vecteurs propres par composition d'isomorphismes ?
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
1. Montrons que $g \circ d$ est diagonalisable si $d$ est diagonalisable et $g$ bijectif.
Il existe une base $B$ de l'espace formée des vecteurs propres de $d$. Montrons que $g(B)$ est formées des valeurs propres de $g\circ d$. $g(B) = (g(e_1), \dots, g(e_n))$ et $d(e_i) = \lambda_i e_i$ donc $g \circ d(e_i) = g \circ(\lambda_i e_i) = \lambda_i g(e_i)$ donc $g(B)$ est bien formée des vecteurs propres de $g \circ d$. Or $g(B)$ est une base car $g$ est bijectif, donc $g \circ d$ est bien diagonalisable.
2. Montrons que $d \circ g$ est diagonalisable si $d$ est diagonalisable et $g$ bijectif.
$A \in M_n(C) $ est diagonalisable ssi $ \ker(Comm_{A}) = \ker\big((Comm_A)^2\big)$
On retrouve le critère de Klares sous forme d’exercice dans le livre réduction des endomorphismes par Rached Mneimné.
Bernard Klares étais un colleur déjà discuté ici
La version donnée en colle semble-t-il était $u$ diagonalisable ssi $ ad_u$ et son carré ont même rang.
Contre-exemple : je prends un endomorphisme diagonalisable. Comme je ne connais pas leur tête, je prend une matrice diagonale direct. Dans $R^2$… Soit B la base canonique.
$A = mat_B(f) = \begin{pmatrix} 1&0\\0&2 \end{pmatrix}$ Matrice diagonale, on a ses valeurs propres : 1 et 2.
On va déterminer ses vecteurs propres.
La base doit être formée des vecteurs propres mais elle ne doit pas contenir tous les vecteurs propres, si ? Je vais prendre un vecteur qui engendre les sous-espaces propres de 1 et 2.
$X = \begin{pmatrix} x \\ y \end{pmatrix}$ est un vecteur propre associé à 1 si $AX = X$ donc x= x et 2y = y donc $e_1 = \begin{pmatrix} 1 \\ 0 \end{pmatrix}$ convient pour engendrer le sous-espace propre de 1.
De même, $e_2 = \begin{pmatrix} 0 \\ 1 \end{pmatrix}$ convient.
$B = (e_1, e_2)$ est une base formée de vecteurs propres de $A$.
Maintenant on prend un endomorphisme bijectif $g$ de $R^2$ sur $R^2$ :
J’en choisi une qui est injective, donc bijective en dimension finie. Donc je vérifie simplement que son noyau est réduit à 0. $g(x,y) \mapsto (5x + 4y, x+2y)$
Alors $g(x,y) = (0,0)$ lorsque $5x+4y = 0$ et $x+2y =0$, donc $5x+4y = 0$ et $2x+4y=0$, donc $3x = 0$ donc $x=0$. Ainsi $y=0$. Cette application est bien injective.
$g(B) = (g(e_1), g(e_2)) = ((5,1), (4,2)).$
Soit $G$ la matrice de $g$ : $G = \begin{pmatrix} 5&4 \\ 1&2 \end{pmatrix}$. $AG = \begin{pmatrix} 5&4\\2&4 \end{pmatrix}$.
Les vecteurs de la base $g(B)$ sont-ils vecteurs propre de $AG$ ?
Les valeurs propres de $AG$ sont $\frac{-\sqrt{33}+9}{2}$ et $\frac{\sqrt{33}+9}{2}$, donc l'espace propre associé à la première valeur propre est par exemple engendré par $e_1 = \begin{pmatrix} \frac{-\sqrt{33}+1}{4} \\ 1 \end{pmatrix}$ et pour la deuxième : $e_2 = \begin{pmatrix} \frac{\sqrt{33}+1}{4} \\ 1 \end{pmatrix}$. Ceci n'est pas un multiple d'un des vecteurs de $g(B)$ de $AG$. Donc les vecteurs de $g(B)$ ne sont pas des vecteurs propres de $AG$.
Essaye plutôt de trouver une matrice G inversible telle que AG ne soit pas diagonalisable.
Je pose $G = \begin{pmatrix} a & b \\ c&d \end{pmatrix}$.
$ AG = \begin{pmatrix} a & b \\ 2c & 2 d \end{pmatrix}$.
On prend $a=0$, $b=-1$, $d=0$ et $c=1/2$. Alors sur $R$, le polynôme caractéristique n’est même pas scindé donc il n’est pas scindé racines simples donc $AG$ n’est pas diagonalisable. Voyons si $g$ est bijectif.
$g : (x,y) \mapsto (-y, 1/2 y)$ donc c’est injectif donc bijectif en dimension finie.
Ça c’est pour $\R$ mais sur $\C$… On va prendre $a$, $b$, $c$ et $d$ de sorte qu’on ait un polynôme caractéristique scindé mais pas à racines simples sur $\C$.
$\det(XI_2 - AG) = \begin{vmatrix} X - a & - b \\ -c & X-d \end{vmatrix} = (X-a)(X-d) - bc$. On prend $b = 0$, $a=d = 1$ et $c=2021$.
Je l’ai utilisé mais je ne me souviens plus si le polynôme caractéristique scindé racines simples est bien une condition nécessaire sur la diagonalisabilité d’une matrice.
Par exemple, regarde le cas de $\begin{pmatrix} 1&1 \\ 0&1 \end{pmatrix}$.
-- Schnoebelen, Philippe
Par contre si elle n’est que suffisante mais pas nécessaire, ça ne marche plus.
Suffisante : si le polynôme caractéristique est scindé racines simples, la matrice est diagonalisable.
Nécessaire : si la matrice est diagonalisable, alors le polynôme caractéristique est scindé racines simples.
Je regarde pour la matrice, merci.
$g$ est bijectif car son noyau est réduit à 0 en dimension finie.
Alors $AG = \begin{pmatrix} 1 & 1 \\ 0 & 2 \end{pmatrix}$.
Cette fois-ci une condition nécessaire et suffisante pour que $AG$ soit diagonalisable est que des vecteurs propres de $AG$ forment une base de l’espace.
Le polynôme caractéristique de $AG$ est $\chi_{AG} = \det(XI_2 - AG) = (X-1)(X-2)$. Les valeurs propres sont donc 1 et 2.
Soit $X = \begin{pmatrix} x \\ y \end{pmatrix}$.
$(AG)X = X$ lorsque $x + y = x$ et $y=y$ donc $e_1 = \begin{pmatrix} 1 \\ 0 \end{pmatrix}$ engendre le sous-espace propre associé à 1.
$(AG)X = 2X$ lorsque $x+y = 2x$ et $2y = 2y$ donc $2x + 2y = 4x$ et $2y = 2y$ donc
$e_2 = \begin{pmatrix} 1,1 \end{pmatrix}$ convient.
$(e_1, e_2)$ est libre.
Bon donc on retombe sur une matrice diagonalisable... Le contre-exemple n'est pas bon si on a des valeurs propres distinctes.
Je devais prendre $AG = \begin{pmatrix} 1&1\\0&1 \end{pmatrix}$ avec alors $G = \begin{pmatrix} 1 & 1 \\ 0 & \frac{1}{2} \end{pmatrix}$.