Matrices semblables

Bonjour,

Démontrer que si deux matrices réelles sont semblables dans $\mathcal M_n(\C)$ alors elles le sont dans $\mathcal M_n(\R)$.

Soient $A$ et $B$ deux matrices semblables dans $\mathcal M_n(\C)$. Alors il existe $P \in GL_n(\C)$ tel que $A=P B P^{-1}$

Après je bloque.

Réponses

  • Bonjour,
    c'est plutôt : "Je bloque tout court", vu qu'il n'y a rien avant.

  • Étape suivante : Ta relation se réécrit $AP=PB$. Écris alors $P=P_1+iP_2$ avec $P_1$ et $P_2$ réelles.
  • Cet exercice n'est pas vraiment facile à mes humbles yeux.

    Utilise l'indication de Guego et après avoir trafiqué un peu, pense à utiliser le déterminant.
  • D'accord merci.

    Je trouve $AP_1+i AP_2 = P_1 B+i P_2 B$ donc $\boxed{AP_1= P_1 B}$ et $\boxed{AP_2 = P_2 B}$

    Ici je bloque de nouveau. Je ne vois pas comment utiliser le déterminant.

    On cherche $P'$ réelle telle que $A P' = P' B$
  • Oui, la prochaine étape nécessite de l'intuition. Essaye de montrer qu'il existe $t \in \mathbb R$ tel $P_1+tP_2$ est inversible.
  • D'accord merci. L'idée que tu as donnée permet de terminer l'exercice rapidement, mais pas évident à la trouver tout seul.

    Montrons qu'il existe $t \in \R$ tel que $\det(P_1 + tP_2) \ne 0$

    On a $\det(P_1 + tP_2)$ qui est un polynôme en $t$. Notons-le $Q(t)$. Cela provient de la formule $\det(A)= \displaystyle\sum_{\sigma \in S_n} \varepsilon(\sigma) \displaystyle\prod_{k=1}^n a_{\sigma(i)i}$

    Si $\forall t \in \R \ Q(t)=0$ alors $Q = 0$ et ainsi $Q(i)=0$ ce qui est absurde car $Q(i)=P_1+ i P_2$ et par hypothèse $P_1 +i P_2$ est inversible.

    Ainsi, il existe $t \in \R$ tel que $\det(P_1 + tP_2) \ne 0$

    Donc $P_1 + t P_2= P' \in GL_n(\R)$.

    Par ailleurs, $A(P_1+ t P_2)=AP_1 + t AP_2$ et $(P_1+tP_2)B=P_1 B + t P_2 B$

    Ainsi $AP'=P'B$ ce qui montre que $A$ et $B$ sont semblables dans $M_n(\R)$.
  • C’est le genre d’exercice archiclassique que 99 % des gens ne parviendront pas à résoudre, faute de connaître « l’astuce » (même si là on pourrait presque l’appeler une méthode). Je me demande donc pourquoi on appelle ça un exercice et non du cours.

  • Je suis d'accord avec toi, mais si chaque cours devait contenir les grandes "astuces", on n'est pas sorti de l'auberge !
  • Oshine, es-tu certain de ton énoncé ?
    Je pense que tu as oublié l'hypothèse essentielle disant que $A$ et $B$ sont des matrices réelles !
  • Et deux matrices à coefficients rationnels semblables sur $\R$ sont-elles semblables sur $\Q$ ?
  • @Bisam
    Bien vu ! Je rectifie.
  • @OS : Cherche mon exo, il faut utiliser d'autres ingrédients parce que $\R$ n'est pas une extension finie de $\Q$.
  • Avec mes connaissances de L1 L2 ?

    Je n'ai jamais entendu parler d'extension finie.
  • Les coefficients de $P$ vivent dans un espace de dimension finie sur $\Q$, cela dit.
  • OShine, peut-être que ça te ferait du bien d'oser dépasser le niveau L1-L2. Il y a des choses intéressantes à apprendre, si tu as la curiosité pour. Je vais essayer de t'y inciter un peu, à toi de voir si tu veux t'intéresser à ça ou non (j'incite les autres lecteurs potentiels du fil qui ont un niveau L2/L3 en algèbre à lire également).

    Normalement, tu devrais savoir que $\C$ est à la fois un corps qui contient $\R$, et un $\R$-espace vectoriel isomorphe à $\R^2$ : $\C = \R + i \R$.

    Dans le langage de la théorie des corps (enfin, des extensions de corps*, qui amorce la théorie de Galois), on dit que $\C$ est une extension de degré $2$ de $\R$, parce que la dimension de $\C$ en tant qu'espace vectoriel sur $\R$ est $2$... ça ne veut rien dire de plus compliqué que ça.

    Si tu n'as jamais vu une construction de $\R$ à partir de $\Q$, tu devrais chercher ça au moins une fois. On peut démontrer que la dimension de $\R$ en tant que $\Q$-espace vectoriel ne peut pas être finie, contrairement à celle de $\C$ en tant que $\R$-espace vectoriel. Il faisait référence à ça parce que les techniques qu'on utilise pour montrer que des matrices réelles semblables sur $\C$ le sont encore sur $\R$ ne fonctionnent pas si on essaie de vérifier si deux matrices rationnelles semblables sur $\R$ le sont encore sur $\Q$.

    *Exercice : montrer que tout morphisme de corps est injectif. Ce que ça signifie, c'est qu'en présence d'un morphisme de corps, le corps d'arrivée contient une "copie" du corps de départ : autrement dit, le corps d'arrivée "étend" le corps de départ, d'où la notion d'extension de corps. Ce qui est "magique", c'est qu'il ne faut pas beaucoup plus de connaissances pour voir que dans la même situation, le corps d'arrivée se munit naturellement d'une structure d'espace vectoriel sur le corps de départ : et donc on peut étudier les extensions de corps avec l'algèbre linéaire !

    On pourrait aller encore plus loin (caractéristique d'un corps, corps premier, corps finis...) mais je m'arrête là pour l'instant.
  • Pour dire autrement, ce qui fait que ça marche c'est que tu peux écrire $P = P_{1} + i P_{2}$.
  • gai requin écrivait : http://www.les-mathematiques.net/phorum/read.php?3,2312636,2312710#msg-2312710
    [Inutile de recopier un message présent sur le forum. Un lien suffit. AD]
    On peut changer d'argument en utilisant la densité de $\Q$ dans $\R$. On suppose que $A$ et $B$ à coefficients rationnels sont conjuguées dans ${\rm GL}(n,\R )$. On introduit le sous-espace $V_\R =\{ M\in {\rm M}_n (\R )\mid MA=BM\}$ qui contient le sous-ensemble dense $V_\Q = \{ M\in {\rm M}_n (\Q )\mid MA=BM\}$. Il y a un élément de $V_\Q$ en lequel le déterminant ne s'annule pas. Le déterminant qui est continue ne s'annule pas sur un voisinage de cet élément, voisinage qui contient un élément de $V_\Q$ par densité.
  • On peut aussi remplacer l'extension $\C /\R$ par une extension finie séparable de corps $L/K$. Quitte à grandir un peu $K$, on peut supposer que l'extension $L/K$ est galoisienne finie. Je note $G={\rm Gal}(L/K)$. Soit $M\in {\rm GL}(n,L)$ telle que $B=MAM^{-1}$, alors pour tout $s\in G$, on a $B=s(M)As(M)^{-1}$. Donc $s\mapsto M^{-1} s(M)$ est un $1$-cocycle de $G$ dans le centralisateur $Z_A$ de $A$ dans ${\rm GL}(n,L)$. Soit ${\mathcal A}$ la $K$-algèbre centralisatrice de $A$ dans ${\rm M}(n,K)$. Alors on a
    $$
    Z_A =({\mathcal A}\otimes_K L)^\times,

    $$ où ${\mathcal B}^\times$ désigne l'ensemble des éléments inversibles d'un anneau unitaire $\mathcal B$. C'est un résultat de base de cohomologie galoisienne, version non abélienne de Hilbert 90 (cf. Serre, Cohomologie Galoisienne), que pour une telle $K$-algèbre $\mathcal A$, on a
    $$
    H^1 ({\rm Gal}(L/K) , ({\mathcal A}\otimes_K L)^\times )=1.

    $$ Notre cocycle est donc un cobord : il existe $N$ dans $Z_A$ tel que $M^{-1}s(M)=N^{-1}s(N)$ pour tout $s\in G$. Cela signifie que $MN^{-1}$ vit dans ${\rm GL}(n,K)$. Mais cet élément continue de conjuguer $A$ en $B$. CQFD.

    On peut aussi raisonner sur les invariants de similitudes de $A$ et $B$. Ce qui est plus rapide, à condition de disposer de cette théorie. Là on n'a plus besoin de supposer $L/K$ séparable.
  • Merci Paul.
    Effectivement, la densité de $V_{\Q}$ dans $V_{\R}$ suffit.
    Mais cette densité est-elle si évidente ?
  • Peut être en remarquant que $V_\R$ a un base formée d'éléments de $V_\Q$ ?
  • Question annexe : que se passe-t-il si l'on remplace $\rm GL$ par $\rm SL$ ?
  • @HT : Il va te répondre : "Je n'ai pas encore étudié les corps, je ne peux pas comprendre ton message", sans même l'avoir lu.
  • Bonjour Paul,

    $\begin{pmatrix}0&1\\0&0\end{pmatrix}$ et $\begin{pmatrix}1/2&1/2\\-1/2&-1/2\end{pmatrix}$ sont conjuguées dans $\mathrm{SL}(2,\R)$ mais pas dans $\mathrm{SL}(2,\Q)$
  • Montrer que deux matrices réelles qui sont unitairement semblables (sur $\C$) sont orthogonalement semblables (sur $\R$).
  • Guego, Gai Requin :

    Montrer que deux matrices de ${\rm SL}_n (\R )$ sont conjuguées dans ${\rm SL}_n (\C )$ si, et seulement si, elles sont conjuguées dans ${\rm GL}_n (\R )$.
  • Paul, on peut même remplacer $\mathrm{SL}_n(\R)$ par $M_n(\R)$.

    Soit donc $A,B\in M_n(\R)$.
    Si $P\in\mathrm{GL}_n(\R)$, alors, pour toute racine $n$-ième $\alpha$ de $\det P$ dans $\C$, $\dfrac 1{\alpha}P\in\mathrm{SL}_n(\C)$.
    Donc, si $A=PBP^{-1}$, on a $A=\left(\dfrac 1{\alpha}P\right)B\left(\dfrac 1{\alpha}P\right)^{-1}$, i.e. $A$ et $B$ sont conjuguées dans $\mathrm{SL}_n(\C)$.
    Réciproquement, on a déjà vu que si $A$ et $B$ sont semblables sur $\C$, elles le sont aussi sur $\R$.
  • Gai Requin : (tu)
  • C'est devenu trop compliqué pour moi. J'ai lâché l'affaire.
  • Poirot : match nul :-D
  • Dans un cours de Grégory Berhuy:
    \begin{equation}
    A=\begin{pmatrix}
    0 & -2 \\
    1 & 0
    \end{pmatrix}, \: \: \: \: B=\begin{pmatrix} 0 & 2 \\
    -1 & 0 \end{pmatrix}
    \end{equation}
    $A$ et $B$ sont conjuguées dans $SL_2(\mathbb{C})$ mais pas dans $SL_2(\mathbb{R})$ (i.e. il n’y a pas, dans $SL_2(\mathbb{R})$, de matrice $M$ vérifiant $MAM^{-1}=B$).
  • Je veux dire à la décharge d’OShine que la cohomologie galoisienne n’est pas encore au programme de MP.
  • On s'en fout, le message de HT ne demande aucune connaissance préalable qu'il n'a pas. Ne commençons pas à défendre sa mauvaise foi de gros fainéant intellectuel.
  • Je trouve que le message de Paul Broussous est fort intéressant (tout comme les réactions qu'il a initiées), mais ce fil n'était peut-être pas le bon endroit pour mettre ce message. Je ne sais pas si Paul Broussous suit les fils de OShine de près, ni s'il a lu ce fil-ci en détail avant de participer. On ne peut pas exiger que chaque intervenant du forum connaisse le "cas OShine" et en prenne compte mais il aurait été mieux pour tout le monde qu'il ouvre un autre fil pour raconter ce qu'il a raconté.

    Mais c'est vrai que j'aimerais au moins que OShine lise mon message précédent. Pour savoir qui de Poirot ou moi gagne le point (:D
  • Merci Guego pour cet exercice taupinal par excellence !

    Soit $A,B\in M_n(\R)$ telles qu'il existe $U$ unitaire telle que $UA=BU$.
    On a aussi $UA^*=B^*U$ donc il existe $P\in\mathrm{GL}_n(\R)$ telle que $PA=BP$ et $PA^\top=B^\top P$ (déjà vu dans ce fil).
    D'où $B=PAP^{-1}=(P^\top)^{-1}AP^\top$ donc $A(P^\top P)=(P^\top P)A$.
    Or, $P^\top P$ est symétrique définie positive donc il existe $S$ symétrique définie positive telle que $P^\top P=S^2$.
    Soit $\lambda_1>0,\ldots,\lambda_r>0$ les valeurs propres réelles deux à deux distinctes de $S$.
    Par interpolation de Lagrange, il existe $Q\in\R[X]$ tel que, pour tout $1\leq i\leq r$, $Q(\lambda_i^2)=\lambda_i$.
    En se ramenant à $S$ diagonale, il vient facilement que $Q(S^2)=S$.
    Mais $AS^2=S^2A$ par construction donc $AS=AQ(S^2)=Q(S^2)A=SA$.
    Soit enfin $O=PS^{-1}$.
    On a $O^\top O=(S^\top)^{-1}P^\top PS^{-1}=S^{-1}S^2S^{-1}=I$ donc $O$ est orthogonale.
    Remarque : $P=OS$ est la décomposition polaire de $P$.
    Finalement, $B=PAP^{-1}=OSAS^{-1}O^{-1}=OASS^{-1}O^{-1}=OAO^{-1}$ donc $A$ et $B$ sont orthogonalement semblables.
  • gai requin écrivait : http://www.les-mathematiques.net/phorum/read.php?3,2312636,2313378#msg-2313378
    > donc il existe $P\in\mathrm{GL}_n(\R)$ telle que $PA=BP$ et $PA^\top=B^\top P$ (déjà vu dans ce fil).

    Quelque chose m'échappe. Je n'ai pas compris pourquoi on peut simultanément conjuguer $A$ en $B$ et $A^\top$ en $B^\top$.
  • Je détaille.
    On a $A^*U^*=U^*B^*$ donc $UA^*U^*U=UA^*=UU^*B^*U=B^*U$.
    Soit $P_1,P_2$ réelles telles que $U=P_1+iP_2$.
    On a donc, pour tout $i$, $P_iA=BP_i$ et $P_iA^*=B^*P_i$.
    Soit alors $x$ réel tel que $P=P_1+xP_2$ soit inversible.
    On a $PA=BP$ et $PA^*=PA^\top=B^*P=B^\top P$.
Connectez-vous ou Inscrivez-vous pour répondre.