Université de Poitiers, M2 MFA Prépa agrég — Les-mathematiques.net The most powerful custom community solution in the world

Université de Poitiers, M2 MFA Prépa agrég

Ce fil s'adresse aux étudiants de M2 MFA de l'université de Poitiers ainsi qu'aux agrégatifs de la préparation au concours de Poitiers.

Je propose ici même des exercices en lien avec les leçons d'oral d'algèbre que l'on demandé aux étudiants de préparer chez eux (confinement oblige).

Pour chaque exercice, les étudiants sont invités à prendre un temps de recherche sans regarder de solutions. Ils peuvent proposer des solutions (en Latex ou par fichier joint) et/ou demander des indications. Des solutions mêmes incomplètes sont les bienvenues. De mon côté, je lirai les rédactions, répondrai aux questions et donnerai des compléments et indications.

Je vais constituer progressivement une liste d'exercices dans le post suivant. Vous pouvez proposez vos propres énoncés.

Bon courage.

Réponses

  • Il y avait une erreur dans la question 4 (a) !

    N.B. Ce post sera régulièrement mis à jour.

    Exercices sur le thème du déterminant.

    Exercice 1. Soient $n\geqslant 1$ un entier et $K$ un corps. Pour tout homomorphisme de groupes $\chi$ : $K^\times \longrightarrow \C\times$, on peut définir un homomorphisme de groupes $f$ : ${\rm GL}(n,K) \longrightarrow \C^\times$, par $f(g)=\chi ({\rm det }(g))$, $g\in {\rm GL}(n,K)$. Un homomorphisme de groupes ${\rm GL}(n,K) \longrightarrow \C^\times$, est-il toujours de cette forme ?

    Exercice 2. Montrer que l'application déterminant ${\rm M}(n,\C )\longrightarrow \C$ est l'unique application continue $\delta$ : ${\rm M}(n,\C )\longrightarrow \C$ vérifiant :

    (a) $\delta (AB) = \delta (A)\, \delta (B)$, pour tous $A,B\in {\rm M}(n,\C )$,
    (b) $\delta (zI_n)=z^n$, pour tout $z\in \C$.

    Exercice 3. On note $E=\R^n$ muni de sa structure euclidienne canonique. On considère l'application multilinéaire alternée $f$ : $E^n \longrightarrow \R$ donnée par $(v_1 ,...,v_n )\mapsto {\rm det}_{{\mathcal B}_c} (v_1 ,...,v_n )$, où ${\mathcal B}_c$ désigne la base canonique de $E$.

    Montrer que pour tous $v_1$, $v_2$, ..., $v_n\in E\backslash \{ 0\}$, on a
    $$
    \vert f(v_1 ,...,v_n ) \vert \leqslant \Vert v_1 \Vert \cdots \Vert v_n\Vert
    $$
    avec égalité si, et seulement si, la famille $(v_1 ,...,v_n )$ est orthogonale.

    On pourra maximiser la fonction $f$ sur $S^1 \times S^1 \times \cdots \times S^1$, où $S^1$ désigne la sphère unité de $E$.

    Exercice 4. Soient $X$, $Y\in \Z^n$.

    (a) Soit $M\in {\rm M}(n,\Z)$. Montrer que $M\in {\rm GL}(n,\Z )$ si, et seulement si, ${\rm det}(M)=\pm 1$.

    (b) Montrer que $X$ est la première colonne d'une matrice de ${\rm GL}(n,\Z )$ si, et seulement si, ${\rm pgcd}(X)=1$.

    Indication. Pour montrer qu'un vecteur $X$ de pgcd $1$ est la première colonne d'une matrice inversible $M$, on pourra procéder par récurrence sur $n$. Deux ingrédients :
    $\bullet$ Rechercher $M$ sous la forme
    $$ M= \left(\begin{array}{ccc} x_1 & & t_1 \\
    \vdots & M & \vdots\\
    x_{n-1} & & t_{n-1}\\
    x_n & o_{n-2} & s
    \end{array}\right)\ .
    $$
    où $M$ est une matrice à coefficients entiers de taille $n-1\times n-2$, $t_1$,$t_2$,...,$t_{n-1}$, $s$ sont des entiers.
    $\bullet$ Et bien sûr utiliser Bézout !



    (c) Montrer qu'il existe $M\in {\rm GL}(n,\Z )$ telle que $Y=MX$ si, et seulement si, ${\rm pgcd}(X)={\rm pgcd}(Y)$.
  • Exercice 2. Soit $\delta$ : ${\rm M}(n,\C )\longrightarrow \C$ une application continue vérifiant $(a)$ et $(b)$.

    1)Montrons que $\delta$ restreint à ${\rm GL}(n,\C )$ est l'application $\det$.

    D'après $(a)$, $\delta$ : ${\rm GL}(n,\C ) \longrightarrow \C^*$ est un morphisme de groupe.

    Donc, d'après l'exercice 1, $\delta$ est de la forme $\chi \circ \det$ avec $\chi : \C^* \longrightarrow \C^*$ un morphisme de groupe.

    Soit $z \in \C^*$, on a $\delta (zI_n) =z^n$ d'après $(b)$.
    Donc $z^n = \chi ( \det (zI_n)) = \chi (z^n) = \chi (z) ^n $
    Donc $\chi (z) = \zeta z$ où $\zeta$ est une racine $n$-ième de l'unité. Or, $\chi (1) = 1$ donc $\zeta = 1$ et $\chi = id$.

    On a bien $\delta = \det$ sur ${\rm GL}(n,\C )$.

    2)Montrons que $\delta = \det$ sur ${\rm M}(n,\C )$.

    Soit $A \in {\rm M}(n,\C )$. Or, ${\rm GL}(n,\C )$ est dense dans ${\rm M}(n,\C )$ donc il existe une suite $(A_n)_{n \in \N}$ dans ${\rm GL}(n,\C )$ telle que $\lim A_n = A$

    On a $\lim \delta (A_n) = \delta (A)$ par continuité de $\delta$
    On a $\lim \det (A_n) = \det (A)$ par continuité de $\det$

    Or, $\delta (A_n) = \det (A_n)$ pour tout $n \in \N$. On a donc bien $\delta (A) = \det (A)$ par unicité de la limite.
  • @CédricF.

    L'idée est très bonne. Il y a cependant deux points à revoir.

    > Donc, d'après l'exercice 1, $\delta$ est de la
    > forme $\chi \circ \det$ avec $\chi : \C^*
    > \longrightarrow \C^*$ un morphisme de groupe.

    Attention que la réponse à l'exercice 1 n'est pas toujours positive. Mais dans le cas de ${\rm GL}(n,\C )$, ça marche en effet.


    > Donc $\chi (z) = \zeta z$ où $\zeta$ est une
    > racine $n$-ième de l'unité. Or, $\chi (1) = 1$
    > donc $\zeta = 1$ et $\chi = id$.

    Il faut revoir ce raisonnement car $\zeta$ dépend de $z$. Il faudrait le noter $\zeta_z$.
    Indication : montrer que l'application $\C^\times \longrightarrow \C^\times$, $z\mapsto \zeta_z$ est continue.
  • Exercices sur le thème des matrices trigonalisables et nilpotentes.

    Exercice 1. Soient $E$ un $K$-espace vectoriel de dimension finie et $u\in {\mathcal L}(E)$. On suppose :

    (a) $u$ est semisimple, en d'autres termes tout sous-espace vectoriel de $E$ stable par $u$ admet un supplémentaire stable par $u$.
    (b) $u$ est nilpotent.

    Que peut-on dire de $u$ ?

    Exercice 2. Soient $A$, $B\in {\rm M}(n,K)$ vérifiant $AB-BA=B$. Montrer que $B$ est nilpotente. On pourra déterminer $AB^k -B^k A$, pour tout entier $k\in \N$.

    Exercice 3. Soit $N\in {\rm M}(n,\C )$ une matrice nilpotente. Montrer qu'il existe une matrice nilpotente $M$ telle que $\exp (M)=I_n +N$.

    Exercice 4. Sur $E={\rm M}(n,\R )$, on définit une forme bilinéaire symétrique par $\varphi (M,N)={\rm Tr}(MN)$, $M$, $N\in E$.

    (a) Déterminer la signature de la forme quadratique $q$ associée à $\varphi$. Quelle est la dimension d'un sous-espace totalement isotrope maximal de $E$ pour pour la forme $q$ ?
    (b) Déterminer la dimension maximale d'un sous-espace de $E$ formé de matrices nilpotentes.

    Exercice 5. Dans le groupe $G={\rm GL}(n,\R )$, on considère le sous-groupe $K=O(n)$ formée des matrices orthogonales et le sous-groupe $B$ formée des matrices triangulaires supérieures. Montrer qu'on a la décomposition $G=KB=BK$ (décomposition d'Iwasawa).
  • > Indication : montrer que l'application
    > $\C^\times \longrightarrow \C^\times$, $z\mapsto
    > \zeta_z$ est continue.

    Montrons que $ \zeta : z \mapsto \zeta_z $ est continue.

    Soit $z \in \C^*$ et $(z_n)_{n \in \N}$ une suite dans $\C^*$ convergente vers $z$.
    On note $A_z$ la matrice de dilatation $I_n + (z-1)E_{n,n} $

    On a $\lim A_{z_n} = A_z $
    Donc $\lim \delta (A_{z_n}) = \delta (A_z) $ par continuité de $\delta $
    $\lim \chi (\det A_{z_n}) = \chi (\det A_z) $
    $\lim \chi (z_n) = \chi (z) $
    $\lim \zeta_{z_n}z_n = \zeta_z z $
    $\lim \zeta_{z_n}z_n / (\zeta_z z) = 1 $
    $\lim \zeta_{z_n}/ \zeta_z = 1 $

    On a bien $\zeta $ continue.

    De plus, $\zeta$ est à valeurs dans $\mu_n$ (ensemble des racines $n$-ièmes de l'unité) dont les composantes connexes sont ses $n$ singletons. Or, $\C^*$ est connexe, donc $\zeta (\C^*)$ est connexe par continuité de $\zeta$ donc $\zeta$ est constante.

    Donc, $\chi (1) = 1$ implique $\zeta_1 = 1$.
    Donc, $\zeta_z = 1$ pour tout $z \in \C^* $.
  • @CédricF. C'est parfait.

    Pause dominicale. Reprise des commentaires lundi matin.
    Bon courage.
  • Réponse aux questions sur le plan :

    Question 1 Décrire les endomorphismes nilpotents qui sont cycliques et leurs sous-espaces vectoriels stables.

    Soit $f \in L(E)$ avec $\dim E = n$ de polynôme minimal $\mu_f$. Montrons que $f$ est cyclique si et seulement si $\deg \mu_f = n$.

    On a :
    $f$ est cyclique $\Leftrightarrow$ $\exists x \in E$ tq la famille $(f^0(x),\ldots ,f^{n-1}(x))$ est libre
    $f$ est cyclique $\Leftrightarrow$ $\forall P \in \K[X]$ annulateur de $f$, $\deg P < n \Rightarrow P=0$
    $f$ est cyclique $\Leftrightarrow$ $\deg \mu_f \geq n$
    $f$ est cyclique $\Leftrightarrow$ $\deg \mu_f = n$ d'après Cayley-Hamilton.

    De plus, si $f$ est nilpotent, alors $\deg \mu_f$ est l'indice de nilpotence de $f$. Donc, les endomorphismes nilpotents cycliques de $E$ sont les endomorphismes nilpotents d'indice $n$.

    Soit $f$ un endomorphisme nilpotent cyclique. $f$ est représentée par le bloc de Jordan $J_n(0)$. Donc, il existe une base $B = (e_1,\ldots ,e_n)$ telle que $f(e_i) = e_{i-1}$ pour $1 < i \leq n$ et $f(e_1) = 0$.

    $f$ stabilise le drapeau $(F_i)_{0\leq i \leq n}$ avec $F_0={0}$ et $F_i = Ker f^i = Vect (e_1,\ldots ,e_i)$

    Montrons que ce sont les seuls espaces stables par $f$. Il suffit de prouver par récurrence sur $k$ que $F_k$ est le seul sous espace stable de dimension $k$.

    -$F_0$ est le seul sous espace de dimension nulle, donc le seul stable par $f$.
    -Soit $k < n$. Supposons que $F_k$ est le seul sous espace stable de dimension $k$. Soit $F$ un sous espace stable de dimension $k+1$. Montrons que $F=F_{k+1}$.

    On a $f$ nilpotent. Donc $f|_F$ est nilpotent et donc de noyau non nul. De plus, $\dim Ker f = 1$ donc $\dim Ker f|_F = 1$. D'après le théorème du rang, $\dim f(F) = k$ Or, $f(F)$ est stable par $f$, donc $f(F) = F_k$ par hypothèse.

    Donc, $F = Vect(e_1, \ldots ,e_k,u)$ avec $u = \sum\limits_{i=k+1}^n a_i e_i$, les $a_i$ sont non tous nuls. La condition $f(u) \in F_k$ implique $a_i = 0$ pour $i > k+1$. On peut donc prendre $u=e_{k+1}$, on a donc bien $F=F_{k+1}$.

    Question 2 Soit $N \in L(E)$ nilpotent et $t \in \K^*$. Montrer que $N$ et $tN$ sont semblables. Étudier la réciproque.

    On remarque que $N$ et $tN$ ont les mêmes noyaux itérés. Pour $k > 0$, $x \in E$, $N^k(x) = 0 \Leftrightarrow (tN)^k(x) = 0$. Donc, $N$ et $tN$ sont semblables.

    La réciproque est fausse. En effet, les matrices $E_{1,2}$ et $E_{2,1}$ ne sont pas multiples l'une de l'autre mais sont nilpotentes et semblables dans $M (2,\R)$ par la matrice de passage $E_{1,2}+E_{2,1}$.

    Question 3 Soit $A \in M(n,\R)$. Montrer que $A$ s'écrit de façon unique $A = D+N$ avec $N$ nilpotente, $ND = DN$ et $\mu_D \in \R[X]$ sans facteur carré.

    Existence Soit $(D,N)$ la décomposition de Dunford de $A$ dans $M(n,\C)$. On a $N$ nilpotente et $ND = DN$. Montrons que $\mu_D \in \R[X]$ et est sans facteur carré.

    Posons $\mu_A(X) = \prod_{i=1}^r (X-\lambda_i )^{\alpha_j}. \prod_{j=1}^s P_j^{\beta_j}(X) $ avec $P_j(X) = (X-z_j)(X-\bar{z_j})$, $\lambda_i \in \R$ et $z_j \in \C \setminus \R$

    Par construction de $D$, les $\lambda_i$, $z_j$ et $\bar{z_j}$ sont valeurs propres de $D$ et $P =\prod_{i=1}^r (X-\lambda_i ). \prod_{j=1}^s P_j(X)$ est annulateur de $D$. Donc $P = \mu_D \in \R[X]$ et est sans facteur carré.

    Unicité Soit $(D',N')$ une décomposition de $A$ vérifiant les hypothèses.

    $\mu_{D'}$ est de la forme $\prod_{i=1}^r (X-\lambda_i ). \prod_{j=1}^s P_j(X)$ avec $P_j(X) = (X-z_j)(X-\bar{z_j})$. Les $P_j$ sont tous différents, donc les $z_j$ et $\bar{z_j}$ sont tous différents.
    Donc, $\mu_{D'}$ est scindé à racines simples dans $\C[X]$. Donc $(D',N') $ est la décomposition de Dunford de$A$ dans $M(n,\C)$.

    On a donc $D=D'$ et $N=N'$.
  • @CédricF. Questions sur la leçon "Endomorphismes trigonalisables et nilpotents".

    1) Pour la réciproque de l'exercice 2, je pensais plutôt à la question suivante : soient $N\in {\rm M}(n,K)$ et $t\in K^\times$ tels que $N$ et $tN$ sont semblables. Peut-on dire que $N$ est nilpotente ?

    2) Pour l'exercice 3. Je pense que je l'ai mal formulé. Je redonne un énoncé plus précis.

    Soit $A\in {\rm M}(n,\R$. Montrer qu'on a une unique écriture $A=D+N$ avec $DN=ND$, $D$, $N\in {\rm M}(n,\R )$, $N$ nilpotente et $\mu_D$ est sans facteur carré, où $\mu_D$ est le polynôme minimal de $D$ vu comme matrice de ${\rm M}(n,\R )$.

    Dans votre solution, il manque le fait que $D$ est réelle.

    Je propose une solution complète.

    Unicité. Si $A$ s'écrit $D+N$ comme dans l'énoncé, alors $\mu_D$ est un polynôme annulateur de $D$ qui est scindé à racines simples sur $\C$. Donc $D$ est diagonalisable sur $\C$ et $A=D+N$ n'est rien donc que la décomposition "diagonalisable + nilpotent" de $A$ sur $\C$, et on sait qu'elle est unique.

    Existence. Soit $A=D+N$ la décomposition "diagonalisable + nilpotent" de $A$ vue comme matrice complexe. Alors en prenant les matrices conjuguées, on a $A=\bar{D}+\bar{N}$, avec $\bar{D}\bar{N}={\bar N}{\bar D}$, $\bar N$ nilpotente et $\bar D$ diagonalisable. Pour le dernier point, il suffit de remarquer que si $P=\prod (X-z_i )$ est un polynôme annulateur de $D$, alors ${\bar P}=\prod (X-{\bar z}_i)$ est un polynôme annulateur de $\bar D$ et que si $P$ est scindé à racines simples, il en est de même de $\bar P$. Par unicité dans la décomposition "diagonalisable + nilpotent", on a $D=\bar D$ et $N=\bar N$. Donc $D$ et $N$ sont réelles et il ne reste plus qu'à montrer que le polynôme minimal de $D$ sur $\R$ est sans facteur carré.
    Soit $P$ le polynôme minimal de de $D$ sur $\C$, qui est scindé à racine simple. Alors on voit facilement que $\bar P$ est un polynôme unitaire annulateur de $D$ et de même degré que $P$. Donc $P=\bar P$ et $P\in \R [X]$. En particulier $P$ est sans facteur carré dans $\R [X]$. Puisque $\mu_D$ divise $P$, il en est de même de $\mu_D$.

    Sinon tout le reste est correct. Merci beaucoup !
  • > 1) Pour la réciproque de l'exercice 2, je
    > pensais plutôt à la question suivante :
    > soient $N\in {\rm M}(n,K)$ et $t\in K^\times$
    > tels que $N$ et $tN$ sont semblables. Peut-on dire
    > que $N$ est nilpotente ?


    Dans ce cas, la réciproque est aussi fausse. Les matrices $E_{1,1}-E_{2,2}$ et $E_{2,2}-E_{1,1}$ sont semblables pour la matrice de passage $E_{1,2}+E_{2,1}$ mais ne sont pas nilpotentes.
  • En effet, ça ne fonctionne pas toujours. Peut-on mettre des conditions sur $t$ et/ou sur le corps $K$ pour que l'hypothèse entraîne $N$ nilpotente ?
  • On peut montrer que si $N$ et $tN$ sont semblables et $N$ non nilpotente, alors $t$ est une racine de l'unité.

    En effet, on a $Spec(N) = ( \lambda_1,\ldots ,\lambda_r )$ le spectre de $N$ dans la clôture algébrique de $\K$ sans compter les multiplicités.
    De plus, $Spec(tN) = ( t\lambda_1,\ldots ,t\lambda_r )= Spec(N)$ par hypothèse.

    Donc, l'application $f_t : \lambda_i \Rightarrow t\lambda_i$ est une permutation de $Spec(N)$. Or, le groupe $S_r$ est fini, donc il existe $k > 0$ tel que $f_t^k = id$. De plus, si $N$ n'est pas nilpotente, alors il existe $\lambda \in Spec(N)$ non nul.

    On a donc $t^k \lambda = \lambda$, c'est à dire $t^k = 1$.

    Donc, la condition "$t$ n'est pas une racine de l'unité" entraîne $N$ nilpotente.

    On peut je pense, affaiblir la condition à "$t$ n'est pas racine $d$-ième de l'unité" où $d$ désigne l'exposant du groupe $S_r$ qui est le $ppcm$ de l'ordre de tous les éléments de $S_r$ mais je ne vois pas grand chose d'autre.
  • @Cédric. Ca me convient tout à fait, merci beaucoup.

    Pause dominicale, j'ouvre la boutique lundi matin.
  • Exercice 3 (Déterminant) : Soient $v_1, ..., v_n \in \mathbb{E} \backslash \{0 \}$.

    1er cas : la famille $( v_1, ..., v_n )$ est liée.

    Alors $f$ étant alternée, on a $f( v_1, ..., v_n ) = 0$, donc l'inégalité est vérifiée car $||v_1||...||v_n|| > 0$.

    2eme cas : la famille $( v_1, ..., v_n )$ est libre. C'est donc une famille libre qui a autant d'éléments que $ dim ( E )$, c'est donc une base de $E$.

    On applique le procédé de Gram-Schmidtt à la base $( v_1, ..., v_n )$ pour obtenir une base orthogonale de $\mathbb{R}^n$ : $( w_1, ..., w_n )$.

    On a : $w_1=v_1$ et $\forall$ $ p \in [|2,n|]$ :

    $w_p = v_p + \lambda_{p,p-1} w_{p-1} + ... + \lambda_{p,1} w_{1}$ , donc :

    $v_p = w_p - \lambda_{p,p-1} w_{p-1} - ... - \lambda_{p,1} w_{1}$.

    Ainsi, $det ( v_1, ..., v_n ) = det (w_1, w_2 - \lambda_{2,1} w_1 $ $ , ..., w_n - \lambda_{n,n-1} w_{n-1} - ... - \lambda_{n,1} w_{1})=
    det ( w_1, ..., w_n )$ car on ne change pas le déterminant en ajoutant à une colonne une combinaison linéaire des autres colonnes.

    On pose alors $M = (w_1, ... , w_n)$ la matrice dont les colonnes sont les $w_i$. On a alors :

    $^t MM = Diag(||w_1||^2 , ... , ||w_n||^2) $ car en posant $(a_{i,j})_{1 \leq i,j \leq n}$ les éléments de $^t MM$, on a :

    $a_{i,j} = ^t w_i w_j = < w_i, w_j>$.

    Or la famille $(w_1 , ... , w_n )$ étant orthogonale par construction, on a $< w_i, w_j> = 0$ si $i \neq j$ et $< w_i, w_i> = ||w_i||^2$,
    d'où la forme de la matrice $^t MM$.

    Ainsi, $det (^t MM) = ||w_1||^2 ... ||w_n||^2 = det (^t M) det(M) = det(M)^2$. Ainsi :

    $|det(M)| = ||w_1|| ... ||w_n||$ en passant à la racine. Alors, $\forall p \in [|2,n|]$ :

    $||v_p||^2 = <v_p , v_p> = <w_p - \lambda_{p,p-1}w_{p-1} - ... - \lambda_{p,1}w_1, w_p - \lambda_{p,p-1}w_{p-1} - ... - \lambda_{p,1}w_1>
    $
    $= <w_p , w_p> + \lambda_{p,p-1}^2 <w_{p-1} , w_{p-1}> + ... + \lambda_{p,1}^2 <w_{1} , w_{1}> $ car la famille $ ( w_1, ..., w_n ) $ est orthogonale par construction ; Ainsi :
    $||v_p||^2= ||w_p||^2 + \lambda_{p,p-1}^2 ||w_{p-1}||^2 + ... + \lambda_{p,1}^2 ||w_{1}||^2 $.

    Ainsi : $||w_p||^2 \leq ||v_p||^2$, donc $||w_p|| \leq ||v_p||$ $\forall p \in [|2,n|]$. Or $v_1=w_1$ donc :

    $||w_p|| \leq ||v_p||$ $\forall p \in [|1,n|]$.

    Finalement, $|f(v_1, ..., v_n)| = |det M| = ||w_1|| ... ||w_n|| \leq ||v_1|| ... ||v_n||$, d'où le résultat.


    Montrons maintenant :

    $ |f(v_1, ..., v_n)| = ||v_1|| ... ||v_n|| \iff$ la famille $(v_1, ..., v_n)$ est orthogonale.

    On va raisonner par double implications.

    $\Leftarrow$ : On suppose que la famille $(v_1, ..., v_n)$ est orthogonale. Alors en reprenant comme dans la preuve de l'inégalité, on a
    $w_1=v_1, ..., w_n=v_n$. Or on a vu que
    $|f(v_1, ..., v_n)| = |det M| = ||w_1|| ... ||w_n||$. Or $||w_1|| ... ||w_n||=||v_1|| ... ||v_n||$. Ainsi,
    $|f(v_1, ..., v_n)|= ||v_1|| ... ||v_n||$.

    $\Rightarrow$ : On suppose que $|f(v_1, ..., v_n)| = ||v_1|| ... ||v_n||$. Comme $v_1 \neq 0$, ..., $v_n \neq 0$, on a
    $||v_1|| ... ||v_n|| > 0$, donc $|f(v_1, ..., v_n)| \neq 0$.

    En reprenant comme dans la preuve de l'inégalité, on a donc $|f(v_1, ..., v_n)|= |det (v_1, ..., v_n)|=|det(w_1, ..., w_n)|= ||w_1|| ... ||w_n||$.

    Or par supposition, $|f(v_1, ..., v_n)| = ||v_1|| ... ||v_n||$, donc en particulier : $||w_1|| ... ||w_n||=||v_1|| ... ||v_n||$.

    Or $||w_1|| \leq ||v_1||, ..., ||w_n|| \leq ||v_n||$, donc $||w_1|| = ||v_1||, ..., ||w_n|| = ||v_n||$, donc $||w_1||^2 = ||v_1||^2, ..., ||w_n||^2 = ||v_n||^2$,

    donc comme $||w_1|| \neq 0, ..., ||w_n|| \neq 0$, on a $\lambda_{p,p-1} = ... = \lambda_{p,1} = 0$ $\forall$ $ p \in [|2, n|]$, donc

    $v_1=w_1, ..., v_n=w_n$. Or par construction la famille $(w_1, ..., w_n)$ est orthogonale par construction, donc la famille $(v_1, ..., v_n)$ est orthogonale.
  • @Elie. Exercice 3 (inégalité de Hadamard). C'est tout à fait correct, merci. Je donnerai une preuve basé sur les extrema liés dans le fil des M1MFA.
  • Exercice 4 : (Déterminant)

    On va tout d'abord introduire un Lemme que nous allons utiliser pour l'exercice :

    Lemme 1 : Si $M \in M_n(\mathbb{Z})$, alors $det(M) \in \mathbb{Z}$.

    Preuve : $M \in M_n(\mathbb{Z})$ donc en particulier $M \in M_n(\mathbb{R})$. Alors d'après la Formule de Leibniz, le déterminant de $M$
    se calcul comme une somme finie de produits d'éléments de $M$. Donc le déterminant de $M$ se calcul comme une somme finie de produits d'entiers relatifs, c'est donc un entier relatif, d'où le résultat.

    (a) : Je pense qu'il y a une erreur dans l'énoncé, et qu'il faut remplacer $det(M) = 1$ par $det(M) = 1$ ou $-1$. En effet, si on prend la matrice
    $-I_3$, alors $det(-I_3)=-1$ et $(-I_3)(-I_3)=I_3$ donc $(-I_3) \in GL_n({\mathbb{Z}})$ et $det(-I_3)=-1$.

    Ainsi, soit $M \in M_n(\mathbb{Z})$. Montrons :

    $$M \in GL_n(\mathbb{Z}) \iff det(M) = +/- 1$$

    On va raisonner par double implication :

    $\Rightarrow$ : On suppose que $M \in GL_n(\mathbb{Z})$. Montrons que $det(M) = +/- 1$.

    Comme $M \in GL_n(\mathbb{Z})$, $\exists M^{-1} \in M_n(\mathbb{Z})$ tq $MM^{-1}=M^{-1}M=I_n$.

    On passe au déterminant dans la dernière égalité : $det(M^{-1}M)=det(I_n)=1$. Or $M$ et $M^{-1}$ sont en particulier dans $M_n(\mathbb{R})$,

    donc $det(M^{-1}M)=det(M^{-1})det(M)$. D'après le Lemme 1, $det(M) \in \mathbb{Z}$ et $det(M^{-1}) \in \mathbb{Z}$. Or un produit de deux entiers relatifs vaut $1 \iff$ ces deux entiers relatifs valent $1$ ou $-1$. D'où, $det(M)=1$ ou $det(M)=-1$.

    $\Leftarrow$ : On suppose que $det(M) = +/- 1$, montrons que $M \in GL_n(\mathbb{Z})$.

    Comme $det(M) = +/- 1$, en voyant $M$ comme une matrice de $M_n(\mathbb{R})$, on a alors $det(M) \neq 0$ donc $M \in GL_n(\mathbb{R})$. Ainsi, $\exists M^{-1} \in M_n(\mathbb{R})$ tq $MM^{-1}=M^{-1}M=I_n$.

    Montrons alors que $M^{-1} \in M_n(\mathbb{Z})$.

    On a $M^{-1}=\frac{1}{det(M)} ^t (Com(M))$ où $Com(M)$ est la comatrice de $M$.

    Or les cofacteurs de $M$ sont des déterminants de matrices extraites de $M$, qui sont donc des matrices de $M_n(\mathbb{Z})$. Ainsi d'après le Lemme 1, les cofacteurs de $M$ sont dans $\mathbb{Z}$ donc $Com(M) \in M_n(\mathbb{Z})$ donc $^t Com(M) \in M_n(\mathbb{Z})$.

    Or par supposition $det(M) = +/- 1$ donc $M^{-1}= +/- ^t (Com(M))$ donc $M^{-1} \in M_n(\mathbb{Z})$ d'où le résultat.

    (b) : Montrons : $X$ est la première colonne d'une matrice de $GL_n(\mathbb{Z}) \iff pgcd(X)=1$.

    On va raisonner par double implications :

    $\Rightarrow$ : On suppose que $X$ est la première colonne d'une matrice de $GL_n(\mathbb{Z})$, montrons que $pgcd(X)=1$.

    Par supposition, $\exists C_2 , ... , C_n \in \mathbb{Z}^n$ tq $M=(X, C_2, ..., C_n) \in GL_n(\mathbb{Z})$.

    Alors d'après (a), on a $det(M) = 1$ ou $-1$. On factorise $X$ par son $pgcd$, c'est à dire $X=pgcd(X) X'$ avec $X' \in \mathbb{Z}^n$.

    Or la déterminant étant linéaire en les colonnes, on a :

    $det(M)=det(X,C_2, ... , C_n)=det(pgcd(X)X',C_2, ... , C_n)=pgcd(X)det(X',C_2, ... , C_n)= 1$ ou $-1$.

    Or $X$ ne peut être le vecteur nul car sinon $det(M)=0$ ce qui est absurde. On a donc $X \neq 0$ donc $pgcd(X) \geq 1$, et comme
    $M'=(X',C_2, ..., C_n) \in M_n(\mathbb{Z})$, on a $det(M') \in \mathbb{Z}$ d'après le Lemme 1. Ainsi, le produit de $pgcd(X)$ et d'un entier relatif vaut $1$ ou $-1$, donc $pgcd(X)$ vaut $1$ ou $-1$. Or le $pgcd$ est toujours pris en valeur absolue par définition, donc $pgcd(X)=1$.

    $\Leftarrow$ : Je n'ai pas réussi cette implication, mais je vais tout de même expliquer ce que je n'ai pas réussi à montrer :

    On suppose $pgcd(X)=1$. On pose $X=(x_1, ..., x_n)$ avec $x_1, ..., x_n \in \mathbb{Z}$. Alors d'après Bezout,

    $\exists u_1, ..., u_n \in \mathbb{Z}$ tq $x_1 u_1 + ... + x_n u_n = 1$.

    Mon idée était de construire une matrice $M \in M_n(\mathbb{Z})$ de première colonne $X$ tq les cofacteurs $M_{i,1}$ valent $u_i$. On aurait alors en développant le déterminant de $M$ par rapport à la première colonne : $det(M)= x_1 u_1 + ... + x_n u_n = 1$ donc d'après (a),
    $M \in GL_n(\mathbb{Z})$, mais je n'ai pas réussi à construire une telle matrice ou montrer qu'une telle construction est possible.

    Je suis en train d'essayer de faire la (c).
  • @ Elie. C'est correct, merci !

    J'ai rajouté une indication pour la question 4 (b).

    N.B. Pour en apprendre d'avantage sur les vecteurs unimodulaires, vous pouvez solliciter Claude Quitté sur ce forum, ancien enseignant de Poitiers !
  • Exercice en lien avec la leçon "Distances et isométries".

    Soient $E$ un espace vectoriel euclidien et $f\in O(E)$ une isométrie sans vecteur fixe non nul. Montrer que pour toute réflexion $s$, $s\circ f$ a un point fixe non nul.

    Soit $s$ une réflexion de $E$. Si $n$ est un vecteur unitaire normal à son hyperplan, on peut écrire $s(x)=x-2\langle x,n \rangle \, n $, $x\in E$. On doit montrer qu'il existe $x\in E$ tel que $s(f(x))=x$, ou de façon équivalente $f(x)=s(x)$, c'est-à-dire $f(x)=x-2\, \langle x,n\rangle n$.
    Par hypothèse l'endomorphisme $f-{\rm id}_E$ a un noyau nul, il est donc bijectif. En particulier, il existe un unique $x\in E$ tel que $f(x)-x=n$, ou encore $f(x)=x+n$. Puisque $f$ est une isométrie, on a $\Vert f(x)\Vert^2 =\Vert x\Vert^2 =\Vert x+n\Vert^2 =\Vert x\Vert^2 +2\, \langle x,n\rangle +\Vert n\Vert$^2 soit encore $-2\, \langle x,n\rangle =1$.
    Il s'ensuit que $f(x) = x+n=x-2\, \langle x,n\rangle \, n = s(x)$, comme voulu !
  • Bonjour, je vous joins quelques exercices au sujet des leçons 207 et 235
  • Exercice 4 (Déterminant) : (b)

    Soit $n \geq 2$. Montrons par récurrence sur $n \geq 2$ : $(P_n)$ : Si $X \in \mathbb{Z}^n$ vérifie $pgcd(X)=1$, alors $X$ est la première colonne d'une matrice de $GL_n(\mathbb{Z})$.

    Initialisation : Montrons $(P_2)$. Soit $X= (x_1,x_2) \in \mathbb{Z}^2$ tq $pgcd(x_1,x_2)=1$. Alors d'après Bezout, $\exists u_1 , u_2 \in \mathbb{Z}$ tq
    $u_1 x_1 + u_2 x_2 = 1$. On pose alors :

    $$M = \begin{pmatrix} x_1 & -u_2 \\ x_2 & u_1 \end{pmatrix} $$

    On a alors $\det (M) = u_1 x_1 + u_2 x_2 = 1$ donc d'après (a), comme $M \in M_n(\mathbb{Z})$, on a $M \in GL_n(\mathbb{Z})$, d'où le résultat par construction de $M$.

    Hérédité : On suppose $(P_n)$ pour $n \geq 2$, montrons $(P_{n+1})$ :

    Soit $X=(x_1, ..., x_{n+1}) \in \mathbb{Z}^{n+1}$ vérifiant $pgcd(x_1, ..., x_{n+1})=1$. Alors :

    1er cas : $pgcd(x_1, ..., x_n)=1$. Alors d'après $(P_n)$, $(x_1,...,x_n)$ est la première colonne d'une matrice de $GL_n(\mathbb{Z})$.

    On pose alors $$M' = \begin{pmatrix} x_1 & \\ x_2 & \\ . & M \\ . & \\ . & \\ x_n & \end{pmatrix} $$

    où $M \in M_{n,n-1}(\mathbb{Z})$ tq $M' \in GL_n(\mathbb{Z})$.

    On pose alors $$M'' = \begin{pmatrix} x_1 & & & &&& 0 \\ x_2 & & & &&& 0 \\ . & & & && & .\\ . & &M & && &. \\ . && & & &&. \\ x_n & & & &&& 0 \\ x_{n+1} & 0
    & . & . & . & 0 & 1 \end{pmatrix} $$

    En développant par rapport à la dernière colonne, on a alors :

    $\det (M'')=1 \times (-1)^{n+1 + n + 1} \times \det (M') = \det (M') = 1$ ou $-1$ d'après (a). Ainsi, $M'' \in GL_{n+1}(\mathbb{Z})$ d'après (a), d'où
    $(P_{n+1})$ par construction de $M''$.

    2eme cas : $pgcd(x_1, ..., x_n) \neq 1$. On pose alors $(x_1, ..., x_n) = pgcd(x_1, ..., x_n) \times (x'_1, ..., x'_n)$ avec
    $pgcd(x'_1, ..., x'_n)=1$, c'est à dire $x_i = pgcd(x_1, ..., x_n) \times x'_i$, $\forall i \in [|1,...,n|]$.

    On peut alors appliquer $(P_n)$ à $(x'_1, ..., x'_n)$, c'est à dire on pose :

    $$M' = \begin{pmatrix} x'_1 & \\ x'_2 & \\ . & M \\ . & \\ . & \\ x'_n & \end{pmatrix} $$

    où $M \in M_{n,n-1}(\mathbb{Z})$ tq $M' \in GL_n(\mathbb{Z})$. Alors d'après (a), on a $\det (M')=1$ ou $-1$.

    Alors en posant :

    $$N = \begin{pmatrix} x_1 & \\ x_2 & \\ . & M \\ . & \\ . & \\ x_n & \end{pmatrix} = \begin{pmatrix} pgcd(x_1, ..., x_n) \times x'_1 & \\ pgcd(x_1, ..., x_n) \times x'_2 & \\ . & M \\ . & \\ . & \\ pgcd(x_1, ..., x_n) \times x'_n & \end{pmatrix}$$

    on a $\det (N) = pgcd(x_1, ..., x_n) \times \det (M')=pgcd(x_1, ..., x_n)$ ou $-pgcd(x_1, ..., x_n)$ par linéarité du déterminant en les colonnes. Or comme $pgcd(x_1, ... , x_{n+1})=1$, on a $pgcd( pgcd(x_1, ... , x_n), x_{n+1})=1$, donc d'après Bezout,

    $\exists u_1, u_2 \in \mathbb{Z}$ tq $u_1 \times pgcd(x_1, ... , x_n) + u_2 \times x_{n+1} = 1$. (*)

    On pose alors $$N' = \begin{pmatrix} x_1 & & & &&& u_2 \times x'_1 \\ x_2 & & & &&& u_2 \times x'_2 \\ . & & & && & .\\ . & &M & && &. \\ . && & & &&. \\ x_n & & & &&& u_2 \times x'_n \\ x_{n+1} & 0
    & . & . & . & 0 & u_1 \end{pmatrix} $$

    Alors en développant par rapport à la dernière ligne, on obtient :

    $\det (N')= u_1 \times (-1)^{n+1 + n + 1} \times \det (N) + x_{n+1} \times (-1)^{n + 1 + 1} \times \det \begin{pmatrix} & & & &&& u_2 \times x'_1 \\ & & & &&& u_2 \times x'_2 \\ & & & && & .\\ & &M & && &. \\ && & & &&. \\ & & & &&& u_2 \times x'_n \end{pmatrix} $
    $= \pm u_1 \times pgcd(x_1, ..., x_n) + x_{n+1} \times (-1)^{n + 1 + 1} \times u_2 \times \det \begin{pmatrix} & & & &&& x'_1 \\ & & & &&& x'_2 \\ & & & && & .\\ & &M & && &. \\ && & & &&. \\ & & & &&& x'_n \end{pmatrix} $
    $= \pm u_1 \times pgcd(x_1, ..., x_n) + x_{n+1} \times (-1)^{n + 1 + 1} \times u_2 \times \epsilon ( \sigma) \det \begin{pmatrix} x'_1 & \\ x'_2 & \\ . & M \\ . & \\ . & \\ x'_n & \end{pmatrix}$
    $= \pm u_1 \times pgcd(x_1, ..., x_n) + x_{n+1} \times (-1)^{n + 1 + 1} \times u_2 \times \epsilon ( \sigma) \det (M')$
    $= \pm u_1 \times pgcd(x_1, ..., x_n) + x_{n+1} \times (-1)^{n + 1 + 1} \times u_2 \times \epsilon ( \sigma) \times (\pm 1)$,

    où $\epsilon$ est le morphisme signature et $\sigma = (1$ $ 2$ $ 3$ ... $ n) \in S_n$.

    Or comme $\sigma = (1$ $2) (2$ $3)...((n-1)$ $n)$, et que la signature d'une transposition vaut $-1$, on a
    $\epsilon ( \sigma) = (-1)^{n-1}$. Finalement :

    $\det (N')= \pm u_1 \times pgcd(x_1, ..., x_n) + x_{n+1} \times (-1)^{n + 1 + 1} \times u_2 \times (-1)^{n-1} \times (\pm 1)$
    $=\pm u_1 \times pgcd(x_1, ..., x_n) \pm u_2 \times x_{n+1}$.

    Quitte à remplacer $u_2$ par $-u_2$ dans la définition de $N'$, on a alors :

    $\det (N')= \pm (u_1 \times pgcd(x_1, ..., x_n) + u_2 \times x_{n+1}) = \pm 1$ d'après la relation trouvée par Bezout (*).

    Finalement comme $N' \in M_{n+1}(\mathbb{Z})$ et $\det (N')= \pm 1$, alors d'après (a) : $N' \in GL_{n+1}(\mathbb{Z})$, d'où
    $(P_{n+1})$ par construction de $N'$. Ainsi d'après le principe de récurrence, $(P_n)$ est vérifiée $\forall n \geq 2$.

    NB : J'ai l'impression que je me suis compliqué un peu la tache et qu'on aurait pu faire plus simple mais je n'ai pas trouvé comment.
    Je pense qu'on peut montrer un résultat plus général qui est que si $X \in \mathbb{Z}^n$, alors il existe une matrice à coefficients entiers de première colonne $X$ dont les déterminant vaut $pgcd(X)$, ce qui implique (b) en utilisant (a). Pour montrer ce résultat, pourra alors procéder de la même manière.
  • @Elie. Merci, c'est parfaitement correct. Vous pouvez raccourcir un peu la démonstration. Tout d'abord vous pouvez rédiger en évitant de faire deux cas. Ensuite vous n'avez pas besoin de faire le calcul de la valeur exacte du déterminant où la signature $\epsilon (\sigma )$ apparaît. Avoir la valeur au signe près suffit pour conclure.

    Bravo pour la persévérance !
  • Bonjour Monsieur ;

    J'ai hésité à mettre directement que la signature valait $\pm 1$ car le signe n'importait pas dans le calcul, mais n'étant pas limité en temps, j'ai préféré détailler au maximum.

    Effectivement le 1er cas peut être traité dans le deuxième, je ne m'en étais pas rendu compte en faisant l'exercice !

    Exercice 4 (Déterminant) : (c)

    Tout d'abord on va montrer un résultat qui va nous servir pour cette question :

    Lemme : Soient $x_1, x_n, ..., x_n \in \mathbb{Z}$ tq au moins un des $x_i$ soit non nul. Alors :

    $$\{ d \in \mathbb{Z} | d=u_1 x_1 + ... + u_n x_n, u_1,...,u_n \in \mathbb{Z} \} = \{k \times pgcd(x_1,...,x_n) |k \in \mathbb{Z} \} $$

    On va raisonner par double inclusions :

    $\subset$ : Soit $d=u_1 x_1 + ... + u_n x_n$ où $u_1,...,u_n \in \mathbb{Z}$. Montrons que $d$ est un multiple de $pgcd(x_1,...,x_n)$.
    On pose $x_i=pgcd(x_1,...,x_n) \times y_i$ $\forall i \in [|1,n|]$. On a alors :
    $d= u_1 pgcd(x_1,...,x_n) y_1 + ... + u_n pgcd(x_1,...,x_n) y_n = pgcd(x_1,...,x_n) (u_1 y_1 + ... + u_n y_n)$ ,
    donc $d$ est bien un multiple de $pgcd(x_1,...,x_n)$ d'où l'inclusion.



    $\supset$ : Soit $l= k \times pgcd(x_1,...,x_n) $, avec $k \in \mathbb{Z}$. D'après Bezout, $\exists v_1, ..., v_n \in \mathbb{Z}$ tq
    $v_1 x_1 + ... + v_n x_n=pgcd(x_1,...,x_n)$. On a alors

    $ k \times pgcd(x_1,...,x_n) = k \times (v_1 x_1 + ... + v_n x_n) = k v_1 x_1 + ... +k v_n x_n$. On pose alors :
    $u_1=k v_1, ..., u_n = k v_n$ et on a l'inclusion réciproque.

    Finalement, on a bien égalité entre ces deux ensembles, d'où le Lemme.

    On va maintenant montrer (c). On suppose $X \neq 0$ car sinon $Y=0$ et le résultat est trivial. On va raisonner par double implications :

    $\Rightarrow$ : On suppose que $\exists M \in GL_n(\mathbb{Z})$ tq $Y=MX$. Montrons que $pgcd(X)=pgcd(Y)$.

    Comme le $pgcd$ est toujours pris positif par convention, nous allons montrer que $pgcd(X)$ divise $pgcd(Y)$ et que $pgcd(Y)$ divise $pgcd(X)$.

    On pose $M=(m_{i,j})_{1 \leq i,j \leq n}$, $X=(x_1,...,x_1)$, $Y=(y_1,...,y_n)$. Alors comme $Y=MX$, on a le système :

    $y_i = m_{i,1} x_1 + ... + m_{i,n} x_n$ $\forall i \in [|1,n|]$. Alors d'après le Lemme :

    $\exists k_i \in \mathbb{Z}, y_i = k_i \times pgcd(X) \forall i \in [|1,n|]$. Ainsi :

    $pgcd(Y)=pgcd(y_1,...,y_n)=pgcd(k_1 \times pgcd(X),...,k_n \times pgcd(X))=pgcd(X) \times pgcd(k_1,...,k_n)$.

    Or on ne peut avoir $k_1=...=k_n=0$ car sinon $Y=0$ ce qu'on a exclu. On a donc $pgcd(k_1,...,k_n) \in \mathbb{N}^{*}$ et donc $pgcd(X)$ divise $pgcd(Y)$.

    On a $Y=MX$ donc comme $M$ est inversible, on a $X=M^{-1}Y$. Or $M^{-1} \in GL_n(\mathbb{Z})$ car $M^{-1} \in M_n(\mathbb{Z})$ car
    on peut calculer les coefficients de $M^{-1}$ comme produits et sommes d'entiers relatifs par la formule de la comatrice divisé par la valeur absolue du déterminant de $M$ qui vaut $1$ d'après (a). De plus, $\det (M^{-1})=\frac{1}{\det(M)} = \frac{1}{\pm 1}$ d'après (a)
    $=\pm 1$ donc $M^{-1} \in GL_n(\mathbb{Z})$ d'après (a).

    Ainsi, on peut faire le même raisonnement en remplaçant $M$ par $M^{-1}$ et on obtient que $pgcd(Y)$ divise $pgcd(X)$.

    Finalement, $pgcd(X)=pgcd(Y)$.


    $\Leftarrow$ : On suppose $X \neq 0$ et $Y \neq 0$ car sinon le résultat est trivial.

    On suppose $pgcd(X)=pgcd(Y)$. On factorise alors $X$ et $Y$ par leur $pgcd$ c'est à dire :

    $X=pgcd(X) X'$ et $Y=pgcd(Y) Y'$.On a alors $pgcd(X')=pgcd(Y')=1$. Alors d'après (b) :

    $\exists M_{X'} \in GL_n(\mathbb{Z})$ tq $X'$ soit la première colonne de $M_{X'}$.
    $\exists M_{Y'} \in GL_n(\mathbb{Z})$ tq $Y'$ soit la première colonne de $M_{Y'}$.

    On a donc : $M_{X'} \times (1,0,...,0) = X'$ , $M_{Y'} \times (1,0,...,0) = Y'$, donc :

    $M_{X'}^{-1} X' = (1,0,...,0)$ et $M_{Y'}^{-1} Y' = (1,0,...,0)$ donc :

    $M_{X'}^{-1} X' = M_{Y'}^{-1} Y'$ donc $M_{Y'} M_{X'}^{-1} X' = Y'$.

    Or comme $M_{X'} \in GL_n(\mathbb{Z})$, on a vu dans l'implication que $M_{X'}^{-1} \in GL_n(\mathbb{Z})$.

    De plus $M_{Y'} M_{X'}^{-1} \in M_n(\mathbb{Z})$ car les coefficients de cette matrice s'obtiennent comme somme finie de produits d'entiers relatifs. De plus, $det(M_{Y'} M_{X'}^{-1}) = det(M_{Y'}) \times det( M_{X'}^{-1}) = \pm 1 \times \pm 1=\pm 1$ donc
    $M_{Y'} M_{X'}^{-1} \in GL_n(\mathbb{Z})$ d'après (a). On pose alors $M=M_{Y'} M_{X'}^{-1}$ et on a :

    $MX'=Y'$ donc $pgcd(X)MX'=pgcd(X)Y'$ donc $pgcd(X)MX'=pgcd(Y)Y'$ car $pgcd(X)=pgcd(Y)$ par supposition. Ainsi :

    $M (pgcd(X)X')=pgcd(Y)Y'$ donc $MX=Y$ avec $M \in GL_n(\mathbb{Z})$ d'où le résultat.
  • Exercice 2 (matrices diagonalisables et nilpotentes) :

    Montrons par récurrence sur $k \in \mathbb{N}^*$ :

    $(P_k) : k \times B^k = AB^k - B^kA$.

    Initialisation : $1 \times B^1 = B = AB - BA$ par supposition.

    Hérédité : Soit $k \in \mathbb{N}^*$. On suppose $(P_k)$, montrons $(P_{k+1})$ :

    $(k+1)B^{k+1}= k \times B^{k+1} + B^{k+1}=(k \times B^k) B + B^{k+1}=
    (AB^k - B^kA)B + B^{k+1}$ par $(P_k)$
    $=AB^{k+1} - B^kAB + B^{k+1}$. Or $AB=B + BA$ par supposition donc :
    $(k+1)B^{k+1}= AB^{k+1} - B^k (B + BA) + B^{k+1} = AB^{k+1} - B^{k+1} - B^{k+1}A + B^{k+1}
    = AB^{k+1} - B^{k+1}A$. Ainsi $(P_{k+1})$ est vérifiée donc d'après le principe de récurrence, $(P_k)$ est vérifiée $\forall k \in \mathbb{N}^*$.


    On pose alors :

    $\begin{array}{ccccc}
    f & : & M_n(\mathbb{K}) & \to & M_n(\mathbb{K}) \\
    & & X & \mapsto & AX - XA \\
    \end{array}$

    $f$ est clairement définie et linéaire, et $\forall k \in \mathbb{N}^*$,
    $f(B^k)=AB^k - B^k A =k \times B^k$ d'après $(P_k)$.

    Par l'absurde on suppose que $B$ n'est pas nilpotente. Alors $B^k \neq 0 \forall k \in \mathbb{N}^*$. Alors $f$ admet $k$ pour valeur propre $ \forall k \in \mathbb{N}^*$. Ainsi $f$ a une infinité de valeur propre distinctes,
    mais comme $f$ est une application linéaire entre espaces vectoriels de dimension finie, c'est absurde.

    Finalement, $B$ est nilpotente.

    De plus, $f$ admettant au plus $n^2$ valeurs propres distinctes, l'indice de nilpotence de $B$ est $\leq n^2$.
  • @Elie. C'est tout à fait correct, merci !

    Juste une petite chose, le produit matriciel $M_{X'}\times (1,0,...,0)$ n'a pas de sens. Il faut travailler bien sûr avec des vecteurs colonnes (ce qui revient à rajouter une transposition) :

    > On a donc : $M_{X'} \times {}^t \, (1,0,...,0) = X'$ ,
    > $M_{Y'} \times {}^t \, (1,0,...,0) = Y'$, donc :
  • Elie Ancelin écrivait:
    > Exercice 2 (matrices diagonalisables et
    > nilpotentes) :


    C'est correct, merci !

    > propres distinctes, l'indice de nilpotence de $B$
    > est $\leq n^2$.

    C'est vrai, bien sûr. Mais de toute façon, l'indice de nilpotence d'une matrice de format $n \times n$ est toujours inférieur ou égal à $n$ (par exemple par Cayley-Hamilton) ...
Connectez-vous ou Inscrivez-vous pour répondre.
Success message!