Préliminaires formes symplectiques Centrale 2022 - Page 2 — Les-mathematiques.net The most powerful custom community solution in the world

Préliminaires formes symplectiques Centrale 2022

245

Réponses

  • Modifié (May 2022)
    J'en étais sûr que tu arriverais pas à en trouver une sur R². C'est dans ce type de questions que l'on voit ton véritable niveau actuel malheureusement...
    Une forme bilinéaire, antisymétrique et sans dégénérescence tu en connais une normalement sur R²...
  • La matrice $J_n$ existe. Bon hormis ces préliminaires inintéressants, sur quoi porte le sujet de Centrale ? De quoi ça parle, vers quoi va-t'on ? (J'ai la flemme de le chercher, quelqu'un me fait un résumé ?).
  • Bonjour,

    Si t'as la flemme de lire des maths, que viens tu faire sur un forum de maths ?

    Cordialement,
    Rescassol

  • @OShine ta rédaction ICI est encore foireuse.

    Tu dis que par antisymétrie tous les termes de $w(z,y)=\displaystyle\sum_{k=1}^p \displaystyle\sum_{l=1}^p  \lambda_k  \mu_l w( e_k ,e_l)$ vont s'annuler mais c'est faux. Par exemple pour $k=1$ et $l=2$ il n'y a aucune raison pour que le terme $\lambda_1  \mu_2 w( e_1 ,e_2)$ annule le terme $\lambda_2  \mu_1 w( e_2 ,e_1)$.
  • Modifié (May 2022)
    Area 51 le sujet parle des contraintes symplectiques linéaires. Les deux première parties ne vont pas t'intéresser.
    A partir de la partie 3 on parle de génération du groupe symplectique par les transvections symplectiques. La partie 4 parle d'injection symplectique d'une boule dans un cylindre.
    Raoul.S ok je dois prendre $F=Vect(e_1 + e_2 + \cdots +e_n)$ et l'élément $e_1+ \cdots +e_n \in F \cap F^w$ et il est non nul. 
    Soit $y \in F$ alors $y= a_1 e_1 + \cdots +a_n e_n$.
    Donc $w( e_1 +e_2 + \cdots +e_n , a_1 e_1 + \cdots +a_n e_n)= \displaystyle\sum_{i=1}^n \displaystyle\sum_{k=1}^n a_k w(e_i ,e_k)=0$
    @noobey
    Soit $(e_1,e_2)=B$ la base canonique de $\R^2$.
    L'application $\R^2 \longrightarrow \R \\ (V_1 , V_2) \mapsto \det_B (V_1 ,V_2)$ est une forme bilinéaire antisymétrique. Mais pour la non dégénérescence ça me semble plus compliqué.
  • OShine explique les transvections symplectiques ... Il s'éclate, il a l'occasion de recopier des phrases avec des mots totalement inconnus de 99.9% de la population. C'est ce qu'il aime. Ca en jette un maximum.
    Mais à côté de ça, un exercice de niveau lycée, il n'oserait pas. Trop dangereux. 
    Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
  • Peut-on rendre le déterminant non dégénéré en transformant l'application ? Le déterminant s'annule si deux colonnes sont colinéaires ça me semble impossible.
  • Ok, tu as donc pas compris ce que ça veut dire non dégénéré. Les quantificateurs et toi...
  • Modifié (May 2022)
    Posons $f(u,v)= \det_B( u,v)$ avec $u,v \in \R^2$.
     $\{ x \in \R^2 \ | \ \forall y  \in \R^2 \ \  f(x,y)=0 \} =\{ x \in \R^2 \ | \ \forall y  \in \R^2 \ \  \det_B(x,y)=0 \} $
    • On a $\det_B(0,y)=0$ pour tout $y \in \R^2$.
    • Si $\forall y \in \R^2 \ \det_B(x,y)=0$  donc $x$ est colinéaire à tous les vecteurs de $\R^2$ donc $x=0$ car seul le vecteur nul est colinéaire à tous les autres.
    L'application déterminant est donc une forme bilinéaire, antisymétrique et non dégénérée sur $\R^2$.
  • @OShine ton contre-exemple ICI est complètement faux.
  • Modifié (May 2022)
    Oui j'ai écrit n'importe quoi.
    Si $F=Vect(e_1 + \cdots +e_n)$ et $y \in F$  alors il existe $\lambda \in \R$ tel que $y= \lambda (e_1+ \cdots +e_n)$
    On a $w(e_1 + \cdots +e_n, \lambda (e_1+ \cdots +e_n)) = \lambda (e_1 + \cdots +e_n , e_1 + \cdots +e_n) =0$ d'après Q3.
    Le vecteur $e_1 + \cdots +e_n \ne 0$ appartient à $F \cap F^w$.
  • J'essaie d'avancer un peu. Il fallait 30 min pour résoudre Q8 pour me souvenir du rang d'une composée d'applications linéaires.

    Q6) $\dim L(E,\R)= \dim E \dim \R = \dim E$ il suffit de montrer que $d_w$ est injective.

    Soit $x \in \ker d_w$. Alors $ d_w (x)=0$. Alors $ \ \forall y \in E \ w(x,y)=0$. La propriété de non dégénérescence implique que $x=0$. Donc $d_w$ est injective.

    Q7) Soit $u \in L(F,\R)$. On cherche $\ell \in L(E,\R)$ tel que $u= \ell_{| F}$. Soit $B_F$ une base de $F$. Il suffit de prendre pour $\ell$ un endomorphisme qui coïncide avec $u$ sur $B_F$.

    Q8) Remarquons que $ r_F \circ d_w$ est une application linéaire de $E$ dans $L(F,\R)$ comme composée d'application linéaires.
     Soit $ \ker r_F \circ d_w = \{ x \in E \ | \ r_F ( w(x, \bullet)=0 \} = \{ x \in E \ \ | \ \forall y \in F \ w(x,y) \} $.
    Donc $\boxed{ \ker r_F \circ d_w = F^w}$.

    Déterminons $\dim Im ( r_F \circ d_w) = rg ( r_F \circ d_w)$. Comme $r_F$ et $d_w$ sont des isomorphismes et $d_w$ est de rang fini (application linéaire en dimension finie) alors $ rg ( r_F \circ d_w) = rg( r_F)$.

    Donc $ rg ( r_F \circ d_w) = \dim L(F,\R)= \dim F$.

    Le théorème du rang appliqué à $ r_F \circ d_w$ fournit $\dim E= \dim \ker ( r_F \circ d_w ) + \dim Im ( r_F \circ d_w)$

    Soit $\dim E = \dim F^w + \dim F$ et enfin $\boxed{ \dim F^w = \dim E - \dim F}$.
  • Ok maintenant c'est bon. Par contre tu remarqueras qu'il  n'y a absolument pas besoin d'invoquer une base de $F$ comme tu l'as fait. Il suffit de prendre $z\in F$ non nul (on peut car $dim(F)\geq 1$) et de constater que $z\in F \cap F^w$ et c'est terminé.

    La Q6 c'est bon.

    La Q7 ce n'est pas bon. Tu ne fais que dire ce qu'il faut démontrer et tu ne le démontres pas. Concrètement tu ferais comment pour construire ton $\ell$ ?
  • Modifié (May 2022)
    D'accord merci. Soit $u \in L(F,\R)$. On cherche $\ell \in L(E,\R)$ tel que $u=\ell_{|F}$.

    Soit $B_F=(e_1, \cdots, e_p)$ une base de $F$.
    On prend $\ell$ tel que $\forall k \in [|1,p|] \ u(e_k)= \ell (e_k)$. 
    Deux applications linéaires qui coïncident sur une base sont égales. 

    Mais j'ai des doutes, la restriction m'embrouille, je sais faire quand il n'y a pas de restriction mais ici je me demande si on doit compléter en une base de $E$ ou si on peut se contenter de rester sur une base de $F$...
  • Saurais-tu montrer que pour toute fonction $f:\R_+\to \R$ il existe une fonction $g:\R\to \R$ qui coïncide avec $f$ sur $\R_+$ ?
  • Modifié (May 2022)
    Il suffit de prendre $g=f$ sur $\R^{+}$ et par exemple $g=0$ sur $\R^{- *}$ non ?  
    Pour Q6, je prends $B_F=(e_1, \cdots, e_p)$ une base de $F$ que je complète en une base de $E$ : $B=(e_1, \cdots, e_p,e_{p+1}, \cdots, e_n)$.
    Je prends $\ell$ tel que $\forall k \in [|1,p|] \ u(e_k)= \ell (e_k)$. Et $\forall k \in [|p+1,n|] \ \ell(e_k)=0$.
    On a $\ell_F \in L(F,\R)$ et $u \in L(F,\R)$. Ces deux endomorphismes coïncident sur une base de $F$, alors ils sont égaux. Ce qui termine la question.
  • Oui là c'est bon. Il fallait compléter la base en effet.
  • Modifié (May 2022)
    D'accord merci je bloque à la question 9.



  • Modifié (May 2022)
    Commence par le plus facile, le côté droite gauche. Tu supposes que $F\oplus F^{\omega}=E$ et tu montres que $\omega_F$ définit une forme symplectique sur $F$. Tu dois donc vérifier les trois propriétés : bilinéarité, antisymétrie et non dégénérescence. Même si en pratique il n'y en a qu'une qu'il faut vraiment vérifier...

    Après j'avoue OShine que là c'est dur de bloquer, ce n'est que des définitions à vérifier.
  • Modifié (May 2022)
    J'ai toujours eu des difficultés avec les restrictions... Mais c'était très facile en effet, si je n'ai pas écrit de bêtises. Ma difficulté a été de bien écrire $F^{w_F}$...
    => Supposons que  $F \cap F^w = E$. La bilinéarité et l'antisymétrie sont conservées car $(E,w)$ est un espace symplectique et $F$ est un sous-espace vectoriel de $E$.
    On sait que $\{ x \in E \ | \ \forall y \in E \ w(x,y)=0 \} = \{ 0_E \}$. Montrons que $\{ x \in F \ | \ \forall y \in F \ w_F(x,y)=0 \} = \{ 0_E \}$
    Or :  $F^{w_F} = \{ x \in E \ | \ \forall y  \in F  \ w_F(x,y)=0 \}$ Mais $F \cap F^w = \{ x \in F \ | \ \forall y  \in F  \ w_F(x,y)=0 \} = \{ 0 \}$
    $w_F$ est bien une forme symplectique sur $F$.
    Réciproquement, si $w_F$ est une forme symplectique sur $F$ alors $\{ x \in F \ | \ \forall y  \in F  \ w_F(x,y)=0 \} = \{ 0 \} = F \cap F^w$
    D'après Q8, $\dim E= \dim F+ \dim F^w$ donc on a montré que $E= F \bigoplus F^w$.
  • Modifié (May 2022)
    J'ai réussi Q10 mais Q11 je n'arrive à faire que la moitié de la question.
    Q10) On a $x= \displaystyle\sum_{k=1}^n x_k e_k$ et $y= \displaystyle\sum_{i=1}^n y_i e_i$ 
    Or $w(x,y)=w( \displaystyle\sum_{k=1}^n x_k e_k , \displaystyle\sum_{i=1}^n y_i e_i) =  \displaystyle\sum_{k=1}^n\displaystyle\sum_{i=1}^n  x_k  y_i w(e_k,e_i)$
    Un simple produit matriciel fournit immédiatement $X^T \Omega Y = \displaystyle\sum_{k=1}^n\displaystyle\sum_{i=1}^n  x_k  y_i w(e_k,e_i)$
    On a montré que $\boxed{w(x,y)= X^T \Omega Y}$.

    Q11) L'antisymétrie donne $w(x,y)=-w(y,x)$. Donc $X^T \Omega Y = - Y^T \Omega X$.
    Mais $Y^T \Omega X$ est un réel, il est donc égal à sa transposée donc $X^T \Omega Y = ( Y^T  (-\Omega)  X )^T= X^T (- \Omega)^T Y$.
    D'après Q1, on a $\boxed{\Omega^T  = - \Omega}$
    Je n'arrive pas à montrer que $\Omega$ est inversible...
  • Modifié (May 2022)
    Le noyau   :'(
  • Modifié (May 2022)
    Ok merci ça me donne une piste de recherche.
  • On a $\ker w= \{ (x,y) \in \R^{2n} \ | \ w(x,y)=0 \}$. Je ne trouve pas comment déterminer $\ker w$ ...
  • C'est le noyau de $\Omega$ dont parle IlorteLEG...
  • Modifié (May 2022)
    @Amédé la notion de matrice symétrique définie positive est hors programme.
    Celle de matrice symétrique l'est et le théorème spectral aussi est au programme... Ça ne mange pas de pain de voir que $X^{T}M^{T}MX>0$ si $X$ est non nul...
  • Modifié (May 2022)
    @Amédé ok ...
    @raoul.S je ne vois pas comment déterminer $\ker (\Omega)$.
    Soit $X \in \ker (\Omega)$ alors $\Omega X= O_{n1}$ après je ne vois pas.
  • Modifié (May 2022)
    Réfléchis bon sang.
    Tu as deux informations à connecter.
  • Je réfléchis mais je ne vois pas du tout comment faire  :'(
  • Modifié (May 2022)
    Bon allez on donne la réponse

    $\omega(x,y) = X^T \Omega Y$
    Si $Y \in \ker(\Omega)$ alors pour tout $x,\ \omega(x,y) = X^T \times 0 = 0$  donc par non dégénérescence, $y = 0$ et $\Omega$ est inversible.

    C'était une question de niveau ENS Ulm, les rapports de jury vont certainement dire que seul 5% des candidats auront répondu à la question, donc t'en fais pas si tu n'y arrives pas.
  • D'accord merci.

    Je ne vois pas comment montrer que $n$ est pair. 
  • En lisant l'énoncé on s’aperçoit que Q12 se résout grâce à ce qu'ils t'ont fait remarquer à la Q11...
  • Modifié (May 2022)
    Ok merci. 
    $\det(\Omega ^T)=\det(\Omega)=(-1)^n \det(\Omega)$
    Le déterminant étant non nul on a $(-1)^n=1$ donc $n$ est pair.
    Encore une question très accessible. 
  • Si on me donne le corrigé d'une épreuve de javanais vers l'allemand (sachant que je ne parle aucune des deux langues) et que j'ai juste à le recopier, effectivement ce sera très accessible...
  • Modifié (May 2022)
    @raoul.S ne m'a pas donné la solution de Q12. Dans les épreuves de Centrale, il y a toujours 3-4 questions très difficiles. C'est peut-être plus tard dans le sujet.
    J'essaie d'avancer pour la suite. J'ai bien galéré pour les calculs de Q13, en temps limité je ne l'aurais pas réussie. Il m'a fallu 45 min pour résoudre cette question.

    Q13) On a $b_s(x,y)=\, <x, j(y)>$ avec $j$ un endomorphisme de $\R^n$.
    On utilise la bilinéarité du produit scalaire et la linéarité de $j$.. Soient $(x,y,z) \in \R^{3n}$ et $\lambda \in \R$. On a $b_s(x+ \lambda y,z)=\,<x+ \lambda y, j(z)>\,=\,<x, j(z)>+ \lambda <y, j(z)>\,= b_s(x,z)+ \lambda b_s(y,z)$. Et $b_s(x,y+ \lambda z)=\,<x ,j (y+ \lambda z) >\,=\,<x, j(y)+ \lambda j(z)>\,=\,<x,j(y)>+ \lambda <x,j(z)>\, =b_s(x,y)+ \lambda b_s(x,z)$
    Calculons $b_s(x,y)+b_s(y,x)= X (JY)^T + Y (JX)^T$. On pose $Y=(y_1, \cdots, y_m , y_{m+1}, \cdots ,y_{2m})^T$. Alors $JY=(-y_{m+1}, \cdots, -y_{2m},y_1, \cdots, y_m)^T$ et $JX=(-x_{m+1}, \cdots, -x_{2m},x_1, \cdots, x_m)^T$. 
    Ainsi, $b_s(x,y)+b_s(y,x)= X (-y_{m+1}, \cdots, -y_{2m},y_1, \cdots, y_m) + Y (-x_{m+1}, \cdots, -x_{2m},x_1, \cdots, x_m)$
    Donc $b_s(x,y)+b_s(y,x)= - \displaystyle\sum_{k=1}^m x_k y_{m+k} +  \sum_{k=1}^{m} x_{k+m} y_k -  \sum_{k=1}^m y_k x_{k+m} + \sum_{k=1}^m y_{k+m} x_k$
    Finalement $\boxed{b_s(x,y)= -b_s(y,x)}$
    Il reste à montrer la non dégénérescence. Soit $y \in \R^n$. $b_s(0,y) =\, <0, j (y) >\,=0$ donc $\{ 0_{\R^n} \} \subset \{ x \in \R^n \ | \ \forall y \in \R^n ,\ b_s(x,y)=0 \}$.
    Réciproquement, supposons que $\forall y \in \R^n, \ \ b_s(x,y)=0$ donc $\forall y \in \R^n, \ <x, j (y)>\,=0$
    Donc $\forall Y \in \mathcal M_{2m,1} (\R) ,\ X (JY)^T =0$ donc $\boxed{\forall Y \in \mathcal M_{2m,1} (\R)  ,\ - \displaystyle\sum_{k=1}^m x_k y_{m+k} +  \sum_{k=1}^{m} x_{k+m} y_k =0}$
    Je fixe $j \in [|1,m|] $ avec $Y$ le vecteur ayant que des $0$ sauf en $j$ ième position un $1$. Donc $x_{m+1} = x_3 = \cdots =x_{2m}=0$.
    Je fixe $j \in [|m+1,2m|] $ avec $Y$ le vecteur ayant que des $0$ sauf en $j$ ième position un $1$. Donc $x_1 = x_2 = \cdots =x_{m}=0$.
    Donc $X$ est le vecteur nul ce qui montre $\boxed{\{ 0_{\R^n} \} = \{ x \in \R^n \ | \ \forall y \in \R^n, \ b_s(x,y)=0 \}}$.

  • Modifié (May 2022)
    Q14) est très facile, résolue en 30 secondes.
    Soit $x \in E_{\lambda} (u)$ alors $u(x)= \lambda x$ et soit $y \in E_{ \mu} (u)$ alors $u(y)= \mu y$.
    Donc $w ( u(x) , u(y) )= w ( \lambda x , \mu y) = \lambda \mu w (x,y)= w (x,y)$ donc $\boxed{\lambda \mu w (x,y)= w (x,y)}$
    Si $\lambda \mu \ne 1$ alors $(1- \lambda \mu) w(x,y)= 0$ et comme $1- \lambda \mu \ne 0$ on divise par $1- \lambda \mu$ ce qui donne $w(x,y)=0$.

    La fin de la partie 2...

    Q15) Peut-on raisonner directement par équivalence ? 
    Soient $x,y \in \R^n$. On a $$b_s (u(x) ,u(y) )= b_s(x,y) \Leftrightarrow <x,j(y)>=< u(x), j (u(y)) > \Leftrightarrow X^T JY = (MX)^T JMY \Leftrightarrow X^T J Y = X^T (M^T JM) Y \\  \Leftrightarrow J=M^T JM $$ en utilisant Q1).






  • Va sur le site d'aurelie poiret, tu y trouveras ton bonheur... 
  • Aurelien je voulais dire
  • La Q15 est OK sauf pour les quantificateurs. Il faut supprimer le "Soient $x,y \in \R^n$" et mettre plutôt un "$\forall x,y\in \R^n$ à chaque équivalence sauf la dernière.
  • 89 post pour 15 questions. Toujours pareil, il y a des candidats qui n'ont pas envie de voir corriger l'épreuve tout de suite...

  • @Amédé pour une fois que je fais des maths, d'habitude je passe mon temps à recopier des corrigés.

    D'accord merci j'avoue que je me suis posé la question de la position des quantificateurs.

    Q16) Montrons que $Sp_n(\R) \subset GL_n(\R)$. Par un calcul par blocs, on a $J^2 = - I_{2m}$. Donc $J^T J =- J^2 = I_{2m}$. Donc $J$ est inversible car orthogonale.

    Soit $M \in Sp_n(\R)$ alors $\det( M^T J M)= \det( J)= \det(M)^2 \det( J)$ donc $\det(M) \ne 0$ et $M$ est inversible. On a montré que $\boxed{Sp_n(\R) \subset GL_n(\R)}$

    • $I_n \in Sp_n(\R)$ (évident)
    • Soit $M,N \in Sp_n(\R)$. Alors $(MN)^T J (MN)=N^T (M^T J M) N = N^T J N= J$ donc $\boxed{MN \in Sp_n(\R)}$
    • Soit $M \in Sp_n(\R)$. On a $(M^{-1})^T M J M M^{-1}= J= (M^{-1})^T J M^{-1}$. Donc $\boxed{M^{-1} \in Sp_n(\R)}$
    • Soit $M \in Sp_n(\R)$.Comme $M^T J M=J $ alors $(M^T J M)^T=J^T$ donc $M^T (- J) M = - J $ donc $\boxed{M^T \in Sp_n(\R)}$.
    On a montré que $Sp_n( _R)$ est un sous-groupe de $GL_n(\R)$ stable par transposition et contenant la matrice identité.

    Q17) Comment faire la transposée d'une matrice par blocs ? A mon avis j'ai faux car je ne tombe pas sur le résultat. 
     
  • Quelques remarques : 

    - Le fait que $J$ soit inversible découle directement de $J^2 = - I_{2m}$ en prenant le déterminant (pas besoin d'invoquer l'orthogonalité même si c'est juste)
    - Tu dois encore montrer que $J$ est aussi symplectique.
    - Ta preuve de la stabilité par transposition est foireuse.
  • Je n'ai pas compris pourquoi il faut vérifier que $J$ est symplectique... Le neutre de $GL_n(\R)$ est $I_n$ non ? 

    Soit $M \in Sp_n(\R)$. montrons que $M^T \in Sp_n(\R)$. On a $ M^T JM =J $. Or $(M^T)^T J M^T = M J M^T = $ je ne vois pas comment montrer que $M^T \in Sp_n(\R)$

    Par contre j'ai réussi Q17 à l'aide d'un calcul par blocs. On remarque que $\boxed{M^T=\begin{bmatrix}
    A^T & C^T \\
    B^T & D^T
    \end{bmatrix}}$
    On a $M \in Sp_{2m} (\R) \Leftrightarrow M^T JM =J \Leftrightarrow  \begin{bmatrix}
    C^T A- A^T C & C^T B -A^T D \\
    D^T A-B^T C & D^T B-B^T D
    \end{bmatrix} =\begin{bmatrix}
    O_m & - I_m \\
    I_m & O_m
    \end{bmatrix}$ et l'équivalence recherchée en découle immédiatement en identifiants les 4 matrices des blocs. 
  • Il fait vérifier que J est symplectique parce que c'est demandé par la question.
  • Pour la stabilité par transposition prends l'inverse dans l'égalité $M^T JM =J$.

    Pour la Q17 c'est ok.
  • Merci ! Partie II enfin terminée  B) Le début de la partie III m'a l'air assez simple.

    Montrons que $J \in Sp_{2m} (\R)$. On a $J^T J J = - J J^2= -J \times (- I_{2m} )= J \times I_{2m}= J$.

    Si $M^T J M =J $ alors $M^{-1} J^{-1} (M^{-1})^T = J^{-1}$. Mais $J^{-1}= - J$. Donc $M^{-1} (- J) (M^T)^{-1}= - J$

    Ainsi : $M^{-1}  J  (M^T)^{-1}=  J$ et on multiplie à gauche par $M$ et à droite par $M^T$ ce qui donne $\boxed{J = M J M^T}$ d'où le résultat voulu.
  • Merci ! Partie II enfin terminée  B) Le début de la partie III m'a l'air calculatoire, tout ce qui est calculatoire j'y arrive bien normalement. Mais à partir de Q21 arrive la topologie  :#

    Montrons que $J \in Sp_{2m} (\R)$. On a $J^T J J = - J J^2= -J \times (- I_{2m} )= J \times I_{2m}= J$.

    Si $M^T J M =J $ alors $M^{-1} J^{-1} (M^{-1})^T = J^{-1}$. Mais $J^{-1}= - J$. Donc $M^{-1} (- J) (M^T)^{-1}= - J$

    Ainsi : $M^{-1}  J  (M^T)^{-1}=  J$ et on multiplie à gauche par $M$ et à droite par $M^T$ ce qui donne $\boxed{J = M J M^T}$ d'où le résultat voulu.

  • Modifié (May 2022)
    Voici mes réponses pour Q18 à Q20, je n'arrive pas à terminer le raisonnement pour $Q20$...

    Q18) 
    On pose $M=\begin{pmatrix}a & b \\c & d\end{pmatrix}$ 
    Il suffit d'utiliser Q17 avec $m=1$ et donc $M \in Sp_2(\R)$ si et seulement si $ad-bc=1$ si et seulement si $\det M=1$.

    Q19) On pose $M=\begin{pmatrix}A & B \\C & D\end{pmatrix}$ 
    $M \in C_J \Leftrightarrow \exists (A,B,C,D) \in M_m(\R)^4 ,\ \ JM=MJ \Leftrightarrow \\    \exists (A,B,C,D) \in M_m(\R)^4 ,\begin{pmatrix}A & B \\C & D\end{pmatrix} \begin{pmatrix}O & - I_m \\I_m & O\end{pmatrix}=  \begin{pmatrix}O & - I_m \\I_m & O\end{pmatrix}  \begin{pmatrix}A & B \\C & D\end{pmatrix}  \\   \Leftrightarrow  \exists (A,B,C,D) \in M_m(\R)^4, \ \  \begin{pmatrix}B & -A \\D & -C\end{pmatrix} =  \begin{pmatrix}-C & -D \\A & B\end{pmatrix}  \Leftrightarrow \exists (A,B,C,D) \in M_m(\R)^4 , \ \ B=-C \ \ \text{ET} \ \ A=D \\
     \Leftrightarrow \ \ \exists (A,B) \in M_m(\R)^2,\ \ M=\begin{pmatrix}A  & B \\ - B & A\end{pmatrix} 
    $
    Il suffit de prendre $A=U$ et $B=-V$.
    Q20)  En passant au déterminant par blocs, on a $\det  M= \det ( U+i V ) (U-iV) $
    Or, $(U+iV)(U-iV)=(U+iV) \overline{ U+iV} = |U+iV|^2$ car $U$ et $V$ sont à coefficients dans $\R$.
    Après je bloque.
  • Modifié (May 2022)
    Q18, Q19 ok

    Q20 : la dernière égalité de $(U+iV)(U-iV)=(U+iV) \overline{ U+iV} = |U+iV|^2$ ne veut rien dire car il n'y a pas de définition de $|U+iV|$.

    On a $\det  M= \det ( U+i V ) \det(U-iV)$ à partir de là ça devrait être évident.
  • Merci, il me semble que $\det (U- iV) = \overline{\det (U+ i V) }$ (en revenant à la définition du déterminant avec les permutations)

    Donc $\det M = \det (U+iV)  \overline{\det (U+ i V) } = | \det (U+iV) |^2 \geq 0$

    On a montré que $\boxed{M \in C_J \implies \det M \geq 0}$
Connectez-vous ou Inscrivez-vous pour répondre.
Success message!