J'en étais sûr que tu arriverais pas à en trouver une sur R². C'est dans ce type de questions que l'on voit ton véritable niveau actuel malheureusement... Une forme bilinéaire, antisymétrique et sans dégénérescence tu en connais une normalement sur R²...
La matrice $J_n$ existe. Bon hormis ces préliminaires inintéressants, sur quoi porte le sujet de Centrale ? De quoi ça parle, vers quoi va-t'on ? (J'ai la flemme de le chercher, quelqu'un me fait un résumé ?).
Tu dis que par antisymétrie tous les termes de $w(z,y)=\displaystyle\sum_{k=1}^p \displaystyle\sum_{l=1}^p \lambda_k \mu_l w( e_k ,e_l)$ vont s'annuler mais c'est faux. Par exemple pour $k=1$ et $l=2$ il n'y a aucune raison pour que le terme $\lambda_1 \mu_2 w( e_1 ,e_2)$ annule le terme $\lambda_2 \mu_1 w( e_2 ,e_1)$.
Area 51 le sujet parle des contraintes symplectiques linéaires. Les deux première parties ne vont pas t'intéresser. A partir de la partie 3 on parle de génération du groupe symplectique par les transvections symplectiques. La partie 4 parle d'injection symplectique d'une boule dans un cylindre. Raoul.S ok je dois prendre $F=Vect(e_1 + e_2 + \cdots +e_n)$ et l'élément $e_1+ \cdots +e_n \in F \cap F^w$ et il est non nul. Soit $y \in F$ alors $y= a_1 e_1 + \cdots +a_n e_n$. Donc $w( e_1 +e_2 + \cdots +e_n , a_1 e_1 + \cdots +a_n e_n)= \displaystyle\sum_{i=1}^n \displaystyle\sum_{k=1}^n a_k w(e_i ,e_k)=0$ @noobey Soit $(e_1,e_2)=B$ la base canonique de $\R^2$. L'application $\R^2 \longrightarrow \R \\ (V_1 , V_2) \mapsto \det_B (V_1 ,V_2)$ est une forme bilinéaire antisymétrique. Mais pour la non dégénérescence ça me semble plus compliqué.
OShine explique les transvections symplectiques ... Il s'éclate, il a l'occasion de recopier des phrases avec des mots totalement inconnus de 99.9% de la population. C'est ce qu'il aime. Ca en jette un maximum. Mais à côté de ça, un exercice de niveau lycée, il n'oserait pas. Trop dangereux.
Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
Peut-on rendre le déterminant non dégénéré en transformant l'application ? Le déterminant s'annule si deux colonnes sont colinéaires ça me semble impossible.
Posons $f(u,v)= \det_B( u,v)$ avec $u,v \in \R^2$. $\{ x \in \R^2 \ | \ \forall y \in \R^2 \ \ f(x,y)=0 \} =\{ x \in \R^2 \ | \ \forall y \in \R^2 \ \ \det_B(x,y)=0 \} $
On a $\det_B(0,y)=0$ pour tout $y \in \R^2$.
Si $\forall y \in \R^2 \ \det_B(x,y)=0$ donc $x$ est colinéaire à tous les vecteurs de $\R^2$ donc $x=0$ car seul le vecteur nul est colinéaire à tous les autres.
L'application déterminant est donc une forme bilinéaire, antisymétrique et non dégénérée sur $\R^2$.
J'essaie d'avancer un peu. Il fallait 30 min pour résoudre Q8 pour me souvenir du rang d'une composée d'applications linéaires.
Q6) $\dim L(E,\R)= \dim E \dim \R = \dim E$ il suffit de montrer que $d_w$ est injective.
Soit $x \in \ker d_w$. Alors $ d_w (x)=0$. Alors $ \ \forall y \in E \ w(x,y)=0$. La propriété de non dégénérescence implique que $x=0$. Donc $d_w$ est injective.
Q7) Soit $u \in L(F,\R)$. On cherche $\ell \in L(E,\R)$ tel que $u= \ell_{| F}$. Soit $B_F$ une base de $F$. Il suffit de prendre pour $\ell$ un endomorphisme qui coïncide avec $u$ sur $B_F$.
Q8) Remarquons que $ r_F \circ d_w$ est une application linéaire de $E$ dans $L(F,\R)$ comme composée d'application linéaires. Soit $ \ker r_F \circ d_w = \{ x \in E \ | \ r_F ( w(x, \bullet)=0 \} = \{ x \in E \ \ | \ \forall y \in F \ w(x,y) \} $. Donc $\boxed{ \ker r_F \circ d_w = F^w}$.
Déterminons $\dim Im ( r_F \circ d_w) = rg ( r_F \circ d_w)$. Comme $r_F$ et $d_w$ sont des isomorphismes et $d_w$ est de rang fini (application linéaire en dimension finie) alors $ rg ( r_F \circ d_w) = rg( r_F)$.
Ok maintenant c'est bon. Par contre tu remarqueras qu'il n'y a absolument pas besoin d'invoquer une base de $F$ comme tu l'as fait. Il suffit de prendre $z\in F$ non nul (on peut car $dim(F)\geq 1$) et de constater que $z\in F \cap F^w$ et c'est terminé.
La Q6 c'est bon.
La Q7 ce n'est pas bon. Tu ne fais que dire ce qu'il faut démontrer et tu ne le démontres pas. Concrètement tu ferais comment pour construire ton $\ell$ ?
D'accord merci. Soit $u \in L(F,\R)$. On cherche $\ell \in L(E,\R)$ tel que $u=\ell_{|F}$.
Soit $B_F=(e_1, \cdots, e_p)$ une base de $F$. On prend $\ell$ tel que $\forall k \in [|1,p|] \ u(e_k)= \ell (e_k)$. Deux applications linéaires qui coïncident sur une base sont égales.
Mais j'ai des doutes, la restriction m'embrouille, je sais faire quand il n'y a pas de restriction mais ici je me demande si on doit compléter en une base de $E$ ou si on peut se contenter de rester sur une base de $F$...
Il suffit de prendre $g=f$ sur $\R^{+}$ et par exemple $g=0$ sur $\R^{- *}$ non ? Pour Q6, je prends $B_F=(e_1, \cdots, e_p)$ une base de $F$ que je complète en une base de $E$ : $B=(e_1, \cdots, e_p,e_{p+1}, \cdots, e_n)$. Je prends $\ell$ tel que $\forall k \in [|1,p|] \ u(e_k)= \ell (e_k)$. Et $\forall k \in [|p+1,n|] \ \ell(e_k)=0$. On a $\ell_F \in L(F,\R)$ et $u \in L(F,\R)$. Ces deux endomorphismes coïncident sur une base de $F$, alors ils sont égaux. Ce qui termine la question.
Commence par le plus facile, le côté droite gauche. Tu supposes que $F\oplus F^{\omega}=E$ et tu montres que $\omega_F$ définit une forme symplectique sur $F$. Tu dois donc vérifier les trois propriétés : bilinéarité, antisymétrie et non dégénérescence. Même si en pratique il n'y en a qu'une qu'il faut vraiment vérifier...
Après j'avoue OShine que là c'est dur de bloquer, ce n'est que des définitions à vérifier.
J'ai toujours eu des difficultés avec les restrictions... Mais c'était très facile en effet, si je n'ai pas écrit de bêtises. Ma difficulté a été de bien écrire $F^{w_F}$... => Supposons que $F \cap F^w = E$. La bilinéarité et l'antisymétrie sont conservées car $(E,w)$ est un espace symplectique et $F$ est un sous-espace vectoriel de $E$. On sait que $\{ x \in E \ | \ \forall y \in E \ w(x,y)=0 \} = \{ 0_E \}$. Montrons que $\{ x \in F \ | \ \forall y \in F \ w_F(x,y)=0 \} = \{ 0_E \}$ Or : $F^{w_F} = \{ x \in E \ | \ \forall y \in F \ w_F(x,y)=0 \}$ Mais $F \cap F^w = \{ x \in F \ | \ \forall y \in F \ w_F(x,y)=0 \} = \{ 0 \}$ $w_F$ est bien une forme symplectique sur $F$. Réciproquement, si $w_F$ est une forme symplectique sur $F$ alors $\{ x \in F \ | \ \forall y \in F \ w_F(x,y)=0 \} = \{ 0 \} = F \cap F^w$ D'après Q8, $\dim E= \dim F+ \dim F^w$ donc on a montré que $E= F \bigoplus F^w$.
J'ai réussi Q10 mais Q11 je n'arrive à faire que la moitié de la question. Q10) On a $x= \displaystyle\sum_{k=1}^n x_k e_k$ et $y= \displaystyle\sum_{i=1}^n y_i e_i$ Or $w(x,y)=w( \displaystyle\sum_{k=1}^n x_k e_k , \displaystyle\sum_{i=1}^n y_i e_i) = \displaystyle\sum_{k=1}^n\displaystyle\sum_{i=1}^n x_k y_i w(e_k,e_i)$ Un simple produit matriciel fournit immédiatement $X^T \Omega Y = \displaystyle\sum_{k=1}^n\displaystyle\sum_{i=1}^n x_k y_i w(e_k,e_i)$
On a montré que $\boxed{w(x,y)= X^T \Omega Y}$.
Q11) L'antisymétrie donne $w(x,y)=-w(y,x)$. Donc $X^T \Omega Y = - Y^T \Omega X$. Mais $Y^T \Omega X$ est un réel, il est donc égal à sa transposée donc $X^T \Omega Y = ( Y^T (-\Omega) X )^T= X^T (- \Omega)^T Y$. D'après Q1, on a $\boxed{\Omega^T = - \Omega}$ Je n'arrive pas à montrer que $\Omega$ est inversible...
@Amédé la notion de matrice symétrique définie positive est hors programme.
Celle de matrice symétrique l'est et le théorème spectral aussi est au programme... Ça ne mange pas de pain de voir que $X^{T}M^{T}MX>0$ si $X$ est non nul...
$\omega(x,y) = X^T \Omega Y$ Si $Y \in \ker(\Omega)$ alors pour tout $x,\ \omega(x,y) = X^T \times 0 = 0$ donc par non dégénérescence, $y = 0$ et $\Omega$ est inversible.
C'était une question de niveau ENS Ulm, les rapports de jury vont certainement dire que seul 5% des candidats auront répondu à la question, donc t'en fais pas si tu n'y arrives pas.
Ok merci. $\det(\Omega ^T)=\det(\Omega)=(-1)^n \det(\Omega)$ Le déterminant étant non nul on a $(-1)^n=1$ donc $n$ est pair. Encore une question très accessible.
Si on me donne le corrigé d'une épreuve de javanais vers l'allemand (sachant que je ne parle aucune des deux langues) et que j'ai juste à le recopier, effectivement ce sera très accessible...
@raoul.S ne m'a pas donné la solution de Q12. Dans les épreuves de Centrale, il y a toujours 3-4 questions très difficiles. C'est peut-être plus tard dans le sujet. J'essaie d'avancer pour la suite. J'ai bien galéré pour les calculs de Q13, en temps limité je ne l'aurais pas réussie. Il m'a fallu 45 min pour résoudre cette question.
Q13) On a $b_s(x,y)=\, <x, j(y)>$ avec $j$ un endomorphisme de $\R^n$. On utilise la bilinéarité du produit scalaire et la linéarité de $j$.. Soient $(x,y,z) \in \R^{3n}$ et $\lambda \in \R$. On a $b_s(x+ \lambda y,z)=\,<x+ \lambda y, j(z)>\,=\,<x, j(z)>+ \lambda <y, j(z)>\,= b_s(x,z)+ \lambda b_s(y,z)$. Et $b_s(x,y+ \lambda z)=\,<x ,j (y+ \lambda z) >\,=\,<x, j(y)+ \lambda j(z)>\,=\,<x,j(y)>+ \lambda <x,j(z)>\, =b_s(x,y)+ \lambda b_s(x,z)$ Calculons $b_s(x,y)+b_s(y,x)= X (JY)^T + Y (JX)^T$. On pose $Y=(y_1, \cdots, y_m , y_{m+1}, \cdots ,y_{2m})^T$. Alors $JY=(-y_{m+1}, \cdots, -y_{2m},y_1, \cdots, y_m)^T$ et $JX=(-x_{m+1}, \cdots, -x_{2m},x_1, \cdots, x_m)^T$. Ainsi, $b_s(x,y)+b_s(y,x)= X (-y_{m+1}, \cdots, -y_{2m},y_1, \cdots, y_m) + Y (-x_{m+1}, \cdots, -x_{2m},x_1, \cdots, x_m)$ Donc $b_s(x,y)+b_s(y,x)= - \displaystyle\sum_{k=1}^m x_k y_{m+k} + \sum_{k=1}^{m} x_{k+m} y_k - \sum_{k=1}^m y_k x_{k+m} + \sum_{k=1}^m y_{k+m} x_k$ Finalement $\boxed{b_s(x,y)= -b_s(y,x)}$ Il reste à montrer la non dégénérescence. Soit $y \in \R^n$. $b_s(0,y) =\, <0, j (y) >\,=0$ donc $\{ 0_{\R^n} \} \subset \{ x \in \R^n \ | \ \forall y \in \R^n ,\ b_s(x,y)=0 \}$. Réciproquement, supposons que $\forall y \in \R^n, \ \ b_s(x,y)=0$ donc $\forall y \in \R^n, \ <x, j (y)>\,=0$ Donc $\forall Y \in \mathcal M_{2m,1} (\R) ,\ X (JY)^T =0$ donc $\boxed{\forall Y \in \mathcal M_{2m,1} (\R) ,\ - \displaystyle\sum_{k=1}^m x_k y_{m+k} + \sum_{k=1}^{m} x_{k+m} y_k =0}$ Je fixe $j \in [|1,m|] $ avec $Y$ le vecteur ayant que des $0$ sauf en $j$ ième position un $1$. Donc $x_{m+1} = x_3 = \cdots =x_{2m}=0$. Je fixe $j \in [|m+1,2m|] $ avec $Y$ le vecteur ayant que des $0$ sauf en $j$ ième position un $1$. Donc $x_1 = x_2 = \cdots =x_{m}=0$. Donc $X$ est le vecteur nul ce qui montre $\boxed{\{ 0_{\R^n} \} = \{ x \in \R^n \ | \ \forall y \in \R^n, \ b_s(x,y)=0 \}}$.
Q14) est très facile, résolue en 30 secondes. Soit $x \in E_{\lambda} (u)$ alors $u(x)= \lambda x$ et soit $y \in E_{ \mu} (u)$ alors $u(y)= \mu y$. Donc $w ( u(x) , u(y) )= w ( \lambda x , \mu y) = \lambda \mu w (x,y)= w (x,y)$ donc $\boxed{\lambda \mu w (x,y)= w (x,y)}$ Si $\lambda \mu \ne 1$ alors $(1- \lambda \mu) w(x,y)= 0$ et comme $1- \lambda \mu \ne 0$ on divise par $1- \lambda \mu$ ce qui donne $w(x,y)=0$.
La fin de la partie 2...
Q15) Peut-on raisonner directement par équivalence ? Soient $x,y \in \R^n$. On a $$b_s (u(x) ,u(y) )= b_s(x,y) \Leftrightarrow <x,j(y)>=< u(x), j (u(y)) > \Leftrightarrow X^T JY = (MX)^T JMY \Leftrightarrow X^T J Y = X^T (M^T JM) Y \\ \Leftrightarrow J=M^T JM $$ en utilisant Q1).
La Q15 est OK sauf pour les quantificateurs. Il faut supprimer le "Soient $x,y \in \R^n$" et mettre plutôt un "$\forall x,y\in \R^n$ à chaque équivalence sauf la dernière.
@Amédé pour une fois que je fais des maths, d'habitude je passe mon temps à recopier des corrigés.
D'accord merci j'avoue que je me suis posé la question de la position des quantificateurs.
Q16) Montrons que $Sp_n(\R) \subset GL_n(\R)$. Par un calcul par blocs, on a $J^2 = - I_{2m}$. Donc $J^T J =- J^2 = I_{2m}$. Donc $J$ est inversible car orthogonale.
Soit $M \in Sp_n(\R)$ alors $\det( M^T J M)= \det( J)= \det(M)^2 \det( J)$ donc $\det(M) \ne 0$ et $M$ est inversible. On a montré que $\boxed{Sp_n(\R) \subset GL_n(\R)}$
$I_n \in Sp_n(\R)$ (évident)
Soit $M,N \in Sp_n(\R)$. Alors $(MN)^T J (MN)=N^T (M^T J M) N = N^T J N= J$ donc $\boxed{MN \in Sp_n(\R)}$
Soit $M \in Sp_n(\R)$. On a $(M^{-1})^T M J M M^{-1}= J= (M^{-1})^T J M^{-1}$. Donc $\boxed{M^{-1} \in Sp_n(\R)}$
Soit $M \in Sp_n(\R)$.Comme $M^T J M=J $ alors $(M^T J M)^T=J^T$ donc $M^T (- J) M = - J $ donc $\boxed{M^T \in Sp_n(\R)}$.
On a montré que $Sp_n( _R)$ est un sous-groupe de $GL_n(\R)$ stable par transposition et contenant la matrice identité.
Q17) Comment faire la transposée d'une matrice par blocs ? A mon avis j'ai faux car je ne tombe pas sur le résultat.
- Le fait que $J$ soit inversible découle directement de $J^2 = - I_{2m}$ en prenant le déterminant (pas besoin d'invoquer l'orthogonalité même si c'est juste) - Tu dois encore montrer que $J$ est aussi symplectique. - Ta preuve de la stabilité par transposition est foireuse.
Je n'ai pas compris pourquoi il faut vérifier que $J$ est symplectique... Le neutre de $GL_n(\R)$ est $I_n$ non ?
Soit $M \in Sp_n(\R)$. montrons que $M^T \in Sp_n(\R)$. On a $ M^T JM =J $. Or $(M^T)^T J M^T = M J M^T = $ je ne vois pas comment montrer que $M^T \in Sp_n(\R)$
Par contre j'ai réussi Q17 à l'aide d'un calcul par blocs. On remarque que $\boxed{M^T=\begin{bmatrix} A^T & C^T \\ B^T & D^T \end{bmatrix}}$ On a $M \in Sp_{2m} (\R) \Leftrightarrow M^T JM =J \Leftrightarrow \begin{bmatrix} C^T A- A^T C & C^T B -A^T D \\ D^T A-B^T C & D^T B-B^T D \end{bmatrix} =\begin{bmatrix} O_m & - I_m \\ I_m & O_m \end{bmatrix}$ et l'équivalence recherchée en découle immédiatement en identifiants les 4 matrices des blocs.
Merci ! Partie II enfin terminée Le début de la partie III m'a l'air calculatoire, tout ce qui est calculatoire j'y arrive bien normalement. Mais à partir de Q21 arrive la topologie
Montrons que $J \in Sp_{2m} (\R)$. On a $J^T J J = - J J^2= -J \times (- I_{2m} )= J \times I_{2m}= J$.
Si $M^T J M =J $ alors $M^{-1} J^{-1} (M^{-1})^T = J^{-1}$. Mais $J^{-1}= - J$. Donc $M^{-1} (- J) (M^T)^{-1}= - J$
Ainsi : $M^{-1} J (M^T)^{-1}= J$ et on multiplie à gauche par $M$ et à droite par $M^T$ ce qui donne $\boxed{J = M J M^T}$ d'où le résultat voulu.
Voici mes réponses pour Q18 à Q20, je n'arrive pas à terminer le raisonnement pour $Q20$...
Q18) On pose $M=\begin{pmatrix}a & b \\c & d\end{pmatrix}$ Il suffit d'utiliser Q17 avec $m=1$ et donc $M \in Sp_2(\R)$ si et seulement si $ad-bc=1$ si et seulement si $\det M=1$.
Q19) On pose $M=\begin{pmatrix}A & B \\C & D\end{pmatrix}$ $M \in C_J \Leftrightarrow \exists (A,B,C,D) \in M_m(\R)^4 ,\ \ JM=MJ \Leftrightarrow \\ \exists (A,B,C,D) \in M_m(\R)^4 ,\begin{pmatrix}A & B \\C & D\end{pmatrix} \begin{pmatrix}O & - I_m \\I_m & O\end{pmatrix}= \begin{pmatrix}O & - I_m \\I_m & O\end{pmatrix} \begin{pmatrix}A & B \\C & D\end{pmatrix} \\ \Leftrightarrow \exists (A,B,C,D) \in M_m(\R)^4, \ \ \begin{pmatrix}B & -A \\D & -C\end{pmatrix} = \begin{pmatrix}-C & -D \\A & B\end{pmatrix} \Leftrightarrow \exists (A,B,C,D) \in M_m(\R)^4 , \ \ B=-C \ \ \text{ET} \ \ A=D \\ \Leftrightarrow \ \ \exists (A,B) \in M_m(\R)^2,\ \ M=\begin{pmatrix}A & B \\ - B & A\end{pmatrix} $ Il suffit de prendre $A=U$ et $B=-V$. Q20) En passant au déterminant par blocs, on a $\det M= \det ( U+i V ) (U-iV) $ Or, $(U+iV)(U-iV)=(U+iV) \overline{ U+iV} = |U+iV|^2$ car $U$ et $V$ sont à coefficients dans $\R$. Après je bloque.
Réponses
Une forme bilinéaire, antisymétrique et sans dégénérescence tu en connais une normalement sur R²...
Si t'as la flemme de lire des maths, que viens tu faire sur un forum de maths ?
Cordialement,
Rescassol
Tu dis que par antisymétrie tous les termes de $w(z,y)=\displaystyle\sum_{k=1}^p \displaystyle\sum_{l=1}^p \lambda_k \mu_l w( e_k ,e_l)$ vont s'annuler mais c'est faux. Par exemple pour $k=1$ et $l=2$ il n'y a aucune raison pour que le terme $\lambda_1 \mu_2 w( e_1 ,e_2)$ annule le terme $\lambda_2 \mu_1 w( e_2 ,e_1)$.
A partir de la partie 3 on parle de génération du groupe symplectique par les transvections symplectiques. La partie 4 parle d'injection symplectique d'une boule dans un cylindre.
Raoul.S ok je dois prendre $F=Vect(e_1 + e_2 + \cdots +e_n)$ et l'élément $e_1+ \cdots +e_n \in F \cap F^w$ et il est non nul.
Soit $y \in F$ alors $y= a_1 e_1 + \cdots +a_n e_n$.
Donc $w( e_1 +e_2 + \cdots +e_n , a_1 e_1 + \cdots +a_n e_n)= \displaystyle\sum_{i=1}^n \displaystyle\sum_{k=1}^n a_k w(e_i ,e_k)=0$
@noobey
Soit $(e_1,e_2)=B$ la base canonique de $\R^2$.
L'application $\R^2 \longrightarrow \R \\ (V_1 , V_2) \mapsto \det_B (V_1 ,V_2)$ est une forme bilinéaire antisymétrique. Mais pour la non dégénérescence ça me semble plus compliqué.
Mais à côté de ça, un exercice de niveau lycée, il n'oserait pas. Trop dangereux.
$\{ x \in \R^2 \ | \ \forall y \in \R^2 \ \ f(x,y)=0 \} =\{ x \in \R^2 \ | \ \forall y \in \R^2 \ \ \det_B(x,y)=0 \} $
- On a $\det_B(0,y)=0$ pour tout $y \in \R^2$.
- Si $\forall y \in \R^2 \ \det_B(x,y)=0$ donc $x$ est colinéaire à tous les vecteurs de $\R^2$ donc $x=0$ car seul le vecteur nul est colinéaire à tous les autres.
L'application déterminant est donc une forme bilinéaire, antisymétrique et non dégénérée sur $\R^2$.Si $F=Vect(e_1 + \cdots +e_n)$ et $y \in F$ alors il existe $\lambda \in \R$ tel que $y= \lambda (e_1+ \cdots +e_n)$
On a $w(e_1 + \cdots +e_n, \lambda (e_1+ \cdots +e_n)) = \lambda (e_1 + \cdots +e_n , e_1 + \cdots +e_n) =0$ d'après Q3.
Le vecteur $e_1 + \cdots +e_n \ne 0$ appartient à $F \cap F^w$.
Q6) $\dim L(E,\R)= \dim E \dim \R = \dim E$ il suffit de montrer que $d_w$ est injective.
Soit $x \in \ker d_w$. Alors $ d_w (x)=0$. Alors $ \ \forall y \in E \ w(x,y)=0$. La propriété de non dégénérescence implique que $x=0$. Donc $d_w$ est injective.
Q7) Soit $u \in L(F,\R)$. On cherche $\ell \in L(E,\R)$ tel que $u= \ell_{| F}$. Soit $B_F$ une base de $F$. Il suffit de prendre pour $\ell$ un endomorphisme qui coïncide avec $u$ sur $B_F$.
Q8) Remarquons que $ r_F \circ d_w$ est une application linéaire de $E$ dans $L(F,\R)$ comme composée d'application linéaires.
Soit $ \ker r_F \circ d_w = \{ x \in E \ | \ r_F ( w(x, \bullet)=0 \} = \{ x \in E \ \ | \ \forall y \in F \ w(x,y) \} $.
Donc $\boxed{ \ker r_F \circ d_w = F^w}$.
Déterminons $\dim Im ( r_F \circ d_w) = rg ( r_F \circ d_w)$. Comme $r_F$ et $d_w$ sont des isomorphismes et $d_w$ est de rang fini (application linéaire en dimension finie) alors $ rg ( r_F \circ d_w) = rg( r_F)$.
Donc $ rg ( r_F \circ d_w) = \dim L(F,\R)= \dim F$.
Le théorème du rang appliqué à $ r_F \circ d_w$ fournit $\dim E= \dim \ker ( r_F \circ d_w ) + \dim Im ( r_F \circ d_w)$
Soit $\dim E = \dim F^w + \dim F$ et enfin $\boxed{ \dim F^w = \dim E - \dim F}$.
La Q6 c'est bon.
La Q7 ce n'est pas bon. Tu ne fais que dire ce qu'il faut démontrer et tu ne le démontres pas. Concrètement tu ferais comment pour construire ton $\ell$ ?
Soit $B_F=(e_1, \cdots, e_p)$ une base de $F$.
On prend $\ell$ tel que $\forall k \in [|1,p|] \ u(e_k)= \ell (e_k)$.
Deux applications linéaires qui coïncident sur une base sont égales.
Mais j'ai des doutes, la restriction m'embrouille, je sais faire quand il n'y a pas de restriction mais ici je me demande si on doit compléter en une base de $E$ ou si on peut se contenter de rester sur une base de $F$...
Pour Q6, je prends $B_F=(e_1, \cdots, e_p)$ une base de $F$ que je complète en une base de $E$ : $B=(e_1, \cdots, e_p,e_{p+1}, \cdots, e_n)$.
Je prends $\ell$ tel que $\forall k \in [|1,p|] \ u(e_k)= \ell (e_k)$. Et $\forall k \in [|p+1,n|] \ \ell(e_k)=0$.
On a $\ell_F \in L(F,\R)$ et $u \in L(F,\R)$. Ces deux endomorphismes coïncident sur une base de $F$, alors ils sont égaux. Ce qui termine la question.
Après j'avoue OShine que là c'est dur de bloquer, ce n'est que des définitions à vérifier.
=> Supposons que $F \cap F^w = E$. La bilinéarité et l'antisymétrie sont conservées car $(E,w)$ est un espace symplectique et $F$ est un sous-espace vectoriel de $E$.
On sait que $\{ x \in E \ | \ \forall y \in E \ w(x,y)=0 \} = \{ 0_E \}$. Montrons que $\{ x \in F \ | \ \forall y \in F \ w_F(x,y)=0 \} = \{ 0_E \}$
Or : $F^{w_F} = \{ x \in E \ | \ \forall y \in F \ w_F(x,y)=0 \}$ Mais $F \cap F^w = \{ x \in F \ | \ \forall y \in F \ w_F(x,y)=0 \} = \{ 0 \}$
$w_F$ est bien une forme symplectique sur $F$.
Réciproquement, si $w_F$ est une forme symplectique sur $F$ alors $\{ x \in F \ | \ \forall y \in F \ w_F(x,y)=0 \} = \{ 0 \} = F \cap F^w$
D'après Q8, $\dim E= \dim F+ \dim F^w$ donc on a montré que $E= F \bigoplus F^w$.
Q10) On a $x= \displaystyle\sum_{k=1}^n x_k e_k$ et $y= \displaystyle\sum_{i=1}^n y_i e_i$
Or $w(x,y)=w( \displaystyle\sum_{k=1}^n x_k e_k , \displaystyle\sum_{i=1}^n y_i e_i) = \displaystyle\sum_{k=1}^n\displaystyle\sum_{i=1}^n x_k y_i w(e_k,e_i)$
Un simple produit matriciel fournit immédiatement $X^T \Omega Y = \displaystyle\sum_{k=1}^n\displaystyle\sum_{i=1}^n x_k y_i w(e_k,e_i)$
Mais $Y^T \Omega X$ est un réel, il est donc égal à sa transposée donc $X^T \Omega Y = ( Y^T (-\Omega) X )^T= X^T (- \Omega)^T Y$.
D'après Q1, on a $\boxed{\Omega^T = - \Omega}$
Je n'arrive pas à montrer que $\Omega$ est inversible...
@raoul.S je ne vois pas comment déterminer $\ker (\Omega)$.
Soit $X \in \ker (\Omega)$ alors $\Omega X= O_{n1}$ après je ne vois pas.
$\omega(x,y) = X^T \Omega Y$
Si $Y \in \ker(\Omega)$ alors pour tout $x,\ \omega(x,y) = X^T \times 0 = 0$ donc par non dégénérescence, $y = 0$ et $\Omega$ est inversible.
C'était une question de niveau ENS Ulm, les rapports de jury vont certainement dire que seul 5% des candidats auront répondu à la question, donc t'en fais pas si tu n'y arrives pas.
Je ne vois pas comment montrer que $n$ est pair.
$\det(\Omega ^T)=\det(\Omega)=(-1)^n \det(\Omega)$
Le déterminant étant non nul on a $(-1)^n=1$ donc $n$ est pair.
Encore une question très accessible.
J'essaie d'avancer pour la suite. J'ai bien galéré pour les calculs de Q13, en temps limité je ne l'aurais pas réussie. Il m'a fallu 45 min pour résoudre cette question.
Q13) On a $b_s(x,y)=\, <x, j(y)>$ avec $j$ un endomorphisme de $\R^n$.
On utilise la bilinéarité du produit scalaire et la linéarité de $j$.. Soient $(x,y,z) \in \R^{3n}$ et $\lambda \in \R$. On a $b_s(x+ \lambda y,z)=\,<x+ \lambda y, j(z)>\,=\,<x, j(z)>+ \lambda <y, j(z)>\,= b_s(x,z)+ \lambda b_s(y,z)$. Et $b_s(x,y+ \lambda z)=\,<x ,j (y+ \lambda z) >\,=\,<x, j(y)+ \lambda j(z)>\,=\,<x,j(y)>+ \lambda <x,j(z)>\, =b_s(x,y)+ \lambda b_s(x,z)$
Calculons $b_s(x,y)+b_s(y,x)= X (JY)^T + Y (JX)^T$. On pose $Y=(y_1, \cdots, y_m , y_{m+1}, \cdots ,y_{2m})^T$. Alors $JY=(-y_{m+1}, \cdots, -y_{2m},y_1, \cdots, y_m)^T$ et $JX=(-x_{m+1}, \cdots, -x_{2m},x_1, \cdots, x_m)^T$.
Ainsi, $b_s(x,y)+b_s(y,x)= X (-y_{m+1}, \cdots, -y_{2m},y_1, \cdots, y_m) + Y (-x_{m+1}, \cdots, -x_{2m},x_1, \cdots, x_m)$
Donc $b_s(x,y)+b_s(y,x)= - \displaystyle\sum_{k=1}^m x_k y_{m+k} + \sum_{k=1}^{m} x_{k+m} y_k - \sum_{k=1}^m y_k x_{k+m} + \sum_{k=1}^m y_{k+m} x_k$
Finalement $\boxed{b_s(x,y)= -b_s(y,x)}$
Il reste à montrer la non dégénérescence. Soit $y \in \R^n$. $b_s(0,y) =\, <0, j (y) >\,=0$ donc $\{ 0_{\R^n} \} \subset \{ x \in \R^n \ | \ \forall y \in \R^n ,\ b_s(x,y)=0 \}$.
Réciproquement, supposons que $\forall y \in \R^n, \ \ b_s(x,y)=0$ donc $\forall y \in \R^n, \ <x, j (y)>\,=0$
Donc $\forall Y \in \mathcal M_{2m,1} (\R) ,\ X (JY)^T =0$ donc $\boxed{\forall Y \in \mathcal M_{2m,1} (\R) ,\ - \displaystyle\sum_{k=1}^m x_k y_{m+k} + \sum_{k=1}^{m} x_{k+m} y_k =0}$
Je fixe $j \in [|1,m|] $ avec $Y$ le vecteur ayant que des $0$ sauf en $j$ ième position un $1$. Donc $x_{m+1} = x_3 = \cdots =x_{2m}=0$.
Je fixe $j \in [|m+1,2m|] $ avec $Y$ le vecteur ayant que des $0$ sauf en $j$ ième position un $1$. Donc $x_1 = x_2 = \cdots =x_{m}=0$.
Donc $X$ est le vecteur nul ce qui montre $\boxed{\{ 0_{\R^n} \} = \{ x \in \R^n \ | \ \forall y \in \R^n, \ b_s(x,y)=0 \}}$.
Soit $x \in E_{\lambda} (u)$ alors $u(x)= \lambda x$ et soit $y \in E_{ \mu} (u)$ alors $u(y)= \mu y$.
Donc $w ( u(x) , u(y) )= w ( \lambda x , \mu y) = \lambda \mu w (x,y)= w (x,y)$ donc $\boxed{\lambda \mu w (x,y)= w (x,y)}$
Si $\lambda \mu \ne 1$ alors $(1- \lambda \mu) w(x,y)= 0$ et comme $1- \lambda \mu \ne 0$ on divise par $1- \lambda \mu$ ce qui donne $w(x,y)=0$.
La fin de la partie 2...
Q15) Peut-on raisonner directement par équivalence ?
Soient $x,y \in \R^n$. On a $$b_s (u(x) ,u(y) )= b_s(x,y) \Leftrightarrow <x,j(y)>=< u(x), j (u(y)) > \Leftrightarrow X^T JY = (MX)^T JMY \Leftrightarrow X^T J Y = X^T (M^T JM) Y \\ \Leftrightarrow J=M^T JM $$ en utilisant Q1).
D'accord merci j'avoue que je me suis posé la question de la position des quantificateurs.
Q16) Montrons que $Sp_n(\R) \subset GL_n(\R)$. Par un calcul par blocs, on a $J^2 = - I_{2m}$. Donc $J^T J =- J^2 = I_{2m}$. Donc $J$ est inversible car orthogonale.
Soit $M \in Sp_n(\R)$ alors $\det( M^T J M)= \det( J)= \det(M)^2 \det( J)$ donc $\det(M) \ne 0$ et $M$ est inversible. On a montré que $\boxed{Sp_n(\R) \subset GL_n(\R)}$
- $I_n \in Sp_n(\R)$ (évident)
- Soit $M,N \in Sp_n(\R)$. Alors $(MN)^T J (MN)=N^T (M^T J M) N = N^T J N= J$ donc $\boxed{MN \in Sp_n(\R)}$
- Soit $M \in Sp_n(\R)$. On a $(M^{-1})^T M J M M^{-1}= J= (M^{-1})^T J M^{-1}$. Donc $\boxed{M^{-1} \in Sp_n(\R)}$
- Soit $M \in Sp_n(\R)$.Comme $M^T J M=J $ alors $(M^T J M)^T=J^T$ donc $M^T (- J) M = - J $ donc $\boxed{M^T \in Sp_n(\R)}$.
On a montré que $Sp_n( _R)$ est un sous-groupe de $GL_n(\R)$ stable par transposition et contenant la matrice identité.Q17) Comment faire la transposée d'une matrice par blocs ? A mon avis j'ai faux car je ne tombe pas sur le résultat.
- Le fait que $J$ soit inversible découle directement de $J^2 = - I_{2m}$ en prenant le déterminant (pas besoin d'invoquer l'orthogonalité même si c'est juste)
- Tu dois encore montrer que $J$ est aussi symplectique.
- Ta preuve de la stabilité par transposition est foireuse.
Soit $M \in Sp_n(\R)$. montrons que $M^T \in Sp_n(\R)$. On a $ M^T JM =J $. Or $(M^T)^T J M^T = M J M^T = $ je ne vois pas comment montrer que $M^T \in Sp_n(\R)$
Par contre j'ai réussi Q17 à l'aide d'un calcul par blocs. On remarque que $\boxed{M^T=\begin{bmatrix}
A^T & C^T \\
B^T & D^T
\end{bmatrix}}$
On a $M \in Sp_{2m} (\R) \Leftrightarrow M^T JM =J \Leftrightarrow \begin{bmatrix}
C^T A- A^T C & C^T B -A^T D \\
D^T A-B^T C & D^T B-B^T D
\end{bmatrix} =\begin{bmatrix}
O_m & - I_m \\
I_m & O_m
\end{bmatrix}$ et l'équivalence recherchée en découle immédiatement en identifiants les 4 matrices des blocs.
Pour la Q17 c'est ok.
Montrons que $J \in Sp_{2m} (\R)$. On a $J^T J J = - J J^2= -J \times (- I_{2m} )= J \times I_{2m}= J$.
Si $M^T J M =J $ alors $M^{-1} J^{-1} (M^{-1})^T = J^{-1}$. Mais $J^{-1}= - J$. Donc $M^{-1} (- J) (M^T)^{-1}= - J$
Ainsi : $M^{-1} J (M^T)^{-1}= J$ et on multiplie à gauche par $M$ et à droite par $M^T$ ce qui donne $\boxed{J = M J M^T}$ d'où le résultat voulu.
Montrons que $J \in Sp_{2m} (\R)$. On a $J^T J J = - J J^2= -J \times (- I_{2m} )= J \times I_{2m}= J$.
Si $M^T J M =J $ alors $M^{-1} J^{-1} (M^{-1})^T = J^{-1}$. Mais $J^{-1}= - J$. Donc $M^{-1} (- J) (M^T)^{-1}= - J$
Ainsi : $M^{-1} J (M^T)^{-1}= J$ et on multiplie à gauche par $M$ et à droite par $M^T$ ce qui donne $\boxed{J = M J M^T}$ d'où le résultat voulu.
Q18) On pose $M=\begin{pmatrix}a & b \\c & d\end{pmatrix}$
Il suffit d'utiliser Q17 avec $m=1$ et donc $M \in Sp_2(\R)$ si et seulement si $ad-bc=1$ si et seulement si $\det M=1$.
Q19) On pose $M=\begin{pmatrix}A & B \\C & D\end{pmatrix}$
$M \in C_J \Leftrightarrow \exists (A,B,C,D) \in M_m(\R)^4 ,\ \ JM=MJ \Leftrightarrow \\ \exists (A,B,C,D) \in M_m(\R)^4 ,\begin{pmatrix}A & B \\C & D\end{pmatrix} \begin{pmatrix}O & - I_m \\I_m & O\end{pmatrix}= \begin{pmatrix}O & - I_m \\I_m & O\end{pmatrix} \begin{pmatrix}A & B \\C & D\end{pmatrix} \\ \Leftrightarrow \exists (A,B,C,D) \in M_m(\R)^4, \ \ \begin{pmatrix}B & -A \\D & -C\end{pmatrix} = \begin{pmatrix}-C & -D \\A & B\end{pmatrix} \Leftrightarrow \exists (A,B,C,D) \in M_m(\R)^4 , \ \ B=-C \ \ \text{ET} \ \ A=D \\
\Leftrightarrow \ \ \exists (A,B) \in M_m(\R)^2,\ \ M=\begin{pmatrix}A & B \\ - B & A\end{pmatrix}
$
Il suffit de prendre $A=U$ et $B=-V$.
Q20) En passant au déterminant par blocs, on a $\det M= \det ( U+i V ) (U-iV) $
Or, $(U+iV)(U-iV)=(U+iV) \overline{ U+iV} = |U+iV|^2$ car $U$ et $V$ sont à coefficients dans $\R$.
Après je bloque.
Q20 : la dernière égalité de $(U+iV)(U-iV)=(U+iV) \overline{ U+iV} = |U+iV|^2$ ne veut rien dire car il n'y a pas de définition de $|U+iV|$.
On a $\det M= \det ( U+i V ) \det(U-iV)$ à partir de là ça devrait être évident.
Donc $\det M = \det (U+iV) \overline{\det (U+ i V) } = | \det (U+iV) |^2 \geq 0$
On a montré que $\boxed{M \in C_J \implies \det M \geq 0}$