Polytechnique maths A MP 2023
Réponses
-
C'est quoi le programme O'Shine ? (car je te vois régulièrement parler "du cours", "c'est dans le cours", mais je ne sais ni de quel cours ni de quel programme du parles) Bien à toi
-
@kalimoulox
Le programme de MP.
@bisam
Ok merci mais je n'ai pas réussi à démontrer que la continuité en $(E,E)$ implique la continuité sur $S \times S$, je ne vois pas comment utiliser le morphisme de groupes. C'est peut être faisable en une ligne mais j'ai réfléchi longtemps et je ne trouve rien.
J'ai réussi la question 8 sans difficulté.
8.a) Soit $v \in \mathbf{H}^{im} \cap S$. Posons : $v=xI+yJ+zK$ avec $x,y,z \in \R$ et $N(v)=1=x^2+y^2+z^2$.
On a : $u=\cos( \theta) E+x \sin(\theta) I + y \sin(\theta) J+ z \sin(\theta) K$. Donc $N(u)=\cos^2(\theta)+\sin^2(\theta)(x^2+y^2+z^2)$.
Donc $N(u)=\cos^2(\theta)+\sin^2(\theta)=1$.
On a bien montré que : $\boxed{u \in S}$.
$u( \cos( \theta) E - \sin (\theta) v)=\cos^2(\theta) E^2-\sin^1(\theta) v^2$ avec $v^2=-N(v)E=-E$.
Donc $u( \cos( \theta) E - \sin (\theta) v)=(\cos^2(\theta)+ \sin^2(\theta)) E= E$.
De même : $( \cos( \theta) E - \sin (\theta) v) u = E$.
Finalement $\boxed{u^{-1}= \cos( \theta) E - \sin (\theta) v }$.
8.b) $v$ et $w$ sont orthogonaux donc d'après Q5.a, on a : $vw+wv=0$. (Condition que je n'ai pas utilisé dans les calculs).
$C_u(v)=uvu^{-1}$. Un calcul rapide donne $\boxed{C_u(v)=v}$.
De même : $\boxed{C_u(w)=w}$.
Enfin $\boxed{C_u(vw)=vw}$.
On a montré : $\boxed{Mat_{(v,w,vw)} (C_u)=\begin{pmatrix} 1&0&0 \\ 0&1&0 \\ 0&0&1 \end{pmatrix} }$.
-
Pour Cu je trouve une rotation d'axe v d'angle 2teta
-
D'accord je refais.
8.b) $C_u(v)=v$.
On sait que $vw+wv=0$ car $v$ et $w$ sont orthogonaux. Donc $\boxed{wv=-vw}$. Cette relation va être utilisée à plusieurs reprises dans les calculs qui suivent.
$C_u(w)=uwu^{-1}=( \cos (\theta) E+ \sin( \theta) v) w ( \cos (\theta) E- \sin( \theta) v) $
$C_u(w)=( \cos (\theta) w+ \sin( \theta) vw) ( \cos (\theta) E- \sin( \theta) v) $
$C_u(w)=\cos^2(\theta) w- \cos (\theta) \sin (\theta) wv+ \sin(\theta) \cos(\theta) vw- \sin^2(\theta)vwv$
$C_u(w)=\cos^2(\theta) w+ \cos (\theta) \sin (\theta) vw+ \sin(\theta) \cos(\theta) vw+ \sin^2(\theta) v^2 w$
$C_u(w)=(\cos^2(\theta) -\sin^2(\theta) ) w+ \sin (2\theta) vw$
$\boxed{C_u(w)=\cos(2 \theta) w+ \sin (2\theta) vw}$
$C_u(vw)=uvwu^{-1}=( \cos (\theta) E+ \sin( \theta) v) vw ( \cos (\theta) E- \sin( \theta) v) $
$C_u(vw)=( \cos (\theta) vw -\sin( \theta) w) ( \cos (\theta) E- \sin( \theta) v) $
$C_u(vw)=\cos^2(\theta) vw- \cos (\theta) \sin (\theta) vwv- \sin(\theta) \cos(\theta) w+\sin^2(\theta)wv$
$C_u(vw)=\cos^2(\theta) vw- - \sin(\theta) \cos(\theta) w- \sin(\theta) \cos(\theta) w-\sin^2(\theta)vw$
$\boxed{C_u(vw)=\cos(2 \theta) vw- \sin(2\theta) w}$
On en déduit la matrice : $\boxed{Mat \left(C_u,\mathcal B= (v,w,vw) \right) = \begin{pmatrix} 1& 0 &0 \\ 0 & \cos(2 \theta) & - \sin(2 \theta) \\ 0 & \sin(2 \theta)& \cos(2 \theta) \end{pmatrix}} $
C'est la matrice de rotation d'axe $v$ et d'angle $2 \theta$, je trouve comme @epsilon0 .
-
Pour la question $9$, je n'ai pas rencontré de problèmes, sauf erreur.
9) Morphisme surjectif de groupes :
Notons : $f : S \longrightarrow SO(\mathbf{H}^{im})$ tel que $f(u)=C_u$.
Montrons que $\forall u,v \in S^2 \ f( u v)=f(u) \circ f(v)$.
On a : $f(uv)=C_{uv}$.
Soit $Z \in \mathbf{H}^{im}$. On a $f(u) \circ f(v)(Z)=f(u) ( C_v(Z))=f(u)( v Zv^{-1} )=C_u (v Z v^{-1} ) =u v Z v^{-1} u^{-1}$
Donc $f(u) \circ f(v)(Z)=uv Z (uv)^{-1} = f(uv) (Z)$.
$\boxed{\text{L'application} \ u \mapsto C_u \ \text{ induit bien un morphisme de groupes surjectif de} \ S \ \text{sur} \ SO(\mathbf{H}^{im}) }$.
Noyau :
Soit $u \in \ker f$. Alors $u \in S$ et $f(u)=id$ et donc : $\forall Z \in \mathbf{H}^{im} \ uZ =Z u$.
Posons : $u = \begin{pmatrix} z_1& - \bar{z_2} \\ z_2 & \bar{z_1} \end{pmatrix} $ avec $(z_1,z_2) \in \C^2$.
On a $zI=iZ$, ce qui fournit : $z_2=0$. Donc : $u= \begin{pmatrix} z_1& 0 \\ 0& \bar{z_1} \end{pmatrix} $
$uJ=Ju$ fournit $z_1 \in \R$.
Finalement : $u=z_1 E$, mais $N(u)= N(z_1 E)= z_1 ^2=1$. Finalement $u \in \{ -E,E \}$.
La réciproque est triviale.
Conclusion : $\boxed{\ker ( u \mapsto C_u ) = \{ -E,E \}}$.
-
Je bloque sur la question 10.a.
On a $\alpha(S \times S) \subset SO(\mathbf{H})$ d'après Q7.
Mais je ne vois pas comment démontrer que $SO(\mathbf{H}) \subset \alpha(S \times S)$.
L'énoncé demande d'en déduire, mais je ne vois pas le lien avec la question $9$. -
Avant de faire 10.a il faut que 9 soit fait correctement. Je trouve bizarre ton affirmation de la surjectivité sans aucune explication.
-
Deux jours que je n'ai pas regardé ce fil. A ma surprise Oshine a bien avancé et je me sens dépassé par les événements. Bravo
Lorsque notre cher Nico, le professeur, intervient dans une question d'analyse, c'est une véritable joie pour les lecteurs.. -
Pour le calcul du noyau dans la 9), il est dommage que tu passes par du calcul alors que l'on a déjà tout fait auparavant.Pour la surjectivité, il faut se casser un peu la tête, et les phrases contenant un $\exists$ sont généralement ta bête noire... alors il serait bon de t'y pencher.C'est d'autant plus important qu'il y a un deuxième $\exists$ à prouver en 10.a).
-
Il n'est pas utile de refaire le noyau car l'application $u \mapsto C_u$ n'est autre que l'application $u \mapsto \alpha(u,u)_{| \mathbf{H}^{im}}$ et en fait c'est la projection suivant la première coordonnée de l'application $(u,v) \mapsto \alpha(u,v)$ dont on connaît déjà le noyau ?
Pour la surjection, en effet c'est dur. J'ai passé une demi-heure dessus, et je viens de trouver une idée.
Soit $g \in SO(\mathbf{H}^{im})$. On doit montrer qu'il existe $u \in S$ tel que : $g=C_u$.
Si $g$ est l'identité alors $u=E$ convient.
Si $g$ n'est pas l'identité, alors $g \in SO(\mathbf{H}^{im}) \backslash \{ id \}$.
L'ensemble des points fixes de $g$ est une droite $D$.
Si $(f_1,f_2)$ est une base orthonormée du plan $D^{\perp}$ alors $(f_1,f_2,f_1 \wedge f_2)$ est une base orthonormée directe de $\mathbf{H}^{im}$ et la matrice de $g$ dans cette base est :
$Mat_{\mathcal B} (g)= \begin{pmatrix} \cos(\theta) & -\sin(\theta) &0 \\ \sin(\theta) & \cos( \theta) & 0 \\ 0 & 0 & 1 \end{pmatrix}$ et $Mat \left(C_u,\mathcal B= (v,w,vw) \right) = \begin{pmatrix} 1& 0 &0 \\ 0 & \cos(2 \theta) & - \sin(2 \theta) \\ 0 & \sin(2 \theta)& \cos(2 \theta) \end{pmatrix}$
J'ai un souci ici, pourquoi mes matrices ne sont pas identiques ? On a bien $f_1=v$, $f_2=w$ et $f_1 \wedge f_2= vw$....
-
Tu fais le choix de mettre en 3ème position le vecteur invariant. Alors que dans 8. , le vecteur invariant est en première position dans la base. C'est mal parti pour utiliser ce qui a été fait. Faire $g=I_d$ à part je ne vois pas l'intérêt.Voilà comment il faut démarrer.Soit $g\in SO(H^{im})$ et $v\in S\cap H^{im}$ tel que $g(v)=v$ (il faut être convaincu qu'un tel $v$ existe). Ensuite c'est à toi de continuer en faisant le choix de la base où on exprime $g.$ Cette base ayant pour premier vecteur $v$ de façon à exploiter le plus simplement la question 8. Si possible garder les même notations. Le premier vecteur on l'appelle $v$ comme dans 8 (pas $f_1,f_2.$.)
-
Merci, en effet $C_u(v)=v$ donc $v$ est invariant.
Je reste bloqué sur la surjection, je ne vois pas l'idée du raisonnement.
Mais je ne suis pas convaincu de l'existence du $v \in S \cap \mathbf{H}^{im}$ tel que $g(v)=v$. Je ne vois pas d'où ça sort.
Puis comment calculer $g(w)$ et $g(vw)$ alors qu'on ne connais pas $g$ ? On sait juste que $g$ appartient au groupe spécial orthogonal et son déterminant vaut $1$.
Je veux utiliser le théorème voir l'image ci-dessous mais je ne comprends pas comment on fait le lien entre l'existence d'une base $(i,j,k)$ et la base donnée $(v,w,vw)$ à la question $8$.
-
Pour la surjection :
-
OShine a dit :Mais je ne suis pas convaincu de l'existence du $v \in S \cap \mathbf{H}^{im}$ tel que $g(v)=v$. Je ne vois pas d'où ça sort.Je trouve que tu es un vrai comique. Tu ne vois pas d'où ça sort et en dessous tu donnes la proposition 9. qui l'explique.Tout est dit dans la proposition 9. (mais il manque la démonstration au risque de travailler dans le vide).Bref. Soit $ g\in SO(H^{im}) $ et donc soit $ v\in S\cap H^{im} $ tel que $g(v)=v. $ (voir prosition 9). Soit $ w\in S\cap H^{im} $ orthogonal à $v.$Alors $(v,w, vw)$ est une b.o.n directe telle que la matrice de $g$ dans cette base est celle de la proposition 9.Sauf que l'angle $\theta$ on le remplace par $2\theta$ pour appliquer sans fioritures la question 8. La question 8 donne directement le vecteur $u$ tel que $C_u=g.$ C.Q.F.D
-
@epsilon0
Ok merci, on prend $\boxed{u=\cos( \dfrac{\theta}{2}) E+ \sin ( \dfrac{\theta}{2}) v}$.
@bd2017
D'accord, j'avais mal compris que la question $8$ est valable $\forall v \in \mathbf{H}^{im} \cap S$.
Ici $g$ est invariant par l'axe de la rotation, il suffit de prendre $v$ un élément de cette droite vectorielle invariante tout en prenant $v \in S$ pour pouvoir utiliser Q8.
Encore une question très intéressante.
-
J'ai l'impression que ça devient plus dur.
10.a) On a déjà vu que $\alpha( S \times S) \subset SO( \mathbf{H} )$.
Il reste à montrer que $SO( \mathbf{H} ) \subset \alpha (S \times S)$.
Soit $g \in SO( \mathbf{H} )$. Montrons qu'il existe $(u,v) \in S^2$ tel que : $g= \alpha (u,v)$.
J'ai du mal à faire le lien avec la question $9$, car dans cette dernière, l'ensemble d'arrivée est $SO( \mathbf{H}^{im})$ et l'application est définie sur $S$ et non sur $S \times S$.
-
Soit $f$ est dans $SO(H) $, si $(E,f(E))$ est liée dans ce cas $f(E)=E $, l'orthogonal de $E$ est $H^{im}$ qui est stable par $f $ et la restriction est orthogonale positive.
Si $(E,f(E))$ est libre il faut construire deux éléments $a$ et $b$ tq $\alpha(a,b)\circ f(E)=E $ et on se ramène au cas précédent. -
J'ai relu 10 fois mais je n'ai pas compris ton raisonnement.
Je ne comprends pas l'idée pour résoudre la question. -
@xasuser la proposition 9!Mais l'angle de la rotation $\theta$ je le remplace par $2\theta.$ Ainsi $g=C_u$ avec $u= \cos(\theta) E + \sin(\theta) v.$Je donne 10 a. puisque @Os ne comprend pas.
Soit $f\in SO(H).$ On pose $w=f(E),$ donc $w\in S.$ Considérons $g=\alpha (w^{-1}, E) \in SO(H)$ et posons $h= g \circ f.$ On a donc $h \in SO(H)$ et $h(E)=w^{-1} f(E) E=w^{-1} w E=E.$On en déduit que $h$ laisse stable $H^{im},$ ainsi d'après les question précédentes, il existe $u\in S$ tel que $h|_{H^{im}}=C_u,$ c'est-à-dire tel que $h=\alpha(u,u).$
Alors $\alpha(u,u)= \alpha (w^{-1}, E) f $ et puis $f=\alpha (w, E) \alpha(u,u) = \alpha ( w u,u).$
Conclusion : $\alpha(S \times S)=SO(H)$. -
@bd2017
Je répète ma question si tu ne l'as pas très bien lue.
Qui t'a dit que la matrice de g dans la base (v,w,vw) est celle de la proposition 9 ?
La proposition 9 nous donne une base orthonormale directe de SO(H_im) (u1,u2,u3) dans laquelle la matrice de g est Cu avec v=u1 et u comme défini dans la question 8, qui t'a dit que u2=w défini dans 8 et u3=vw ? La proposition 9 nous fournit u3 tel que u1^u2=u3, où ^ est l opération "produit vectoriel". -
@bd2017, Je répète ma question une troisième fois : Qui t'a dit que la matrice de g dans la base (v,w,vw) est celle de la proposition 9 ?
Une dernière explication de la question que j'ai posée : pour dire que g=Cu pour un certain u c'est équivalent à dire qu il existe u tel que g et Cu coïncide sur une même base. Si tu poses u comme dans la question 8, c est quoi la base que tu vas utiliser, la base de la proposition 9 ou la base de la question 8, et si elle sont égales, pourquoi ?
Merci.
-
@bd2017
A partir de la ligne $3$ j'ai des difficultés à suivre.
Je ne comprends pas pourquoi tu montres que $h(E)=E$. A quoi ça sert dans le raisonnement ?- Je ne comprends pas pourquoi $h$ laisse stable $\mathbf{H}^{im}$.
- D'après quelles questions précédentes on en déduit qu'il existe $u \in S$ tel que $h_{ |\mathbf{H}^{im}} =C_u$ ? Je ne vois pas d'où ça sort.
-
@xaxuser
Je ne comprends pas ta question.
La question $8$ est valable pour tout vecteur $v \in \mathbf{H}^{im} \cap S$ et pour tout vecteur $w \in \mathbf{H}^{im} \cap S$ orthogonal à $v$.
Donc on choisit le $v$ que l'on souhaite qui respecte la condition, ici on prend $v$ un élément de la droite vectoriel invariante par la rotation tel que $N(v)=1$. Pour $w$ on prend un élément du plan orthogonal tel que $N(w)=1$.
$vw$ est unique, ce n'est autre que le produit vectoriel de $v$ par $w$. -
@xaxuser Si il y a un manque de rigueur quelque part, c'est bien ta question qui à mon mon sens est saugrenue. Donc ne répète une 4 ème fois la même question, je ne vais pas suivre. Maintenant si tu es certain de toi, tu n'as qu'à répondre à la question comme tu l'entends. Montre où il faut faut mettre de la rigueur toi même.OShine a dit :$vw$ est unique, ce n'est autre que le produit vectoriel de $v$ par $w$.Même cela @Os peut enlever le mot produit vectoriel et te dire d'aller revoir les questions précédentes et en particulier la question 5.Sinon : @Oshine je ne suis pas étonné que tu ne comprennes plus à partir de la ligne 3.En effet par exemple la proposition 9. tu en donnes l'énoncé mais tu ne connais peut être pas la démonstration.Si c'était le cas tu comprendrais peut être mieux ma réponse.Mais avec un bref résumé (sinon voit les voit les preuves toi-même)Pour une fonction $f$ dans le groupe spécial orthogonal en dimension 3, on démontre qu'il existe un vecteur invariant. L'orthogonal de ce vecteur invariant est stable. La restriction de $f$ à cet orthogonal est encore dans le groupe orthogonal mais on est en dimension 2. On sait que c'est une rotation... en gros c'est comme ça qu'on obtient la proposition 9.C'est à dire que si tu possèdes un vecteur invariant de ton isométrie positive, il suffit de caractériser la restriction de cette isométrie à l'orthogonal de ce vecteur invariant pour déterminer l'isométrie en entier. Cela permet de passer de l'étude en dimension n , à l'étude en dimension $n-1$.Ici $g\in SO(H).$ On est en dimension 4. Mais une isométrie positive en dimension paire n'a pas toujours un vecteur invariant.Donc j'ai composé f par une autre isométrie positive g pour obtenir, $h$ avec $E$ comme vecteur invariant.L'orthogonal de $E$ c'est $H^{im}$ (peut être que cela que tu ne l'as pas vu).Donc si $v\in H^{im}$ on a $ 0=<E , v>=<h(E),h(v)>=<E, h(v)>=0$, i.e $ h(v) \in H^{im}.$Ainsi $h$ est complétement déterminée par sa restriction à $H^{im}$ ... On retombe en dimension où l'étude permet d'utiliser 8 pour la fonction $h$ puis on renvient à $f.$Remarque : la remarque d'@epsilon0 c'est exactement ce que j'ai un peu détaillé.
-
@bd2017
Je m'excuse si je semble parler d une mauvaise manière, c'est juste que ma langue française n'est pas très bonne et cela me rend un peu "rude" .
Bref, moi je connais la réponse en tout cas, ce que je trouve bizarre c'est ton assertion sans justification : "matrice de g dans cette base est celle de la proposition 9. " pourquoi ? Tu n'as en aucun cas donné la relation entre (v,w,vw) et la base (u1,u2,u3) dans la proposition 9. -
Il y a peut être un malentendu dans ta remarque. Ma réponse n'a pas la forme de ce qui devrait dans une copie. Et je pense que c'est ça qui t'a gêné. Mais j'ai répondu à @Os parce qu'il me cite la proposition on 9. J'y fais allusion parce que les outils sont dans cette proposition. Après pour la rédaction, il suffit de mettre la bonne forme.Donc, oublions l'énoncé de la proposition 9, mais ayons pour référence tout ce qu'on doit savoir sur les isométries, en particulier les isométries positives.J'avais ditJe reprends donc : la restriction de $g$ à $ vect (v,vw)$ est une isométrie positive, c'est une rotation.bd2017 a dit :Alors $(v,w, vw)$ est une b.o.n directe telle que la matrice de $g$ dans cette base est celle de la proposition 9. ...Désignons par $2\theta$ son angle. On en déduit que la matrice de $g $ dans la base est $(u,v,vw)$ est$Mat g _{(v,w,vw) } = \begin{pmatrix} 1& 0 &0 \\ 0 & \cos(2 \theta) & - \sin(2 \theta) \\ 0 & \sin(2 \theta)& \cos(2 \theta) \end{pmatrix}$
-
@Oshine : Si $f$ est une isométrie vectorielle d'un espace vectoriel de dimension finie et si le sous-espace $F$ est stable par $f$ alors son orthogonal est également stable par $f$.Ici, puisque $h(E)=E$, la droite $\R_{\mathbb{H}}$ est stable par l'isométrie $h$ donc son orthogonal $\mathbb{H}^{im}$ l'est aussi.L'endomorphisme induit par $h$ sur ce sous-espace est alors une isométrie de ce sous-espace.Tout cela, c'est du cours de L2 (ou spé MP, PSI ou PC).
-
@bd2017
Ok tu avais bien expliqué cette fois, ta preuve est claire, c'est de ma faute j'ai des lacunes sur les isométries, après ce sujet je vais me concentrer sur le cours de MP car il y a des choses que je ne connais pas ou que j'ai oubliées.
@bisam ok merci.
Je n'ai pas de livres de MP sur les isométries, il faut que je m'en procure je lis des cours sur internet mais il me faudrait une vraie référence.
D'accord merci, il y a deux choses à montrer.
$E^{\perp} = \mathbf{H}^{im}$. On sait que $(E,I,J,K)$ est une base orthonormée de $\mathbf{H}$.
Soit $u \in \mathbf{H}^{im}$. Alors $u \in Vect(I,J,K)$ donc $\langle u,E \rangle =0$. Ainsi $u \in E^{\perp} $.
Si $u \in E^{\perp} $ on a $\langle u, E \rangle=0$. Si $u$ avait une composante non nulle suivant $E$, le produit scalaire serait non nul car $\langle E,E \rangle=1 \ne 0$ donc $E^{\perp} \subset \mathbf{H}^{im}$.
On sait que $h_{ | \mathbf{H}^{im}} $ est une isométrie donc appartient à $SO(\mathbf{H}^{im})$.
D'après Q9, l'application $u \mapsto C_u$ étant surjective, il existe $u \in S$ tel que $h_{ | \mathbf{H}^{im}}=C_u$.
Cette question était quand même bien difficile, il fallait réussir à construire l'application $h$ qui vérifie $h(E)=E$. La 10.b est plus facile, je l'ai réussie.
-
10.b) On a $\{ E \} \subset S$ donc $\alpha( S \times \{E\} ) \subset \alpha(S \times S)= SO( \mathbf{H})$.
Sous-groupe de $SO( \mathbf{H})$ :- $\boxed{id_{ \mathbf{H}} \in \alpha( S \times \{E\} ) }$.
- Soit $f,g \in \alpha( S \times \{E\} )$, alors il existe $u,v \in S$ tel que $\forall Z \in \mathbf{H} \ f(Z)=uZ$ et $g(Z)vZ$. $\forall Z \in \mathbf{H} \ f \circ g(Z)=f(vZ)=vu Z$ où $vu \in S$ car $S$ est un groupe. Donc $\boxed{f \circ g \in \alpha( S \times \{E\} )}$.
- Soit $f \in \alpha( S \times \{E\} )$. Soit $Z \in \mathbf{H}$. $f^{-1} (Z)=u^{-1} Z$ avec $u^{-1} \in S$ car $S$ est un groupe donc $\boxed{f^{-1} \in \alpha( S \times \{E\} )}$.
Soit $Z \in \mathbf{H}$. Il existe $u \in S$ tel que $n(Z)=uZ$.
$gng^{-1} (Z)=u Z$ donc $\boxed{gng^{-1} \in N}$.- $id=\alpha( \{E \} \times \{E \} ) \subset N$.
- $-id=\alpha( \{-E \} \times \{E \} ) \subset N$.
- L'inclusion est stricte car $N$ contient $\alpha ( T \times \{ E \} )$ qui n'est pas égal à l'identité.
- $N \subset SO(\mathbf{H})$ a déjà été prouvé.
- $SO(\mathbf{H})$ contient $Z \mapsto JZJ^{-1}$ qui n'est pas dans $N$.
-
10. b. C'est étonnant que tu n'utilises pas que $S\times\lbrace E \rbrace$ est un sous-groupe de $S\times S$Sinon, j'ai 2 questionsa) C'est qui $T.$b) l'affirmation $g$ n'est pas dans $N$: $[ g(z) = J Z J^{-1} ]$ est -elle évidente, immédiate ?
-
Bonne question.
En effet bien vu, l'image d'un sous-groupe par un morphisme reste un sous-groupe.
Erreur de frappe le $T$, $N$ contient $\alpha ( \{ I \} \times \{E \})$ qui n'est pas l'identité. Sinon, on aurait $\forall Z \in \mathbf{H} \ I Z=Z$ soit en prenant $Z=E$, $E=I$ ce qui est absurde.
Par l'absurde, si $g$ est dans $N$, il existe $u \in S$ tel que $\forall Z \in \mathbf{H} \ g(Z)=uZ = J Z J^{-1}$. Pour $Z=J$, on trouve $uJ=J$, donc $u=E$ et finalement $g(z)=Z$ ce qui est absurde car $[g(z)=JZJ^{-1}]$ n'est pas l'identité. ($g(J)=J$). -
Oui en fait c'était évident . Tu as l'air d'être plus en forme que d'habitude!
-
Je vois que la partie 3 est beaucoup plus dure que la partie 2
-
@xaxuser
C'est inquiétant, après la partie II pour l'instant ne m'a pas l'air trop dure, il faut juste comprendre les objets qu'on manipule, sauf la question 10.a que je n'aurais jamais réussi. Le reste c'est beaucoup de vérifications. Mais je ne l'ai pas encore terminée.
Je me demande pourquoi en Q7, on s'est fatigué à démontrer la bilinéarité de $\alpha$ alors que l'énoncé dit que $\alpha(u,v) \in GL(\mathbf{H})$ et $ GL(\mathbf{H})$ est le groupe des applications $\R$ linéaire bijectives.
11) Je ne connaissais pas les automorphismes d'algèbres, je ne crois pas que ce soit au programme mais la définition est redonnée.
On a bien $Aut(\mathbf{H}) \subset GL(\mathbf{H})$.
La composée d'applications linéaires et bijective est linéaire et bijective. L'inverse d'une application linéaire bijective est linéaire bijective.- $id_{\mathbf{H}} \in Aut(\mathbf{H})$.
- Soit $f,g \in Aut(\mathbf{H})$. On a $f \circ g$ est $\R$ linéaire bijective. Il reste à montrer que $f \circ g_{| \R_{(\mathbf{H}}}=id_{ \R_{\mathbf{H}}}$ et $\forall u,v \in \mathbf{H} \ f \circ g(uv)=f \circ g(u) f \circ g (v)$. Soit $Z \in \R_{\mathbf{H}}$ alors il existe $a \in \R$ tel que $Z=aE$. On a $f \circ g(Z)=f \circ g( a E)=f(a E)=aE=Z$. De plus, si $u,v \in \mathbf{H}$, $f \circ g( uv)=f (g(u) g(v) )=f \circ g(u) f \circ g(v)$.
- Soit $f \in Aut(\mathbf{H})$. Si $Z=aE$, alors $f (aE)=aE$. Donc $f^{-1} \circ f(aE)=f^{-1} (aE)=aE$. On a $f^{-1} (uv)=f^{-1} (u) f^{-1} (v) \iff uv=f( f^{-1} (u) f^{-1} (v) )$ et cette dernière égalité est vraie.
Soit $u \in S$. Montrons que $\alpha(u,u) \in Aut(\mathbf{H}) $.- $\alpha(u,u)$ est $\R$ linéaire bijective car $ GL(\mathbf{H})$ est le groupe des applications $\R$ linéaire bijectives.
- Soit $Z=aE \in \R_{\mathbf{H}}$. Alors $\alpha(u,u) (Z)=u a E u^{-1}=a u E u^{-1}=aE$.
- Soit $Z,Z' \in \mathbf{H}$. On a : $\alpha(u,u)(Z,Z')=uZZ' v^{-1}$ et $\alpha(u,u)(Z) \alpha(u,u)(Z')=uZu^{-1} uZ'u^{-1}= uZZ'u^{-1}$.
-
OShine a dit :
Je me demande pourquoi en Q7, on s'est fatigué à démontrer la bilinéarité de $\alpha$$\alpha$ est définie sur $S\times S$ qui n'est pas un en espace vectoriel. Tu peux expliquer ce que veux dire $\alpha$ est bilinéaire ?En général pour montrer qu'on a un sous-groupe, il y a 2 étapes. Par exemple ici, on montre que $id_H\in Aut(H)$ et $\forall f,g\in Aut(H),\ f \circ g^{-1}\in Aut(H).$ Ce que tu fais n'est [pas] faux mais pas coutumier, je pense. Tu as 3 étapes dans ta démo.Même 4. En effet tu démontres que $f\circ g|_{R_H}=id _{R_H} $ mais c'est vraiment inutile ! -
Bilinéaire signifie linéaire à gauche et à droite.
Je ne comprends pas pourquoi tu dis que la vérification est inutile alors que c'est écrit noir sur blanc dans le sujet que c'est une condition à vérifier.
12) Je n'arrive pas à montrer que $f(I),f(J) \in \mathbf{H}^{im}$, je veux utiliser la question 5.b.
On remarque que $IJ=K$. Il suffit de montrer que $(f(I),f(J))$ est orthonormale dans $\mathbf{H}^{im}$.
Mais encore un problème, comment calculer $\sqrt{N( f(I) )}= || f(I)||$ ? On est pas dans le groupe orthogonal....
-
Qu'est-ce que tu racontes : il n'y a pas le mot bilinéaire dans le sujet à la question 7), ni à proximité.Tu confonds avec une correction que tu essayes vaguement de recopier je pense.
-
J'ai dit une bêtise, j'ai mélangé la bilinéarité de $\alpha$ avec la linéarité de l'application définie sur $\mathbf{H}$ : $Z \mapsto uZv^{-1}$.
-
OShine a dit :Je ne comprends pas pourquoi tu dis que la vérification est inutile alors que c'est écrit noir sur blanc dans le sujet que c'est une condition à vérifier.Et ça se vérifie facilement. En effet si $f\in Aut(H)$ alors f(E)=f(E E)=f(E) f(E) , d'où f(E)=E et bien entendu $\forall a\in \R,\ f(a E)=a f(E)=a E$C'est-à-dire $f|{\R_H} =id|_{\R_H}.$ Il ne faut pas tomber dans le panneau.
-
Ok merci on a $f^2(E)=f(E)$ et en appliquant $f^{-1}$ on trouve $\boxed{f(E)=E}$.
12) Je n'arrive pas à montrer que $f(I)$ et $f(J)$ sont dans $\mathbf{H}^{im}$ ni à calculer $||f(I)||$ et $||f(J)||$.
-
OShine a dit :Ok merci on a $f^2(E)=f(E)$ et en appliquant $f^{-1}$ on trouve $\boxed{f(E)=E}$.Hola! ça part en vrille. Tu es en train de tout mélanger. D'abord ce n'est pas la démonstration de $f(E)=E. $ Mais surtout c'est quoi $f^2$ pour toi? Parce que si $f^2$ est l'écriture simplifiée de $f\circ f$ alors $f(f(E))=E$ parce que $f(E)=E$ Donc tu utilises le résultat que tu veux démontrer pour le démontrer.Pour faire 12. il faut que les choses soient claires pour toi et voir ton erreur ici.Ensuite quand cela sera fait, on pense à $I^2=E.$
-
Ok merci, ce n'était pas trivial, j'ai mis du temps à trouver. Il l'a fallu 30 minutes pour résoudre Q12.
En fait, la difficulté est de faire le lien entre plusieurs questions précédentes.
On a $f(E)=f(E) \times f(E)$ où $f(E) \in \mathbf{H}$. On sait que tout élément non nul de $\mathbf{H}$ est inversible d'après Q1.b.
Il suffit de montrer que $f(E) \ne 0_{\mathbf{H}}$, on multiplie alors par $f(E)^{-1}$.
Par l'absurde, si $f(E)=0$ alors la droite vectorielle $ E_{\mathbf{H}}$ est incluse dans le noyau de $f$. Mais $f$ est un morphisme d'algèbre donc un morphisme d'anneaux bijectif, son noyau devrait être réduit à $0$.
On a bien : $\boxed{f(E)=E}$.
12) On a : $I^2=J^2=-E$ donc $N(I^2)=N(I)^2=N(-E)=1$ donc $N(I)=1$. De même $N(J)=1$.
Ainsi, $\boxed{|| I||=||J||=1}$.
Il reste à montrer que $\langle f(I),f(J) \rangle =0$.
On a : $f(I^2)=f(I)^2=( f(-E))^2=f(E)^2=E$ et $f(J^2)=E$.
Donc $N(f(I))^2=N(E)=1$ soit $N( f(I))=1$ et de même $N( f(J))=1$.
Maintenant, $(I+J)^2=-2E$ donc $f((I+J)^2)=f(-2E)=-2 f(E)$ et $N( f(I+J)^2)=N( -2 f(E) )=4 N(E)=4$ donc $N( f(I+J))= 2$.
Ainsi : $\boxed{\langle f(I),f(J) \rangle =\dfrac{2-1-1}{2}=0}$. De plus, $\boxed{IJ=K}$.
Par contre, pour conclure, il reste à montrer que $f(I),f(J) \in \mathbf{H}^{im}$.
On a $f(I)^2=f(I^2)=f(-E)=-f(E)=-E=-N(f(I)) E$ et $f(J)^2=f(J^2)=f(-E)=-f(E)=-E=-N(f(J)) E$.
D'après Q3.b, $\boxed{f(I),f(J) \in \mathbf{H}^{im}}$.
D'après Q5.b on a bien $\forall f \in Aut(\mathbf{H}) \ (f(I),f(J),f(K))$ est une base orthonormée directe de $\mathbf{H}^{im}$.
-
@OShine
Je comprend pas pourquoi tu compliques les choses, pour montrer que f(I) est dans H_im il suffit de calculer son carré qui est égal à -E donc d après une question de la partie 1 on a f(I) est dans H_im de même pour f(K) et f(J) , on utilisant une autre fois l appartenance à H_im et la même question de la partie 1 on a f(I)=-N(I)E=-E donc N(f(I))=1 et du coup ||f(I)||=1 de même pour f(J) et f(K) , maintenant on a f(I) , f(J) sont dans H_im donc en calculant f(I)f(J)+f(J)f(I)=f(IJ+JI)=f(0)=0 donc d'après la dernière question de la partie 1 (f(I),f(J)) est une famille orthonormale donc la base est orthonormale directe (car f(K)=f(I)f(J) -
@OShine
remarque que pour tout x dans H_im N(x)=||x|| ( facile à vérifier) et pour l'orthogonalité tu peux simplement utiliser la dernière question de la partie 1 sans calculer le produit scalaire ( pour mq u,v sont orthogonale, dès lors que u et v sont dans H_im il faut et il suffit que uv+vu=0
Connectez-vous ou Inscrivez-vous pour répondre.
Bonjour!
Catégories
- 165.1K Toutes les catégories
- 58 Collège/Lycée
- 22.1K Algèbre
- 37.5K Analyse
- 6.3K Arithmétique
- 58 Catégories et structures
- 1.1K Combinatoire et Graphes
- 13 Sciences des données
- 5.1K Concours et Examens
- 20 CultureMath
- 51 Enseignement à distance
- 2.9K Fondements et Logique
- 10.7K Géométrie
- 83 Géométrie différentielle
- 1.1K Histoire des Mathématiques
- 79 Informatique théorique
- 3.9K LaTeX
- 39K Les-mathématiques
- 3.5K Livres, articles, revues, (...)
- 2.7K Logiciels pour les mathématiques
- 24 Mathématiques et finance
- 337 Mathématiques et Physique
- 5K Mathématiques et Société
- 3.3K Pédagogie, enseignement, orientation
- 10.1K Probabilités, théorie de la mesure
- 801 Shtam
- 4.2K Statistiques
- 3.8K Topologie
- 1.4K Vie du Forum et de ses membres