Lecture zen
Introduction au groupe orthogonal
Espaces préhilbertien
Introduction au groupe
orthogonal
Dans tout ce chapitre, \(E\) désigne un \(\mathbb{R}\)-espace vectoriel.
Pour bien aborder ce chapitre
On va généraliser dans ce chapitre la notion de produit scalaire étudiée dans les chapitres [geom_plan] et [geom_espace] aux espaces vectoriels. Cela permettra d’étendre la notion de vecteurs orthogonaux et les notions afférentes (norme, base orthonormale, théorème de Pythagore, projections et symétries orthogonales...) à certains espaces vectoriels de fonctions ou de matrices par exemple. Un des prolongements importants de ce chapitre sera celui consacré aux séries de Fourier en seconde année et qui formera un magnifique exemple d’illustration de la puissance de l’algèbre mise au service de l’analyse.
Nous étudierons dans la seconde moitié de ce chapitre les endomorphismes d’un espace euclidien qui préservent le produit scalaire, ou autrement dit les isométries. Nous verrons que les isométries d’un espace euclidien \(E\) donné forment un groupe appelé groupe orthogonal et nous étudierons complètement ce groupe dans le cas où \(E=\mathbb{R}^2\) et \(E=\mathbb{R}^3\). Nous ferons le lien entre les matrices et ces endomorphismes remarquables et nous introduirons la notion de matrice orthogonale.
Définitions et règles de calcul
Produit scalaire
(Produit scalaire). Soit \(E\) un \(\mathbb{R}\)-espace vectoriel. On appelle
produit scalaire sur \(E\),
une application : \(\varphi: E\times E
\rightarrow \mathbb{R}\) vérifiant :
On note \(\left( x \mid y \right) = \varphi(x, y)\)
le produit scalaire. En géométrie, on utilise également la notation
\(\overrightarrow{x} .
\overrightarrow{y}\).
(Espace préhilbertien, Espace
euclidien). Un \(\mathbb{R}\)-espace vectoriel \(E\) muni d’un produit scalaire est appelé
un espace préhilbertien réel. Si de plus \(E\) est de dimension finie, on dit que
\(E\) est un espace
euclidien.
Norme
Dans toute la suite, on considère un préhilbertien réel \(\left(E,\left( \cdot \mid \cdot \right)\right)\).
(Norme euclidienne associée à un produit
scalaire). On définit la norme euclidienne associée à un
produit scalaire \(\left( \cdot \mid \cdot
\right)\) par :
\[\forall x\in E, \quad \boxed{ \left\| x
\right\| = \sqrt{ \left( x \mid x \right) } }.\]
\(\left\|\cdot\right\|\) est bien définie car
\(\left( \cdot \mid \cdot \right)\) est
une forme bilinéaire positive et donc pour tout vecteur \(x\in E\), \(\left( x \mid x \right)\geqslant 0\).
(Règles de calcul).
Pour tous vecteurs \(x, y \in E\), et tout réel \(\lambda \in \mathbb{R}\) :
\[\left( \sum_{i=1}^n \lambda_i x_i \mid
\sum_{j=1}^m \mu_j y_j \right) = \sum_{i=1}^n
\sum_{j=1}^m \lambda_i \mu_j \left( x_i \mid y_j \right),\]
\[\Bigl\| \sum_{i=1}^n \lambda_i x_i
\Bigr\|^2 = \sum_{i=1}^n
\lambda_i^2 \lVert x_i \rVert_{ }^2 + 2\sum_{1\leqslant i < j
\leqslant n} \lambda_i
\lambda_j \left( x_i \mid x_j \right) .\]
(égalité du parallélogramme) ;
Pour des vecteurs \(x_1,\dots,x_n, y_1,\dots,y_m \in E\) et des scalaires \(\lambda_1,\dots,\lambda_n,\mu_1,\dots,\mu_m \in \mathbb{R}\),
Soient \(x,
y \in E\) et \(\lambda \in
\mathbb{R}\). En utilisant le fait que \(\left( \cdot \mid \cdot \right)\) est une
forme bilinéaire symétrique :
Les deux dernières formules sont conséquence de la bilinéarité du
produit scalaire.
(Inégalité de Cauchy-Schwarz).
Pour tous vecteurs \(x,y\in E\), on a l’inégalité de
Cauchy-Schwarz \[\boxed{\left| \left( x
\mid y \right) \right| \leqslant\lVert x \rVert_{ }\lVert y \rVert_{ }
}\] et on a égalité si et seulement si les deux vecteurs sont
colinéaires : \(\left| \left( x \mid y \right)
\right| = \lVert x \rVert_{ }\lVert y \rVert_{ }
\Longleftrightarrow\exists \lambda \in \mathbb{R} :\quad
(y=\lambda x \quad \textrm{ ou} \quad x = \lambda y)\).
Soient \(x,y\in E\). Pour tout \(\lambda\in\mathbb{R}\) , considérons :
\[P\left(\lambda\right)=\left( x+\lambda y
\mid x+\lambda y \right).\] D’après les règles de calcul
précédentes, on obtient \[P\left(\lambda\right)=\left( y \mid y
\right)\lambda^2+2\left( x \mid y \right)\lambda+\left( x \mid x
\right)=\left\|y\right\|^2
\lambda^2 + 2\lambda\left( x \mid y \right)+ \left\|x\right\|^2\]
et \(P\) est un trinôme du second degré
en \(\lambda\). Par ailleurs \(\forall
\lambda\in\mathbb{R},\quad P\left(\lambda\right)\geqslant 0\).
Donc \(P\) admet au plus une racine
réel et son discriminant réduit est négatif ou nul, ce qui s’écrit :
\(\left(\left( x \mid y
\right)\right)^2-\left\|y\right\|^2 \left\|x\right\|^2\leqslant
0\), c’est-à-dire \(\left|
\left( x \mid y \right) \right| \leqslant\lVert x \rVert_{ }~\lVert y
\rVert_{ }\). Si \(x\) et \(y\) sont colinéaires, on vérifie facilement
que \(\left| \left( x \mid y \right) \right| =
\lVert x \rVert_{ }\lVert y \rVert_{ }\). Réciproquement, si
cette égalité est vraie, alors le discriminant de \(P\) est nul et donc \(P\) admet une racine double \(\lambda_0\in\mathbb{R}\). On a donc \(\left( x+\lambda_0 y \mid x+\lambda_0 y
\right)=0\) ce qui n’est possible que si \(x+\lambda_0 y=0\) c’est-à-dire que si \(x=\lambda_0 y\).
(Inégalité de
Minkowski). Pour tous vecteurs
\(x,y\in E\), on a l’inégalité de
Minkowski \[\boxed{\Bigl|\lVert x
\rVert_{ } - \lVert y \rVert_{ } \Bigr| \leqslant
\lVert x+y \rVert_{ } \leqslant\lVert x \rVert_{ } + \lVert y
\rVert_{ } }\] et on a égalité dans la majoration de droite si et
seulement si les deux vecteurs \(x\) et
\(y\) se trouvent sur une même
demi-droite issue de l’origine : \(\exists
\lambda \geqslant 0:\quad y=\lambda
x\).
Soient \(x,y \in E\).
De manière plus générale :
(Norme).
On appelle norme sur \(E\) une
application : \(\left\|\cdot\right\|:E\rightarrow
\mathbb{R}\) vérifiant :
(Norme associée au produit scalaire).
La norme euclidienne \(\left\|\cdot\right\|\) associée à un
produit scalaire \(\left( \cdot \mid \cdot
\right)\) sur \(E\) est une
norme sur \(E\).
Les propriétés \(2\) et \(3\) ont déjà été prouvées dans les
théorèmes [regles_calcul_prod_scalaire] et
[Inegalite_de_minkowski]. Démontrons la première. Soit \(x\in E\) tel que \(\left\|x\right\|=0\) alors \(\left( x \mid x \right)=0\) mais comme
\(\left( \cdot \mid \cdot \right)\) est
une forme bilinéaire définie, \(x=0\).
Quelques exemples de produits
scalaires et leur norme associée (à retenir) :
(Vecteur unitaire). Soit \(x\) un vecteur d’un \(\mathbb{R}\)-espace vectoriel \(E\) muni d’une norme \(\left\|\cdot\right\|\). On dit que \(x\) est unitaire si et seulement
si \(\left\|x\right\|=1\).
Orthogonalité
On considère dans ce paragraphe un espace préhilbertien réel \((E,\left( . \mid . \right))\).
(Vecteurs orthogonaux). Deux vecteurs
\(x\) et \(y\) de \(E\) sont dits orthogonaux lorsque
\(\left( x \mid y \right)=0\).
(Identité de
Pythagore). Soient \(x\) et \(y\) deux vecteurs de \(E\). Alors \[\left( x \mid y \right) = 0 \Longleftrightarrow
\lVert x+y \rVert_{ }^2 = \lVert x \rVert_{ }^2 +\lVert y \rVert_{
}^2.\]
D’après la formule
[regles_calcul_prod_scalaire] : \[\left\|x+y\right\|^2=\left\|x\right\|^2+2\left( x
\mid y \right)+\left\|y\right\|^2,\] et il vient immédiatement :
\[\begin{aligned}
\left( x \mid y \right) = 0
\Longleftrightarrow\lVert x+y \rVert_{ }^2 = \lVert x \rVert_{ }^2
+\lVert y \rVert_{ }^2.\end{aligned}\]
( Des vecteurs orthogonaux \(2\) à \(2\) forment un système libre).
Soit \(S=(x_1,\dots,x_n)\) une famille de vecteurs
non-nuls deux à deux orthogonaux : \[\forall
(i,j)\in [\kern-0.127em[ 1, n ]\kern-0.127em]^2,
\quad i\neq j \Rightarrow \left( x_i \mid x_j \right)=0 .\]
Alors la famille \(S\) est libre.
Soient \(\alpha_1,\dots,\alpha_n\in\mathbb{R}\) tels
que \(\alpha_1 x_1+\dots+\alpha_n
x_n=0\). Soit \(i\in\llbracket
1,n\rrbracket\). Du fait de la bilinéarité du produit scalaire et
que les vecteurs de cette famille sont deux à deux orthogonaux : \[0=\left( x_i \mid \sum_{j=1}^n \alpha_i x_i
\right) = \sum_{j=1}^n \alpha_i
\left( x_i \mid x_j \right) = \alpha_i\left( x_i \mid x_i
\right)\] Comme \(x_i\neq 0\),
\(\left( x_i \mid x_i \right)\neq 0\)
et il vient que \(\alpha_i=0\). Cette
égalité est vraie pour tout \(i\in\llbracket
1,n\rrbracket\). On montre ainsi que la famille \(S\) est libre.
(Sous-espaces orthogonaux). Soient
\(F\) et \(G\) deux sous-espaces vectoriels de \(E\). On dit qu’ils sont orthogonaux si et
seulement si \[\forall x\in F, \forall y\in
G, \quad\left( x \mid y \right)=0.\]
(Orthogonal d’une partie). Soit \(A \subset E\) une partie de \(E\). On définit l’orthogonal de \(A\) comme étant le sous-ensemble de \(E\) noté \(A^{\perp}\) et donné par : \[A^{\perp}=\{ x\in E ~|~ \forall a\in A, \left( x
\mid a \right)=0 \}\]
(Propriétés de
l’orthogonal). Soient
\(A,B\subset E\) deux parties de \(E\).
Espaces euclidiens
On considère dans toute la suite de ce chapitre un espace euclidien \(E\) muni d’un produit scalaire noté \(\left( . \mid . \right)\) et \(\lVert . \rVert_{ }\) la norme euclidienne associée. On note \(n\) la dimension de \(E\).
Bases orthogonales, orthonormales
(Bases orthogonales, orthonormales).
Soit \(e=(e_1,\dots,e_n)\) une base de
\(E\). On dit que \(e\) est une base
Si on se donne un système \(\left(e_1,\dots,e_n\right)\) de vecteurs
deux à deux orthogonaux d’un espace vectoriel euclidien de dimension
\(n\) alors d’après la proposition
[deux_a_deux_orthogonaux_implique_libre], ce système est libre.
Comme il est libre de rang maximal c’est une base (orthogonale) de \(E\).
La base canonique de \(\mathbb{R}^{n}\) est orthonormale pour le
produit scalaire usuel.
( Calculs dans une base
orthonormale). Soit
\(e=(e_1,\dots,e_n)\) une base
orthonormale de \(E\).
Ces formules se prouvent facilement
en utilisant les règles de calcul avec le produit scalaire
[regles_calcul_prod_scalaire] et le fait que : \(\forall(i,j)\in [\kern-0.127em[ 1, n
]\kern-0.127em]^2, \quad \left( e_i \mid e_j
\right)=\delta_{ij}.\)
Procédé d’orthonormalisation de Schmidt
Erhard Schmidt, né le 13 janvier 1876 à Dorpat (Estonie), mort le 06 décembre 1959 à Berlin)
Mathématicien allemand. Il fait ses études, comme c’est souvent le cas à l’époque en Allemagne, dans différentes universités allemandes et les termine à Berlin. Il soutient sa thèse en 1905 sous la direction de David Hilbert. Elle porte sur les équations intégrales. Après avoir enseigné successivement dans les universités de Bonn, Zurich, Erlangen et Breslau, il est nommé en 1917 comme professeur à l’Université de Berlin où il occupe le poste laissé vacant par Schwarz. Dans les années 1930, il subit la montée du nazisme et alors que ses collègues juifs (Schur, von Mises) doivent quitter l’Université, il est sommé de prendre des résolutions contre les juifs. Il s’acquitte de cette tâche avec si peu de zèle que les nazis diront de lui à l’époque qu’il ne comprend pas le problème juifet qu’il ne sera pas critiqué par la suite. Erhard Schmidt est un des fondateurs de l’analyse fonctionnelle. Il a beaucoup contribué à la théorie des espaces de Hilbert que vous découvrirez en spé et a simplifié et généralisé un certain nombre de résultats d’Hilbert. C’est dans un article de 1907 sur les équations intégrales qu’il expose le procédé d’orthonormalisation. Notons que ce procédé avait été découvert au préalable par Laplace mais c’est Schmidt qui su en donner le premier un exposé clair.
(Théorème de Schmidt).
Soit \(E\) un espace euclidien de dimension \(n\) et \(e=(e_1,\dots,e_n)\) une base quelconque de
\(E\). Alors il existe une \(\varepsilon=(\varepsilon_1,\dots,\varepsilon_n)\)
de \(E\) vérifiant :
On va mettre en place un algorithme
permettant de construire la base \(\varepsilon\).
L’algorithme de construction de la
base orthonormale est aussi important que l’énoncé du théorème.
La matrice de passage de \(e\) vers \(\varepsilon\) est triangulaire supérieure.
(Pour orthonormaliser une famille de
vecteurs ). On souhaite appliquer l’algorithme de Schmidt à la base
\(\left(e_1,\dots,e_n\right)\) de \(E\). Pour ce faire :
La matrice de passage de \(e\) vers \(\varepsilon\) est triangulaire supérieure.
Soit l’espace \(E=\mathbb{R}^{3}\) muni du produit scalaire
usuel. Soient les vecteurs \(e_1=(2,0,0)\), \(e_2=(1,1,1)\) et \(e_3=(0,1,2)\). Construisons une base
orthonormale à partir de \(e=(e_1,e_2,e_3)\). D’après l’algorithme
d’orthonormalisation de Schmidt :
La famille \(\left(\varepsilon_1,\varepsilon_2,\varepsilon_3\right)\)
est une base orthonormale de \(E\).
> with(linalg):
Warning, the protected names norm and trace have been redefined and
unprotected
> e1 := vector([1,0,0]);
e1 := [1, 0, 0]
> e2 := vector([1,1,1]);
e2 := [1, 1, 1]
> e3 := vector([0,1,2]);
e3 := [0, 1, 2]
> GramSchmidt([e1,e2,e3],normalized);
[ [ 1 (1/2) 1 (1/2)] [ 1 (1/2) 1 (1/2)]]
[[1, 0, 0], [0, - 2 , - 2 ], [0, - - 2 , - 2 ]]
[ [ 2 2 ] [ 2 2 ]]
Conséquences
(Théorème de la base orthonormale
incomplète). Toute famille orthonormale \(\left(\varepsilon_1,\dots,\varepsilon_p\right)\)
d’un espace euclidien \(E \neq
\{0_E\}\) de dimension \(n\)
(\(p\leqslant n\)) peut être complétée
par des vecteurs \(\varepsilon_{p+1},\dots,\varepsilon_n\) de
\(E\) en sorte que la famille \(\left(\varepsilon_1,\dots,\varepsilon_n\right)\)
soit une base orthonormale de \(E\).
En appliquant le théorème de la base
incomplète, on peut compléter la famille orthonormale (et donc libre)
\(\left(\varepsilon_1,\dots,\varepsilon_p\right)\)
par des vecteurs \(e_{k+1},\dots,e_n\)
en une base \(e=\left(\varepsilon_1,\dots,\varepsilon_k,e_{k+1},\dots,e_n\right)\)
de \(E\). On applique le procédé
d’orthonormalisation de Schmidt à cette base , on peut construire des
vecteurs \(\varepsilon_{k+1},\dots,\varepsilon_n\) de
\(E\) tels que la famille \(\left(\varepsilon_1,\dots,\varepsilon_n\right)\)
soit orthonormale et tel que \(Vect\left(\varepsilon_1,\dots,\varepsilon_n\right)=Vect\left(\varepsilon_1,\dots,\varepsilon_k,e_{
k+1},\dots,e_n\right)=E\). Cette famille est donc libre et
génératrice et forme une base orthonormale de \(E\).
(Existence d’une base orthonormale).
Tout espace euclidien \(E \neq
\{0_E\}\) possède une base orthonormale.
Soit \(e\) une base de \(E\). En appliquant le procédé
d’orthonormalisation de Schmidt à cette famille, on construit une
famille orthonormale \(\varepsilon\)
telle que \(Vect\left(\varepsilon\right)=Vect\left(e\right)=E\).
Cette famille est donc libre et génératrice. Elle forme une base
orthonormale de \(E\).
( Propriétés de l’orthogonal en dimension
finie). Soit \(F\) un sous-espace
vectoriel de dimension \(p\) de \(E\). Alors
Montrons que \(F\) et \(F^\perp\) sont supplémentaires dans \(E\).
Un sous-espace vectoriel \(F\) d’un espace \(E\) de dimension finie possède, en général,
une infinité de supplémentaires. Si \(E\) est un espace euclidien, \(F\) n’admet qu’un et un seul supplémentaire
orthogonal : \(F^\perp\). Pour cette
raison, on dira que \(F^\perp\) est
supplémentaire orthogonal de \(F\) dans
\(E\).
(Théorème de Riesz). Soit \(E\) un espace euclidien et soit \(f\in E^{\star}\) une forme linéaire. Alors
il existe un unique vecteur \(z_f\in
E\) tel que \[\forall x\in E, \quad
f(x)=\left( z_f \mid x \right)\]
Pour tout \(z\in E\), posons : \[\varphi_z: \left\{ \begin{array}{ccl} E
& \longrightarrow & \mathbb{R} \\ x & \longmapsto &
\left( z \mid x \right) \end{array} \right. .\] Pour tout
\(z\in E\), \(\varphi_z\) est une forme linéaire. En
effet, fixons \(z\in E\). Pour tout
\(\alpha,\beta\in\mathbb{R}\) et pour
tout \(x,y\in E\) : \(\varphi_z\left(\alpha x+\beta y\right)=
\left( z \mid \alpha x+\beta y \right)=\alpha\left( z \mid x
\right)+\beta\left( z \mid y \right)=\alpha
\varphi_z\left(x\right)+\beta\varphi_z\left(y\right).\)
L’application \(\Phi\) donnée par \[\Phi: \left\{ \begin{array}{ccl} E &
\longrightarrow & E^* \newline z & \longmapsto &
\varphi_z \end{array} \right.\] est alors bien définie.
Montrons que c’est un isomorphisme d’espaces vectoriels.
Dans \(\mathbb{R}^{n}\) muni du produit scalaire
usuel, si l’on considère un hyperplan \(H\) d’équation : \[\alpha_1 x_1 + \cdots + \alpha_n x_n = 0\]
Alors cet hyperplan est orthogonal au vecteur \(n = (\alpha_1,\dots,
\alpha_n)\) : \(H =
\{n\}^{\perp}\).
Projecteurs et symétries orthogonaux
Projecteurs orthogonaux
(Projecteur orthogonal). Soit \(p\in L(E)\) un projecteur (c’est-à-dire une
endomorphisme \(p\) de \(E\) vérifiant \(p\circ p= p\)). On dit que \(p\) est un projecteur orthogonal
si et seulement si \(\operatorname{Ker}p\) et \(\mathop{\mathrm{Im}}p\) sont deux
sous-espaces orthogonaux de \(E\) :
\[\forall x\in \operatorname{Ker}p,~\forall
y\in \mathop{\mathrm{Im}}p, \quad\left( x \mid y \right)=0\]
Soit \(p\) un projecteur orthogonal et soit \(x\in E\). Alors \(\left( p\left(x\right) \mid x-p\left(x\right)
\right)=0\). En effet \(x-p\left(x\right) \in {\rm Ker}\,p = \mathop{\rm
Im}f^\perp\)
(Calcul du projeté orthogonal). Soit
\(F\) un sous-espace vectoriel de \(E\) et soit \(x
\in E\). On suppose que
alors le projeté orthogonal \(p(x)\)
du vecteur \(x\) sur le sous-espace
\(F\) vaut : \[\boxed{p(x) = \sum_{i=1}^p \left( x \mid
\varepsilon_i \right).\varepsilon_i}.\]
D’après le théorème
[Calculs_dans_base_orthonormale] appliqué à \(p\left(x\right)\in
F\) et à la base orthonormale \(\varepsilon\) de \(F\) donnée : \[\begin{aligned}
p\left(x\right)&=& \sum_{i=1}^p \left( p\left(x\right) \mid
\varepsilon_i \right) \varepsilon_i \\
&=& \sum_{i=1}^p \left( x \mid \varepsilon_i \right)
\varepsilon_i -\sum_{i=1}^p
\left( x-p\left(x\right) \mid \varepsilon_i \right)
\varepsilon_i \newline
&=& \sum_{i=1}^p \left( x \mid \varepsilon_i \right)
\varepsilon_i\end{aligned}\] car \(x-p\left(x\right)\in {\rm Ker}\,p =
F^\perp\) et donc : \[\forall i
\in\llbracket 1,p\rrbracket,\quad \left( x-p\left(x\right) \mid
\varepsilon_i \right)=0.\]
(Le projeté \(p(x)\) réalise la meilleure approximation
de \(x\) par des vecteurs de \(F\)). Soit \(F\) un sous-espace vectoriel
de \(E\). Pour tout \(x\in E\), on pose : \[d(x,F)= \inf_{f\in F} \lVert x-f \rVert_{ }
.\] Alors :
Symétries orthogonales, réflexions
(Symétrie orthogonale, réflexion).
Soit \(s\in L(E)\) une symétrie
vectorielle (c’est-à-dire un endomorphisme de \(E\) tel que \(s\circ s =
\mathop{\mathrm{id}}\nolimits\)).
Endomorphismes orthogonaux, matrices orthogonales
Endomorphismes orthogonaux
On considère dans toute la suite un espace euclidien \(E\) muni d’un produit scalaire noté \(\left( . \mid . \right)\) et \(\lVert . \rVert_{ }\) la norme euclidienne associée. On note \(n\) la dimension de \(E\).
(Endomorphismes orthogonaux). Soit
\(u\in L(E)\). On dit que \(u\) est un endomorphisme
orthogonal (ou une isométrie) si \[\forall x\in E, \quad\lVert u(x) \rVert_{ } =
\lVert x \rVert_{ }.\] On note \(\mathrm{O}_{ }(E)\) l’ensemble des
endomorphismes orthogonaux de \(E\).
( Un endomorphisme orthogonal conserve le
produit scalaire). On
a l’équivalence : \[u \in \mathrm{O}_{ }(E)
\Longleftrightarrow
\forall (x,y)\in E^2, \quad\left( u(x) \mid u(y) \right) = \left( x
\mid y \right) .\]
(Les endomorphismes orthogonaux sont des
automorphismes). Soit \(u\in \mathrm{O}_{
}(E)\) un endomorphisme orthogonal de \(E\) alors \(u\) est un automorphisme de \(E\) et \(u^{-1}\in \mathrm{O}_{ }(E)\) .
Soit \(x\in
{\rm Ker}\,u\) alors \[\left\|x\right\|=\left\|u\left(x\right)\right\|=0\]
et d’après les propriétés de la norme [axiomes_norme], on peut
affirmer que \(x=0\). Donc \({\rm Ker}\,u=\left\{0\right\}\) et \(u\) est injectif. D’après la
caractérisation des automorphismes d’un \(\mathbb{K}\)-espace vectoriel de dimension
finie (corollaire [carac_autom15:26:38] page
[carac_autom15:26:38]), \(u\)
est un automorphisme de \(E\). Enfin,
considérons \(x\in E\) et notons \(y=u\left(x\right)\). \(u\) étant un endomorphisme orthogonal de
\(E\), on a \(\left\|x\right\|=\left\|y\right\|\). Donc,
comme \(u^{-1}\left(y\right)=x\), il
vient que \(\left\|u^{-1}\left(y\right)\right\|=\left\|x\right\|=\left\|y\right\|\)
et \(u^{-1}\) est bien lui aussi un
endomorphisme orthonal de \(E\).
(Groupe orthogonal). \((\mathrm{O}_{ }(E), \circ)\) est un
sous-groupe du groupe linéaire \((GL_{
}\left(E\right),\circ)\). On l’appelle le groupe
orthogonal de \(E\).
\(\mathrm{O}_{ }(E)\) est un sous-ensemble
non vide de \({\rm GL}(E)\) car il
contient \(\mathop{\mathrm{id}}\nolimits_E\). D’après
le théorème [Caracterisation_des_sous_groupes], il suffit de
prouver que pour tout \(u,v\in \mathrm{O}_{
}(E)\), \(u\circ v^{-1}\in
\mathrm{O}_{ }(E)\). Mais d’après la proposition précédente,
\(v^{-1}\) est aussi une isométrie de
\(E\) et pour tout \(x\in E\), on a : \[\left\|u\circ
v^{-1}\left(x\right)\right\|=\left\|u\left(v^{-1}\left(x\right)\right)\right\|=\left\|v^{-1}\left(x\right)\right\|=\left\|x\right\|\]
ce qui prouve que \(u\circ v^{-1}\in
\mathrm{O}_{ }(E)\). Le couple \((\mathrm{O}_{ }(E), \circ)\) est donc un
sous-groupe de \((GL_{
}\left(E\right),\circ)\).
(Une caractérisation pratique des
automorphismes
orthogonaux).
Soit \(u\in\mathfrak{L}\left(E\right)\)
et soit \(e=\left(e_1,\dots,e_n\right)\) une base
orthonormale de \(E\). On a équivalence
entre :
Matrices orthogonales
(Matrices orthogonales). On dit qu’une
matrice \(A\in
\mathfrak{M}_{n}(\mathbb{\mathbb{R} })\) est orthogonale
si et seulement si : \[{A}^{\mathrm{T}}A=I_n
.\] On note \(\mathrm{O}_{n}(\mathbb{R}
)\) l’ensemble des matrices orthogonales.
Une matrice orthogonale est
inversible et \[A^{-1}={A}^{\mathrm{T}}.\] Ce qui montre
qu’elle vérifie également \[A{A}^{\mathrm{T}}=I_n.\]
( Caractérisation pratique des matrices
orthogonales).
Soit \(A=(a_{ij}) \in
\mathfrak{M}_{n}(\mathbb{\mathbb{R} })\). Alors \(A\) est une matrice orthogonale si et
seulement si ses vecteurs colonnes \((C_1,\dots,C_n)\) forment une base
orthonormale pour le produit scalaire usuel de \(\mathbb{R}^{n}\), c’est-à-dire : \[\forall (p,q)\in [\kern-0.127em[ 1, n
]\kern-0.127em]^2, \quad p\neq q \Rightarrow \sum_{i=1}^n
a_{ip}a_{iq}=0 \quad \textrm{ et} \quad
\forall j \in [\kern-0.127em[ 1, n ]\kern-0.127em], \quad\sum_{i=1}^n
a_{ij}^2=1.\]
Ces formules sont une conséquence
directe de la définition du produit matriciel et de l’égalité : \(A{A}^{\mathrm{T}}=I_n\)
(La matrice d’une isométrie dans une base
orthonormale est
orthogonale). On
considère une base orthonormale \(e=\left(e_1,\dots,e_n\right)\) d’un espace
euclidien \(E\), et un endomorphisme
\(u \in L(E)\). Notons \(A = \mathop{\mathrm{Mat}}_{e}(u)\). On a
équivalence entre :
Notons \(A=\left(a_{ij}\right)_{\left(i,j\right)\in\llbracket
1,n\rrbracket^2}\). Par bilinéarité du produit scalaire, il
vient, pour tout \(i,j\in\llbracket
1,n\rrbracket\) : \[\begin{aligned}
\left( u\left(e_i\right) \mid u\left(e_j\right)
\right)&=&\sum_{k=1}^n\sum_{k'=1}^n a_{ki}a_{k'j}
\left( e_k \mid e_k' \right)\end{aligned}\] et donc, comme
\(e\) est orthonormale : \[\begin{aligned}
\left( u\left(e_i\right) \mid u\left(e_j\right)
\right)&=&\sum_{k=1}^n a_{ki}a_{kj}
\quad \left(\star\right).\end{aligned}\]
Le résultat précédent est faux si
la base \(\varepsilon\) n’est pas
orthonormale.
(Caractérisation des matrices de passage
entre bases orthonormales).
Soit \(e\) une base orthonormale de \(E\) et \(f\) une base de \(E\). Soit \(P=P_{e\rightarrow f}\) la matrice de
passage entre ces deux bases. On a équivalence entre :
Etude du groupe orthogonal
Soit \(A\in\mathop{\mathrm{Mat}}_n\left(\mathbb{R}\right)\)
une matrice orthogonale. Comme \(A.{A}^{\mathrm{T}}=I_n\) et que \(\mathop{\rm det}\left(A\right)=\mathop{\rm
det}\left({A}^{\mathrm{T}}\right)\), il vient que : \(\mathop{\rm det}\left(A\right)=\pm 1\).
(Groupe spécial orthogonal \({O}_{n}^{+}(\mathbb{R} )\)). Soit une
matrice orthogonale \(A \in
\mathrm{O}_{n}(\mathbb{R} )\). Alors \(\mathop{\rm det}(A) = \pm 1\). On définit
les sous-ensembles de \(\mathrm{O}_{n}(\mathbb{R} )\) suivants :
\[{O}_{n}^{+}(\mathbb{R} )= \{A \in
\mathrm{O}_{n}(\mathbb{R} ) \mid \mathop{\rm det}A = +1 \} \quad
\mathrm{O}_{n}^{-}(\mathbb{R} ) = \{A \in \mathrm{O}_{n}(\mathbb{R} )
\mid \mathop{\rm det}A = -1 \}\] Les matrices de \({O}_{n}^{+}(\mathbb{R} )\) sont appelées
spéciales orthogonales. L’ensemble \({O}_{n}^{+}(\mathbb{R} )\) est un
sous-groupe du groupe orthogonal \((\mathrm{O}_{n}(\mathbb{R} ), \times)\).
On a déjà que \(I_n\in {O}_{n}^{+}(\mathbb{R} )\). Soient
\(A,B\in {O}_{n}^{+}(\mathbb{R} )\)
alors \(A.B^{-1}\) est encore élement
de \(\mathrm{O}_{n}(\mathbb{R} )\) car
ce dernier est un groupe. De plus, avec les propriétés du déterminant
\(\mathop{\rm
det}\left(A.B^{-1}\right)=1\) donc \(A.B^{-1}\in
{O}_{n}^{+}(\mathbb{R} )\) et \({O}_{n}^{+}(\mathbb{R} )\) est bien un
sous-groupe de \(\mathrm{O}_{n}(\mathbb{R}
)\).
(Critère pour reconnaître les matrices de
\({O}_{n}^{+}(\mathbb{R} )\)).
Soit une matrice orthogonale \(A \in
\mathrm{O}_{n}(\mathbb{R} )\). Soit un coefficient \(a_{ij} \neq 0\) de la matrice \(A\) et \(A_{ij}\) le cofacteur associé.
Soit \(A=\left(a_{ij}\right)\in\mathrm{O}_{n}(\mathbb{R}
)\). L’inverse de la matrice \(A\) est \({A}^{\mathrm{T}}\). Cet inverse est aussi
donné par \({\left(\mathop{\rm
Com}{A}\right)}^{\mathrm{T}}/\mathop{\rm det}{A}\) où \(\mathop{\rm Com}{A}\) est la comatrice de
\(A\) (voir section
[Inversion_de_matrice_comatrice] page
[Inversion_de_matrice_comatrice]). Alors par identification des
coefficients dans ces deux matrices, pour tout \(\left(i,j\right)\in\llbracket
1,n\rrbracket^2\), on a : \(a_{ij}=A_{ij}/\mathop{\rm det}A\). Si \(A \in
{O}_{n}^{+}(\mathbb{R} )\), alors \(\mathop{\rm det}A=1\) et \(a_{ij} = A_{ij}\). Si \(A \in
\mathrm{O}_{n}^{-}(\mathbb{R} )\), alors \(\mathop{\rm det}A=-1\) et \(a_{ij} = - A_{ij}\).
En pratique, pour vérifier qu’une
matrice \(A \in \mathrm{O}_{n}(\mathbb{R}
)\) est spéciale orthogonale, on calcule le déterminant \(\Delta_{11}=m_{11}\) et on compare son
signe avec celui du coefficient \(a_{11}\).
(Isométries directes et indirectes).
Soit une isométrie \(u \in \mathrm{O}_{
}(E)\) d’un espace euclidien orienté \(E\). Alors \(\mathop{\rm det}(u) = \pm 1\). On dit que
\(u\) est une isométrie
directe de \(E\) lorsque \(\mathop{\rm det}(u) =
+1\), et une isométrie indirecte lorsque \(\mathop{\rm det}(u) = -1\). On note \(\mathrm{O}_{ }^{+}(E)\) l’ensemble des
isométries directes, et \(\mathrm{O}_{
}^{-}(E)\) l’ensemble des isométries indirectes de \(E\). L’ensemble \(\mathrm{O}_{ }^{+}(E)\) est un sous-groupe
du groupe orthogonal \((\mathrm{O}_{ }(E),
\circ)\).
Si \(\varepsilon\) est une base orthonormale de
\(E\), et si \(U\) est la matrice de l’isométrie \(u\) dans la base \(\varepsilon\), alors \[\underset{(i)}{\bigl( u \textrm{ isométrie
directe } \bigr)} \Longleftrightarrow \underset{(ii)}{\bigl( U \in
{O}_{n}^{+}(\mathbb{R} ) \bigr)}.\]
Dans un espace vectoriel euclidien
orienté, une isométrie directe transforme une base orthonormée directe
en une base orthonormée directe. (et une isométrie directe transforme
une base orthonormée directe en une base orthonormée indirecte.)
Dans un espace vectoriel euclidien
orienté, tout endomorphisme qui transforme une base orthonormée directe
en une base orthonormée directe est une isométrie directe.
Etude du groupe orthogonal en dimension \(2\).
On considère dans tout ce paragraphe un espace euclidien orienté \(E\) de dimension \(2\).
(Etude de \({O}_{2}^{+}(\mathbb{R} )\)).
(Rotations vectorielles). Soit \(E\) un espace euclidien de dimension \(2\) orienté et \(u\in \mathrm{O}_{ }^{+}(E)\) une isométrie
directe. Alors il existe un unique \(\theta\in[0,2\pi[\) tel que pour toute
base orthonormale directe \(\varepsilon\) de \(E\), \[Mat_{\varepsilon}(u)=\begin{pmatrix} \cos\theta
& -\sin\theta \newline
\sin\theta & \cos\theta \end{pmatrix} .\] On dit que
\(u\) est la rotation vectorielle
d’angle \(\theta\) et on note \(u = r_{\theta}\).
C’est une conséquence directe du
théorème précédent et du théorème
[la_matrice_dune_isom_est_orthogonale].
(Angle de deux vecteurs). Soit \(E\) un espace euclidien orienté de
dimension \(2\) et \((U,V)\in
E^2\) deux vecteurs non-nuls. On définit \[u=\dfrac{U}{\lVert U \rVert_{ }}, \quad
v=\dfrac{V}{\lVert V \rVert_{ }}.\] Alors il existe une unique
rotation \(r\in {O}_{2}^{+}(\mathbb{R}
)\) telle que \(v=r(u)\). Si
\(\theta\) est l’angle de la rotation
\(\theta \in [0,2\pi[\), on note \[\widehat{(U,V)}=\theta\] l’angle orienté
des vecteurs \((U,V)\). On a alors :
\[\boxed{\mathop{\mathrm{Det}}(U,V)=\lVert U
\rVert_{ }\lVert V \rVert_{ }\sin\theta } \quad \textrm{ et} \quad
\boxed{\left( U \mid V \right)=\lVert U \rVert_{ }\lVert V \rVert_{
}\cos\theta}.\]
On utilise ces formules pour
déterminer l’angle entre deux vecteurs. Par exemple dans \(\mathbb{R}^{2}\) euclidien orienté usuel,
quel est l’angle entre les vecteurs \(U=(1,1)\) et \(V=(0,1)\) ?
(Etude de \(O_2^{-}(\mathbb{R} )\) ). Considérons
la matrice \(P=\begin{pmatrix}
1&0\\0&-1\end{pmatrix} \in \mathrm{O}_{2}^{-}(\mathbb{R}
)\). L’application \[\Delta :
\left\{ \begin{array}{ccl} {O}_{2}^{+}(\mathbb{R} ) &
\longrightarrow & \mathrm{O}_{2}^{-}(\mathbb{R} ) \\ A &
\longmapsto & AP \end{array} \right.\] est une bijection.
Toute matrice de \(\mathrm{O}_{2}^{-}(\mathbb{R} )\) est de la
forme \[B=\begin{pmatrix} \cos\theta &
\sin\theta \newline \sin\theta &
-\cos\theta \end{pmatrix} .\]
Laissée en exercice au lecteur.
(Isométries indirectes et réflexion).
Une isométrie
indirecte d’un espace euclidien orienté de dimension \(2\) est une symétrie orthogonale par
rapport à une droite, c’est-à-dire une réflexion.
La matrice d’une isométrie indirecte
\(u\) dans une base orthonormale \(e=\left(e_1,e_2\right)\) étant de la forme
\(A=\begin{pmatrix} \cos\alpha &
\sin\alpha \\
\sin\alpha &
-\cos\alpha \end{pmatrix}\) et cette matrice vérifiant \(A^2=A\), on en déduit que \(u\) est une symétrie par rapport à \({\rm
Ker}\,\left(u-\mathop{\mathrm{id}}\nolimits\right)\)
parallèlement à \({\rm Ker}\,
\left(u+\mathop{\mathrm{id}}\nolimits\right)\). Déterminons \({\rm
Ker}\,\left(u-\mathop{\mathrm{id}}\nolimits\right)\). On a, dans
la base \(e\) : \[\begin{aligned}
& &U=xe_1+ye_2\in {\rm
Ker}\,\left(u-\mathop{\mathrm{id}}\nolimits\right)\\
&\Longleftrightarrow& \begin{cases} \left(\cos \alpha -1
\right)x+\sin\alpha ~y =0 \\ \sin \alpha ~x
-\left(\cos \alpha +1\right)y=0 \end{cases}\\
&\Longleftrightarrow& \begin{cases} \sin\dfrac{\alpha}{2}\left(
\sin\dfrac{\alpha }{2} ~x-\cos
\dfrac{\alpha}{2} ~y \right) =0\\ \cos\dfrac{\alpha}{2}\left(
\sin\dfrac{\alpha }{2}
~x-\cos \dfrac{\alpha}{2} ~y \right) =0 \end{cases} \\
&\Longleftrightarrow& \sin\dfrac{\alpha }{2} ~x-\cos
\dfrac{\alpha}{2} ~y =0
\end{aligned}\] car on ne peut avoir en même temps \(\sin\dfrac{\alpha }{2}=0\) et \(\cos\dfrac{\alpha }{2}=0\). On en déduit
que \({\rm
Ker}\,\left(u-\mathop{\mathrm{id}}\nolimits\right)\) est la
droite vectorielle d’équation polaire \(\theta=\dfrac{\alpha}{2}\). On montrerait
de même que \(U=xe_1+ye_2\in {\rm
Ker}\,\left(u-\mathop{\mathrm{id}}\nolimits\right)\) si et
seulement si \(\sin\dfrac{\alpha }{2} ~x+\cos
\dfrac{\alpha}{2} ~y =0\). Les deux droites vectorielles \({\rm
Ker}\,\left(u-\mathop{\mathrm{id}}\nolimits\right)\) et \({\rm
Ker}\,\left(u-\mathop{\mathrm{id}}\nolimits\right)\) sont bien
orthogonales et \(u\) est une réflexion
du plan.
(Décomposition des rotations). Soit
\(E\) un espace euclidien orienté de
dimension \(2\).
Les réflexions engendrent le groupe
orthogonal \(O(E_2)\). Toute isométrie
de \(E_2\) s’écrit comme un produit de
\(1\) ou \(2\) réflexions.
Etude du groupe orthogonal en dimension 3
On considère dans tout ce paragraphe un espace euclidien orienté \(E\) de dimension \(3\).
Produit mixte, produit vectoriel
(Déterminant dans une base orthonormale
directe). Soit \(u,v,w\) trois
vecteurs. Le déterminant de ces trois vecteurs exprimé dans une base
orthonormale directe ne dépend pas de la base orthonormale directe
choisie.
On utilise la formule de changement
de base : \[\mathop{\rm
det}_{e'}\left(x_1,\dots,x_n\right)=\mathop{\rm
det}_{e'}\left(e_1,\dots,e_n\right)\times
\mathop{\rm det}_e\left(x_1,\dots,x_n\right).\] La matrice de
passage \(P_{e' \gets e}\) de \(e\) vers \(e'\) est donc aussi la matrice dans la
base \(e\) de l’endomorphisme qui
transforme \(e\) en \(e'\), donc qui transforme une base
orthonormée directe en une base orthonormée directe. C’est donc une
matrice de \(O^+(E)\). Elle a donc un
déterminant égal à \(1\). Donc \(\mathop{\rm
det}_{e'}\left(x_1,\dots,x_n\right)= \mathop{\rm
det}_e\left(x_1,\dots,x_n\right)\). Ce qu’il fallait vérifier.
La propriété précédente permet d’énoncer la
(Produit mixte). Soient \(u,v,w\) trois vecteurs. On appelle produit
mixte de \((u,v,w)\) le déterminant de
\((u,v,w)\) exprimé dans une base
orthonormée directe. On le note \([u,v,w]\).
Les propriétés du determinant permettent d’énoncer :
(Propriétés du produit mixte). Soit
\((u,v,w)\in E^3\).
D’après le théorème de Riesz, il existe un unique vecteur \(x\in E\) tel que \(\forall w\in E,\, [u,v,w] = \left( x \mid w \right)\). D’où la définition :
(Produit vectoriel). Soit \(u\) et \(v\) deux vecteurs. On appelle produit
vectoriel de \(u\) et \(v\) l’unique vecteur noté \(u\wedge v\) vérifiant \(\forall w\in E,\,[u,v,w] =
\left( u\wedge v \mid w \right)\).
Les propriétés du produit mixte permettent d’établir
(Propriétés du produit vectoriel).
Soit \((u,v,w)\in E^3\).
ainsi que
(Expression du produit vectoriel dans une
base orthonormale directe). Soit \((i,j,k)\) une base orthonormale
directe de \(E\). on a
\(\bullet\) \(i\wedge j = k\), \(j\wedge k = i\), \(k\wedge i = j\),
et si \(u(x_1,y_1,z_1)\) et \(v(x_2,y_2,z_2)\), alors \(u\wedge v(L,M,N)\) avec
\[L = \begin{vmatrix} y_1 & y_2 \\ z_1 & z_2 \end{vmatrix}, \qquad M = \begin{vmatrix} z_1 & z_2 \\ x_1 & x_2 \end{vmatrix}, \qquad N = \begin{vmatrix} x_1 & x_2 \newline y_1 & y_2 \end{vmatrix}.\]
\(\bullet\) \(i\wedge j = k\), \(j\wedge k = i\), \(k\wedge i = j\),
et si \(u(x_1,y_1,z_1)\) et \(v(x_2,y_2,z_2)\), alors \(u\wedge v(L,M,N)\) avec
\[L = \begin{vmatrix} y_1 & y_2 \\ z_1 & z_2 \end{vmatrix}, \qquad M = \begin{vmatrix} z_1 & z_2 \\ x_1 & x_2 \end{vmatrix}, \qquad N = \begin{vmatrix} x_1 & x_2 \newline y_1 & y_2 \end{vmatrix}.\]
Sous-espaces stables
Soit \(u\) une isométrie de \(E\). Il existe un vecteur non nul \(\varepsilon\in E\) tel que soit \(u\left(\varepsilon\right)=\varepsilon\),
soit \(u\left(\varepsilon\right)=-\varepsilon\).
Intéressons nous au polynôme \(P\left(X\right)=\mathop{\rm det}\left(u-X
\mathop{\mathrm{id}}\nolimits\right)=0\) et montrons que \(1\) ou \(-1\) est une de ses racines. \(P\) est un polynôme à coefficients réels de
degré \(3\) et le coefficient de son
terme dominant est \(-1\). Il vérifie
donc \(\displaystyle{\lim_{X \rightarrow
-\infty}P}=+\infty\) et \(\displaystyle{\lim_{X \rightarrow
+\infty}P}=-\infty\). \(P\) est
de plus continue sur \(\mathbb{R}\).
D’après le théorème des valeurs intermédiaires, \(P\) admet une racine réelle \(\alpha\in\mathbb{R}\). On a alors \(\mathop{\rm det}\left(u-\alpha
\mathop{\mathrm{id}}\nolimits\right)=0\) et \(\operatorname{Ker}\left(u-\alpha
\mathop{\mathrm{id}}\nolimits\right)\) n’est pas réduit au
vecteur nul. Il existe donc un vecteur non nul \(\varepsilon\in E\) tel que \(u\left( \varepsilon\right)= \alpha
\varepsilon\). Mais \(u\) étant
une isométrie, il vient : \(\left\|u\left(\varepsilon\right)\right\|=\left|\alpha\right|\left\|\varepsilon\right\|=\left\|\varepsilon\right\|\)
et donc \(\alpha=\pm
1\). On a ainsi prouvé l’existence d’un vecteur \(\varepsilon\in E\) tel que \(u\left(\varepsilon\right)=\varepsilon\) ou
\(u\left(\varepsilon\right)=-\varepsilon\).
Soit \(u\) une isométrie de \(E\) et soit \(\varepsilon\in E\) un vecteur non nul tel
que \(u\left(\varepsilon\right)=\pm
\varepsilon\). Considérons \(D=Vect\left(\varepsilon\right)\) et soit
\(H\) un supplémentaire orthogonale à
\(D\). Alors :
Avec les notations des deux
lemmes précédents, considérons \(\varepsilon_3=\dfrac{\varepsilon}{\left\|\varepsilon\right\|}\).
On fixe ainsi une orientation de \(D\)
et on a encore \(u\left(\varepsilon_3\right)=\pm
\varepsilon_3\). Le vecteur \(\varepsilon_3\) induit une orientation du
plan \(H\). Considérons \(\left(\varepsilon_1,\varepsilon_2\right)\)
une base orthonormale directe de \(H\).
La famille \(\left(\varepsilon_1,\varepsilon_2,\varepsilon_3\right)\)
est une base orthonormale directe de l’espace \(E\). Comme \(u_{|H}\) est une isométrie de \(H\), d’après le travail effectué dans le
paragraphe [Etude_gr_orthog_dim_2], on a deux possibilités pour
\(u_{|H}\) :
On notera \(A\) la matrice de \(u\) dans la base \(\left(\varepsilon_1,\varepsilon_2,\varepsilon_3\right)\) et \(E(1) = \operatorname{Ker}(u - \mathop{\mathrm{id}}\nolimits)\) le sous-espace vectoriel de \(E\) des vecteurs invariants par \(u\).
Au regard des \(4\) formes précédentes pour la matrice
\(A\), \(u\) est une isométrie directe dans les cas
\(1\) et \(4\) et indirecte dans les cas \(2\) et \(3\).
Isométries directes
(Isométries directes en dimension \(3\) : rotations
vectorielles).
Soit une isométrie directe \(u\in \mathrm{O}_{
}^{+}(E_3)\). On note \(E(1) =
\operatorname{Ker}(u - \mathop{\mathrm{id}}\nolimits)\) le
sous-espace vectoriel formé des vecteurs invariants par \(u\). On a montré que :
L’angle de la rotation dépend du
choix du vecteur \(d\). Si l’on choisit
\(d' = -d\) pour diriger l’axe,
l’angle \(\theta\) est transformé en
son opposé.
Ne pas confondre l’angle \(\theta\) de la rotation avec l’angle entre
les vecteurs \(x\) et \(r(x)\) !
(Détermination de l’angle d’une
rotation). Soient \(E\) un espace
euclidien orienté de dimension \(3\),
\(r\) une rotation et \(\varepsilon\) un vecteur unitaire qui
dirige l’axe de cette rotation. Ce vecteur \(\varepsilon\) définit une orientation du
plan \(H=\mathop{\mathrm{Vect}}{d}^{\perp}\) et
donc de l’angle \(\theta\) de \(r\). Soit \(x \in
H\) : \[\boxed{r(x)=\cos\theta . x +
\sin\theta . \varepsilon\wedge x }.\]
Si \(x=0\) le résultat est évident. Supposons
que \(x\neq 0\). On peut, sans perdre
en généralité, supposer de plus que \(x\) est unitaire. Posons \(y=\varepsilon\wedge x\). \(y\) est un vecteur orthogonal à \(\varepsilon\) et est donc élément de \(H\). La famille \(\left(x,y,\varepsilon\right)\) forme une
base orthonormale directe de \(E\) et
la matrice de \(r\) dans cette base est
\[\begin{pmatrix} \cos\theta &
-\sin\theta&0 \\
\sin\theta & \cos\theta & 0 \newline
0 & 0 & 1 \end{pmatrix}.\] L’image de \(x\) par \(r\) est donc le vecteur : \[r\left(x\right)=\cos \theta . x + \sin \theta .
y= \cos\theta . x + \sin\theta .
\varepsilon\wedge x.\]
Cette proposition donne un moyen
pratique de déterminer les éléments caractéristiques d’une rotation :
(Pour déterminer les éléments
caractéristiques d’une rotation).
On peut également utiliser les
remarques suivantes pour étudier une rotation \(u\) donnée par sa matrice \(A\) dans une base quelconque :
(Pour étudier une rotation \(u\) donnée par sa matrice \(A\)).
Dans l’espace \(\mathbb{R}^{3}\) orienté euclidien usuel,
on considère l’endomorphisme de matrice \[A=\dfrac{1}{2 \sqrt{2}}\begin{pmatrix}
1+\sqrt{2} & -\sqrt{2} & \sqrt{2}-1 \\
\sqrt{2} & 2 & -\sqrt{2} \\
\sqrt{2}-1 & \sqrt{2} & 1+\sqrt{2} \end{pmatrix}\]
dans la base canonique. On va reconnaître cet endomorphisme et préciser
ses éléments caractéristiques. On flaire une isométrie : On calcule la
norme du premier vecteur colonne
\(\dfrac{1}{(2\sqrt2)^2} (1 + 2\sqrt2 + 2 + 2 + 2 - 2\sqrt2 + 1) = 1\). Itou pour le deuxième \({\scriptstyle 1\over\scriptstyle(2\sqrt 2)^2} (2 + 4 + 2) = 1\). Le produit scalaire de ces deux vecteurs colonnes égale \({\scriptstyle 1\over\scriptstyle(2\sqrt 2)^2} ( -\sqrt2 - 2 + 2\sqrt2 + 2 -\sqrt2 ) = 0\). Le produit vectoriel de ces deux vecteurs colonnes a pour coordonnées \({\scriptstyle 2-2(\sqrt 2-1)\over\scriptstyle(2\sqrt 2)^2} = {\scriptstyle 1\over\scriptstyle 2\sqrt 2}\,{\scriptstyle 4-2\sqrt 2\over\scriptstyle 2\sqrt 2} = {\scriptstyle\sqrt 2-1\over\scriptstyle 2\sqrt 2}\) , \({\scriptstyle-(\sqrt 2-1)\sqrt 2 -\sqrt 2(1+\sqrt 2)\over\scriptstyle(2\sqrt 2)^2} = {\scriptstyle 1\over\scriptstyle 2\sqrt 2}\,{\scriptstyle-2+\sqrt 2-\sqrt 2-2\over\scriptstyle 2\sqrt 2} = {\scriptstyle-\sqrt 2\over\scriptstyle 2\sqrt 2}\), \({\scriptstyle 2(1+\sqrt 2)+(\sqrt 2)^2\over\scriptstyle(2\sqrt 2)^2} = {\scriptstyle 1\over\scriptstyle 2\sqrt 2}\, {\scriptstyle 2+2\sqrt 2 + 2\over\scriptstyle 2\sqrt 2}= {\scriptstyle\sqrt 2+1\over\scriptstyle 2\sqrt 2}\).
On retrouve bien le troisième vecteur colonne. On a donc une isométrie positive. C’est donc une rotation d’angle \(\theta\). Comme la trace égale \({\scriptstyle 4+2\sqrt 2\over\scriptstyle 2\sqrt 2} = \sqrt2 + 1 = 1 + 2\cos\theta\). Donc \(\cos\theta = {\scriptstyle\sqrt 2\over\scriptstyle 2}\).
Pour trouver l’axe, on résout le système \(\left\lbrace \begin{array}{rrrrrrrrr} (1+\sqrt{2})&x & -\sqrt{2} &y& +(\sqrt{2}-1) &z& = &2 \sqrt{2}&x \\ \sqrt{2} &x& +2&y & -\sqrt{2}&z&= &2 \sqrt{2}&y\\ (\sqrt{2}-1) &x & +\sqrt{2} &y & (1+\sqrt{2}) &z&= &2 \sqrt{2}&z \end{array}\right.\).
\(\dfrac{1}{(2\sqrt2)^2} (1 + 2\sqrt2 + 2 + 2 + 2 - 2\sqrt2 + 1) = 1\). Itou pour le deuxième \({\scriptstyle 1\over\scriptstyle(2\sqrt 2)^2} (2 + 4 + 2) = 1\). Le produit scalaire de ces deux vecteurs colonnes égale \({\scriptstyle 1\over\scriptstyle(2\sqrt 2)^2} ( -\sqrt2 - 2 + 2\sqrt2 + 2 -\sqrt2 ) = 0\). Le produit vectoriel de ces deux vecteurs colonnes a pour coordonnées \({\scriptstyle 2-2(\sqrt 2-1)\over\scriptstyle(2\sqrt 2)^2} = {\scriptstyle 1\over\scriptstyle 2\sqrt 2}\,{\scriptstyle 4-2\sqrt 2\over\scriptstyle 2\sqrt 2} = {\scriptstyle\sqrt 2-1\over\scriptstyle 2\sqrt 2}\) , \({\scriptstyle-(\sqrt 2-1)\sqrt 2 -\sqrt 2(1+\sqrt 2)\over\scriptstyle(2\sqrt 2)^2} = {\scriptstyle 1\over\scriptstyle 2\sqrt 2}\,{\scriptstyle-2+\sqrt 2-\sqrt 2-2\over\scriptstyle 2\sqrt 2} = {\scriptstyle-\sqrt 2\over\scriptstyle 2\sqrt 2}\), \({\scriptstyle 2(1+\sqrt 2)+(\sqrt 2)^2\over\scriptstyle(2\sqrt 2)^2} = {\scriptstyle 1\over\scriptstyle 2\sqrt 2}\, {\scriptstyle 2+2\sqrt 2 + 2\over\scriptstyle 2\sqrt 2}= {\scriptstyle\sqrt 2+1\over\scriptstyle 2\sqrt 2}\).
On retrouve bien le troisième vecteur colonne. On a donc une isométrie positive. C’est donc une rotation d’angle \(\theta\). Comme la trace égale \({\scriptstyle 4+2\sqrt 2\over\scriptstyle 2\sqrt 2} = \sqrt2 + 1 = 1 + 2\cos\theta\). Donc \(\cos\theta = {\scriptstyle\sqrt 2\over\scriptstyle 2}\).
Pour trouver l’axe, on résout le système \(\left\lbrace \begin{array}{rrrrrrrrr} (1+\sqrt{2})&x & -\sqrt{2} &y& +(\sqrt{2}-1) &z& = &2 \sqrt{2}&x \\ \sqrt{2} &x& +2&y & -\sqrt{2}&z&= &2 \sqrt{2}&y\\ (\sqrt{2}-1) &x & +\sqrt{2} &y & (1+\sqrt{2}) &z&= &2 \sqrt{2}&z \end{array}\right.\).
Soit \(\left\lbrace \begin{array}{rrrrrrr} (1-\sqrt{2})&x & -\sqrt{2} &y& +(\sqrt{2}-1) &z& = 0 \\ \sqrt{2} &x& +(2-2\sqrt2)&y & -\sqrt{2}&z&= 0\\ (\sqrt{2}-1) &x & +\sqrt{2} &y & (1-\sqrt{2}) &z&= 0 \end{array}\right.\). On prend, par exemple, \(d = \left( {\scriptstyle\sqrt 2\over\scriptstyle 2},0,{\scriptstyle\sqrt 2\over\scriptstyle 2}\right)\). Le vecteur \(j(0,1,0)\) lui est orthogonal et appartient donc au plan de rotation. Son image est \(r(j) = \left( -{\scriptstyle 1\over\scriptstyle 2},{\scriptstyle\sqrt 2\over\scriptstyle 2},{\scriptstyle 1\over\scriptstyle 2}\right)\). Enfin \(j\wedge r(j) = ({\scriptstyle 1\over\scriptstyle 2},0,{\scriptstyle 1\over\scriptstyle 2}) = {\scriptstyle\sqrt 2\over\scriptstyle 2} d\). Donc \(\sin\theta d = {\scriptstyle\sqrt 2\over\scriptstyle 2} d\).
Il n’est pas compliqué de
comprendre pourquoi c’est \(\sin\theta
d\) qui est un invariant de la rotation (et pas \(\sin\theta\)). Le vecteur \(d\) oriente le plan de rotation. Pour faire
simple, il donne la direction du "haut". En changeant \(d\) en \(-d\), on intervertit le "haut" et le "bas",
on regarde le plan de l’autre côté, et donc on voit la rotation tourner
"dans l’autre sens". Ceci a pour effet de changer \(\sin\theta\) en son opposé.
Résumons l’étude précédente :
(Classification des isométries en dimension
\(3\)).
Soit un endomorphisme orthogonal \(u \in
\mathrm{O}_{ }(E)\). On note \(E(1) =
\operatorname{Ker}(u - \mathop{\mathrm{id}}\nolimits)\) le
sous-espace formé des vecteurs invariants. Selon la dimension de \(E(1)\), on a la classification suivante :
Dans le dernier cas, \(u = r \circ
s_{H}\), où le plan \(H\)
invariant par la réflexion est orthogonal à l’axe de la rotation \(r\).
\(\dim E(1)\) | \(\mathop{\rm det}(u)\) | \(u \in\) | Nature de \(u\) |
---|---|---|---|
\(3\) | \(1\) | \({O}_{ }^{+}(E)\) | \(\mathop{\mathrm{id}}\nolimits\) |
\(2\) | \(-1\) | \(\mathrm{O}_{ }^{-}(E)\) | Réflexion \(s_H\) |
\(1\) | \(1\) | \({O}_{ }^{+}(E)\) | Rotation autour d’un axe \(r\) (dont les demi-tours) |
\(0\) | \(-1\) | \(\mathrm{O}_{ }^{-}(E)\) | Composée d’une rotation et d’une réflexion |
Si \(A\in
\mathrm{O}_{3}^{-}(\mathbb{R} )\), alors \(\mathop{\rm det}(-A)=-\mathop{\rm
det}(A)=1\). Donc la matrice \(-A\) est spéciale orthogonale. On se ramène
à l’étude précédente. On peut également résumer la classification des
isométries de \(E_3\) de la façon
suivante :
On montre qu’une rotation
vectorielle \(r_{D, \theta}\) s’écrit
comme produit de deux réflexions \(s_{H}\) et \(s_{H'}\) avec \(H\cap H' = D\). Alors toute isométrie
de \(E_3\) se décompose comme un
produit de réflexions. Par conséquent, les réflexions engendrent le
groupe orthogonal \(\mathrm{O}_{
}(E_3)\).
En résumé
Les différentes définitions données dans ce chapitre doivent être connues avec précision. Il ne faut être préçis et rigoureux quand on vérifie qu’une forme bilinéaire est un produit scalaire et il ne faut bien entendu omettre aucun axiome. Il faut de plus parfaitement connaître :
Bibliographie
Barre utilisateur
[ID: 80] [Date de publication: 5 janvier 2022 23:01] [Catégorie(s): Le cours de SUP ] [ Nombre commentaires: 0] [nombre d'éditeurs: 1 ] [Editeur(s): Emmanuel Vieillard-Baron ] [nombre d'auteurs: 3 ] [Auteur(s): Emmanuel Vieillard-Baron Alain Soyeur François Capaces ]Commentaires sur le cours
Documents à télécharger
L'article complet