Image
Généralités sur les préhilbertiens.

Espaces préhilbertiens et espaces de Hilbert

Dans ce chapitre seront présentés les espaces préhilbertiens (réels en [epr] et complexes en [esprco]), les espaces de Hilbert (en partie [hilb]), les espaces euclidiens ([espeuc]), les espaces hermitiens ([hermit]).

Les espaces de Hilbert permettront en particulier de considérer des « combinaisons linéaires » (terme impropre) infinie, contrairement au cadre des espaces vectoriels où l’on ne donne sens qu’à des sommes finies. Cela sera capital pour par exemple considérer des projections sur des bases infinies, comme dans l’analyse de Fourier. On pourra aussi trouver des applications en finance aux projections dans des espaces de Hilbert dans [DR].

Passer ensuite à la dimension finie permet de poser les bases de la géométrie.

Il convient d’avoir une bonne idée de la graduation des contraintes associées à ces différents espaces. La présence d’un produit scalaire (dit euclidien dans le cas réel, et dit hermitien dans le cas complexe) conduit à la notion d’espace préhilbertien. Ajouter la contrainte de complétude de l’espace conduit à la notion d’espace de Hilbert. Enfin, si on ajoute la contrainte de dimension finie, on obtient un espace euclidien (dans le cas réel) ou hermitien (dans le cas complexe). Ainsi:

  • un espace euclidien ou hermitien est de Hilbert;

  • un espace de Hilbert est préhilbertien;

mais il n’y a pas de réciproque.

Espaces préhilbertiens réels

Les espaces de Hilbert sont très fréquents, mais le cas plus faible d’un espace préhilbertien présente tout de même un intérêt; ainsi, tout sous-espace vectoriel non fermé d’un espace de Hilbert est préhilbertien, mais sans être complet, donc sans être de Hilbert. Par ailleurs, on sait (comme montré par le théorème de Baire [baire]) qu’une espace ayant une base topologique dénombrable ne peut être complet. Donc, pour aucune norme, \(\mathbb{R}[X]\) n’est complet. Ainsi, des normes comme \[P\mapsto (\int_0^1P(t)^2dt)^{1/2},\] \(P\mapsto (\int_{\mathbb{R}}e^{-t^2}P(t)^2dt)^{1/2}\) ou encore \(P=\sum_{k=0}^na_kX^k\mapsto(\sum_{k=0}^n a_k^2)^{1/2}\) font de \(\mathbb{R}[X]\) des espaces préhilbertiens réels qui ne sont pas de Hilbert. On peut d’ailleurs considérer leur complété; le complété de \(\mathbb{R}[X]\) pour la norme [normPX] est ainsi \(\mathcal C([0,1],\mathbb{R})\).

Il est recommandé de lire au préalable la partie [bilin] et la partie [emeevn].

(produit scalaire euclidien sur \(E\)).
Étant donné \(E\) un \(\mathbb{R}\)-espace vectoriel, on appelle produit scalaire euclidien sur \(E\) une application \(<.|.>\) de \(E^2\) dans \(\mathbb{R}\) telle que:

\(\bullet\)\(<.|.>\) est bilinéaire

\(\bullet\)\(<.|.>\) est symétrique : \(=<y|x>\) pour tout \(x\) et tout \(y\)

\(\bullet\)la forme quadratique associée à \(<.|.>\) est définie positive : \(\forall x\neq0\), \(\ >0\)

On appelle espace préhilbertien réel un \(\mathbb{R}\)-espace vectoriel muni d’un produit scalaire euclidien.

Un sous-espace vectoriel \(F\) d’un espace préhilbertien réel \(E\) muni d’un produit scalaire euclidien, muni de la restriction du produit scalaire euclidien à \(F\), est appelée sous-espace préhilbertien de \(E\) (c’est un espace préhilbertien).

Étant donné un produit scalaire euclidien \(<.|.>\), on définit une norme euclidienne; il s’agit de l’application \(x \mapsto {\parallel}x {\parallel}= \sqrt{<x|x>}\). On verra plus loin qu’il s’agit bien d’une norme (facile au vu des résultats de la partie [bilin]).
On n’a à aucun moment imposé que la dimension soit finie.

Un produit scalaire euclidien sur un \(\mathbb{R}\)-espace vectoriel est donc une forme bilinéaire symétrique associée à une forme quadratique définie positive.

\(\bullet\)Le produit scalaire euclidien canonique sur \(\R^n\) est défini par \(<x|y>=\sum_{i\in[1,n]} x_i.y_i\).

\(\bullet\)Le produit scalaire euclidien canonique sur le sous-ensemble \(l^2(\N)\) de \(\R^\N\) des suites de carrés sommables (i.e. des \((u_n)_{n\in \N}\) telles que \(\sum_{n\in \N} |u_n|^2\) converge) est défini par \(<(u_n)_{n\in \N}|(v_n)_{n\in \N}>=\sum_{n\in \N} u_n.v_n\).

Il est important de rappeler le théorème [schwartz] et le corollaire [mink]. Ils stipulent que:

\(\bullet\)\(^2 \leq <x|x>.<y|y>\) (inégalité de Schwartz)

\(\bullet\)\(|<x|y>| \leq {\parallel}x {\parallel}. {\parallel}y {\parallel}\) (inégalité de Schwartz, en passant à la racine)

\(\bullet\)\({\parallel}x+y {\parallel}\leq {\parallel}x {\parallel}+ {\parallel}y {\parallel}\) (inégalité de Minkowski = inégalité triangulaire)

\(\bullet\)Le produit scalaire est continu (conséquence de Schwartz)

La notation \(\) peut être remplacée par \((x|y)\), \(\), \((x,y)\), ou même \(x.y\).

Espaces préhilbertiens complexes

(semi-linéaire).
Une application d’un \(\mathbb{C}\)-espace vectoriel \(E\) dans un \(\mathbb{C}\)-espace vectoriel \(F\) est dite semi-linéaire si

\(\bullet\)\(\forall (x,y)\in E^2\ f(x+y)=f(x)+f(y)\)

\(\bullet\)\(\forall (x,{\lambda})\in E\times \mathbb{C}\ f({\lambda}.x)=\overline {\lambda}f(x)\)

Une application semi-linéaire est un semi-isomorphisme si et seulement si elle est semi-linéaire et bijective.

Une forme semi-linéaire est une application semi-linéaire d’un \(\mathbb{C}\)-espace vectoriel dans \(\mathbb{C}\).

Étant donnés \(E\) et \(F\) des \(\mathbb{C}\)-espaces vectoriels, une application \(\phi\) de \(E \times F\) est dite forme sesquilinéaire sur \(E\times F\) si

\(\bullet\)\(\forall x\) l’application \(y\mapsto \phi(x,y)\) est une forme linéaire sur \(F\)

\(\bullet\)\(\forall y\) l’application \(x\mapsto \phi(x,y)\) est une forme semi-linéaire sur \(E\)

Une forme sesquilinéaire sur \(E\times E\) est dite hermitienne lorsque en outre \(\forall (x,y) \in E^2\ \phi(x,y)=\overline {\phi(y,x)}\).

Une forme sesquilinéaire hermitienne \(\phi\) sur \(E^2\) est dite produit scalaire hermitien sur \(E\) si \(\forall x \in E\setminus\{0\}, \ \phi(x,x) \in \mathbb{R}^+_*\). On note généralement alors \(=\phi(x,y)\)

Étant donné un produit scalaire hermitien \(<.|.>\), on définit une norme hermitienne; il s’agit de l’application \(x \mapsto {\parallel}x {\parallel}= \sqrt{<x|x>}\). On verra plus loin qu’il s’agit d’une norme.

On appelle espace préhilbertien complexe un \(\mathbb{C}\)-espace vectoriel muni d’un produit scalaire hermitien. Un sous-espace vectoriel \(F\) d’un espace préhilbertien complexe \(E\) muni d’un produit scalaire hermitien, muni de la restriction du produit scalaire hermitien à \(F\), est appelé sous-espace préhilbertien de \(E\) (c’est un espace préhilbertien).
On n’a à aucun moment imposé que la dimension soit finie.
La notation \(\) peut être remplacée par \((x|y)\), \(\), \((x,y)\), ou même \(x.y\).

Remarquons que le fait que pour une forme sesquilinéaire hermitienne \(\phi\) on ait \(\forall x, \ \phi(x,x) \in \mathbb{R}\) découle du fait que \(\phi\) est hermitienne; il suffit de vérifier que \(\phi(x,x)>0\).

Une forme linéaire non nulle n’est pas une forme semi-linéaire (et une forme semi-linéaire non nulle n’est pas une forme linéaire).

Une forme sesquilinéaire est donc semi-linéaire par rapport à la première variable et linéaire par rapport à la seconde.

(S).
ur \(\mathbb{C}^n\) le produit scalaire hermitien canonique est défini par \(=\sum_{i=1}^n \overline {x_i}.y_i\).

Les inégalités de Schwartz et de Minkowski montrées dans la partie [bilin] sont valables ici aussi; mais la démonstration, basée sur la bilinéarité et utilisant les formes quadratiques, n’est plus valable.

(Égalité utile).
\[{\parallel}x+y {\parallel}^2={\parallel}x {\parallel}^2+{\parallel}y{\parallel}^2+2.Re(<x|y>)\] avec \(Re(u)\) la partie réelle de \(u\).
Évidente, en utilisant \(=\c {<y|x>}\).
(Inégalité de Cauchy-Schwarz).
Dans un espace préhilbertien complexe \[\forall (x,y) \in E^2\ |<x|y>| \leq {\parallel}x {\parallel}. {\parallel}y {\parallel}\] Il y a égalité si et seulement si la famille est liée.
Soit \(\theta\) l’argument de \(\), alors pour tout \(t\) réel, au vu du lemme [util]: \[{\parallel}t.e^{i\theta}.x+y {\parallel}^2 =t^2.{\parallel}x {\parallel}^2 + {\parallel}y {\parallel}^2 + 2.t.|<x|y>|\] On en déduit donc que le discriminant de \(t\mapsto t^2.{\parallel}x {\parallel}^2 + {\parallel}y {\parallel}^2 + 2.t.|<x|y>|\) est négatif ou nul, ce qui donne l’inégalité annoncée. Le cas d’égalité est le cas où le discriminant est nul.
(Inégalité de Minkowski).
Dans un espace préhilbertien complexe \[\forall (x,y) \in E^2\ {\parallel}x+y {\parallel}\leq {\parallel}x {\parallel}+ {\parallel}y {\parallel}\] Il y a égalité si \(y={\lambda}.x\) ou \(x={\lambda}.y\) avec \({\lambda}>0\).
Par le lemme [util], on a \[{\parallel}x+y {\parallel}^2={\parallel}x {\parallel}^2+{\parallel}y{\parallel}^2+2.Re(<x|y>)\] \[\leq {\parallel}x {\parallel}^2 + {\parallel}y {\parallel}^2 + 2.|<x|y>|\leq {\parallel}x {\parallel}^2 + {\parallel} y {\parallel}^2 + 2.{\parallel}x{\parallel}.{\parallel}y{\parallel}\] (par Cauchy-Schwarz ci-dessus) \[=({\parallel}x {\parallel}+ {\parallel}y {\parallel})^2\] D’où le résultat. Le cas d’égalité se montre facilement...
Dans le cas euclidien, retrouver le produit scalaire à partir de la norme était facile; dans le cas hermitien c’est un peu plus compliqué: \[=\frac14 ({\parallel}x+y {\parallel}^2 - {\parallel}x - y {\parallel}^2 -i {\parallel}x + i.y {\parallel}^2 + i.{\parallel}x-i.y{\parallel}^2)\] \[=\frac14(\sum_{n=0}^3 e^{-2.i.\pi.n/4}{\parallel}x+e^{2.i.\pi.n/4}.y {\parallel}^2) =\frac14\sum_{\{\omega\in\mathbb{C};\omega^4=1\}} \overline{\omega}{\parallel}x+\omega.y {\parallel}^2\]
La dernière ligne est un bon moyen mnémotechnique, mais il faut bien penser que l’on a un signe moins dans le coefficient de l’exponentiel en dehors de \({\parallel}.{\parallel}\) et un signe plus à l’intérieur, ou le conjugué de \(\omega\) à l’extérieur et \(\omega\) à l’intérieur.

Espaces préhilbertiens

On se place ici dans le cadre de \(E\) espace préhilbertien, réel ou complexe. On ne suppose absolument pas \(E\) de dimension finie.

(orthogonal).
\(x\) et \(y\) appartenant à \(E\) sont dits orthogonaux si \(=<y|x>=0\).

Deux parties \(X\) et \(Y\) de \(E\) sont dites orthogonales si \(x\) et \(y\) sont orthogonaux pour tout \((x,y)\) dans \(X\times Y\).

On appelle orthogonal d’une partie \(X\) et on note \(X^\bot\) l’ensemble des \(y\) tels que \(=0\) pour tout \(x\) dans \(X\).

Une famille \((x_i)_{i\in I}\) est dite orthogonale si \(i\not=j \to <x_i|x_j>=0\).

Une famille \((x_i)_{i\in I}\) est dite orthonormale si \(<x_i|x_j>=\delta_{i,j}\).

\(\bullet\)\(<x|y>=0 \iff <y|x>=0\)

\(\bullet\)toute partie est orthogonale à son orthogonal

\(\bullet\)Pour toute partie \(X\), \(X^\bot\) est un de \(E\) (car c’est une intersection de fermés, par définition)

\(\bullet\)Étant donné \(F\) un de \(E\), la somme de \(F\) et de \(F^\bot\) est toujours directe, mais non nécessairement égale à \(E\)

Ne pas confondre « être orthogonal à » et « être l’orthogonal de ».
Toute famille orthogonale de vecteurs non nuls est libre.
Supposons donnée une combinaison linéaire nulle \(\sum_i {\lambda}_i x_i\), et considérons le produit scalaire avec \(x_{i_0}\). On en déduit immédiatement que \({\lambda}_{i_0}\) est nul. D’où le résultat.
(Orthogonalité et espaces supplémentaires).

\(\bullet\)Si \(F\) et \(G\) sont supplémentaires, alors \(F\) et \(G\) sont orthogonaux si et seulement si \(G\) est l’orthogonal de \(F\).

\(\bullet\)Si \(F\) et \(F^\bot\) sont supplémentaires, alors \({F^\bot}^\bot=F\).
En exercice!

On va maintenant considérer quelques résultats de géométrie:

(Théorème de Pythagore).
Si les \(x_i\) sont une famille finie orthogonale alors \({\parallel} \sum_i x_i {\parallel}^2=\sum_i {\parallel}x_i {\parallel}^2\).
Évident par récurrence.
On note que dans le cas d’un espace préhilbertien réel, \({\parallel}x {\parallel}^2+{\parallel}y {\parallel}^2={\parallel}x +y {\parallel}^2\) équivaut à \(x\) et \(y\) orthogonaux. Ce n’est pas valable dans le cas complexe!
(Quelques résultats de géométrie).

\(\bullet\)Formule du triangle : \[{\parallel}y-z {\parallel}^2={\parallel}y-x {\parallel}^2+{\parallel} z-x {\parallel}^2 -2.Re(<z-x|y-x>)\]

\(\bullet\)Formule de la médiane : \[{\parallel}y-z {\parallel}^2 + 4 {\parallel} x- \frac12 (y+z) {\parallel}^2 = 2.{\parallel}x-y {\parallel}^2 +2.{\parallel}x-z {\parallel}^2\]

\(\bullet\)Formule du triangle pour un espace préhilbertien réel: \[{\parallel}y-z {\parallel}^2={\parallel}y-x {\parallel}^2+{\parallel}z-x {\parallel}^2 -2<z-x|y-x>\]

\(\bullet\)Formule du parallélogramme, pour un espace préhilbertien réel: \[{\parallel}x+y {\parallel}^2 + {\parallel}x-y {\parallel}^2=2({\parallel}x {\parallel}^2+{\parallel}y {\parallel}^2)\]
Il suffit de développer les différentes formules. Illustration en figure [geomet].
Image

Illustrations de la formule du parallélogramme, de la médiane.
Commentaire: Les coefficients attribués servent de moyen mnémotechnique; en sommant les carrés des longueurs indiquées, pondérées par leur coefficient, on obtient zéro.

\(\bullet\)Dans un espace préhilbertien \(E\) de dimension finie, tout sous-espace vectoriel \(F\) est supplémentaire à son orthogonal, i.e. \(E=F \oplus F^\bot\). On a alors notamment \(dim\ E=dim\ F+dim\ F^\bot\).

\(\bullet\)Tout espace préhilbertien de dimension finie admet une base orthonormale.

\(\bullet\)Dans un espace préhilbertien de dimension finie, toute famille orthonormale peut être complétée en une base orthonormale.

\(\bullet\)Si \(F\) est un sous-espace vectoriel de \(E\), avec \(E\) espace préhilbertien, et \(F\) de dimension finie, alors on a \(E=F \oplus F^\bot\).
Pour le premier \(\bullet\ \), on considère l’application \(f\) qui à \(x\) dans \(E\) associe \((<u_1|x>,<u_2|x>,<u_3|x>,...,<u_p|x>)\). Le noyau est \(F^\bot\), le rang est \(\leq\) à la dimension de \(F\). Donc \(dim\ F^\bot \geq dim\ E-dim\ F\), donc \(E=F\oplus F^\bot\) (rappelons qu’il est toujours vrai que \(F\cap F^\bot=\{0\}\)). On a donc bien \(dim\ F^\bot + dim\ F = dim\ E\).

Pour le second \(\bullet\ \), on raisonne par récurrence. Pour \(E\) préhilbertien de dimension \(\leq 1\), le résultat est évident. Il suffit ensuite de considérer un vecteur quelconque \(e_n\) de \(E\) de norme \(1\), et une base orthonormale \((e_1,...,e_{n-1})\) de \((\mathbb{K}.u)^\bot\). \((e_1,...,e_n)\) convient.

Le troisième \(\bullet\)est immédiat; il suffit de considérer \(F\) engendré par la famille orthonormale \((e_1,...,e_p)\) considérée, et une base \((e_{p+1},...,e_n)\) de \(F^\bot\), réunie en \((e_1,...,e_n)\), base orthonormale de \(E\).

Le quatrième \(\bullet\)est un peu plus long:

– on considère une base \((e_1,...,e_p)\) orthonormale de \(F\).

– on considère l’application \(f\) qui à \(x\) associe \(\sum_{i=1}^p <e_i|x>e_i\).

\(\forall x\in E,\ x=\underbrace{f(x)}_{\in F}+\underbrace{(x-f(x))}_{\in F^\bot}\).

D’où le résultat.

Espaces de Hilbert

Après la définition juste ci-dessous, on verra les projections dans les espaces de Hilbert (section [potehilbert1]), les bases hilbertiennes ([potehilbert2]) et quelques applications ([potehilbert3]), dont en particulier l’analyse de Fourier.

(espace de Hilbert).
On appelle espace de Hilbert un espace préhilbertien complet.

Les espaces de Hilbert jouent un grand rôle en mathématiques tant les hypothèses sont faibles (principalement, les espaces de Hilbert sont complets, et peu de choses intéressantes sont incomplètes). Les espaces comme \(L^2(\mathbb{R}^n,\mathbb{C})\), ou aussi \(H^1(\mathbb{R}^n,\mathbb{C})=\{\varphi\in L^2(\mathbb{R}^n,\mathbb{C})\ ;\ \forall i,\ \frac{\partial \varphi}{\partial x_i}\in L^2(\mathbb{R}^n,\mathbb{C})\}\) (dérivée au sens des distributions) peuvent être d’un intérêt capital. Ils sont le meilleur cadre pour résoudre certaines équations aux dérivées partielles importantes, comme l’équation de Schrödinger \(i\frac{\partial\varphi}{\partial t}=-\Delta\varphi\).

Projection dans un espace de Hilbert

(distance de \(x\) à \(E\)).
Soit \(H\) un espace de Hilbert, et \(E\) une partie convexe fermée non vide de \(H\). Alors étant donné \(x\) appartenant à \(H\) on appelle distance de \(x\) à \(E\) et on note \(d(x,E)\) le mombre \[d(x,E)=\inf_{z\in E}{\parallel}x-z {\parallel}.\] On appelle alors projeté de \(x\) sur \(E\) un élément \(y\) de \(E\) tel que \({\parallel}x-y {\parallel}\) soit minimal, c’est-à-dire \(y\in E\) est tel que \({\parallel}x-y{\parallel}=d(x,E)\). Un isomorphisme d’espaces de Hilbert est un isomorphisme entre les espaces vectoriels sous-jacents qui préserve la norme et le produit scalaire.
Le projeté de \(x\) sur \(E\) existe et est unique, et \(y\) dans \(E\) est le projeté de \(x\) sur \(E\) si et seulement si pour tout \(e\) dans \(E\), \(Re(<e-y|x-y>) \leq 0\).

Il est clair que dans le cas d’un espace de Hilbert réel, on pourrait simplement formuler \(\leq0\).

\(\bullet\)Existence d’un projeté de \(x\) sur \(E\).

On se donne une suite \(y_n\) telle que \({\parallel}x-y_n{\parallel}\) tende vers la distance \(d=d(x,E)\) entre \(x\) et \(E\).

Par la formule de la médiane appliquée aux points \(y_n\), \(y_m\) et \(x\), on a alors \[{\parallel}y_m-y_n {\parallel}^2=2.({\parallel}x-y_n {\parallel}^2 + {\parallel}x-y_m {\parallel}^2) - 4.{\parallel}x- \frac 12 (y_n+y_m) {\parallel}^2\] par convexité de \(E\) on a alors \(\frac 12 (y_n+y_m) \in E\) \[\mbox{et donc }{\parallel}x- \frac 12 (y_n+y_m) {\parallel}^2 \geq d^2\] \[\mbox{et donc }{\parallel}y_m-y_n{\parallel}^2 \to 0\] Donc la suite \(y_n\) est de Cauchy, donc par complétude de \(H\) elle converge. Sa limite \(y\) est dans \(E\) parce que \(E\) est fermé.

Alors \({\parallel}x-y{\parallel}=d\) par continuité de la norme, donc \(y\) est bien un projeté de \(x\) sur \(E\).

\(\bullet\)Supposons que \(y\) est dans \(E\) et que pour tout \(e\) dans \(E\) \(Re(<y-e|y-x>)\leq 0\). Alors pour tout \(e\) dans \(E\) on a \[{\parallel}x-e {\parallel}^2 = {\parallel}x - y {\parallel}^2 + {\parallel}e - y {\parallel}^2 - 2.Re(<e-y | x - y>)\] On obtient d’un coup d’un seul que \(y\) est la borne inf, et que \(y\) est unique (car s’il y a égalité, \({\parallel}e - y {\parallel}=0\)).

\(\bullet\)Supposons maintenant que \(y\) soit un projeté de \(x\) sur \(E\), et montrons que \(Re(<e-y|x-y>) \leq 0\) pour tout \(e\) dans \(E\).

\[\mbox{On a }{\parallel}x-e {\parallel}^2 = {\parallel}x - y {\parallel}^2 + {\parallel}e - y {\parallel}^2 - 2.Re(<e-y | x - y>)\] \[\mbox{et donc }Re(<e-y | x - y>) = \frac12 ({\parallel}x-e {\parallel}^2 - {\parallel} x - y {\parallel}^2 + {\parallel}e - y {\parallel}^2)\] par définition de \(y\), on a \({\parallel}x-e {\parallel}^2 - {\parallel}x - y {\parallel}^2 \leq 0\), \[\mbox{et donc }Re(<e-y | x - y>) \leq \frac12 ( {\parallel}e-y {\parallel}^2 )\] valable pour tout \(e\).

On se donne maintenant \(z\) dans \(E\), et on considère \(e=t.z+(1-t).y\). Par convexité, \(e\in E\) si \(t\in[0,1]\).

L’inégalité précédente s’écrit alors \[\forall t\in[0,1],\ Re(<t.z-t.y| x-y>) \leq \frac12 ( {\parallel} t.z-t.y {\parallel}^2 )\] \[\mbox{et donc }Re(<z-y | x-y >) \leq \frac t2 {\parallel}z-y {\parallel}\] En faisant tendre \(t\) vers \(0\), on en déduit \[Re(<z-y | x-y >) \leq 0\] La preuve est ainsi complète.
Dans tout ensemble non vide fermé convexe il existe un unique élément de norme minimale.
Quelques propriétés des projetés:

\(\bullet\)Le projeté de \(x\) sur un sous-espace vectoriel fermé \(E\) (qui est évidemment convexe) est le point \(y\) tel que \(y-x\) est orthogonal à \(e-x\) pour tout \(e\) dans \(E\).

\(\bullet\)Soit \((x_i)_{i \in [1,n]}\) une famille orthonormale; alors l’espace vectoriel engendré par les \(x_i\) est fermé (car il y en a un nombre fini, voir le corollaire [dimfin]), convexe. La projection sur ce sous-espace vectoriel de \(H\) est l’application qui à \(x\) associe \(\sum_{i\in [1,n]} <x_i|x>.x_i\).

On a alors \({\parallel}x {\parallel}^2 = \sum_i |<x_i|x>|^2 + {\parallel}x - y {\parallel}^2\) avec \(y=\sum_{i\in [1,n]} <x_i|x>.x_i\).

\(\bullet\)\({\parallel}x {\parallel}^2 \geq \sum_i <x_i|x>^2\) (inégalité de Bessel).
Exercice facile, utilisant les résultats que l’on vient de voir dans le théorème précédent.
(projection orthogonale sur \(E\)).
Soit \(E\) un sous-espace vectoriel fermé de \(H\). On appelle projection orthogonale sur \(E\) l’application qui à \(x\) dans \(H\) associe son projeté sur \(E\); il s’agit d’un projecteur, et la symétrie associée à ce projecteur est appelée symétrie orthogonale par rapport à \(E\) (voir [prosym]).

La projection orthogonale sur \(E\) est en fait la projection sur \(E\) suivant \(E^\bot\).

Bases hilbertiennes

(Base hilbertienne).

On appelle base hilbertienne d’un espace de Hilbert \(H\) une famille \((x_i)_{i\in I}\) telle que:

\(\bullet\)la famille des \(x_i\) est orthonormale

\(\bullet\)pour tout \(x\) dans \(H\), \(x=\sum_{i\in I} <x_i|x> x_i\)

Dans la seconde condition, la somme est éventuellement infinie. En fait, il s’agit d’une famille sommable, i.e. pour tout \(\epsilon\) il existe \(J\) fini inclus dans \(I\), tel que pour tout \(K\) fini compris entre \(J\) et \(I\), la somme sur \(K\) des \(<x_i|x>.x_i\) est à une distance \(< \epsilon\) de \(x\).

\(\bullet\)Une famille orthonormale \((x_i)_{i\in I}\) est une base hilbertienne si et seulement si le sous-espace vectoriel engendré par les \(x_i\) est dense dans \(H\).

\(\bullet\)Une famille orthonormale \((x_i)_{i\in I}\) est une base hilbertienne si et seulement si \[\forall x\in H, \sum_{i\in I} |<x_i|x>|^2={\parallel}x {\parallel}^2.\]

L’équation [relationparseval] est appelée relation de Parseval.

On verra une application de la relation de Parseval avec le lemme [appliparseval] utile à l’inégalité isopérimétrique, ainsi qu’avec le calcul de \(\pi^2\) (section [inclas]); plus près de nous, la relation de Parseval servira à la démonstration du théorème de Riesz-Fischer [rf] ci-dessous. La caractérisation des bases Hilbertiennes par la densité (sous réserve d’orthonormalité) est capitale en analyse de Fourier (proposition [fourierparseval]).
  • Le sens \(\rightarrow\) du premier point résulte directement de la définition d’une famille sommable et de la définition d’une base hilbertienne.

  • Le sens \(\rightarrow\) du second point découle de la proposition [p1118].

  • La relation de Parseval entraine la densité du sous-espace vectoriel engendré par les \(x_i\) là encore directement grâce à la proposition [p1118].

  • Il nous reste donc à montrer que la densité du sous-espace vectoriel engendré par les \(x_i\) entraîne le fait que les \((x_i)\) forme une base hilbertienne. Pour cela,

  • Supposons le sous-espace vectoriel \(E\) engendré par les \(x_i\) dense dans \(H\). Alors, pour tout \(x\) dans \(H\), et tout \(\epsilon>0\), il existe \(y\) dans \(E\) tel que \[{\parallel}x-y {\parallel}\leq \epsilon/2\] et \(y=\sum_{i\in I} {\lambda}_i x_i\) (somme finie). On peut imposer \({\lambda}_i=<x|x_i>\) tout en préservant l’éq. [petiteequationutile], par la proposition [p1118] qui garantit que ce \(y\) minimise \(||y-x||\) pour \(y\in E\). On peut alors se donner \(K\) fini tel que \(I\subset K\subset J\); par définition des bases hilbertiennes, il est suffisant de montrer que \(||\sum_{i\in K} <x_i|x> x_i - x||\leq \epsilon\). Or \[\begin{aligned} & &||\sum_{i\in K} <x_i|x>x_i -x ||\\ &\leq& \underbrace{||y-x||}_{\leq \epsilon/2}+\underbrace{||\sum_{i\in K\setminus J} <x_i|x>x_i||}_{=||\sum_{i\in K\setminus J} <x_i|x-y>x_i||\leq ||x-y||\leq \epsilon/2}\newline &\leq& \epsilon\end{aligned}\] (où on a utilisé le fait que la projection de \(x-y\) sur l’espace engendré par les \(x_i\) pour \(i \in K\setminus J\) était de norme inférieure à \(||x-y||\) (inégalité de Bessel, proposition [p1118]).

Attention ! Une base hilbertienne n’est pas nécessairement une base au sens des espaces vectoriels !
\(\bullet\)Une famille orthonormale \((x_i)_{i\in I}\) est une base hilbertienne si et seulement si pour tout \(x\) et tout \(y\) on a \(= \sum_i <x_i|x>.<x_i|y>\). \(\bullet\)Une famille orthonormale \((x_i)_{i\in I}\) est une base hilbertienne si et seulement si elle est maximale pour l’inclusion.

La démonstration de ce théorème, laissée en exercice au lecteur, utilise des principes similaires à ceux de la preuve du théorème précédent.

La proposition suivante permet de se ramener à une forme plus « visuelle » des espaces de Hilbert.

(Riesz-Fischer - Isomorphisme sur un \(l^2\)).
Soit \(H\) un espace de Hilbert, et \((x_i)_{i\in I}\) une base hilbertienne de \(H\). Alors l’application \(x \mapsto (<x_i|x>)_{i \in I}\) est un isomorphisme de \(H\) sur \(l^2(I)\).

\(\bullet\)L’application \(\phi=x \mapsto (<x_i|x>)_{i \in I}\) est bien à valeurs dans \(l^2(I)\), vu la relation de Parseval (théorème [parseval]).

\(\bullet\)\(\phi\) est linéaire, conserve la norme.

\(\bullet\)\(\phi\) conservant la norme, \(\phi\) est injective.

\(\bullet\)\(\phi\) conservant la norme, \(\phi\) conserve les distances, et donc son image est un sous-espace vectoriel complet, donc fermé de \(l^2(I)\).

\(\bullet\)\(\phi(x_i)\) est la fonction caractéristique du singleton \(i\); or les combinaisons linéaires de ces fonctions sont denses dans \(l^2(I)\), donc \(\phi(H)\) est dense.

\(\bullet\)\(\phi(H)\) est dense et fermé, donc il est égal à \(l^2(I)\).

\(\bullet\)Le produit scalaire est continu, donc le fait qu’il soit conservé sur les \(x_i\) suffit à montrer qu’il est conservé partout.

Un résultat ultérieur donnera toute sa puissance à ce résultat, en montrant que tout espace de Hilbert possède une base hilbertienne.

Il ne s’agit pas d’un isomorphisme ramenant tous les espaces de Hilbert possédant une base à un seul, car \(I\) peut avoir des cardinaux différents.
Soit \(H\) un espace de Hilbert . Soit \(E\) un sous-espace vectoriel fermé de \(H\). Si \(E\) n’est pas égal à \(H\), alors il existe \(x\) dans \(H\) de norme \(1\) orthogonal à \(E\).
Il suffit de considérer \(x-y\), pour \(x \in E^c\) et \(y\) projeté de \(x\) sur \(E\).
Tout espace de Hilbert possède une base hilbertienne .
Nécessite l’usage de l’axiome du choix!
On considère l’ensemble des familles orthonormales, munies de l’inclusion. Il s’agit bien d’un ensemble inductif (si l’on considère une chaîne de familles orthonormales, leur réunion est bien un majorant), et donc par le lemme de Zorn (voir le lemme [zorn]) il admet un élément maximal. On considère l’adhérence du sous-espace vectoriel engendré par cette famille, et si l’on n’obtient par \(H\) lui-même, on applique le lemme [lmeh], et on contredit la maximalité de notre famille orthonormale.
(Corollaire des deux théorèmes précédents).
Tout espace de Hilbert est isomorphe à \(l^2(I)\) pour un certain \(I\).

Rappelons que \({\cal L}(E,F)\) désigne l’ensemble des applications linéaires continues de \(E\) dans \(F\), avec \(E\) et \(F\) des espaces vectoriels , et que pour \(E\) un \(\mathbb{K}\)-espace vectoriel on note \(E'\) le dual topologique de \(E\), c’est-à-dire \({\cal L}(E,\mathbb{K})\).

Soit \(H\) un espace de Hilbert réel (resp. complexe). Alors l’application \(\phi: H \to H'\), \(x\mapsto \phi(x)=(y\mapsto <x|y>)\) est une bijection linéaire (resp. semi-linéaire).

\(\bullet\)La linéarité (resp. semi-linéarité) est claire.

\(\bullet\)L’injectivité n’est pas bien difficile; il suffit de voir que si \(\phi(x)=\phi(y)\), alors pour tout \(z\) \(=<y|z>\), et on conclut en considérant une base hilbertienne, ou bien en considérant \(=<x|x-y>-<y|x-y>=0\).

\(\bullet\)La surjectivité est plus intéressante. Soit \(f\) une forme linéaire continue sur \(H\), autre que la forme linéaire nulle. Son noyau est un sous-espace vectoriel fermé \(E\) de \(H\). On considère \(F\) l’orthogonal de \(E\); \(E\) et \(F\) sont en somme directe, car

  • \(E\) est de codimension \(1\) en tant que noyau d’une forme linéaire, et

  • \(F\) est de dimension au moins \(1\) (voir lemme [lmeh]), et

  • bien sûr \(E\cap F=\{0\}\).

On considère alors \(y\) dans \(F\), non nul, et \(x=\frac{f(y)}{{\parallel}y {\parallel}^2}.y\). On vérifie que \(\phi(x)=f\) sur \(F\), sur \(E\), et donc sur \(H\) tout entier.
(Procédé d’orthonormalisation de Schmidt).
Étant donnée une famille \((x_i)_{i\in [0,N[}\) avec \(N\in \mathbb{N}\cup\{+\infty\}\) libre de \(H\) (\(H\) espace de Hilbert ), il existe une unique famille \((y_i)_{i\in [0,N[}\) orthonormale telle que (pour tout \(k<N\)) le sous-espace vectoriel engendré par \((y_i)_{i\in [1,k]}\) soit égal au sous-espace vectoriel engendré par \((x_i)_{i\in [1,k]}\), et telle que (pour tout \(k<N\)) \(<x_k,y_k>\ >0\).

(la dernière condition sert à l’unicité, dont on laisse la preuve en exercice)

On calcule \[y_0=x_0/{\parallel}x_0 {\parallel}\] \[\mbox{et pour }n>0,\ z_n=x_n-\sum_{i=0}^{n-1} <y_i|x_n>.y_i\] \[\mbox{et }y_n=z_n/{\parallel}z_n {\parallel}\] Et ça marche tout seul.

@ >p(- 0) * @ Exemple Maple

\(>\ y:=array(0..N);\ z:=array(0..N); \ y[0]:=x[0]/norme(x[0]);\)

\(>\ for\ i\ from\ 1\ by\ 1\ to\ N\ do\)
\(>\qquad z[i]:=x[i];\)
\(>\qquad for\ j\ from\ 0\ by\ 1\ to\ (i-1)\ do\)
\(>\qquad \qquad z[i]:=z[i]-scalaire(x[i],y[j])*y[j];\)
\(>\qquad od;\)
\(> \qquad y[i]:=simplify(z[i]/norme(z[i]));\)
\(>\ od;\)

\(y_0:=1\) \(y_1:=(2t-1)\sqrt{3}\) \(y_2:=(6t^2+1-6t)\sqrt{5}\) \(y_3:=(20t^3-1+12t-30t^2)\sqrt{7}\)

\(>\ A:=linalg[matrix](N+1,N+1);\)
\(>\ for\ i\ from\ 0\ to\ N\ do\)
\(> \qquad for\ j\ from\ 0\ to\ N\ do\)
\(> \qquad \qquad \ A[i+1,j+1]:=simplify(scalaire(y[i],y[j]));\)
\(> \qquad od;\)
\(>\ od;\)

\(> \ evalm(A);\)

\[\left[ {\begin{array}{rrrr} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{array}} \right]\]

(une partie des réponses de Maple est supprimée par économie de place)

Si \(N<+\infty\) alors la matrice de passage de la base des \(y_i\) à la base des \(x_i\) est triangulaire de déterminant \(\prod_{i=1}^n <x_i|y_i>\).
Il suffit de voir que \(P_{(y_i),(x_i)}=<x_i|y_j>\).

Quelques utilisations des espaces de Hilbert

On pourra aller voir par exemple le théorème [pfdf] (une version de théorème de point fixe). La partie [fourier], au niveau des séries de Fourier, donne une application très classique des espaces de Hilbert et des bases hilbertiennes.

La dimension finie

Espaces euclidiens

Après les généralités (définitions et premières propriétés) en section [euclide1], on verra la notion d’endomorphisme adjoint ([euclide2]), l’orientation des espaces euclidiens ([euclide3]), et enfin on évoquera les formes quadratiques sur les espaces euclidiens ([euclide4]).

Généralités

(Espace euclidien).

On appelle espace euclidien un espace préhilbertien réel de dimension finie non nulle.

Un endomorphisme d’un espace euclidien est dit orthogonal si l’image d’une certaine base orthonormale est une base orthonormale (il s’agit forcément d’un automorphisme).

On appelle similitude d’un espace euclidien un endomorphisme égal à la composée d’une homothétie (i.e. une application du type \(E\to E\), \(x\mapsto {\lambda}.x\)) et d’un automorphisme orthogonal.

On appelle rapport d’une similitude le rapport d’une homothétie de la décomposition de cette similitude en une homothétie et un automorphisme (le rapport est unique).

Un espace euclidien est donc en particulier un espace préhilbertien et un espace de Hilbert; on pourra donc consulter la partie [epr] et plus spécialement la partie [hilb] pour avoir les bases.

\(\bullet\)L’image de toute base orthonormale par un endomorphisme orthogonal est une base orthonormale.

\(\bullet\)Un endomorphisme est orthogonal si et seulement si sa matrice dans une base orthonormale est une matrice orthogonale.

\(\bullet\)Un espace euclidien est un espace de Hilbert.

\(\bullet\)\(\mathbb{R}^n\) muni du produit scalaire euclidien canonique (i.e. \(=\sum_{i=1}^n x_i.y_i\)) est un espace euclidien.

\(\bullet\)Un espace euclidien est isomorphe à \(\mathbb{R}^n\) muni du produit scalaire euclidien canonique pour un certain \(n\).
Voyons tout d’abord les trois derniers points. Un espace euclidien est de dimension finie, en dimension finie toutes les normes sont équivalentes, donc l’espace est isomorphe au sens des espaces vectoriels normés à \(\mathbb{R}^n\) muni d’une norme usuelle et est donc complet. Donc c’est un espace de Hilbert. Donc il admet une base orthonormale. Le tour est joué. Pour le second point, il suffit d’appliquer la définition des matrices orthogonales. Le premier point découle alors des propriétés des matrices orthogonales.

Notons qu’il est également possible d’obtenir une base orthonormale à partir d’une base quelconque grâce au procédé d’orthonormalisation de Schmidt.

Soit \(E\) un espace euclidien, \(n\) sa dimension.

Les résultats suivants sont trop faciles pour valoir une démonstration (notez toutefois qu’ils n’apparaissent faciles qu’au vu des parties précédentes):

\(\bullet\)L’application \(x \mapsto ( y \mapsto <x|y> )\) est un isomorphisme de \(E\) sur \(E^*\).

\(\bullet\)Toute forme linéaire sur \(E\) s’écrit \(<x|.>\) pour un certain \(x\) de \(E\).

\(\bullet\)Il existe une base orthonormale de \(E\), qui est d’ailleurs une base hilbertienne aussi.

(angles).
Il y a plusieurs notions d’angles à définir:

On définit l’angle entre deux vecteurs non nuls \(x\) et \(y\) comme étant le réel \(\theta\) de \([0,\pi]\) tel que \(\cos(\theta)=\frac{<x|y>}{{\parallel} x {\parallel}.{\parallel}y {\parallel}}\).

On définit ainsi l’angle entre deux droites : on considère un vecteur \(x\neq 0\) de l’une et un vecteur \(y\neq 0\) de l’autre ; l’angle est alors l’unique \(\theta\in[0,\frac{\pi}{2}]\) tel que \(\cos(\theta)=\frac{|<x|y>|}{{\parallel}x {\parallel}.{\parallel}y {\parallel}}\). Notons que cette mesure est indépendante du choix des vecteurs \(x\) et \(y\).

On définit l’angle entre deux hyperplans comme l’angle entre les droites qui leurs sont orthogonales.

On définit l’angle entre une droite et un hyperplan comme le complémentaire de l’angle entre la droite et la droite orthogonale à l’hyperplan (rappelons que le complémentaire de \(\theta\) est \(\frac{\pi}{2}-\theta\)).

On dit que deux sous-espaces vectoriels de \(E\) sont perpendiculaires s’ils sont orthogonaux.
Un endomorphisme est une similitude si et seulement si les deux conditions suivantes sont vérifiées:

\(\bullet\)il est bijectif ;

\(\bullet\)il conserve l’écart angulaire.
Il est très facile de vérifier qu’une similitude vérifie bien les deux propriétés annoncées.

Réciproquement, supposons les deux propriétés vérifiées par un endomorphisme \(f\). Alors:

\(\bullet\)Considérons l’application \(g:x \mapsto \frac{{\parallel}f(x) {\parallel}}{{\parallel}x {\parallel}}\), pour \(x\) non nul.

\(\bullet\)Conservant l’écart angulaire, l’application \(f\) conserve aussi l’orthogonalité.

\(\bullet\)Étant donnés \(x\) et \(y\) distincts, \(z=y-\frac{<x|y>}{{\parallel}x {\parallel}^2}x\) est orthogonal à \(x\).

\(\bullet\)\(f(z)\) est donc orthogonal à \(f(x)\).

\(\bullet\)En développant \(<f(x)|f(z)>\) puis en factorisant par \(\frac{{\parallel}f(x) {\parallel}}{{\parallel}x {\parallel}}\), on obtient que \(g(x)=g(y)\).

\(\bullet\)\(g\) est donc constante, égale à \(\mu\).

\(\bullet\)\(\frac1\mu f\) conserve donc la norme, et donc est orthogonal d’après la proposition [cln]. Par définition, \(f\) est donc une similitude.

Intuition La preuve ci-dessus montre qu’en fait il est suffisant qu’un endomorphisme bijectif conserve l’orthogonalité pour qu’on puisse conclure qu’il s’agit d’une similitude.

Endomorphisme adjoint

Pour tout endomorphisme \(f\) d’un espace euclidien \(E\), il existe un et un seul endomorphisme \(f^*\) tel que pour tout \(x\) et tout \(y\) de \(E\), \(<f(x)|y>=<x|f^*(y)>\).

\(\bullet\)Existence et unicité de \(f^*\) : pour tout \(y\), l’application \(x \mapsto <f(x)|y>\) est une forme linéaire; donc par l’isomorphisme décrit plus haut entre \(E\) et son dual il existe un unique \(f^*(y)\) tel que pour tout \(x\) \(<f(x)|y>=<x|f^*(y)>\).

\(\bullet\)Linéarité de \(f^*\) : soit \[% <f(x)|{\lambda}_1.y_1 + {\lambda}_2.y_2 > = {\lambda}_1.<f(x)|y_1> + {\lambda}_2.<f(x)|y_2>\] \[= {\lambda}_1.<x | f^*(y_1)> + {\lambda}_2.<x | f^*(y_2) >\] \[= <x | {\lambda}_1.f^*(y_1)> + <x | {\lambda}_2.f^*(y_2) >\] \[= <x | {\lambda}_1.f^*(y_1) + {\lambda}_2.f^*(y_2) >\] pour tout \(x\) et donc \[f^*({\lambda}_1.y_1+{\lambda}_2.y_2) = {\lambda}_1.f^*(y_1) + {\lambda}_2.f^*(y_2)\] ce qui conclut la preuve.
(endomorphisme adjoint).
\(\bullet\)\(f^*\) est appelé endomorphisme adjoint de \(f\).

\(\bullet\)\(f\) est dit symétrique si \(f^*=f\).

\(\bullet\)On note \(S(E)\) l’ensemble des endomorphismes symétriques de \(E\).

\(\bullet\)\(f\) est dit antisymétrique si \(f^*=-f\).

\(\bullet\)On note \(A(E)\) l’ensemble des endomorphismes antisymétriques de \(E\).

\(\bullet\)On appelle groupe orthogonal de \(E\) et on note \(O(E)\) l’ensemble des endomorphismes orthogonaux de \(E\); c’est un sous-groupe de \(GL(E)\), ensemble des automorphismes de \(E\).

\(\bullet\)On appelle groupe spécial orthogonal de \(E\) et on note \(SO(E)\) l’ensemble des endomorphismes orthogonaux de \(E\) de déterminant \(1\); c’est un sous-groupe de \(O(E)\).

Quelques propriétés faciles de \(E\) euclidien:

\(\bullet\)\(f\) est orthogonal si \(f^*.f=f.f^*=Id\).

\(\bullet\)Un endomorphisme est orthogonal si et seulement si son adjoint l’est.

\(\bullet\)L’application \(f \mapsto f^*\) est un endomorphisme de \(L(E)\); c’est un endomorphisme involutif, c’est-à-dire que \({f^*}^*\) est égal à \(f\).

\(\bullet\)\(Ker\ f^*=(Im\ f)^\bot\)

\(\bullet\)\(Im\ f^*=(Ker\ f)^\bot\)

\(\bullet\)\(Ker\ f=(Im\ f^*)^\bot\) \(\bullet\)\(Im\ f=(Ker\ f^*)^\bot\)

\(\bullet\)\((g \circ f)^*=f^* \circ g^*\)

\(\bullet\)\(Mat_B(f^*)=^tMat_B(f)\), si \(B\) est une base orthonormale

\(\bullet\)\(f\) est diagonalisable \(\iff\) \(f^*\) est diagonalisable

\(\bullet\)Si \(f\) est inversible, alors \(f^*\) aussi et \((f^*)^{-1}=(f^{-1})^*\)

\(\bullet\)\(F\) sous-espace vectoriel de \(E\) est stable par \(f\) si et seulement si \(F^\bot\) est stable par \(f^*\)

\(\bullet\)Un endomorphisme et son adjoint ont même polynôme caractéristique.

À peine plus dur:

\(\bullet\)Un endomorphisme est orthogonal si et seulement si il conserve le produit scalaire.

\(\bullet\)Un endomorphisme est orthogonal si et seulement si il conserve la norme.
Il est vite vu que les conditions en question sont équivalentes entre elles, car la norme s’exprime en fonction du produit scalaire, et le produit scalaire en fonction de la norme (cf. proposition [scalairenorme]); le calcul est facile. On va donc se contenter de montrer les deux implications suivantes:

\(\bullet\)Si \(f\) est orthogonal, alors \(f\) conserve la norme: évident car \[{\parallel}f(x) {\parallel}^2 = <f(x)|f(x)> = <x | f^{-1}(f(x))> = <x|x> ={\parallel} x {\parallel}^2\] \(\bullet\)Si \(f\) conserve le produit scalaire, alors \(f\) est orthogonal:

\(f\) est injectif puisqu’il conserve la norme

– on est en dimension finie, donc \(f\) est inversible

\(<f(x)|y>=<f(x)|f(f^{-1}(y))>=<x|f^{-1}(y)>\) et donc \(f^{-1}=f^*\).

On peut aussi noter le résultat amusant suivant:

\(\bullet\)Une application de \(E\) dans \(E\) avec \(E\) euclidien conservant le produit scalaire est linéaire.

\(\bullet\)Une application de \(E\) dans \(E\) avec \(E\) euclidien conservant la norme est linéaire.

\(\bullet\)Il suffit de développer \({\parallel}f({\lambda}.x + \mu.y) -{\lambda}.f(x) -\mu.f(y) {\parallel}^2\) et de calculer un peu.

\(\bullet\)Un peu de calcul sur les formules liant produit scalaire et norme suffit...
Une application de \(E\) dans \(E\) avec \(E\) euclidien est une isométrie si et seulement si c’est la composée d’une translation et d’un endomorphisme orthogonal.
Il est évident que la composée d’une translation et d’un endomorphisme orthogonal est une isométrie. Réciproquement, on procède comme suit:

\(\bullet\)On se donne \(f\) une isométrie de \(E\) dans \(E\)

\(\bullet\)On considère \(g\ :\ x \mapsto f(x)-f(0)\)

\(\bullet\)On montre que \(g\) conserve la norme

\(\bullet\)On conclut par la proposition [funnygame].

Quelques propriétés faciles des endomorphismes orthogonaux, utilisant les résultats ci-dessus; soit \(f \in O(E)\):

\(\bullet\)Le spectre de \(f\) est inclus dans \(\{-1,1\}\)

\(\bullet\)Le déterminant de \(f\) est \(-1\) ou \(1\)

\(\bullet\)\(F\) est stable par \(f\) \(\iff\) \(F^\bot\) est stable par \(F\)

\(\bullet\)Un endomorphisme orthogonal diagonalisable est une symétrie orthogonale (voir [prosym])

\(\bullet\)\(E= Im\ (f-I) \oplus Ker\ (f-I)= Im\ (f+I) \oplus Ker\ (f+I)\)

Quelques résultats sur les endomorphismes symétriques et antisymétriques (\(E\) un espace euclidien):

\(\bullet\)Un endomorphisme est symétrique (resp. antisymétrique) si et seulement si sa matrice dans une base orthonormale est symétrique (resp. antisymétrique)

\(\bullet\)L’ensemble \(L(E)\) des endomorphismes de \(E\) est somme directe de l’ensemble \(S(E)\) des endomorphismes symétriques et de l’ensemble \(A(E)\) des endomorphismes antisymétriques; \(L(E)=S(E)\oplus A(E)\).

\(\bullet\)\(dim\ L(E)=n^2 \mbox{ avec $n=dim\ E$}\)

\(\bullet\)\(dim\ S(E)=\frac12n.(n+1) \mbox{ avec $n=dim\ E$}\)

\(\bullet\)\(dim\ A(E)=\frac12n.(n-1) \mbox{ avec $n=dim\ E$}\)

\(\bullet\)si \(f\) est un endomorphisme antisymétrique de \(E\), alors \(f \circ f\) est un endomorphisme symétrique

\(\bullet\)Un endomorphisme \(f\) de \(E\) est antisymétrique si et seulement si \[\forall x\ <f(x)|x>=0\]

\(\bullet\)La seule valeur propre possible d’un endomorphisme antisymétrique est \(0\)

\(\bullet\)L’image et le noyau de \(f\) symétrique ou antisymétrique sont supplémentaires orthogonaux

\(\bullet\)Le rang d’un endormophisme antisymétrique est pair (en effet sa restriction à son image est une bijection et est antisymétrique, donc il n’a pas de valeur propre puisque \(0\) n’est pas de valeur propre, donc le polynôme caractéristique n’a pas de racine, donc l’image est de dimension paire)

\(\bullet\)Les sous-espaces propres d’un endomorphisme symétrique sont supplémentaires et orthogonaux.

\(\bullet\)Le polynôme caractéristique d’un endomorphisme symétrique est scindé sur \(\mathbb{R}\) (c’est-à-dire que la somme des multiplicités de ses racines sur \(\mathbb{R}\) est égal à son degré).

\(\bullet\)Un endomorphisme symétrique est diagonalisable dans une base orthonormale

La seule chose qui justifie que l’on fasse une preuve est l’avant-dernier point, qui entraîne le dernier.

\(\bullet\)On se donne \(f\) un endomorphisme symétrique, et \(M\) sa matrice dans une base orthonormale.

\(\bullet\)Soit \({\lambda}\) une racine dans \(\mathbb{C}\) du polynôme caractéristique de \(M\).

\(\bullet\)On peut trouver un vecteur colonne \(X\) (à coefficients complexes non tous nuls) tel que \(M.X={\lambda}.X\)

\(\bullet\)\(^t \overline X.M.X={\lambda}.^t\overline X.X\)

\(\bullet\)en conjuguant et en transposant on obtient \(^t\overline X.(^t \c M).X = \overline {\lambda}^t \overline X.X\) c’est-à-dire \(^t\overline X.M.X=\overline {\lambda}\ ^t \overline X.X\)

\(\bullet\)on a donc \({\lambda}.^t\overline X.X=\overline {\lambda}.^t\overline X.X\)

\(\bullet\)\(X\) non nul implique \(^t\overline X.X>0\), donc \({\lambda}=\overline {\lambda}\) et c’est fini.

Orientation d’un espace euclidien

On pourra consulter au préalable la partie [algmultilin].

(espace euclidien orienté).
On appelle espace euclidien orienté un couple \((E,C)\)\(E\) est un espace euclidien et \(C\) une classe d’équivalence sur l’ensemble des bases de \(E\) pour la relation d’équivalence \({\cal R}\) définie par \[B {\cal R}B' \iff det\ P_{B,B'}>0\] L’orientation de \(F\) sous-espace vectoriel de dimension \(n-p\) de \((E,C)\) espace euclidien orienté de dimension \(n\) suivant \((e_1,...,e_p)\) une base d’un supplémentaire de \(F\) est l’espace euclidien orienté \[(F,\{(e_{p+1},...,e_n) / (e_1,...,e_n) \in C\})\] (il s’agit d’un espace euclidien orienté)

On appelle base directe de l’espace euclidien orienté \((E,C)\) une base appartenant à \(C\).

On appelle base indirecte de l’espace euclidien orienté \((E,C)\) une base n’appartenant pas à \(C\).
Il n’y a que deux orientations possibles d’un même espace euclidien.

L’espace euclidien orienté usuel correspondant à \(\mathbb{R}^n\) est donné par la base (directe par définition) \[((1,0,...,0),(0,1,0,...,0),(0,0,1,0,...,0),...,(0,0,...,0,1,0),(0,...,0,1)).\]

Propriétés faciles: (\(E\) est un espace euclidien donné, de dimension \(n\))

\(\bullet\)Si \(\sigma\) est une permutation paire (resp. impaire) et si \(e_1,...,e_n\) est une base de \(E\) espace euclidien, alors \((e_i)_{i\in [1,n]}\) et \((e_{\sigma(i)})_{i\in [1,n]}\) sont dans la même classe d’équivalence (resp. ne sont pas dans la même classe d’équivalence) (voir [detmatper] pour en être complètement convaincu).

\(\bullet\)Si \((e_i)_{i\in [1,n]}\) et \((f_i)_{i\in [1,n]}\) sont deux bases de \(E\) avec \(f_i=f(e_i)\) (\(f\) est donc un automorphisme), alors les bases \((e_i)_{i\in [1,n]}\) et \((f_i)_{i\in [1,n]}\) sont dans la même classe d’équivalence si et seulement si \(det\ f>0\) (en effet \(f\) est alors l’endomorphisme de la matrice de passage de la base des \(e_i\) à la base des \(f_i\).

\(\bullet\)si \(B\) et \(B'\) orthonormales sont dans la même classe alors \(det_B(.)=det_{B'}(.)\).

Ceci permet d’introduire de nouvelles définitions:

(produit mixte).
On appelle produit mixte d’un espace euclidien \((E,C)\) de dimension \(n\) l’application \(det_B\) pour une base \(B \in C\) quelconque; on le note \((x_1,...,x_n)\mapsto [x_1,...,x_n]=det_B(x_1,...,x_n)\). Si \(E\) est un espace euclidien de dimension \(3\), alors étant donnés \(a\) et \(b\) dans \(E\), l’application qui à \(x\) dans \(E\) associe \([a,b,x]\) est linéaire, donc elle est égale à \(x \mapsto <c|x>\) pour un certain \(c\in E\) (voir le théorème [fleps]); on note \(a\land b\) l’élément \(c\) de \(E\), et on l’appelle produit vectoriel de \(a\) et \(b\).
Le produit vectoriel n’est pas commutatif !

Intuition Intuitivement, le produit mixte de \((x_1,...,x_n)\) est le volume algébrique (lié à l’orientation) de \(\{O+t_1.x_1+t_2.x_2+...+t_n.x_n ; (t_1,...,t_n) \in [0,1]^n \}\) (indépendamment de \(O\)).

Propriétés du produit mixte et du produit vectoriel (celles du produit mixte sont valables en toute dimension; le produit vectoriel n’est défini qu’en dimension \(3\)) (dans les deux cas rien n’est possible en dehors d’un espace euclidien orienté):

\(\bullet\)\(a\land b \in Vect(a,b)^\bot\)

\(\bullet\)\(a\land b = -b\land a\)

\(\bullet\)\(a\land b =0 \iff a \mbox{ et } b \mbox{ sont liés}\)

\(\bullet\)\((a,b) \mapsto a\land b\) est bilinéaire

\(\bullet\)\((a,b)\) libre \(\to (a,b,a\land b)\) est une base directe

\(\bullet\)Le produit mixte d’une base est non nul

\(\bullet\)Le produit mixte d’une base directe est strictement positif

\(\bullet\)Le produit mixte d’une base indirecte est strictement négatif

\(\bullet\)Une famille est une base orthonormale directe si et seulement si son produit mixte est \(1\)

\(\bullet\)Une famille est une base orthonormale indirecte si et seulement si son produit mixte est \(-1\)

\(\bullet\)\([f(x_1),...,f(x_n)]=(det\ f)[x_1,...,x_n]\)

\(\bullet\)Dans \(\mathbb{R}^3\) (muni du produit scalaire et de l’orientation usuels), le produit vectoriel de \((x,y,z)\) par \((x',y',z')\) est égal à \[(y.z'-z.y',z.x'-x.z',x.y'--y.x')\] Moyen mnémotechnique : ce sont les cofacteurs de la troisième colonne dans la matrice suivante: \[\left( \begin{array}{ccc} x & x' & ? \\ y & y' & ? \\ z & z' & ? \end{array} \right)\] \(\bullet\)\((a\land b)\land c=<a|c>.b-<b|c>.a\)

\(\bullet\)\(a\land (b\land c)=<a|c>.b-<a|b>.c\)

\(\bullet\)Si \(E\) est euclidien orienté de dimension \(3\), alors l’application \(\phi\) de \(E\) dans \(L(E)\) définie par \(\phi(x)= (y\mapsto x\land y)\) est à valeurs dans l’ensemble des endomorphismes antisymétriques de \(E\); en restreignant l’espace d’arrivée à l’ensemble des endomorphismes antisymétriques de \(E\) c’est un isomorphisme de \(E\).

Dans une base orthonormée, si \(u\) a comme coordonnées \((x,y,z)\), alors la matrice de \(\phi(u)\) (dans la même base) est \(\left(\begin{array}{ccc}0 & -z & y \\ z & 0 & -x \newline -y & x & 0 \end{array}\right)\).

Toutes ces propriétés s’obtiennent facilement en considérant simplement la définition du produit mixte ou du produit vectoriel.

(Identité de Lagrange).
\[{\parallel}a \land b {\parallel}^2 = {\parallel}a {\parallel}^2.{\parallel}b {\parallel}^2 - <a|b>^2\]
On suppose \(a\) et \(b\) libres, sinon le résultat est clair par Cauchy-Schwarz (voir la partie [epr]). \[[a,b,a\land b]^2=\left| \begin{array}{ccc} <a|a> & <a|b> & 0\\ <a|b> & <b|b> & 0\newline 0 & 0 & <a\land b|a\land b> \end{array}\right|\] \[={\parallel}a\land b {\parallel}^2.({\parallel}a {\parallel}^2.{\parallel}b {\parallel}^2 - <a|b>^2)\] \[\mbox{mais on a aussi }[a,b,a\land b]^2=<a\land b | a\land b>^2={\parallel} a\land b {\parallel}^4\] D’où le résultat désiré.
\[{\parallel}a \land b {\parallel}= {\parallel}a {\parallel}\times {\parallel}b {\parallel}\times \sin(\theta)\] avec \(\theta\) l’écart angulaire entre \(a\) et \(b\).

Maintenant quelques propriétés un peu plus difficiles.

\[[x_1,...,x_n]^2=det ( <x_i | x_j>_{(i,j)\in[1,n]^2} )\]
On pose \(M\) la matrice \(M_{i,j}=e_i^*(x_j)\) avec \((e_i)_{i\in [1,n]}\) une base orthonormale. \[[x_1,...,x_n]=det\ M=det\ ^tM\] \[[x_1,...,x_n]^2=det\ ^tM.M\] \[M_{i,j}=<e_i|x_j>\] \[(^tM.M)_{i,j}=\sum_{k=1}^n <e_k|x_i>.<e_k|x_j>\] d’où le résultat.
\[|[x_1,...,x_n]| \leq \prod_{i=1}^n {\parallel}x_i {\parallel}\] \[|[x_1,...,x_n]| = \prod_{i=1}^n {\parallel}x_i {\parallel}\iff (\exists i/x_i=0 \lor (x_i)_{i\in[1,n]} \mbox{ est orthogonale})\]
Si le système est lié, le résultat est clair (on rappelle que le déterminant d’une famille liée est nul).

Sinon, on peut construire par la méthode d’orthonormalisation de Schmidt une base \((e_1,..,e_n)\) avec \(\forall (i,j) \in [1,n]^2\ <x_j|e_i>\ >0\).

La matrice de passage \(P_{(e_i)_{i\in [1,n]},(x_i)_{i\in[1,n]}}\) est triangulaire (voir [schmidt]); son déterminant est le produit des \(<x_i|y_i>\), donc par l’inégalité de Schwartz est inférieur ou égal en valeur absolue au produit des \({\parallel} x_i {\parallel}\), avec égalité si et seulement si pour tout \(i\), \(x_i\) et \(y_i\) sont liés, donc si la famille est orthogonale.

Formes quadratiques sur un espace euclidien

Pour plus d’informations on pourra consulter le [forquaespeuc], page [forquaespeuc]. Notamment, les espaces euclidiens étant de dimension finie, on récupèrera pour les espaces euclidiens les nombreuses propriétés des formes quadratiques en dimension finie.

Espaces hermitiens

Pour introduction on pourra consulter la partie [esprco], sur les espaces préhilbertiens complexes.

Définition et premières propriétés

(espace hermitien).
On appelle espace hermitien un espace préhilbertien complexe de dimension finie, non réduit à \(\{0\}\).

On rappelle quelques propriétés, issues plus ou moins directement de la définition des espaces préhilbertiens complexes (voir la partie [esprco] pour des rappels):

\(\bullet\)Un espace hermitien est un espace de Hilbert; toutes les propriétés des espaces de Hilbert sont donc valables ici (voir la partie [hilb])

\(\bullet\)\(<.|.>\) est sesquilinéaire (i.e. semi-linéaire par rapport à la première variable et linéaire par rapport à la deuxième variable)

\(\bullet\)Si \(x\) est non nul alors \(\) est un réel \(>0\) (\(<.|.>\) est positive car pour tout \(x\) \(\) est positif et définie car \(x\) non nul \(\to\) \(\) non nul)

\(\bullet\)\(<.|.>\) est hermitienne, c’est-à-dire \(=\overline {<y|x>}\)

\(\bullet\)Toute famille orthonormale peut être commplétée en une base orthonormale

\(\bullet\)Pour tout sous-espace \(F\) d’un espace hermitien \(E\), on a \(E=F\oplus F^\bot\) et \(F={F^\bot}^\bot\)

\(\bullet\)Étant donnée une base orthonormale \((e_i)_{i\in[1,n]}\) de \(E\) hermitien, tout vecteur \(x\) de \(E\) vérifie \[x=\sum_{i=1}^n <e_i|x> e_i\]

\(\bullet\)Étant donnée une base \((x_i)_{i\in[1,n]}\) d’un espace hermitien, il existe une base orthonormale \((y_i)_{i\in [1,n]}\) telle que pour tout \(j\), \(y_j\) est combinaison linéaire des \(x_i\) pour \(1\leq i\leq j\) (voir [schmidt])

\(\bullet\)Étant donné \(E\) un espace hermitien l’application qui à \(x\) associe l’application \(y\mapsto <x|y>\) est un semi-isomorphisme de \(E\) sur \(E^*\).

\(\bullet\)En corollaire de la propriété ci-dessus, étant donné \(E\) un espace hermitien de dimension \(n\), pour toute famille \((x_1,...,x_n)\) de \(\mathbb{C}^n\) et toute base \((e_1,...,e_n)\) de \(E\), il existe un unique \(x\) dans \(E\) tel que \(<x|e_i>=x_i\) (on aurait pu, au lieu de \(<x|e_i>=x_i\), demander \(<e_i|x>=x_i\), comme on s’en rend facilement compte en considérant le fait que \(<.|.>\) est hermitienne).

\(\bullet\)Étant donnée \((e_i)_{i\in [1,n]}\) une base orthonormale de \(E\) avec \(E\) hermitien, la famille des \((x \mapsto <e_i|x>\) est la base duale de la base des \((e_i)_{i\in [1,n]}\) (il s’agit de l’image de la famille des \(e_i\) par le semi-isomorphisme ci-dessus).

La dernière propriété nécessite que la famille soit orthonormale!

\(\mathbb{C}^n\) muni de l’application \((x,y)\mapsto \sum_{i=1}^n \overline x_i\times y_i\) est un espace hermitien.

De même que les espaces euclidiens sont isomorphes à \(\mathbb{R}^n\) muni du produit scalaire euclidien usuel, on retiendra que les espaces hermitiens sont isomorphes à \(\mathbb{C}^n\) muni du produit scalaire hermitien usuel (ce qui fait que beaucoup de propriétés intuitives se retrouvent vraies).

Adjoint d’un endomorphisme d’un espace hermitien

Pour tout endomorphisme \(f\) de l’espace hermitien \(E\) il existe un et un seul endomorphisme \(f^*\) de \(E\) tel que pour tout \((x,y) \in E^2\) on ait \(<f(x)|y>=<x|f^*(y)>\).

\(\bullet\)Existence: il suffit de considérer l’application \(f^*\) : \(x \mapsto \sum_{i=1}^n <f(e_i)|x>.e_i\).

\(\bullet\)Unicité: \(<e_i|f^*(x)>=<f(e_i)|x>\), donc \(f^*(x)\) est entièrement déterminé par ses coordonnées.

Sans démonstration, une proposition utilisant la notion de semi-endomorphisme:

L’application \(F\) qui à \(f\) associe \(f^*\) est un semi-endomorphisme de \(L(E)\). \(F\) est involutif, c’est-à-dire que \(F \circ F=I\).
(\(f^*\)).
\(\bullet\)\(f^*\) s’appelle l’adjoint de \(f\).

\(\bullet\)\(f\) endomorphisme d’un espace hermitien \(E\) est dit unitaire lorsque \(f\circ f^*=f^*\circ f=I\).

\(\bullet\)\(f\) endomorphisme d’un espace hermitien \(E\) est dit hermitien lorsque \(f = f^*\).

\(\bullet\)Une matrice carrée \(M\) à coefficients dans \(\mathbb{C}\) est dite unitaire si elle vérifie \(\overline{^tM}.M=~I\).

\(\bullet\)Une matrice carrée \(M\) à coefficients dans \(\mathbb{C}\) est dite hermitienne si elle vérifie \(\overline{^tM}=M\).

On remarque donc qu’un endomorphisme unitaire est un endomorphisme inversible \(f\) tel que pour tout \(x\) et tout \(y\) de \(E\) \(<f(x)|y>=<x|f^{-1}(y)>\).

Par ailleurs un endomorphisme \(f\) d’un espace hermitien est hermitien lorsque pour tout \(x\) et tout \(y\) de \(E\) on a \(<f(x)|y>=<x|f(y)>\).

Sans surprise suite au cas euclidien, un endomorphisme \(f\) d’un espace hermitien est unitaire si et seulement si il conserve le produit scalaire, i.e. \[<f(x)|f(y)>=<x|y>\] Ou même simplement la norme, i.e. \({\parallel}f(x) {\parallel}= f(x)\).

De même que dans le cas des euclidiens, on note que l’adjoint de l’inverse (quand il existe) est l’inverse de l’adjoint (qui dans ce cas existe nécessairement), que l’orthogonal de l’image est le noyau de l’adjoint, et que l’image de l’adjoint est l’orthogonal du noyau; que \((f\circ g)^*=g^*\circ f^*\).

De même qu’un endomorphisme d’un espace euclidien est orthogonal si et seulement si l’image d’une base orthonormale est orthonormale, un endomorphisme d’un espace hermitien est unitaire si et seulement si l’image d’une base orthonormale est une base orthonormale.

Alors que dans le cas euclidien et dans une base orthonormale la matrice de l’adjoint est la transposée de la matrice, dans le cas hermitien et dans une base orthonormale la matrice de l’adjoint est la conjuguée de la matrice transposée. C’est-à-dire \[Mat_{(e_i)}(f^*)=\overline{^t Mat_{(e_i)}(f)}\]

Conséquence logique de ce qui précède, un endomorphisme est unitaire si et seulement si sa matrice dans une base orthonormale est unitaire.

Et un endomorphisme est hermitien si et seulement si sa matrice dans une base orthonormale est hermitienne.

Les valeurs propres d’une matrice hermitienne (ou d’un endomorphisme hermitien) sont toutes réelles.

Le polynôme caractéristique de \(f^*\) est le conjugué du polynôme caractéristique de \(f\).

On pourra consulter la partie [unit] pour plus d’informations sur la structure de l’ensemble des endomorphismes unitaires.

Le spectre d’une matrice unitaire est inclus dans le cercle unité; son déterminant appartient donc aussi à ce cercle unité.

(Sur les endomorphismes hermitiens).

L’image et le noyau d’un endomorphisme hermitien sont orthogonaux.

Les sous-espaces propres d’un endomorphisme hermitien sont en somme directe orthogonale.

Si \(f\) est un endomorphisme hermitien et si \(F\) est un sous-espace stable par \(f\) alors \(F^\bot\) est stable par \(f\) qui induit sur cet espace un endomorphisme hermitien.

Si \(f\) est un endomorphisme hermitien, alors \(f\) est diagonalisable dans une certaine base orthonormale.
Même principe que dans le cas euclidien.

De même, si \(M\) est une matrice complexe hermitienne, alors il existe \(P\) unitaire telle que \(^t \overline P.M.P\) soit diagonale.

Formes quadratiques sur un espace hermitien \(E\)

Voir le [forquacom], section [fqcest], page [fqcest].

Bibliographie

  • [DR] G. Demange, J.-C. Rochet, Méthodes mathématiques de la finance, Economica, 2ème édition, 1997.


Barre utilisateur

[ID: 29] [Date de publication: 14 mars 2021 20:24] [Catégorie(s): Le cours d'agrégation ] [ Nombre commentaires: 0] [nombre d'éditeurs: 1 ] [Editeur(s): Emmanuel Vieillard-Baron ] [nombre d'auteurs: 5 ] [Auteur(s): Christophe Antonini Olivier Teytaud Pierre Borgnat Annie Chateau Edouard Lebeau ]




Commentaires sur le cours

Documents à télécharger

Espaces préhilbertiens et espaces de Hilbert
Télécharger Télécharger avec les commentaires

L'article complet