Image
Applications multilinéaires, produits scalaires et déterminants.

Algèbre multilinéaire

Pour lire ce chapitre il est utile de connaître quelques bases sur \(\sigma_n\) (groupe des permutations d’un ensemble à \(n\) éléments), que l’on trouvera à la partie [symet].

Le chapitre est organisé comme suit: généralités ([amu1]), lien avec la topologie ([amu2]), déterminant ([amu3]), algèbre bilinéaire ([amu4]), zoologie des déterminants ([amu5]), zoologie du bilinéaire ([amu6]).

Les premières sections, de type fondements théoriques pour la suite, sont rapides. On présentera l’important cas particulier du bilinéaire en détails; il est fondamental pour passer ensuite au produit scalaire. Le cas proprement multilinéaire servira notamment pour les dérivées \(n\)-ièmes (section [derivnieme]) ou les déterminants.

Généralités

(Application multilinéaire).
Soient \(E_1\), ..., \(E_n\) et \(F\) des \(\mathbb{K}\)-espaces vectoriels, alors \(f:\Pi_{i \in [[1,n]]} E_i \to F\) est \(n\)-linéaire si pour tout \((x_i)\) dans \(\Pi E_i\) et tout \(j\) l’application \[x \to f(x_1,...,x_{j-1},x,x_{j+1},...,x_n)\] est linéaire. Leur ensemble est noté \(\mathcal L(E_1,...,E_n;F)\).

Si \(E_1=E_2=...=E_n=E\) on dit que \(f\) est une application \(n\)-linéaire sur \(E\).

Si \(F\) est le corps \(\mathbb{K}\), alors \(f\) est dite forme \(n\)-linéaire.

On note \(L_n(E,F)\) l’ensemble des applications \(n\)-linéaires de \(E\) dans \(F\).

On note \(L_n(E)\) l’ensemble des formes \(n\)-linéaires sur \(E\), c’est-à-dire \(L_n(E,\mathbb{K})\).

Étant donné \(f\in L_n(E,F)\) et \(\sigma\in \sigma_n\) on note \(f_\sigma\) l’application \(n\)-linéaire \((x_1,...,x_n) \mapsto f(x_{\sigma(1)},x_{\sigma(2)},...,x_{\sigma(n)})\).

Une application \(n\)-linéaire est dite symétrique si pour tout \(\sigma\) \(f_\sigma=f\).

Une application \(n\)-linéaire est dite antisymétrique si pour tout \(\sigma\) \(f_\sigma=\epsilon(\sigma).f\), avec \(\epsilon()\) la signature (cf section [symet]).

Une application \(n\)-linéaire est dite alternée si \(i\neq j\) et \(x_i=x_j\) implique \(f(x_1,...,x_n)=0\).

On note \(S_n(E,F)\) l’ensemble des applications \(n\)-linéaires symétriques de \(E\) dans \(F\) et \(A_n(E,F)\) l’ensemble des applications \(n\)-linéaires alternées de \(E\) dans \(F\).

On note \(S_n(E)\) l’ensemble des formes \(n\)-linéaires symétriques sur \(E\) et \(A_n(E)\) l’ensemble des formes \(n\)-linéaires alternées sur \(E\).
Une application \(n\)-linéaire n’est pas en général une application linéaire.
Le déterminant est une application importante du multilinéaire. Les produits scalaires euclidiens ou hermitiens sont des cas de bilinéaire très important. Les équations différentielles utiliseront le caractère \(n\)-linéaire alterné du déterminant avec le wronskien (proposition [sollib]).
Notons quelques propriétés immédiates des applications multilinéaires:

\(\bullet\)\(L_n(E,F)\) est un \(\mathbb{K}\)-espace vectoriel, sous-espace vectoriel de \(F^{E^n}\).

\(\bullet\)\(f\) est symétrique si et seulement si pour toute transposition \(\tau\), \(f_\tau=f\).

\(\bullet\)\(f\) est antisymétrique si et seulement si pour toute transposition \(\tau\), \(f_\tau=-f\).
Premier point évident, les deux points suivants demandent juste de se rappeler que les transpositions engendrent \(\sigma_n\). On pourrait en fait utiliser d’autres familles génératrices.
Une application \(n\)-linéaire alternée est antisymétrique; si \(\mathbb{K}\) n’est pas de caractéristique \(2\), la réciproque est vraie aussi.
Supposons \(f\) \(n\)-linéaire, et \(x_i=x_j\), avec \(i\neq j\). \[0=f(x_1,...,x_i+x_j,...,x_j+x_i,...,x_n)\mbox{ (car $f$ est alternée)}\] \[\begin{aligned} 0&=&f(x_1,...,x_i,...,x_i,...,x_n)\\ &+& f(x_1,...,x_i,...,x_j,...,x_n)\\ &+& f(x_1,...,x_j,...,x_j,...,x_n)\newline &+& f(x_1,...,x_j,...,x_i,...,x_n)\end{aligned}\] (car \(f\) est \(n\)-linéaire). \[\mbox{or }f(x_1,...,x_i,...,x_i,...,x_n)=f(x_1,...,x_j,...,x_j,...,x_n)=0\] puisque \(f\) est alternée, donc \(f(x_1,...,x_i,...,x_j,...,x_n)=-f(x_1,...,x_j,...,x_i,...,x_n)\). Par la proposition [zorgzarg], le résultat alterné \(\to\) antisymétrique est donc prouvé. La réciproque est évidente, en utilisant la même caractérisation de l’antisymétrie par la proposition [zorgzarg].

On suppose désormais que \(\mathbb{K}\) est un corps de caractéristique \(\neq 2\).

Soit \(\phi\) une forme \(n\)-linéaire antisymétrique sur \(E\) \(\mathbb{K}\)-espace vectoriel de dimension \(n\), \(e_1,...,e_n\) une base de \(E\), \(e_1^*,...,e_n^*\) sa base duale et \(x_1,...,x_n\) une famille de \(n\) éléments de \(E\). Alors: \[\phi(x_1,...,x_n)=\left(\sum_{\sigma\in \sigma_n} \epsilon(s).\Pi_{i=1}^n e_{\sigma(i)}^*(v_i)\right).\phi(e_1,...,e_n)\] et \[\phi(x_1,...,x_n)=\left(\sum_{\sigma\in \sigma_n} \epsilon(s).\Pi_{i=1}^n e_i^*(v_{\sigma(i)})\right).\phi(e_1,...,e_n)\]

Les notions de dimension finie et de base duale sont définies dans le chapitre [alglindf] et dans la partie [blon2].

On procède en quatre étapes pour la formule [breal]:

\(\bullet\)On remplace \(x_j\) par \(\sum_i e_i^*(x_j).e_i\) dans \(\phi(x_1,...,x_n)\).

\(\bullet\)On développe en utilisant la linéarité suivant chaque composante, on obtient donc \[\sum_{(i_1,...,i_n) \in [[1,n]]^n} e_{i_1}^*(x_1).e_{i_2}^*(x_2).....e_{i_n}^*(x_n).\phi(e_{i_1},...,e_{i_n})\] \(\bullet\)On supprime tous les termes tels que le cardinal de \(\{i_1,...,i_n\}\) soit différent de \(n\), ce qui permet d’introduire les permutations.

\(\bullet\)Il ne reste plus qu’à remplacer \(\phi(e_{i_1},...,e_{i_n})\) par \(\epsilon(\sigma).\phi(e_1,...,e_n)\).

La deuxième formule s’obtient simplement en remplaçant \(\sigma\) par \(\sigma^{-1}\) (avec l’égalité \(\epsilon(\sigma)=\epsilon(\sigma^{-1})\)).
(Symétrisé et antisymétrisé d’une forme \(n\)-linéaire).
Soit \(f\) une forme \(n\)-linéaire sur un \(\mathbb{K}\)-espace vectoriel \(E\).

Alors l’application \(S(f)\) égale à \((x_1,...,x_n) \mapsto \frac{1}{n!}\sum_{\sigma\in \sigma_n} f_{\sigma}(x_1,...,x_n)\) est appelée symétrisée de \(f\); elle est symétrique.

Alors l’application \(A(f)\) égale à \((x_1,...,x_n) \mapsto \frac{1}{n!}\sum_{\sigma\in \sigma_n} \epsilon(\sigma).f_{\sigma}(x_1,...,x_n)\) est appelée antisymétrisée de \(f\); elle est alternée.

L’application \(f \mapsto S(f)\) est appelée opérateur de symétrisation.

L’application \(f \mapsto A(f)\) est appelée opérateur d’antisymétrisation.
(Produit tensoriel, produit symétrique, produit extérieur).
Soient \(f_1,...,f_n\) des formes linéaires sur le \(\mathbb{K}\)-espace vectoriel \(E\).

On appelle produit tensoriel de \((f_1,...,f_n)\) l’application qui à \((x_1,...,x_n)\) associe \(f_1(x_1)\times f_2(x_2)... \times f_n(x_n)\). On le note \(f_1 \otimes f_2 \otimes ... \otimes f_n\).

L’aplication symétrisée du produit tensoriel est appelée produit symétrique de \((f_1,...,f_n)\); on la note \(f_1.f_2.\dots.f_n\).

L’application antisymétrisée du produit tensoriel est appelée produit extérieur de \((f_1,...,f_n)\); on le note \(f_1 \land f_2 \land ... \land f_n\).

Une application \(n\)-linéaire exprimable comme produit tensoriel est dite décomposable dans \(L_n(E)\).

Une application \(n\)-linéaire exprimable comme produit symétrique est dite décomposable dans \(S_n(E)\).

Une application \(n\)-linéaire exprimable comme produit extérieur est dite décomposable dans \(A_n(E)\).
\(\bullet\)Le produit symétrique de \(n\) formes linéaires est symétrique.

\(\bullet\)Le produit extérieur de \(n\) formes linéaires est antisymétrique.

\(\bullet\)L’application qui à \(n\) formes linéaires associe leur produit tensoriel est \(n\)-linéaire de \({E^*}^n\) dans \(L_n(E)\).

\(\bullet\)L’application qui à \(n\) formes linéaires associe leur produit symétrique est \(n\)-linéaire symétrique.

\(\bullet\)L’application qui à \(n\) formes linéaires associe leur produit extérieur est \(n\)-linéaire alternée.

Quelques théorèmes donnés sans démonstration:

Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension finie \(n\), \((e_1,...,e_n)\) une base de \(E\), \((e_1^*,...,e_n^*)\) sa base duale. On note \({\cal F}\) l’ensemble des applications de \([[1,p]]\) dans \([[1,n]]\). Pour tout \(f\) dans \({\cal F}\) on note \(e_f=e_{f(1)}^* \otimes e_{f(2)}^* \otimes \dots \otimes e_{f(p)}^*\). Alors la famille des \(e_f\) pour \(f \in {\cal F}\) est une base de \(L_p(E)\).
(base associée à \((e_1,...,e_n)\)).
La base donnée par le théorème précédent est appelée base associée à \((e_1,...,e_n)\).

Dénombrer l’ensemble des applications de \([[1,p]]\) dans \([[1,n]]\) conduit au corollaire suivant:

La dimension de \(L_p(E)\) est \(n^p\).
Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension finie \(n\), \((e_1,...,e_n)\) une base de \(E\), \((e_1^*,...,e_n^*)\) sa base duale. \(\mathbb{K}\) est supposé de caractéristique nulle.

On note \(A\) l’ensemble des applications \(f\) de \([[1,n]]\) dans \([[0,p]]\) telles que \(\sum_{i=1}^n f(i)=p\). Alors on note \(e_f=e_1^{f(1)}.e_2^{f(2)}. \dots . e_n^{f(n)}\).

Alors la famille des \(e_f\) pour \(f\in A\) forme une base de \(S_p(E)\) (ensemble des formes \(p\)-linéaires symétriques sur \(E\)).

Dénombrer l’ensemble des applications de \([[1,n]]\) dans \([[0,p]]\) sommant à \(p\) conduit au corollaire suivant:

Si \(E\) est un \(\mathbb{K}\)-espace vectoriel de dimension finie \(n\) et si \(\mathbb{K}\) est de caractéristique nulle, alors la dimension de \(S_p(E)\) est égale à \(C_{n+p-1}^p\).
Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension finie \(n\), \((e_1,...,e_n)\) une base de \(E\), \((e_1^*,...,e_n^*)\) sa base duale. \(\mathbb{K}\) est supposé de caractéristique nulle.

On note \(A\) l’ensemble des applications \(f\) strictement croissantes de \([[1,p]]\) dans \([[1,n]]\). Alors on note \(e_f=e_{f(1)}.e_{f(2)}. \dots . e_{f(n)}\).

Alors la famille des \(e_f\) pour \(f\in A\) forme une base de \(A_p(E)\).

Dénombrer les applications strictement croissantes de \([[1,p]]\) dans \([[1,n]]\) fournit alors le résultat suivant:

Si \(E\) est un \(\mathbb{K}\)-espace vectoriel de dimension finie \(n\) et si \(\mathbb{K}\) est de caractéristique nulle, alors \(dim\ A_p(E)=C_n^p\).

On verra que dans le cas bilinéaire, i.e. \(p=2\), \(A_p(E)\) et \(S_p(E)\) sont des sous-espaces vectoriels de l’espace vectoriel \(L_p(E)\) et que ces sous-espaces vectoriels sont en somme directe. La dimension de \(A_2(E)\oplus S_2(E)\) est alors \(dim(A_2(E))+dim(S_2(E))=C_n^2+C_{n+1}^2=n(n-1)/2+(n+1)n/2=n^2=dim(L_2(E))\).Ainsi, \(L_2(E)=A_2(E)\oplus S_2(E)\).

Algèbre multilinéaire et topologie

(\({\cal L}(E_1,...,E_n;F)\)).
Étant donnés \(E_1\), ..., \(E_n\) et \(F\) des espaces vectoriels normés, on note \({\cal L}(E_1,...,E_n;F)\) l’espace des applications \(n\)-linéaires continues de \(E_1 \times ... \times E_n\) dans \(F\). On le norme par \(f \mapsto sup_{\forall i {\parallel}x_i {\parallel}\leq 1} {\parallel}f(x_i){\parallel}\) ; on obtient ainsi un espace vectoriel normé .
(Quelques théorèmes (peu difficiles) sans preuve).
\(\bullet\)Soient \(E_1\), ..., \(E_n\) et \(F\) des espaces vectoriels normés, et soit \(f\) une application \(n\)-linéaire de \(E_1,...,E_n\) dans \(F\). Alors :

\(f\) est continue si et seulement si \(f\) est continue en \(0\)

\(f\) est continue si et seulement si \(f\) est bornée sur le produit des boules unités des \(E_i\)

\(\bullet\)Si \(F\) est un espace de Banach, alors \({\cal L}(E_1,...,E_n;F)\) est un espace de Banach.

\(\bullet\)Étant donnée \(f\) application \(n\)-linéaire continue de \(E_1 \times ... \times E_n\) dans \(F\), alors \(f\) est \(\mathcal C^\infty\) sur \(E_1\times...\times E_n\) et, notamment, la différentielle de \(f\) en \((x_1,x_2,...,x_n)\) est \((h_1,...,h_n) \mapsto f(h_1,x_2,...,x_n)+f(x_1,h_2,x_3,...,x_n)+...+f(x_1,x_2,...,x_{n-1},h_n)\).

\(\bullet\)\({\cal L}(E_1,E_2;F) \simeq {\cal L}(E_1;{\cal L}(E_2;F))\).

Déterminants

Le déterminant est une jolie application de l’algèbre multilinéaire à l’étude de familles de vecteurs, de matrices, d’endomorphismes. On en verra des applications à l’étude des polynômes via le résultant de deux polynômes.

Déterminant d’une famille de vecteurs

On suppose \(E\) \(\mathbb{K}\)-espace vectoriel de dimension finie \(n\).

(déterminant).
On appelle déterminant d’une famille \((x_1,...,x_n)\) d’éléments de \(E\) dans une base \((e_1,...,e_n)\) de \(E\) la somme: \[\sum_{\sigma\in \sigma_n} \epsilon(\sigma) \Pi_{i=1}^n e_{\sigma(i)}^*(x_i)\] On le note \(det_{(e_1,...,e_n)}(x_1,...,x_n)\).
On verra une application amusante et inattendue du discriminant pour l’étude de polynômes avec le théorème [thres].
Si \(f\) est \(n\)-linéaire sur \(E\), alors \(\sum_{\sigma\in \sigma_n} \epsilon(\sigma).f_\sigma\) est \(n\)-linéaire et antisymétrique.
La somme est trivialement \(n\)-linéaire, et l’antisymétrie se montre facilement (on rappelle juste que la signature du produit de deux permutations est le produit des signatures de ces deux permutations, i.e. que \(\epsilon\) : \(\sigma_n\to(\{-1,1\},\times)\) est un morphisme de groupes).

On suppose pour la suite que \(\mathbb{K}\) n’est pas de caractéristique \(2\).

\(\bullet\)Étant donnée une base \(B\) de \(E\), il existe une et une seule forme \(n\)-linéaire alternée égale à \(1\) sur \(B\); c’est \(det_B(.)\). \(\bullet\)Les formes \(n\)-linéaires alternées sur \(E\) sont égales à \(det_B(.)\) à multiplication par un scalaire près.
\(\bullet\)Il est clair que \(det_B(B)=1\).

\(\bullet\)La proposition précédente nous assure que \(det_B(.)\) est \(n\)-linéaire alternée.

\(\bullet\)Le théorème [devel] nous assure le deuxième point.

En conclusion, on a les propriétés élémentaires suivantes du déterminant dans une base \(B\):

\(\bullet\)Le déterminant est \(n\)-linéaire alterné.

\(\bullet\)On ne change pas le déterminant des \(x_i\) en ajoutant à un des \(x_i\) une combinaison linéaire des autres \(x_j\).

\(\bullet\)Le déterminant de \((x_1,...,x_n)\) est égal à \(\epsilon(\sigma)\) fois le déterminant de \((x_{\sigma(1)},...,x_{\sigma(n)})\).

\(\bullet\)\(det_B(.)=det_B(B').det_{B'}(.)\).

\(\bullet\)\(det_B(B').det_{B'}(B)=1\).

\(\bullet\)La famille des \(x_i\) est une base si et seulement si \(det_B(x_1,...,x_n) \neq 0\).

(simplement du dernier point, les autres se montrant facilement l’un après l’autre dans cet ordre)

Si c’est une base, alors on applique la formule juste au dessus pour conclure que le déterminant est non nul.

Si le déterminant est non nul, alors supposons la famille liée, on peut ajouter à un vecteur une combinaison linéaire des autres (sans changer la valeur du déterminant) et on a ainsi une famille dont un vecteur est nul, et donc le déterminant devrait être nul.

Déterminant d’un endomorphisme

\(E\) est toujours un \(\mathbb{K}\)-espace vectoriel de dimension finie \(n\) sur un corps \(\mathbb{K}\) de caractéristique différente de deux.

(déterminant de l’endomorphisme \(f\)).
On appelle déterminant de l’endomorphisme \(f\) le déterminant de \(f(B)\) dans la base \(B\); on le note \(det\ f\). On appelle groupe spécial linéaire de \(E\) l’ensemble des endomorphismes de \(E\) de déterminant \(1\); on le note \(SL(E)\).
Il convient pour que la définition ait un sens de démontrer que ce déterminant ne dépend pas de la base \(B\). On suppose donc données deux bases \(B\) et \(B'\), et on montre que \(det_B(f(B))=det_{B'}(f(B'))\).

\(\bullet\)La fonction qui à un \(n\)-uplet \(x \in E^n\) associe \(det_B(f(x))\) est \(n\)-linéaire alternée, donc c’est \({\lambda}.det_B\).

\(\bullet\)En spécialisant en \(B\) cette égalité, on obtient \(det_B(f(B))={\lambda}\), soit \[% % det_B(f(x))=det_B(f(B)).det_B(x)\]

\(\bullet\)Or par les propriétés du déterminant on a \[% % det_B(x)=det_B(B').det_{B'}(x)\] \[% \belowdisplayshortskip6pt det_B(f(x))=det_B(B').det_{B'}(f(x))\]

\(\bullet\)Des deux points précédents on déduit \[% % det_B(B').det_{B'}(f(x))=det_B(f(B)).det_B(B').det_{B'}(x)\] c’est-à-dire \(det_{B'}(f(x))=det_B(f(B)).det_{B'}(x)\), et donc \(det_{B'}(f(B'))=det_B(f(B))\) en spécialisant en \(B'\).

\(\bullet\)\(f\) est un automorphisme si et seulement si \(det\ f \neq 0\).

\(\bullet\)Si \(det\ f \neq 0\), alors \(f\) est un automorphisme et \(det\ f^{-1}=\frac1{det\ f}\).

\(\bullet\)\(det\) est un morphisme de groupes entre \(GL(E)\) et \(\mathbb{K}\setminus \{0\}\).

\(\bullet\)\(SL(E)\), puisqu’il est le noyau du déterminant, est un sous-groupe distingué de \(GL(E)\).

Déterminant d’une matrice

On travaille encore dans un corps \(\mathbb{K}\) de caractéristique différente de \(2\).

(déterminant).
On appelle déterminant d’une matrice carrée \(M\) le déterminant de l’endomorphisme canonique associé à \(M\) dans \(\mathbb{K}^n\). On le note \(det\ M\) ou \(| M |\). On appelle groupe spécial linéaire d’ordre \(n\) et on note \(SL_n(\mathbb{K})\) l’ensemble des matrices de déterminant égal à \(1\).
Le déterminant d’une matrice est aussi le déterminant de ses vecteurs-colonnes ou de ses vecteurs-lignes dans la base canonique de \(\mathbb{K}^n\).

Les propriétés suivantes se déduisent facilement des propriétés équivalentes chez les endomorphismes ou les familles de vecteurs:

\(\bullet\)Une matrice est inversible si et seulement si son déterminant est non nul.

\(\bullet\)Le déterminant du produit est le produit des déterminants.

\(\bullet\)\(SL_n(\mathbb{K})\) est un sous-groupe de \(GL_n(\mathbb{K})\), noyau du déterminant en tant que morphisme de groupes de \(GL_n(\mathbb{K})\) vers \(\mathbb{K}\setminus \{0\}\).

\(\bullet\)Deux matrices semblables ont même déterminant.

Le déterminant d’une matrice triangulaire est égal au produit des éléments diagonaux.
Il suffit de voir que seule la permutation identité est telle que pour tout \(i\), \(M_{\sigma(i),i}\) soit non nul.

Pratique du calcul d’un déterminant ; développement suivant une ligne ou une colonne

Le point de vue adopté ici est celui du calcul du déterminant d’une matrice de type \((n,n)\) sur un corps \(\mathbb{K}\); bien sûr il faut bien voir qu’il en va de même du calcul du déterminant d’un endomorphisme ou d’une famille de vecteurs dans une base.

Pour la suite il est nécessaire d’avoir lu la section sur les cofacteurs ([cofacteurs]).

(Développement suivant une colonne).
\[\forall j\in[[1,n]],\ det\ M= \sum_{i\in [[1,n]]} \gamma_{i,j}.M_{i,j}\]
Il suffit de se rappeler que le déterminant est \(n\)-linéaire.
(Développement suivant une ligne).
\[\forall i\in[[1,n]],\ det\ M= \sum_{j\in [[1,n]]} \gamma_{i,j}.M_{i,j}\]
Il suffit de se rappeler que \(det\ M=det\ ^tM\).
\[det\ \tilde M = det\ com(M) = (det M)^{n-1}\]
On sépare en plusieurs cas:

\(\bullet\)Si \(\tilde M\) est inversible et pas \(M\), alors \(\tilde M.M = (det\ M).I =0\) et donc \(M=0\), et donc \(\tilde M=0\), d’où contradiction.

\(\bullet\)Si \(\tilde M\) et \(M\) ne sont inversibles ni l’une ni l’autre, alors les déterminants sont égaux à \(0\), et l’égalité annoncée est vérifiée.

\(\bullet\)Si \(M\) est inversible, alors \[\tilde M.M=(det\ M).I\] \[det\ (\tilde M.M) = det((det\ M).I)\] \[det\ (\tilde M). det\ M = (det\ M)^n\] \[det\ \tilde M = (det\ M)^{n-1},\] d’où le résultat annoncé.

Algèbre bilinéaire

On travaillera avec un corps \(\mathbb{K}\) égal à \(\mathbb{R}\) ou \(\mathbb{C}\).

Formes bilinéaires

Les formes multilinéaires sont importantes en particulier pour leur lien avec les déterminants. Le cas spécial du bilinéaire est encore plus fondamental car relié aux produits scalaires.

\(\boxcircle\) Le cas général

(forme bilinéaire sur \(E\)).
On appelle forme bilinéaire sur \(E\) une forme multilinéaire de \({\cal L}_2(E)\). Étant donnée \(\phi\) une forme bilinéaire on note \(^t\phi\) l’application \((x,y)\to \phi(y,x)\).

Il est immédiat que \(\phi\) est symétrique si \(\phi=^t\phi\), et que \(\phi\) est antisymétrique si \(^t\phi=-\phi\).

\(\bullet\)L’application qui à \(\phi\) associe \(^t\phi\) est un automorphisme involutif de \({\cal L}_2(E)\). \(\bullet\)\({\cal L}_2(E)\) est somme directe des deux sous-espaces vectoriels de \({\cal L}_2(E)\) respectivement constitués des formes bilinéaires symétriques et des formes bilinéaires antisymétriques. On a en fait \(\phi=s+a\) avec \(s=\frac{^t\phi+\phi}2\), \(a=\frac{\phi-^t\phi}2\), \(s\) symétrique et \(a\) antisymétrique.

\(\boxcircle\) Le cas de la dimension finie – expression matricielle

On travaille maintenant avec \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension finie \(n\). On se donne une base \((e_1,...e_n)\) de \(E\).

(matrice de \(\phi\) dans la base \({\cal B}\)).
Étant donnée une forme bilinéaire \(\phi\) sur \(E\), on appelle matrice de \(\phi\) dans la base \({\cal B}\) la matrice \(M\) définie par \[M_{i,j}=\phi(e_i,e_j)\] On la note \(Mat_B(\phi)\).

Réciproquement, on appelle forme bilinéaire sur \(E\) associée à la matrice \(M\) et à la base \(B\) l’application \(\phi\) définie par \[\phi(x,y)=^tX.M.Y\] avec \(X\) le vecteur défini par \(X_i=e_i^*(x)\) et \(Y\) le vecteur défini par \(Y_i=e_i^*(y)\).

La forme bilinéaire canoniquement associée à une matrice \(M\) de type \((n,n)\) est la forme bilinéaire associée à cette matrice dans \(\mathbb{K}^n\), muni de sa base canonique.

La proposition suivante est aisée à démontrer.

Avec \(M\) la matrice de \(\phi\) dans la base \(B\), avec \(X\) le vecteur défini par \(X_i=e_i^*(x)\) et \(Y\) le vecteur défini par \(Y_i=e_i^*(y)\), on a \[\phi(x,y)=^tX.M.Y\]

Son corollaire est bien commode et mérite d’être mentionné; il justifie l’utilisation de la terminologie de la transposition à la fois pour les matrices et pour les formes bilinéaires:

La matrice de \(^t\phi\) est la transposée de la matrice de \(\phi\).
Étant donnée \(B\) une base de \(E\), l’application qui à une matrice associe la forme bilinéaire associée sur \(E\) pour \(B\) est un isomorphisme.
\(dim\ {\cal L}_2(E)=n^2\)
Étant donnée \(B\) et \(B'\) deux bases de \(E\), alors \[Mat_{B'}(\phi)=^tP_{B,B'}.Mat_B(\phi).P_{B,B'}\]
Conséquence de la proposition [expression-matricielle-forme-bili].

Au vu de ce résultat, on comprend l’intérêt d’introduire la définition suivante:

(forme quadratique associée à la forme bilinéaire \(\phi\)).
Deux matrices \(P\) et \(Q\) sont dites congruentes si il existe \(M\) inversible telle que \(P=^tMQM\).

L’intérêt de la notion apparaît avec la proposition ci-dessous:

\(\bullet\)La congruence est une relation d’équivalence

\(\bullet\)Deux matrices sont congruentes si et seulement si elles représentent la même forme bilinéaire dans deux bases différentes

\(\bullet\)Deux matrices congruentes ont même rang

Formes quadratiques

\(\boxcircle\) Le cas général

On appelle forme quadratique associée à la forme bilinéaire \(\phi\) l’application \(x \mapsto \phi(x,x)\). Une application de \(E^2\) dans \(\mathbb{K}\) est une forme quadratique sur \(E\) si et seulement si c’est la forme quadratique associée à une certaine forme bilinéaire.
Soit \(q\) une forme quadratique, alors \[% % q(x+y)+q(x-y)=2(q(x)+q(y))\] (voir figure [paral])
Il suffit de développer la formule en considérant une forme bilinéaire \(\phi\) à laquelle \(q\) est associée.

Image

L’application qui à une forme bilinéaire associe la forme quadratique qui lui est associée est une application linéaire de \({\cal L}_2(E)\) dans l’ensemble des fonctions de \(E\) dans \(\mathbb{K}\). Son noyau est l’ensemble des applications bilinéaires antisymétriques, et elle induit un isomorphisme de l’ensemble des applications bilinéaires symétriques sur \(E\) sur l’ensemble des formes quadratiques.
Le fait que cette application soit linéaire est évident. La surjectivité est évidente. Montrons donc seulement que si sa forme quadratique associée est nulle, alors \(\phi\) est antisymétrique. Pour tout \(x\) et tout \(y\) \(\phi(x+y,x+y)=\phi(x,x)+\phi(y,y)+\phi(x,y)+\phi(y,x)\); donc si pour tout \(z\) \(\phi(z,z)\!=\!0\), alors \(\phi(x,y)+\phi(y,x)\!=\!0\). D’où le résultat.
(forme polaire de \(q\)).
Étant donnée une forme quadratique \(q\) sur \(E\), l’unique forme bilinéaire symétrique \(\phi\) telle que pour tout \(x\), \(q(x)=\phi(x,x)\) est appelée forme polaire de \(q\).
Les formules suivantes permettent de déterminer la forme polaire \(\phi\) associée à une forme quadratique \(q\):

\(\bullet\)\(\phi(x,y)=\frac12(q(x+y)-q(x)-q(y))\)

\(\bullet\)\(\phi(x,y)=\frac14(q(x+y)-q(x-y))\)
(Orthogonalité).
Étant données \(q\) une forme quadratique et \(\phi\) sa forme polaire:

\(\bullet\)\(x\) et \(y\) appartenant à \(E\) sont orthogonaux si et seulement si \(\phi(x,y)=0\)

\(\bullet\)deux parties \(X\) et \(Y\) de \(E\) sont dites orthogonales si et seulement si tout \(x\) dans \(X\) et tout \(y\) dans \(Y\) sont orthogonaux.

\(\bullet\)On appelle orthogonal d’une partie \(X\) de \(E\) et on note \(X^\bot\) l’ensemble des éléments orthogonaux à tous les éléments de \(X\).

\(\bullet\)On appelle noyau de \(q\) l’orthogonal de \(E\) (à ne pas confondre avec le cône isotrope de \(q\)); on le note \(N(q)\).

\(\bullet\)On appelle cône isotrope de \(q\) et on note \(C(q)\) l’ensemble des \(x\) tels que \(q(x)=0\) (à ne pas confondre avec le noyau de \(q\)). Un élément du cône isotrope est appelé vecteur isotrope.

\(\bullet\)Une forme quadratique est dite dégénérée si son noyau n’est pas réduit à \(\{0\}\).

\(\bullet\)Une forme quadratique est dite définie si son cône isotrope est réduit à \(\{0\}\).

\(\bullet\)Un sous-espace vectoriel de \(E\) est dit isotrope si la restriction de \(q\) à ce sous-espace vectoriel est dégénérée.

\(\bullet\)Un sous-espace vectoriel de \(E\) est dit totalement isotrope si la restriction de \(q\) à ce sous-espace vectoriel est nulle.

\(\bullet\)Une forme quadratique \(q\) sur un \(\mathbb{R}\)-espace vectoriel \(E\) est dite positive (resp. négative) lorsque pour tout \(x\) on a \(q(x,x) \geq 0\) (resp. \(q(x,x) \leq 0\)).
\(\bullet\)Si \(X\subset E\), alors \(X^\bot\) est un sous-espace vectoriel de \(E\).

\(\bullet\)Si \(X\) et \(Y\subset E\), alors \((X\cup Y)^\bot=X^\bot\cap Y^\bot\).

\(\bullet\)Un sous-espace vectoriel est isotrope si et seulement si il a une intersection non réduite à \(\{0\}\) avec son orthogonal.

\(\bullet\)Un sous-espace vectoriel est totalement isotrope si et seulement si il est inclus dans son orthogonal.

\(\bullet\)L’orthogonal d’une partie de \(E\) est l’orthogonal du sous-espace vectoriel engendré par cette partie.

\(\bullet\)Avec \(X\) et \(Y\) des parties de \(E\), \(X \subset Vect(Y) \to Y^\bot\subset X^\bot\)
\(\bullet\)Le noyau d’une forme quadratique est un sous-espace vectoriel \(\bullet\)
Le cône isotrope d’une forme quadratique n’est pas nécessairement un sous-espace vectoriel (mais il contient le sous-espace vectoriel noyau de \(q\)).
La restriction d’une forme quadratique non-dégénérée à un sous-espace vectoriel n’est pas nécessairement non-dégénérée.
Le cône isotrope est un cône, c’est-à-dire que \(x\) isotrope \(\Rightarrow\) \({\lambda}.x\) isotrope pour tout \({\lambda}\) dans \(\mathbb{K}\).
(Familles orthogonales et orthonormales).
Une famille \((x_i)\) de vecteurs de \(E\) est dite orthogonale si \(i\not=j\) implique \(\phi(x_i,x_j)=0\).

Une famille \((x_i)\) de vecteurs de \(E\) un \(\mathbb{C}\)-espace vectoriel est dite réduite si elle est orthogonale et si \(\phi(x_i,x_i)=\chi_{[\![1,rg(q)]\!]}(i)\).

Une famille \((x_i)\) de vecteurs de \(E\) un \(\mathbb{R}\)-espace vectoriel est dite réduite si elle est orthogonale et si \(\phi(x_i,x_i)=\chi_{[\![1,p]\!]}(i)-\chi_{[\![p+1,rg(q)]\!]}(i)\) pour un certain \(p\) dans \([\![0,rg(q)]\!]\).

Une famille \((x_i)\) de vecteurs de \(E\) est dite orthonormale si \(\phi(x_i,x_j)=\delta_{i,j}\).

Une matrice réelle ou complexe de type \((n,n)\) est dite orthogonale si la famille de ses vecteurs colonnes forme une famille orthonormale de \(\mathbb{K}^n\).

Deux propriétés immédiates:

\(\bullet\)Une famille orthogonale sans vecteur isotrope est libre. En particulier si \(q\) est définie une famille orthogonale de vecteurs non nuls est libre. \(\bullet\)Une famille orthonormale est libre.

\(\boxcircle\) Le cas de la dimension finie - expression matricielle

label@boxcircle-le-cas-de-la-dimension-finie—expression-matricielle@finlabel

On suppose que \(B=(e_1,...,e_n)\) est une base de \(E\).

(matrice d’une forme quadratique dans une base \(B\)).
On appelle matrice d’une forme quadratique dans une base \(B\) la matrice de sa forme polaire dans la base \(B\).

On note \(Mat_B(q)\) la matrice de la forme quadratique \(q\) dans la base \(B\).

On appelle rang de \(q\) la rang de sa matrice dans une base quelconque (le rang est indépendant de la base).

On appelle discriminant d’une forme quadratique \(q\) dans une base \(B\) le déterminant de la matrice de \(q\) dans la base \(B\).
Le discriminant dépend de la base.

Le troisième point appelle une preuve, que voici ci-dessous:

\(Mat_{B'}(q)=^tP_{B,B'}.Mat_B(q).P_{B,B'}\)
Il suffit d’aller voir la démonstration équivalente pour les formes bilinéaires, au [pola], page [pola].

Deux matrices congruentes ayant même rang, la définition ci-dessus est donc cohérente.

Étant donnés \(x\) dans \(E\) et \(X\) le vecteur défini par \(X_i=e_i^*(x)\), on a \(q(x)=^tX.Mat_B(q).X\).
Il suffit de considérer la forme polaire de \(q\) et de consulter le [pola], page [pola].
Un polynôme homogène de degré \(2\) en \(x_1,...,x_n\) est une forme quadratique sur \(\mathbb{K}^n\). Pour obtenir sa forme polaire, on remplace chaque \(x_i.x_i\) par \(x_i.y_i\), et chaque \(x_i.x_j\) (\(i\neq j\)) par \(\frac12 (x_i.y_j + x_j.y_i)\); le polynôme que l’on obtient, en \((x_i)_{i\in [[1,n]]}\) et \((y_i)_{i\in [[1,n]]}\), est une forme bilinéaire symétrique sur \(\mathbb{K}^n\), et est la forme polaire du polynôme.
Le noyau d’une forme quadratique en dimension finie est le noyau de l’endomorphisme ayant même matrice (dans la même base). La dimension de \(E\) est la somme du rang de \(q\) et de la dimension du noyau de \(q\).
Découle des propriétés de l’endormorphisme associé.
\(\bullet\)Une base est orthogonale si et seulement si la matrice de \(q\) dans cette base est diagonale. \(\bullet\)Une base est orthonormale si et seulement si la matrice de \(q\) dans cette base est l’identité.
Découle directement de la définition [d311].

Le théorème suivant est très important:

Pour toute forme quadratique sur \(E\) de dimension finie, il existe une base de \(E\) orthogonale pour \(q\).
On montre ce résultat par récurrence:

\(\bullet\)Le cas \(n=1\) est trivial.

\(\bullet\)Si \(q\) est nulle, le résultat est clair; sinon on choisit \(e_1\) non isotrope, et on note \(H\) l’orthogonal de \(e_1\). Tout vecteur \(x\) s’écrit \[x= \underbrace{\frac{\phi(e_1,x)}{q(e_1)}.e_1}_{\in \mathbb{K}.e_1} +\underbrace{\left(x-\frac{\phi(e_1,x)}{q(e_1)}.e_1\right)}_{\in e_1^\bot}\] donc \(E=\mathbb{K}.e_1 \oplus H\). Il suffit alors d’appliquer l’hypothèse de récurrence sur \(H\).
Pour tout forme quadratique \(q\) sur un \(\mathbb{K}\)-espace vectoriel \(E\) de dimension \(n\), il existe \(p \in [[1,n]]\) et \({\lambda}_1,...,{\lambda}_p\) dans \(\mathbb{K}\setminus\{0\}\) et \(f_1\),...,\(f_p\) dans \(E^*\) tel que

\(\bullet\)les \(f_i\) forment une famille libre

\(\bullet\)\(q(x)=\sum_{i=1}^p {\lambda}_i.f_i(x)^2\)

En outre, \(p\) est unique et est égal au rang de \(q\).
Il s’agit simplement de la traduction du théorème précédent.

On en déduit les deux corollaires suivants, l’un dans le cas \(\mathbb{K}=\mathbb{C}\), l’autre dans le cas \(\mathbb{K}=\mathbb{R}\):

(Cas \(\mathbb{K}=\mathbb{C}\)).
Pour tout forme quadratique \(q\) sur un \(\mathbb{C}\)-espace vectoriel \(E\) de dimension \(n\), il existe \(p \in [\![1,n]\!]\) et \(f_1\),...,\(f_p\) dans \(E^*\) tel que

\(\bullet\)les \(f_i\) forment une famille libre

\(\bullet\)\(q(x)=\sum_{i=1}^p f_i(x)^2\)

En outre, \(p\) est unique et est égal au rang de \(q\).
Il suffit de voir dans le corollaire précédent que l’on peut multiplier \(f_i\) par une racine carrée de \(\frac1{{\lambda}_i}\).
(Cas \(\mathbb{K}=\mathbb{R}\)).
Pour tout forme quadratique \(q\) sur un \(\mathbb{R}\)-espace vectoriel \(E\) de dimension \(n\), il existe \(r \in [[1,n]]\) et \(p\) dans \([[1,r]]\) et \(f_1\),...,\(f_p\) dans \(E^*\) tel que

\(\bullet\)les \(f_i\) forment une famille libre

\(\bullet\)\(q(x)=\sum_{i=1}^p f_i(x)^2-\sum_{i=p+1}^r f_i(x)^2\)

En outre, \(r\) est unique et est égal au rang de \(q\), et \(p\) est unique.

Le couple \((p,r-p)\) correspond à la signature de \(q\), voir la définition [signature-forme-quadra] plus loin.
Il suffit de voir que l’on peut multiplier \(f_i\) par une racine carrée de \(\frac1{|{\lambda}_i|}\); il ne reste alors plus qu’à montrer l’unicité de \(p\). Pour cela, on considère \(s\) la valeur maximale possible pour \(p\), et \(u\) la valeur minimal de \(p\) possible; on note \(t=r-u\). Supposons \(p<s\) pour arriver à une contradiction. Alors
  • \(q\) est définie positive sur un espace de dimension \(s\)

  • \(q\) est définie négative sur un espace de dimension \(t\)

On déduit facilement que:

  • ces deux espaces sont en somme directe, donc \(s+t \leq r\)

  • \(p < s\)

  • \(r-p \leq t\)

et sommer ces trois lignes conduit au contradictoire \(s+t+r<s+t+r\).

Encore un corollaire dans le cadre d’une forme quadratique définie positive:

(Cas \(\mathbb{K}=\mathbb{R}\) et \(q\) définie positive).
Pour tout forme quadratique \(q\) définie positive sur un \(\mathbb{R}\)-espace vectoriel \(E\) de dimension \(n\), il existe \(f_1\),...,\(f_n\) dans \(E^*\) tels que

\(\bullet\)les \(f_i\) forment une famille libre

\(\bullet\)\(q(x)=\sum_{i=1}^n f_i(x)^2\)

On en déduit aussi l’existence d’une base orthonormale.

Formes quadratiques réelles

Pour toute la durée de cette section, on se place dans le cadre de \(E\) un \(\mathbb{R}\)-espace vectoriel .

\(\boxcircle\) Le cas général

On rappelle la définition suivante: une forme quadratique \(q\) sur un \(\mathbb{R}\)-espace vectoriel \(E\) est dite positive (resp. négative) lorsque pour tout \(x\) on a \(q(x,x) \geq 0\) (resp. \(q(x,x) \leq 0\)).

(Inégalité de Schwarz).
\(\bullet\)Soit \(q\) une forme quadratique positive sur un \(\mathbb{R}\)-espace vectoriel \(E\), et soit \(\phi\) sa forme polaire. Alors pour tout \(x\) et tout \(y\) dans \(E\) \[\phi(x,y)^2 \leq q(x).q(y)\] \(\bullet\)Soit \(q\) une forme quadratique définie positive sur un \(\mathbb{R}\)-espace vectoriel \(E\), et soit \(\phi\) sa forme polaire. Alors pour tout \(x\) et tout \(y\) dans \(E\) \[\phi(x,y)^2 \leq q(x).q(y)\] et \[\phi(x,y)^2=q(x).q(y) \Longrightarrow (x,y) \mbox{ est une famille liée.} %\]
du polynôme \(t\mapsto q(x.t+y)\) (ce polynôme est toujours positif puisque la forme quadratique est positive). \(\bullet\)L’égalité implique que \(q(y-\frac{\phi(x,y)}{q(x)}.x)=0\).

On remarque que l’inégalité de Schwarz implique qu’une forme bilinéaire \(\phi\) symétrique positive est continue pour la topologie qu’elle engendre avec la norme \({\parallel}x{\parallel}=\sqrt{\phi(x,x)}\).

(Noyau et cône isotrope d’une forme quadratique positive).
\(\bullet\)Si \(q\) est positive alors \(N(q)=C(q)\). \(\bullet\)Si \(q\) est positive alors \(q\) est définie si et seulement si elle est non-dégénérée.
Une forme quadratique \(q\) sur un \(\mathbb{R}\)-espace vectoriel qui est définie est nécessairement soit positive soit négative.
On suppose qu’il existe \(x\) et \(y\) avec \(q(x)>0\) et \(q(y)<0\). Alors l’application qui à \(t\) dans \([0,1]\) associe \(q(t.x+(1-t).y)\) est continue (il suffit de développer pour le voir : c’est un polynôme du second degré en \(t\)), donc par le théorème des valeurs intermédiaires [tvi] elle s’annule en un certain \(t_0\). Nécessairement \(t.x+(1-t)y=0\) (puisque \(q\) est définie), donc \(x\) et \(y\) sont linéairement dépendants (\(t \neq 0\) et \(t \neq 1\)). Donc \(q(x)\) et \(q(y)\) sont de même signe, d’où contradiction.

Une autre formulation des inégalités de Schwarz est donnée dans le corollaire ci-dessous:

(Inégalités de Minkowski).
\(\bullet\)Soit \(q\) une forme quadratique positive sur un \(\mathbb{R}\)-espace vectoriel \(E\). Alors pour tout \(x\) et tout \(y\) dans \(E\) \[\sqrt{q(x+y)} \leq \sqrt{q(x)}+\sqrt{q(y)}\] \(\bullet\)Soit \(q\) une forme quadratique définie positive sur un \(\mathbb{R}\)-espace vectoriel \(E\), alors pour tout \(x\) et tout \(y\) dans \(E\) \[\sqrt{q(x+y)} = \sqrt{q(x)}+\sqrt{q(y)} \Longrightarrow (x,y) \mbox{ est une famille positivement liée.}\]
\(\bullet\)Par l’inégalité de Schwarz \[\phi(x,y)^2\leq q(x).q(y)\] et donc \[\frac{q(x+y)-q(x)-q(y)}2 \leq \sqrt{q(x).q(y)}\] \[q(x+y) \leq q(x)+q(y)+2.\sqrt{q(x).q(y)}\] \[\sqrt{q(x+y)} \leq \sqrt{q(x)}+\sqrt{q(y)}\] \(\bullet\)Même principe.
\(\bullet\)Une forme quadratique \(q\) est positive si et seulement si \(-q\) est négative

\(\bullet\)Une forme quadratique sur un \(\mathbb{R}\)-espace vectoriel est convexe si et seulement si elle est positive

\(\bullet\)Une forme quadratique sur un \(\mathbb{R}\)-espace vectoriel est concave si et seulement si elle est négative

\(\boxcircle\) Le cas de la dimension finie - expression matricielle

label@boxcircle-le-cas-de-la-dimension-finie—expression-matricielle-1@finlabel

On suppose maintenant que l’on travaille sur \(E\) un \(\mathbb{R}\)-espace vectoriel de dimension finie \(n\). \(q\) est une forme quadratique.

(Formes quadratiques définies positives).
Si \(E\) est une forme quadratique définie positive sur un \(\mathbb{R}\)-espace vectoriel \(E\) de dimension finie, alors il existe une base de \(E\) orthonormale pour \(q\).
Découle du corollaire [ortho].
(Quelques propriétés sur l’orthogonalité).
Avec \(E\) un \(\mathbb{R}\)-espace vectoriel de dimension finie:

\(\bullet\)Pour \(F\) sous-espace vectoriel de \(E\), on a \(dim\ F + dim\ F^\bot \geq n\)

\(\bullet\)Soit \(F\) sous-espace vectoriel de \(E\), avec \(q_{|F}\) définie, alors \(E=F\oplus F^\bot\).
\((f_i)_{i\in [[1,e]]}\) (\(e\geq f\)) une base de \(E\).

Soit \(p\) l’application de \(E\) dans \(E\) définie par \(p(x)=\sum_{i\in[[1,f]]} \phi(x,f_i).f_i\). Cette application est linéaire; on peut donc écrire \[dim\ E = rg(p) + dim\ Ker\ p.\] \[\mbox{Or }rg(p) \leq dim\ F\] \[\mbox{et }dim\ Ker\ p=dim\ F^\bot\] \[\mbox{donc }dim\ E \leq dim\ F + dim\ Ker\ p\]

\(\bullet\)\(F \cap F^\bot = \{ 0 \}\) car \(q\) est définie sur \(F\). L’inégalité précédente donne \(dim\ F + dim\ F^\bot \geq n\), d’où le résultat.
(Signature d’une forme quadratique).
Soit \(E\) un \(\mathbb{R}\)-espace vectoriel de dimension finie. On appelle signature d’une forme quadratique \(q\) le couple \((s,t)\) avec \(s\) la dimension maximale d’un sous-espace vectoriel de \(E\) sur lequel \(q\) est définie positive et \(t\) la dimension maximale d’un sous-espace vectoriel de \(E\) sur lequel \(q\) est définie négative.

Le théorème suivant, très important, permet de cerner l’intérêt de la notion.

(Théorème d’inertie de Sylvester).
Pour toute base \(q\)-orthogonale \(e_i\), l’ensemble des \(i\) tels que \(q(e_i)<0\) a même cardinal, l’ensemble des \(i\) tels que \(q(e_i)=0\) a même cardinal, l’ensemble des \(i\) tels que \(q(e_i)>0\) a même cardinal.

Le sous-espace vectoriel engendré par l’ensemble des \(i\) tels que \(q(e_i)>0\) est un sous-espace vectoriel \(F\) de dimension maximale tel que \(q_{|F}\) soit définie positive.

Le sous-espace vectoriel engendré par l’ensemble des \(i\) tels que \(q(e_i)<0\) est un sous-espace vectoriel \(F\) de dimension maximale tel que \(q_{|F}\) soit définie négative.

Le cardinal de l’ensemble des \(i\) tels que \(q(e_i)=0\) est égal à la dimension de \(E\) moins le rang de \(q\).
Corollaire du corollaire [poursylv].
\(\bullet\)Toute matrice symétrique est congruente à une matrice diagonale dont les termes diagonaux sont \((1,...,1,-1,...-1,0,...0)\). \(\bullet\)Deux formes quadratiques ont la même signature si et seulement si on passe de l’un à l’autre en composant par un automorphisme.
Une matrice \(M\) de type \((n,n)\) est antisymétrique si et seulement si pour tout vecteur \(X\) de \(\mathbb{K}^n\) on a \(^tX.M.X=0\).
La forme polaire de la forme quadratique associée à \(M\) est \((X,Y) \mapsto ^tX.(\frac12(M+^tM)).Y\). Elle est nulle si et seulement si \(M\) est antisymétrique (voir proposition [fopa]).

Quelques formules en vrac enfin avec \(q\) une forme bilinéaire dans \(E\) espace vectoriel de dimension finie, \(\phi\) sa forme polaire, \(e_1,\dots,e_n\) une base de \(E\), et \(M_{i,j}=\phi(e_i,e_j)\) et avec \(X=(x_1,\dots,x_n)\) et \(Y=(y_1,\dots,y_n)\), \(x=\sum x_ie_i\), \(y=\sum y_ie_i\), \[q(x_1.e_1,x_2.e_2,...,x_n.e_n)=\sum_{(i,j)\in[[1,n]]^2} M_{i,j} x_ix_j\] \[\phi\left((x_1.e_1,x_2.e_2,...,x_n.e_n),(y_1.e_1,y_2.e_2,...,y_n.e_n)\right)=\sum_{(i,j)\in [[1,n]]^2} M_{i,j} x_i.y_j\] \[q(e_i)=M_{i,i}\] et avec \((f_1,...,f_n)\) une autre base, \[Mat_{(f_i)}(\phi) = Mat_{(f_i)}(q) = ^tP_{(e_i),(f_i)}.M.P_{(e_i),(f_i)}\] \[q(x)=^tX.M.X\] \[\phi(x,y)=^tX.M.Y\]

\(\boxcircle\) Le cas d’un espace euclidien \(E\)

Pour plus d’informations sur les espaces euclidiens on consultera la partie [espeuc]. Un espace euclidien étant réel de dimension finie, ce qui vient d’être dit (pour les espaces réels de dimension finie) est donc encore valable dorénavant (pour les espaces euclidiens). On va s’intéresser aux interactions entre forme quadratique et produit scalaire, et à la reformulation de formes quadratiques en termes de produit scalaire.

On va noter \(Q(E)\) l’espace des formes quadratiques. Les notations usuelles seront utilisées:

\(\bullet\)\((e_1,...,e_n)\) est une base de \(E\)

\(\bullet\)\(q \in Q(E)\)

\(\bullet\)\(M\) la matrice (symétrique) associée à \(q\) pour la base des \(e_i\)

\(\bullet\)\(\phi\) la forme polaire de \(q\) (symétrique, de matrice \(M\) dans la base des \(e_i\))

\(\bullet\)\(X\) désigne le vecteur colonne des coordonnées de \(x\) dans la base des \(e_i\)

\(\bullet\)\(Y\) désigne le vecteur colonne des coordonnées de \(y\) dans la base des \(e_i\)

L’application \(F\) de \(L(E)\) dans l’ensemble des applications de \(E\) dans \(\mathbb{R}\) définie par \(F(f):y\mapsto <f(y)|y>\) induit un isomorphisme de \(S(E)\) (ensemble des endomorphismes symétriques de \(E\)) sur \(Q(E)\) (ensemble des formes quadratiques sur \(E\)).
\(\bullet\)\(F(f)\) appartient à \(Q(E)\) pour tout \(f\) dans \(L(E)\) se voit en considérant la forme bilinéaire \(\phi= (x,y) \mapsto \frac12 (<f(x)|y>+<x|f(y)>)\).

\(\bullet\)\(<f(x)|x>=0\) pour tout \(x\) \(\iff\) \(f\) antisymétrique (si vous n’en êtes pas convaincu, revoyez la partie [endoadjo]).

\(\bullet\)Avec \(n\) la dimension de \(E\), on sait alors que l’image de \(F\) est de dimension \(n^2-\frac12 n.(n-1)=\frac12 n.(n+1)=dim\ Q(E)\), donc \(F\) a bien pour image \(Q(E)\); \(S(E)\) étant un supplémentaire du noyau de \(F\), \(F\) induit bien un isomorphisme de \(S(E)\) sur \(Q(E)\).
\(\bullet\)Toute forme quadratique \(q\) s’écrit \(x\mapsto <f(x)|x>\) pour un certain endomorphisme symétrique \(f\) (on peut d’ailleurs aussi écrire \(x\mapsto <x|f(x)>\), puisque \(f\) est symétrique). \(\bullet\)Dans une même base orthonormée, \(q\), \(\phi\) et \(f\) ont même matrice.
(endomorphisme symétrique associé à la forme quadratique \(q\)).
\(f\) défini comme en corollaire [c334] est appelé endomorphisme symétrique associé à la forme quadratique \(q\).

Ceci nous permet de donner quelques résultats, conséquences immédiates de résultats connus sur les endomorphismes symétriques:

\(\bullet\)Soit \(q\) une forme quadratique sur \(E\) euclidien; alors il existe une base orthonormale de \(E\) dans laquelle la matrice de l’endomorphisme associée à \(q\) est diagonale; c’est-à-dire que cette base est orthogonale pour \(q\) aussi.

\(\bullet\)Si on a deux formes quadratiques sur un \(\mathbb{R}\)-espace vectoriel \(E\) de dimension finie dont l’une (au moins) est définie, alors il existe une base orthogonale pour les deux formes quadratiques (il suffit de considérer l’espace euclidien engendré par la forme définie (ou son opposée si elle est négative) pour conclure).

\(\bullet\)Une forme quadratique sur \(E\) euclidien est positive (resp. négative) si et seulement si toutes les valeurs propres de l’endomorphisme symétrique associé sont positives (resp. négatives).

\(\bullet\)Une forme quadratique sur \(E\) euclidien est définie si et seulement si toutes les valeurs propres de l’endomorphisme symétrique associé sont non nulles et de même signe.

Formes quadratiques complexes

\(\boxcircle\) Le cas général

Le cadre le plus général est simplement celui d’un \(\mathbb{C}\)-espace vectoriel .

(forme quadratique hermitienne).
On appelle forme quadratique hermitienne sur un \(\mathbb{C}\)-espace vectoriel \(E\) une application \(q\) de \(E\) dans \(\mathbb{C}\) telle qu’il existe une forme sesquilinéaire hermitienne \(\phi\) telle que pour tout \(x\) on ait \(q(x)=\phi(x,x)\). Cette forme sesquilinéaire hermitienne est unique (à vérifier plus bas); on l’appelle forme polaire de \(q\).
Soit \(q\) une forme quadratique hermitienne. Alors: \[\forall x\in E,\ q(x)\in \mathbb{R}\] en effet \(\phi(x,x)=\overline{\phi(x,x)}\) car \(\phi\) est hermitienne.

On a en outre la formule de polarisation : \[\forall (x,y)\in E^2,\ \phi(x,y)=\frac14 \Big(\sum_{k=1}^4 \overline{i^k}.q(x+i^k.y)\Big) =\frac14 \Big(\sum_{\omega^4=1} \overline{\omega}.q(x+\omega.y)\Big)\] cela se montre simplement en développant chacun des 4 termes de droite

L’ensemble des formes quadratiques hermitiennes sur \(E\) noté \(QH(E)\) est un \(\mathbb{R}\)-espace vectoriel .

Ce n’est pas un \(\mathbb{C}\)-espace vectoriel , comme on s’en convainc facilement en considérant une forme quadratique hermitienne non nulle multipliée par \(i\).

On note au passage que le deuxième résultat de cette proposition donne l’unicité recquise dans la définition de la forme polaire ci-dessus.

\(\boxcircle\) Le cas de la dimension finie – expression matricielle

(matrice \(M\) associée à \(q\)).
Étant donnée \((e_1,...,e_n)\) une base de \(E\) espace hermitien et \(q\) une forme quadratique hermitienne sur \(E\) de forme polaire \(\phi\), on définit la matrice \(M\) associée à \(q\) ou matrice associée à \(\phi\) par \(M_{i,j}=\phi(e_i,e_j)\). On note \(M=Mat_{(e_i)}(\phi)\) ou \(M=Mat_{(e_i)}(q)\).
La matrice \(M\) associée à une forme quadratique hermitienne est hermitienne c’est-à-dire que \(M=^t\overline M\).

Avec \(X\) le vecteur colonne des coordonnées de \(x\) dans une base donnée \(B=(e_1,...,e_n)\), \(Y\) le vecteur colonne des coordonnées de \(y\) dans la même base (i.e. \(X_i={e_i}^*(x)\) et \(Y_i={e_i}^*(y)\)), \(M\) la matrice associée à \(q\) ou \(\phi\) dans cette base, on a \[% \phi(x,y)=^t\overline X.M.Y\] \[q(x)=^t\overline X.M.X=\sum_{i=1}^n M_{i,i}.|X_i|^2 +2.Re(\sum_{i<j} M_{i,j} \overline X_i.X_j)\]

Si \((e_i)_{i\in [[1,n]]}\) et \((f_i)_{i\in [[1,n]]}\) sont deux bases de \(E\), alors \[% Mat_{(e_i)}(q)=^t\overline{P_{(e_i),(f_i)}}.Mat_{(f_i)}(q).P_{(e_i),(f_i)}.\]

\(\boxcircle\) Formes quadratiques sur un espace hermitien

(\(QH(E)\)).
On note \(QH(E)\) le \(\mathbb{R}\)-espace vectoriel des formes quadratiques hermitienne sur \(E\) espace hermitien.

On note \(H(E)\) le \(\mathbb{R}\)-espace vectoriel des endomorphismes hermitiens de \(E\), espace hermitien.

Étant donné \(f \in H(E)\), la forme quadratique \(x \mapsto <f(x)|x>\) est appelée forme quadratique hermitienne associée à l’endomorphisme hermitien \(f\); réciproquement \(f\) est appelée endomorphisme hermitien associée à cette forme quadratique (voir unicité ci-dessous).
L’application \(F\) de \(H(E)\) dans \(QH(E)\) défini par \(F(f)=( x\mapsto <f(x) | x> )\) est un isomorphisme.
Examinons tout ce qu’il y a à prouver:

\(\bullet\)Le fait que pour tout \(f\) dans \(H(E)\), \(F(f)\) est une forme quadratique est clair (considérer la forme sesquilinéaire \((x,y) \mapsto <f(x)|y>\)).

\(\bullet\)Le fait que \(f\) est un morphisme est facile à prouver.

\(\bullet\)La surjectivité: il suffit, étant donnée une forme quadratique, de considérer sa matrice dans une base orthonormale quelconque, et l’endomorphisme associé à la même matrice dans la même base; l’image de cet endomorphisme par \(f\).

\(\bullet\)L’injectivité: supposons \(F(f)=0\). L’application \((x,y) \mapsto <f(x)|y>\) est la forme polaire de \(F(f)\) (elle est bien sesquilinéaire et hermitienne); donc cette forme sesquilinéaire est nulle par unicité de la forme polaire. Donc \(<f(x)|y>\) est nul pour tout \(x\) et tout \(y\), d’où le résultat en spécialisant par \(y=f(x)\).
Pour toute forme quadratique hermitienne il existe une base orthonormale (pour le produit scalaire hermitien) qui est orthogonale pour cette forme quadratique.
Il suffit de considérer la proposition [diaendher] appliqué à l’endomorphisme associé à une forme quadratique.

Quelques liens entre une forme quadratique \(q\) et l’endomorphisme hermitien associé \(f\):

\(\bullet\)\(q\) est définie si et seulement si toutes les valeurs propres de \(f\) sont de même signe et non nulles

\(\bullet\)\(q\) est positive si et seulement si toutes les valeurs propres de \(f\) sont positives

\(\bullet\)\(q\) est négative si et seulement si toutes les valeurs propres de \(f\) sont négatives

Zoologie des déterminants

Déterminant d’ordre \(2\)

En dimension \(2\) on a la formule analytique suivante: \(\left| \begin{array}{cc} a & b \\ c & d \end{array} \right| = a.d-b.c\)

Déterminant d’ordre \(3\)

En dimension \(3\) on a la formule analytique suivante: \[\left|\begin{array}{ccc} M_{1,1} & M_{1,2} & M_{1,3} \\ M_{2,1} & M_{2,2} & M_{2,3} \newline M_{3,1} & M_{3,2} & M_{3,3} \end{array}\right|\] \[= M_{1,1}.M_{2,2}.M_{3,3} + M_{1,2}.M_{2,3}.M_{3,1} + M_{2,1}.M_{3,2}.M_{1,3}\] \[- M_{3,1}.M_{2,2}.M_{1,3} - M_{2,1}.M_{1,2}.M_{3,3} - M_{3,2}.M_{2,3}.M_{1,1}\]

Une façon usuelle de retenir ce résultat peu élégant vu comme ça est le schéma [sarrus].

Image

On suit les flèches marquées d’un \(+\) pour retrouver les produits à compter positivement, et les flèches marquées d’un \(-\) pour retrouver les produits à compter négativement. On peut aussi compléter la figure en recopiant les deux premières lignes sous la troisième.

Déterminant de Vandermonde

(déterminant de Vandermonde associé à un \(n\)-uple \((x_1,...,x_n)\)).
On appelle déterminant de Vandermonde associé à un \(n\)-uple \((x_1,...,x_n)\) le déterminant \[\left| \begin{array}{cccccc} x_1^0 & x_1^1 & x_1^2 & x_1^3 & \dots & x_1^{n-1} \\ x_2^0 & x_2^1 & x_2^2 & x_2^3 & \dots & x_2^{n-1} \\ x_3^0 & x_3^1 & x_3^2 & x_3^3 & \dots & x_3^{n-1} \\ x_4^0 & x_4^1 & x_4^2 & x_4^3 & \dots & x_4^{n-1} \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ x_n^0 & x_n^1 & x_n^2 & x_n^3 & \dots & x_n^{n-1} \\ \end{array}\right|= \left| \begin{array}{cccccc} 1 & x_1^1 & x_1^2 & x_1^3 & \dots & x_1^{n-1} \\ 1 & x_2^1 & x_2^2 & x_2^3 & \dots & x_2^{n-1} \\ 1 & x_3^1 & x_3^2 & x_3^3 & \dots & x_3^{n-1} \\ 1 & x_4^1 & x_4^2 & x_4^3 & \dots & x_4^{n-1} \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ 1 & x_n^1 & x_n^2 & x_n^3 & \dots & x_n^{n-1} \newline \end{array}\right|\]
(Déterminant de Vandermonde).
Le déterminant de Vandermonde associé à \((x_1,...,x_n)\) est égal à \[\Pi_{i<j} (x_j-x_i).\]
On note \(W_n\) le déterminant \[\left| \begin{array}{cccccc} x_1^0 & x_1^1 & x_1^2 & x_1^3 & \dots & x_1^{n-1} \\ x_2^0 & x_2^1 & x_2^2 & x_2^3 & \dots & x_2^{n-1} \\ x_3^0 & x_3^1 & x_3^2 & x_3^3 & \dots & x_3^{n-1} \\ x_4^0 & x_4^1 & x_4^2 & x_4^3 & \dots & x_4^{n-1} \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ x_n^0 & x_n^1 & x_n^2 & x_n^3 & \dots & x_n^{n-1} \newline \end{array}\right|\]

On note \(P_n\) le polynôme \(\Pi_{i \in [[1,n-1]]} (X-x_i)\). Considérons les \((p_k)_{k\in [[1,n-1]]}\) tels que \[P_n=X^{n-1}+\sum_{k=1}^{n-1}p_k.X^{k-1}\] On ajoute alors à la dernière colonne la somme des \(p_k.c_k\) pour \(k\in[[1,n-1]]\) avec \(c_k\) la colonne \(k\). Sur la dernière colonne, on a maintenant seulement des \(0\), sauf pour la dernière ligne où l’on a \(P_n(x_n)\). En développant alors par rapport à la dernière colonne, on a \[W_n=P_n(x_n).W_{n-1}.\]

Par récurrence, on en déduit le résultat annoncé.
Le déterminant de Vandermonde sera utile pour les matrices circulantes. On peut aussi en déduire un résultat concernant les polynômes d’interpolation de Lagrange :

Si on fixe \((x_0,...,x_n)\in\mathbb{K}^{n+1}\), on définit \[\varphi \ : \ \begin{array}[t]{rcl} \mathbb{K}_n[X]&\to&\mathbb{K}^{n+1}, \newline P&\mapsto&(P(x_0),...,P(x_n)). \end{array}\] On munit \(\mathbb{K}_n[X]\) de la base \(B=(1,X,...,X^n)\) et \(\mathbb{K}^{n+1}\) de sa base canonique \(B'\).

Alors la matrice de \(\varphi\) dans les bases \(B\), \(B'\) est la matrice de Vandermonde associée aux \(x_i\).

Ainsi, si les \(x_i\) sont deux à deux différents, le déterminant de la matrice est non nul (d’après ce qui précède), et ainsi \(\varphi\) est un isomorphisme.

Ceci signifie que \[\boxed{\forall (y_0,y_1,...,y_n)\in\mathbb{K}^{n+1},\ \exists! P\in\mathbb{K}_n[X]\ : \ P(x_0)=y_0,\ P(x_1)=y_1, \ ...,\ P(x_n)=y_n\ :}\] C’est le polynôme d’interpolation de Lagrange associé aux points \((x_i,y_i)\)... que l’on retrouvera dans le [lagrange], page [lagrange].

Déterminant d’une matrice de permutation

(Matrice d’une permutation).
On appelle matrice de la permutation \(\sigma\in \sigma_n\) la matrice \(M\) de type \((n,n)\) définie par \(M_{i,j}=\delta_{i,\sigma(j)}\).
Le déterminant de la matrice de la permutation \(\sigma\) est égal à la signature \(\epsilon(\sigma)\) de la permutation \(\sigma\).
Il suffit de revenir à la définition du déterminant d’une famille de vecteurs dans une base, et de voir qu’il n’y a qu’une permutation qui n’annule pas le produit correspondant dans la formule.

Déterminant circulant

(matrice circulante associée au \(n\)-uple \((x_1,...,x_n)\)).
On appelle matrice circulante associée au \(n\)-uple \((x_1,...,x_n)\) la matrice \(M\) définie par \(M_{i,j}=x_{j-i \mbox{ (modulo $n$) }}\), c’est-à-dire \[\left(\begin{array}{ccccc} x_1 & x_2 & x_3 & \dots & x_n \\ x_n & x_1 & x_2 & \ddots & x_{n-1} \\ x_{n-1} & x_n & x_1 & \ddots & x_{n-2} \\ \vdots & \ddots & \ddots & \ddots & \vdots \\ x_2 & x_3 & x_4 & \dots & x_1 \newline \end{array}\right)\]

On trouvera d’autres informations sur les matrices circulantes en [circulant].

Les matrices circulantes servent à des endroits inattendus, comme pour borner la discrépance de coloriages de \([[1,n]]\), cf le théorème de Roth (théorème 1.11 dans [CHA]).
\(det(M)=\prod_{i=1}^n P(y_i)\) avec \(P(X)=\sum_{i=0}^{n-1} x_i.X^{i-1}\) et \(y_i= e^{\frac{2i\pi}n}\).
L’astuce va être de multiplier \(M\) par la transposée de la matrice de Vandermonde associée aux racines \(n\)-ièmes de l’unité.

On note \(Y_i\) le vecteur \((y_i^0,...,y_i^{n-1})\).

On constate que \(M.Y_i=P(y_i).Y_i\).

On note \(Y\) la matrice dont les vecteurs colonnes sont \(Y_0,...,Y_{n-1}\).

On a alors \(M.Y=diag(P(y_0),...,P(y_{n-1})).Y\).

Donc comme le déterminant de \(Y\) est non nul (voir [vandermonde]), le déterminant de \(M\) est \(\prod_{i=1}^n P(y_i)\).

On définit de même les matrices circulantes gauche, dont on calcule le déterminant en utilisant une permutation bien choisie sur les lignes... ou plus simplement en la transposant (elle devient une matrice circulante droite) !

Déterminant de \(M_{i,j}=\inf\{i,j\}\)

Le déterminant est le suivant: \[\left| \begin{array}{ccccc} 1 & 1 & 1 & \dots & 1 \\ 1 & 2 & 2 & \dots & 2 \\ 1 & 2 & 3 & \dots & 3 \\ \vdots & \vdots & \vdots & \dots & \vdots \\ 1 & 2 & 3 & \dots & n \end{array}\right|\]

Puisqu’on peut à volonté sans changer le déterminant ajouter à une colonne une combinaison linéaire des autres colonnes, on peut en particulier soustraire à une colonne la colonne précédente (en allant bien entendu de droite à gauche) ; on obtient alors le déterminant plus facile: \[\left| \begin{array}{cccccc} 1 & 0 & 0 & 0 & \dots & 0 \\ 1 & 1 & 0 & 0 & \dots & 0 \\ 1 & 1 & 1 & 0 & \dots & 0 \\ \vdots & \vdots & \vdots & \ddots & \ddots & \vdots \newline 1 & \dots & \dots & \dots & \dots & 1 \end{array}\right|\]

Ce déterminant est donc égal à \(1\).

Zoologie de l’algèbre bilinéaire

présente différents éléments ici; il est fondamental pour une bonne zoologie bilinéaire d’aussi se documenter sur les produits scalaires euclidiens ou hermitiens. Notons bien que les produits scalaires euclidiens n’existent pas que dans les espaces euclidiens, de même que les produits scalaires hermitiens n’existent pas que dans les espaces hermitiens (dans les deux cas, on peut avoir un produit scalaire sans que la dimension soit finie, alors que les espaces euclidiens ou hermitiens sont de dimension finie). L’existence d’un produit scalaire euclidien (resp. hermitien) implique simplement que l’espace est préhilbertien réel (resp. complexe). Ajouter la contrainte de complétude conduit l’espace à être de Hilbert; enfin, ajouter la contrainte de dimension finie conduit à un espace euclidien (dans le cas réel) ou hermitien (dans le cas complexe).

Procédé d’orthogonalisation de Gauss

À l’aide de l’algèbre linéaire en dimension finie, on peut obtenir de belles choses sur les formes quadratiques. Ainsi:

(Orthogonalisation de Gauss).
Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension finie \(n\), et \(q\) une forme quadratique sur \(E\). Alors, avec \(r\) le rang de \(q\), il existe \(r\) formes linéaires indépendantes sur \(E\), \(f_1\),...,\(f_r\) tels que \[q=\sum_{i=1}^r \epsilon_i f_i^2\quad \text{ avec}\quad \epsilon_i\in \{-1,1\}.\]
Il s’agit simplement d’opérations sur les lignes et les colonnes; voir la méthode de Gauss, théorème [gauss].

Bibliographie

  • [CHA] B. Chazelle, The Discrepancy Method, Cambridge University Press, 2000.


Barre utilisateur

[ID: 28] [Date de publication: 14 mars 2021 20:17] [Catégorie(s): Le cours d'agrégation ] [ Nombre commentaires: 0] [nombre d'éditeurs: 1 ] [Editeur(s): Emmanuel Vieillard-Baron ] [nombre d'auteurs: 5 ] [Auteur(s): Christophe Antonini Olivier Teytaud Pierre Borgnat Annie Chateau Edouard Lebeau ]




Commentaires sur le cours

Documents à télécharger

L'article complet