Clarification : matrice orthogonale

Je lance encore un fil qui va majoritairement parler de définitions. Parmi les cours de Licence que je me sens obligé de réapprendre parce que j'ai l'impression de ne pas y voir clair, il y a tout ce qui concerne l'algèbre bilinéaire, orthogonalité, etc. Je me doute que ces fils ne sont pas très intéressants, mais j'ai un vrai blocage mental quand je n'ai pas de définition claire que je comprends, alors j'ai besoin d'un peu d'aide.

La définition "la plus pratique" d'une matrice orthogonale dans $\mathcal{M}_n(K)$ que je connais, c'est : ${}^tMM=I_n$.

Pour moi, elle est un peu parachutée. Il me paraitrait plus naturel de définir une "matrice orthogonale" comme une matrice dont la famille des vecteurs colonnes est une famille orthogonale. En attendant, c'est faux : la bonne définition, c'est quand les colonnes forment une famille orthonormale. Bon, ça rend le vocabulaire un peu tordu, mais ce n'est pas grave.

Pour définir les mots "orthogonale" et "orthonormale" pour ma famille de vecteurs colonnes de $M$, je me donne sur $K^n$ la forme bilinéaire usuelle $\langle x \mid y \rangle = \displaystyle \sum_{k=1}^n x_ky_k$. $x$ et $y$ sont orthogonaux lorsque $\langle x \mid y \rangle =0$, une famille est orthogonale si tous les vecteurs sont orthogonaux deux à deux, et elle est orthonormale si de plus $\langle x \mid x \rangle =1$ pour tout élément de la famille. Rien de nouveau ici, c'est juste pour poser les choses.

Ce que moi j'aimerais faire, c'est prendre comme définition de "matrice orthogonale" celle que je viens de donner (les colonnes forment une famille orthonormale) et de partir de là. Il faudrait donc que je prouve que les lignes de la matrice forment aussi une famille orthonormale, et surtout que ${}^tMM=I_n$ : ce qui montre en même temps que $M$ est inversible et que $M^{-1}={}^tM$. Avec ça en poche, je pourrai définir $\text{O}_n(K)$ : l'ensemble des matrices orthogonales de taille $n$. Je pourrai montrer que c'est un sous-groupe de $\text{GL}_n(K)$, bref, ça sera l'autoroute.

J'ai cependant un souci : avec ma définition "naturelle", il n'est pas du tout évident qu'une matrice orthogonale est toujours de rang $n$. Il n'y a aucune raison qu'une famille orthonormale de taille $n$ soit libre. Faut-il que je change ma définition en "les colonnes forment une famille libre et orthonormale" ou bien est-ce que c'est toujours vrai que la famille des colonnes sera libre si elle est orthonormale ? J'ai franchement du mal à y voir clair. Si c'est toujours vrai, j'essaierai de le démontrer.

Juste pour éviter qu'on m'aiguille sur autre chose : j'ai une définition très générale du groupe orthogonal $\text{O}(E,q)$ d'un espace quadratique donné. Lorsque $E=K^n$, il y a sur $K^n$ une forme quadratique "canonique" ou "standard" (somme des carrés des coordonnées), et dans ce cas, $\text{O}(E,q)$ est noté $\text{O}(K^n)$ dans mon bouquin. Je veux évidemment aboutir au fait que $\text{O}(K^n) \simeq \text{O}_n(K)$ avec mes notations, histoire de "justifier" que les éléments de $\text{O}(E,q)$ soient appelés des "automorphismes orthogonaux". A priori, il n'y a pas forcément de rapport évident quand on suit mon bouquin : leur définition d'automorphisme orthogonal est $f$ tel que $q \circ f = f$. D'accord, il y a une forme quadratique, mais c'est assez maigre comme rapport a priori.

Voilà. J'ai juste besoin d'une réponse à ma question en rouge, le pavé de texte c'est juste pour expliquer un peu ce que je fais et poser les notations. Merci à ceux qui auront le courage de lire (:D

Réponses

  • Quand $K=\R$, ça a l'air de marcher :

    Si $\{C_1,...,C_n\}$ est ma famille de vecteurs colonnes, et que je la suppose orthonormale, alors :

    $\displaystyle \sum_{k=1}^n \alpha_k C_k =0$ implique que $\displaystyle \bigg\langle \sum_{k=1}^n \alpha_k C_k \bigg| \sum_{j=1}^n \alpha_j C_j \bigg\rangle = 0$, donc $\displaystyle \sum_{k=1}^n \alpha_k \bigg( \sum_{j=1}^n \alpha_j \langle C_k | C_j \rangle \bigg) = 0$, donc $\displaystyle \sum_{k=1}^n \alpha_k^2=0$ parce que la famille est orthonormale. Du coup, avec des scalaires réels, on a bien $\alpha_k=0$ pour tout $k$, donc la famille est libre.

    Par contre quand $K=\C$ ou autre chose, ce n'est pas garanti...
  • [Ce cours] qui tient en une page m'a l'air pas mal mais je n'ai pas le temps de regarder en détail.
    Il a peut-être été rédigé aux premières heures de notre forum.
  • Merci, mais ça n'a pas de rapport direct avec ma question? Il n'y est même pas question de matrices :-S
  • Si si, on y parle de matrices en fouillant un peu.
    Ce que je voulais te montrer, c'est que la bonne notion est celle d'endomorphisme adjoint.
  • Si $\displaystyle \sum_{k=1}^n \alpha_k C_k =0$ alors en faisant le produit scalaire avec $C_i$ pour un certain $i$ on en déduit $\alpha_i=0$ donc la famille est libre.
  • gai requin : J'ai posé précisément la question à laquelle je voulais une réponse. Je connais la notion d'adjoint, je sais qu'il y a équivalence entre mon $q \circ f = f$ et le fait que $f^* = f^{-1}$, mais je me fiche de tout ça pour l'instant. Ce qui m'intéresse c'est la "version matricielle" du groupe orthogonal et, plus tard, comment montrer que la "version application" du groupe orthogonal y est isomorphe.

    Pour faire simple : la façon dont mon bouquin a structuré son cours sur les formes bilinéaires, formes quadratiques, l'orthogonalité, etc, est tellement bordélique et mal foutue que je me refais ce cours moi-même en recollant les morceaux plus intelligemment. J'ai plein de résultats sous la main que je n'ai pas besoin de redémontrer, mais il s'agit avant tout d'avoir la bonne définition pour les différents objets...

    raoul.S : Effectivement, j'aurais dû faire les produits un par un, ça marche. Donc la clause de liberté est inutile dans la définition.
  • Homo Topi a écrit:
    Faut-il que je change ma définition en "les colonnes forment une famille libre et orthonormale" ou bien est-ce que c'est toujours vrai que la famille des colonnes sera libre si elle est orthonormale ?

    Que signifie pour toi "orthonormale" si $\K=\C$ ?
  • Ensuite si tes colonnes sont "orthonormées" (corps $K$ quelconque) il est facile de voir que ${}^tMM=I_n$. De là $MM^t=I_n$ également.
  • JLapin : La même chose que sur n'importe quel corps, d'après mon bouquin.

    Si $B : E \times E \longrightarrow K$ est une forme $K$-bilinéaire, une famille orthogonale (sous-entendu : pour $B$) est une famille $(x_i)_{i \in I}$ telle que $B(x_i,x_j)=0$ pour tous $i \neq j$ et une famille orthonormale est une famille orthogonale telle que $B(x_i,x_i)=1$ pour tout $i$.

    Pas besoin que $K=\R$, ni que $B$ soit carrément un produit scalaire.
  • ok, je m'étais juste concentré sur le passage en rouge dans ton message initial...
  • Le fait que tu aies insisté dessus est intéressant.

    Je dois avouer que je n'ai pas posé toutes mes questions dans ce fil. Je préfère faire les choses une par une. Comme je viens de le rappeler, on peut parler d'orthogonalité dans le cas complexe, et donc définir des matrices orthogonales à coefficients complexes. Donc $\text{O}_n(\C)$ est parfaitement défini. Cependant... dans le cas réel, $\text{O}_n(\R)$ a des liens avec la géométrie, le produit scalaire réel, les automorphismes orthogonaux, etc. Dans le cas complexe, la géométrie se fait avec des produits hermitiens, et donc on n'est pas dans le cas d'une forme bilinéaire symétrique avec une forme quadratique associée... le groupe "naturel" ici est plutôt $\text{U}_n(\C)$, pas $\text{O}_n(\C)$, en tout cas c'est $\text{U}_n(\C)$ qui a un lien avec le produit hermitien si je ne me suis pas mélangé les pinceaux. Je sais que $\text{O}_n(\C)$ est un groupe de Lie classique, donc il a sûrement son importance quelque part, mais je ne sais pas trop quoi en faire. En tout cas, dans les maths "niveau agreg" que je connais, on n'en parle pas beaucoup...
  • Je ne sais pas si ton interrogation provient de ça mais $\langle x, y \rangle = \displaystyle \sum_{k = 1}^n x_k y_k$ est un produit scalaire si $\mathbb{K} = \mathbb{R}$ mais pas sur $\mathbb{K} = \mathbb{C}$ où c'est plutôt $\langle x, y \rangle = \displaystyle \sum_{k = 1}^n x_k \overline{y}_k$.

    Avec ce produit scalaire tu tombes sur $\displaystyle \langle \sum_{k = 1}^n \alpha_k C_k, \sum_{j = 1}^n \alpha_j C_j \rangle= \sum_{k = 1}^n |\alpha_k|^2$ pour en revenir à ton message plus haut
  • Sevaus, tu te trompes et tu fais régresser la sujet.

    On a deux produits scalaires sur $\C^n$, l'un bilinéaire, l'autre hermitien (i.e. une fois et demie linéaire), les deux ont droit de cité, même sur $\C$. Les isométries du premier correspondent aux matrices orthogonales (ont, dans une base orthonormée, une matrice orthogonale) ; celles du second aux matrices unitaires.
  • Math Coss est un peu sévère, mais il a raison.

    De ce que j'avais compris de mes cours, et c'est probablement ce dont sevaus parlait aussi, c'est qu'on se concentre beaucoup plus sur les produits hermitiens dans le cas des espaces vectoriels sur $\C$ (jusqu'à l'agreg, disons).

    Cependant, ça soulève tout de même la question de "à quoi sert" le groupe orthogonal complexe. Ses propriétés ont sûrement des applications intéressantes mais je ne sais pas si j'en ai vu beaucoup.
  • $\mathbb C^n$ est un $\mathbb R$-espace vectoriel de dimension $2n$. Le "produit scalaire" non hermitien dont il est question y est une forme quadratique de signature $(n,n)$. Les éléments de $\mathrm{O}_n(\mathbb C)$ correspondent aux endomorphismes $\mathbb C$-linéaires préservant cette forme quadratique. Or un endomorphisme $\mathbb R$-linéaire $f$ de $\mathbb C^n$ est $\mathbb C$-linéaire si et seulement pour tout $z \in \mathbb C^n$, $f(iz)=if(z)$. Matriciellement, cela veut dire que la matrice $M$ de $f$ dans la base canonique vérifie $MI=IM$, où $I$ est la matrice contenant $n$ blocs diagonaux de la forme $\begin{pmatrix}0&-1\\1&0\end{pmatrix}$. Ainsi, $\mathrm{O}_n(\mathbb C)$ est naturellement isomorphe à $\mathrm{O}(n,n) \cap \mathrm{GL}_n(\mathbb C)$, où $\mathrm{GL}_n(\mathbb C)$ désigne ici abusivement $\{M \in \mathrm{GL}_{2n}(\mathbb R) \mid MI=IM\}$.

    Bref, si tu veux comprendre ce groupe, il va falloir comprendre les groupes orthogonaux de formes quadratiques réelles générales.
  • J'ai ça dans mon bouquin, donc ça devrait aller ;-)

    Franchement, c'est long de réapprendre les choses correctement, mais ça fait du bien quand c'est fini :-D
  • Puisque personne n'en a parlé, les matrices orthogonales correspondent aux matrices de passage entre deux bases orthonormées.

    Ça peut d'ailleurs servir de définition
  • Je ne prendrais pas ça comme définition, et je le savais déjà, mais c'est effectivement un fait important.
  • Ben c'est leur principal intérêt...
Connectez-vous ou Inscrivez-vous pour répondre.