Déterminant

Bonjour
Cela fait quelques années que j'ai quitté les classes préparatoires et je donne maintenant des cours particuliers à des étudiants qui y sont actuellement.

Je remarque que beaucoup ont un réel problème avec la notion de déterminant, et je dois avouer que je ne pense pas moi-même saisir complètement la chose.

Je connais la définition théorique du déterminant dans une base comme unique forme n-linéaire alternée valant 1 sur la-dite base, je connais ses propriétés théoriques, je sais calculer des déterminants 2x2 et 3x3, je sais développer selon une ligne une colonne, je connais les Vandermonde et compagnie, ... etc.

Mais j'ai vraiment du mal à expliquer l'origine de cette notion. Elle semble un peu parachutée et possède des liens magiques avec l'inversibilite dune matrice ou le fait qu'une famille soit une base.
Quelqu'un disposerait d'un moyen naturel pour m'expliquer naturellement cette notion, son origine et la magie qui se cache derrière cette formule impliquant les permutations et leur signature svp ?
Merci d'avance !

Réponses

  • Pour l'instant, je (me) l'explique de la manière suivante : en dimension 2 et 3 on sait calculer le volume signé d'un parallélogramme donné
    On veut alors généraliser cela en dimension n, et on établit pour cela un cahier des charges : on veut une forme n-lineaire alternee valant 1 sur la base canonique. En travaillant un peu, on aboutit à la fameuse formule suscitée.

    Néanmoins, cette explication ne me satisfait pas totalement et j'ai limpression de louper quelque chose.
    En effet, sur Wikipedia, il est indiqué que l'origine de la notion n'est PAS géométrique, mais plutôt "calculatoire" : c'est de la tentative de résolution des systèmes linéaires quest né le déterminant. Et là ça bloque, je ne vois pas comment Gauss et compagnie ont fait émerger ça de leurs cahiers ...
  • Cramer?
    A demon  wind propelled me east of the sun
  • Bonjour Ramufasa.

    Plaçons nous en dimension 2. Le déterminant d'un système apparaît de lui-même quand on résout un système linéaire à deux inconnues par la méthode des combinaisons linéaires (bien pratique pour traiter des cas paramétriques ou le cas général). Comme inverser une matrice amène à résoudre un système dont le déterminant ne dépend que des coefficients de la matrice, il est immédiatement lié à l'inversibilité.
    Ensuite, on remarque qu'on a la même situation en dimension 3. Puis on veut généraliser.

    La présentation comme unique forme n-linéaire alternée est une façon rapide d'arriver au résultat (et récente), mais les calculs en petite dimension étaient classiques aux dix-huitième et dix-neuvième siècles, et très nécessaires (linéarisation des calculs astronomiques, recherche d'éléments de régression, partie linéaire de la mécanique rationnelle, ...). On les retrouve encore dans le "mécanique céleste" de Borel au vingtième siècle.

    Cordialement.
  • Bonjour
    Il me semble que la relation:
    \[A.A^*=\det(A)I_n,
    \] où $A^*$ est la matrice des cofacteurs est une bonne base pour se convaincre de la pertinence de la notion de déterminant. Pour le coup, par récurrence, car un cofacteur est un déterminant.
    Amitiés,
    Le p'tit bonhomme
  • Une réponse anachronique partielle:

    Le déterminant peut-être défini de la manière suivante ($R$ est un anneau commutatif, tu peux prendre $\mathbb{R,C}$ si tu préfères):

    Soit $n$ un entier naturel. Alors$ \bigwedge^n R^n $ est libre de rang $1$. En particulier si $P$ est libre de rang $n$, et $f: P\to P$, alors $\bigwedge^n f: \bigwedge^nP\to \bigwedge^nP$ est la multiplication par un élément de $R$, qu'on appelle $\det(f)$.

    Si $f$ est inversible, alors par fonctorialité de $\bigwedge^n$ (pas besoin de ce gros mot ici : ça veut dire que c'est compatible avec la composition et les identités), $\det(f)\in R^\times$. On peut se poser la question de la réciproque. C'est là qu'intervient la formule que P'tit bonhomme mentionne, mais on peut aussi le voir peut-être plus simplement, dans le cas où $R=\mathbb{R,C}$ avec la construction précédente.

    En effet, dans le cas d'un corps, si $f$ n'est pas surjective ou pas injective, elle se factorise sous la forme $R^n\to R^k\to R^n$ avec un $k<n$. En particulier, en appliquant $\bigwedge^n$, comme $\bigwedge^n R^k = 0$, on obtient $\det(f) =0$. Cet argument ne marche pas si bien dans le cas d'un anneau quelconque.

    Bref, en quelques lignes on voit le rapport avec l'inversibilité des applications linéaires (et donc avec le fait d'être ou non une base, bien sûr).

    Toutes les formules élémentaires se déduisent de cette présentation relativement facilement - ce qui reste parachuté, malheureusement, c'est l'introduction de ce $\bigwedge$. J'avoue que je n'ai pas de réponse satisfaisante à ta question (qui est extrêmement intéressante, je crois qu'une de ses variations travaille Christophe depuis longtemps). Avec un peu plus de gros mots, je pourrais motiver l'introduction de $\bigwedge^n$, mais ce n'est pas très satisfaisant (notamment parce que je ne suis pas convaincu de la non-circularité de ce que je raconterais)
  • Bonsoir,

    Merci infiniment à tous pour vos réponses.

    Je pense que les réponses de gerard0 et ptit bonhomme correspondent à ce que je cherchais. Ne me reste plus qu'à gribouiller au brouillon pour voir que ça "apparaît de lui-même".

    Maxtimax, ta réponse m'intéresse beaucoup aussi. Pourrais-tu juste me définir ce symbole "accent circonflexe géant puissance n" stp ? Je ne l'ai jamais rencontré (je ne lis pas beaucoup d'algèbre après...).

    Merci d'avance !
  • Faisons-le pour les $\mathbb R$-espaces vectoriels, mais ça marche sur tout anneau commutatif: si $V$ est un $\mathbb R$-espace vectoriel, $\bigwedge^n V$ (prononcé quelque chose comme "$n$-ème puissance extérieure de $V$") est défini comme un quotient de $V^{\otimes n}$: je vais donc supposer que tu sais ce qu'est le produit tensoriel, et ce qu'est une quotient.
    Spécifiquement, on le quotiente par le sous-espace vectoriel engendré par les $...\otimes x\otimes ... \otimes x \otimes ...$, c'est-à-dire par les tenseurs dans lesquels un même vecteur apparaît deux fois. Puisque $\mathbb R$ est de caractéristique $\neq 2$, cela revient à quotienter en imposant $v_1\otimes...\otimes v_n = \epsilon(\sigma) v_{\sigma(1)}\otimes ... \otimes v_{\sigma(n)}$ pour $\sigma \in S_n$.

    Ainsi, une forme linéaire sur $\bigwedge^n V$ c'est la même chose qu'une forme $n$-linéaire alternée sur $V$ - d'où le lien avec le déterminant.
    Mais ce qui est important c'est qu'on peut faire tout ça de manière très générale, et qu'à la fin on n'a pas besoin de parler de base.
  • Peut-être pour rendre un tout petit peu plus palpable ce qu'est $\Lambda^n V$ en première approche, disons que $V$ est de dimension $n$, muni d'une base $(e_1, \dots, e_n)$. On définit alors $\Lambda^k V$ comme un espace vectoriel muni d'une famille génératrice donnée par des symboles notés $e_{i_1} \wedge \dots \wedge e_{i_k}$, où $i_1, \dots, i_k \in \{1, \dots, n\}$, et ces symboles sont astreints à vérifier les relations suivantes : pour $\lambda \in \mathbb R$, $$\lambda \cdot (e_{i_1} \wedge \dots \wedge e_{i_k}) = \lambda e_{i_1} \wedge \dots \wedge e_{i_k} = e_{i_1} \wedge \lambda e_{i_2} \wedge \dots \wedge e_{i_k} = e_{i_1} \wedge \dots \wedge \lambda e_{i_k},$$ pour $x_1, \dots, x_k, x \in V$ et $i \in \{1, \dots, k\}$, $$(x_1 \wedge \dots \wedge x_k) + (x_1 \wedge \dots \wedge \underset{\text{position i}}{\underbrace x} \wedge \dots \wedge x_k = x_1 \wedge \dots \wedge \underset{\text{position i}}{\underbrace{x+x_i}} \wedge \dots \wedge x_k$$ et enfin $$x_1 \wedge a \wedge b \wedge \dots \wedge x_k = -(x_1 \wedge b \wedge a \wedge \dots \wedge x_k)$$, ce qui entraîne facilement la propriété citée par Max avec la signature.

    Une base de $\Lambda^k V$ est alors donnée par $$\{e_{i_1} \wedge \dots \wedge e_{i_k} \mid 1 \leq i_1 < \dots < i_k \leq n\}.$$ Ainsi $\Lambda^k V$ est de dimension $\binom{n}{k}$, et en particulier $\Lambda^n V$ est de dimension $1$.

    Cette construction montre que (en fait c'est la propriété universelle sous-jacente) que la donnée d'une application linéaire sur $\Lambda^k V$ c'est la même chose qu'une application $k$-linéaire alternée définie sur $V$.
Connectez-vous ou Inscrivez-vous pour répondre.