Groupe symétrique, déterminant

Image
Etude du groupe symétrique puis construction du déterminant.

Pour bien aborder ce chapitre

Ce chapitre est réservé aux élèves de MPSI. On va y définir le déterminant en toute généralité. Il va nous falloir au préalable étudier le groupe symétrique \(\mathfrak{S}\left(n\right)\). Il est formé de toutes les permutations d’un ensemble \(E\) à \(n\) éléments et admet comme loi interne la composition. Ce groupe est très important en mathématiques. Ainsi, c’est en étudiant le groupe des permutations des racines d’un polynôme que Galois est parvenu à prouver la non résolubilité par radicaux des équations polynomiales de degré \(\geqslant 5\). Le mathématicien Arthur Cayley a par ailleurs prouvé que tout groupe fini de cardinal \(n\) est isomorphe à un sous-groupe de \(\mathfrak{S}\left(n\right)\) (son résultat est en fait plus général car il s’étend aux groupes de cardinal infini).

La construction du déterminant est basée sur les notions que nous allons introduire quant au groupe symétrique. On explicitera ensuite, comme dans le cas des déterminants de taille \(2\) et \(3\) traités dans le chapitre précédent, ce qu’est le déterminant d’un endomorphisme et d’une famille de vecteurs.

Le développement de la notion de déterminant est fortement lié aux tentatives effectuées par les mathématiciens pour résoudre les systèmes linéaires à \(n\) équations et \(n\) inconnues. En \(1545\), Cardan introduit des déterminants de taille \(2\) pour résoudre des systèmes linéaires de deux équations à deux inconnues. En 1678, Leibniz fait de même mais pour \(n=3\) et en 1748, MacLaurin résout le problème quand \(n=4\). En 1750, Cramer établit des formules pour le cas général mais ne sait pas les démontrer (voir le théorème [Theo_Formule_de_Cramer_generale] page [Theo_Formule_de_Cramer_generale]). En 1764, Bézout reprend les travaux de Cramer et met en place les formules de développement suivant une rangée (voir le théorème [theo_dev_suivant_rangee] page [theo_dev_suivant_rangee]). Elles permettent de formuler des relations de récurrence pour le calcul des déterminants. Dans les Disquisitiones arithmeticae, Gauss donne au déterminant sa dénomination actuelle. Lagrange comprend le lien du déterminant avec la notion de volume. C’est au \(19^{\textrm{ e}}\) siècle que Cauchy utilise pour la première fois le mot déterminant dans le sens qu’on lui donne maintenant. Il fait, dans un long article, la synthèse des connaissances à son sujet et jette les bases de la réduction des endomorphismes. Grâce à trois articles dans le journal de Crelle, Jacobi popularise la notion et construit des algorithmes permettant de le calculer. Il faut attendre le milieu du \(19^{\textrm{ e}}\) siècle pour que les déterminants soient utilisés, par Sylvester et Cayley dans le cadre matriciel. Ce dernier est à l’origine de la notation utilisée pour les écrire avec des grandes barres verticales.

Le groupe symétrique

(Groupe des permutations).
Soit un ensemble \(E\). On appelle permutation de \(E\), une bijection \(\sigma:E\mapsto E\). On note \(\mathfrak{S}\left(E\right)\) l’ensemble des permutations de l’ensemble \(E\). On sait que \(\bigl(\mathfrak{S}\left(E\right), \circ \bigr)\) est un groupe (voir la proposition [prop_gr_sym] page [prop_gr_sym]), appelé groupe des permutations de l’ensemble \(E\).

Dans la suite, on considèrera un ensemble fini \(E\) de cardinal \(n\), et en particulier \(E = [\kern-0.127em[ 1, n ]\kern-0.127em]\).

(Groupe symétrique).
Lorsque l’ensemble \(E = [\kern-0.127em[ 1, n ]\kern-0.127em]\), on note \(\mathfrak{S}\left(n\right)\) le groupe des permutations de \(E\) qui est un groupe fini de cardinal \(n!\). Ce groupe s’appelle le groupe symétrique d’ordre \(n\). Une permutation \(\sigma \in \mathfrak{S}\left(n\right)\) se note \[\sigma = \bigl(\begin{smallmatrix}1 & \dots & n \newline \sigma(1) & \dots & \sigma(n) \end{smallmatrix}\bigr)\]
(Orbite d’un élément).
Soit une permutation \(\sigma \in \mathfrak{S}\left(E\right)\) et un élément \(x \in E\). On appelle orbite de l’élément \(x\) selon la permutation \(\sigma\), l’ensemble \(\mathcal{O}(x) = \{ \sigma^k(x)~|~k \in \mathbb{Z} \}\). On vérifie facilement que si \(y \in \mathcal{O}(x)\), alors \(\mathcal{O}(x) = \mathcal{O}(y)\).
Si \(E = \{1,2,3,4,5,6\}\), et \(\sigma = \bigl(\begin{smallmatrix}1&2&3&4&5&6 \newline 2&1&5&3&6&4 \end{smallmatrix}\bigr)\), \(\mathcal{O}(1) = \mathcal{O}(2) = \{1, 2\}\) et \(\mathcal{O}(3)=\mathcal{O}(4)=\mathcal{O}(5)=\mathcal{O}(6) = \{3,4,5,6\}\).

(Permutation circulaire).
Soit une permutation \(\sigma \in \mathfrak{S}\left(E\right)\). On dit que c’est une permutation circulaire s’il existe un élément \(x \in E\) tel que \(\mathcal{O}(x) = E\).
Si \(E = \{1,2,3,4\}\), \(\sigma = \bigl(\begin{smallmatrix}1&2&3&4 \newline 3&4&2&1 \end{smallmatrix}\bigr)\) est une permutation circulaire :

Il y a \((n-1)!\) permutations circulaires dans le groupe symétrique \(\mathfrak{S}\left(n\right)\).
(Cycle).
Soit une permutation \(\sigma \in \mathfrak{S}\left(E\right)\). On dit que \(\sigma\) est un cycle s’il y a au plus une orbite qui n’est pas réduite à un élément. Cette orbite s’appelle le support du cycle, et le cardinal de cette orbite s’appelle la longueur du cycle.
\(E = \{1,2,3,4,5,6\}\), \(\sigma = \bigl(\begin{smallmatrix}1&2&3&4&5&6 \newline 2&3&1&4&5&6 \end{smallmatrix}\bigr)\), est un cycle de support \(\{1,2,3\}\) et de longueur \(3\). On note plus simplement \(\begin{pmatrix} 1&2&3 \end{pmatrix}\) un tel cycle.

(Deux cycles de supports disjoints commutent).
Soient deux cycles \(\sigma_1\) et \(\sigma_2\) de \(\mathfrak{S}\left(E\right)\) de supports disjoints. Alors \(\sigma_1 \circ \sigma_2 = \sigma_2 \circ \sigma_1\).
Soient \(c_1\) et \(c_2\) deux cycles de supports disjoints. Montrons que \(c_1\circ c_2 = c_2 \circ c_1\). Soit \(x \in E\), étudions trois cas : si \(x\) est dans le support de \(c_1\), il n’est pas dans le support de \(c_2\) donc \(c_2(x) = x\). Par conséquent, \(c_1\circ c_2(x) = c_1(x)\) et puisque \(c_1(x)\) est dans le support de \(c_1\), il n’est pas dans le support de \(c_2\) et donc \(c_2(c_1(x)) = c_1(x)\). De même, si \(x\) est dans le support de \(c_2\), \(c_1\circ c_2(x) = c_2\circ c_1(x) = c_2(x)\). Si enfin \(x\) n’est ni dans le support de \(c_1\), ni dans le support de \(c_2\), il est invariant à la fois par \(c_1\) et \(c_2\) d’où \(c_1\circ c_2(x) = c_2 \circ c_1 (x) = x\).
(Décomposition d’une permutation en produit de cycles à supports disjoints).
Soit une permutation \(\sigma \in \mathfrak{S}\left(E\right)\). Elle se décompose en un produit fini de cycles de supports disjoints qui commutent deux à deux.
Théorème admis. La démonstration est plus fastidieuse que difficile. L’étude des exemples est plus convaincante.

On obtient en pratique la décomposition en dessinant les orbites de la permutation \(\sigma\) :

Considérons la permutation \(\sigma = \bigl(\begin{smallmatrix}1&2&3&4&5&6&7&8&9&10 \\ 10&9&1&2&4&6&7&5&8&3 \end{smallmatrix}\bigr)\). On représente graphiquement ses orbites :

Définissons alors les cycles \(c_1 = \bigl(\begin{smallmatrix}1 & 2 & 3 & 4 & 5 & 6 & 7 & 8 & 9 & 10 \\ 10 & 2 & 1 & 4 & 5 & 6 & 7 & 8 & 9 & 3 \end{smallmatrix}\bigr) = \begin{pmatrix} 1&10&3 \end{pmatrix}\) de support \(\{1,10,3\}\) et \(c_2 = \bigl(\begin{smallmatrix}1&2&3&4&5&6&7&8&9&10 \\ 1&9&3&2&4&6&7&5&8&10 \end{smallmatrix}\bigr) = \begin{pmatrix} 2&9&8&5&4 \end{pmatrix}\) de support \(\{2,4,5,8,9\}\). On a bien \(\sigma=c_1\circ c_2 = c_2\circ c_1\). La décomposition en cycles permet de calculer facilement les puissances d’une permutation dans le groupe symétrique. Puisque les cycles commutent, \(\sigma^k = c_1^k \circ c_2^k\). Si \(l\) est la longueur d’un cycle \(c\), puisque \(c^l = \mathop{\mathrm{id}}\nolimits\), \(c^k = c^p\)\(p\) est le reste de la division de \(k\) par \(l\). Sur notre exemple, \(\sigma^{11} = c_1^{11}\circ c_2^{11} = c_1^{2} \circ c_2 = \bigl(\begin{smallmatrix}1&2&3&4&5&6&7&8&9&10 \newline 3&9&10&2&4&6&7&5&8&1 \end{smallmatrix}\bigr)\).
(Transposition).
Une transposition de \(\mathfrak{S}\left(E\right)\) est un cycle de longueur \(2\). Une transposition échange deux éléments \(a\), \(b\) et laisse les autres invariants. On note \(\tau_{ab}\) une telle transposition.
Se donner une transposition dans le groupe symétrique \(\mathfrak{S}\left(n\right)\) revient à se donner une paire d’éléments \(\{i,j\}\) distincts. Il y a donc \(\dbinom{n}{2} = \dfrac{n(n-1)}{2}\) transpositions dans \(\mathfrak{S}\left(n\right)\). On calcule facilement la composée de transpositions : \(\sigma=\tau_{23} \circ \tau_{12}\circ \tau_{13} = \tau_{12}\) : tous les \(i\not\in \{1,2,3\}\) sont invariants par ces trois transpositions donc \(\sigma(i) =i\) et \(\sigma(1) = \tau_{23}\circ \tau_{12}(3) = \tau_{23}(3) = 2\), \(\sigma(2) = \tau_{23}\circ\tau_{12}(2)=\tau_{23}(1) = 1\), \(\sigma(3) = \tau_{23}\circ \tau_{12}(1) = \tau_{23}(2) = 3\).
(Décomposition en transpositions).
Toute permutation \(\sigma \in \mathfrak{S}\left(n\right)\) se décompose en un produit fini de transpositions : \[\sigma = \tau_1 \circ \dots \circ \tau_k.\] Il n’y a pas unicité d’une telle décomposition.
On dispose d’un algorithme simple qui permet de trouver une telle décomposition. Si par exemple \(\sigma = \bigl(\begin{smallmatrix}1&2&3&4&5&6 \\ 3&5&1&2&6&4 \end{smallmatrix}\bigr)\),
  • On commence par regarder \(\sigma(6)=4\neq 6\). Formons donc la permutation \(\sigma_1=\tau_{46}\circ \sigma = \bigl(\begin{smallmatrix}1&2&3&4&5&6 \\ 3&5&1&2&4&6 \end{smallmatrix}\bigr)\). Le \(6\) est maintenant à sa place.

  • Comme \(\sigma_1(5)=4\), on forme \(\sigma_2=\tau_{45}\circ\sigma_1 = \bigl(\begin{smallmatrix}1&2&3&4&5&6 \\ 3&4&1&2&5&6 \end{smallmatrix}\bigr)\) et maintenant \(5\) et \(6\) sont à leur place.

  • Comme \(\sigma_2(4)=2\), on forme \(\sigma_3=\tau_{42}\circ \sigma_2 = \bigl(\begin{smallmatrix}1&2&3&4&5&6 \\ 3&2&1&4&5&6 \end{smallmatrix}\bigr)\)

  • Comme \(\sigma_3(3)=1\), on forme \(\sigma_4=\tau_{13}\circ\sigma_3=\bigl(\begin{smallmatrix}1&2&3&4&5&6 \\ 1&2&3&4&5&6 \end{smallmatrix}\bigr) = \mathop{\mathrm{id}}\nolimits\).

Au bout d’au plus \(n\) étapes, on trouve l’identité. Il suffit alors d’écrire \[\tau_{13}\circ\tau_{42}\circ\tau_{45}\circ\tau_{46}\circ \sigma = \mathop{\mathrm{id}}\nolimits\] et comme pour toute transposition \(\tau^{-1}=\tau\), on en déduit la décomposition de \(\sigma\) : \[\sigma = (\tau_{13}\circ \tau_{42}\circ\tau_{45}\circ\tau_{46})^{-1} = \tau_{46}\circ \tau_{45}\circ \tau_{42}\circ \tau_{13}\] Cet algorithme montre que toute permutation de \(\mathfrak{S}\left(n\right)\) s’écrit comme un produit d’au plus \(n\) transpositions.

Pour terminer ce paragraphe, dressons la table du groupe \(\mathfrak{S}\left(3\right)\) : à chaque ligne on place un élément \(\sigma_i\) et à chaque colonne un élément \(\sigma_j\). À l’intersection de la ligne \(i\) et de la colonne \(j\), on place l’élément \(\sigma_i \circ \sigma_j\). Il y a \(3!=6\) permutations : \(\mathfrak{S}\left(3\right) = \{\mathop{\mathrm{id}}\nolimits, \tau_{12}, \tau_{13}, \tau_{23}, \sigma, \sigma^2\}\)\(\sigma=\bigl(\begin{smallmatrix}1&2&3 \\ 2&3&1 \end{smallmatrix}\bigr)\) est une permutation circulaire avec \(\sigma^2 = \bigl(\begin{smallmatrix}1&2&3 \\ 3&1&2 \end{smallmatrix}\bigr)\).

\(\mathfrak{S}\left(3\right)\) \(\mathop{\mathrm{id}}\nolimits\) \(\tau_{12}\) \(\tau_{13}\) \(\tau_{23}\) \(\sigma\) \(\sigma^2\)
\(\mathop{\mathrm{id}}\nolimits\) \(\mathop{\mathrm{id}}\nolimits\) \(\tau_{12}\) \(\tau_{13}\) \(\tau_{23}\) \(\sigma\) \(\sigma^2\)
\(\tau_{12}\) \(\tau_{12}\) \(\mathop{\mathrm{id}}\nolimits\) \(\sigma^2\) \(\sigma\) \(\tau_{23}\) \(\tau_{13}\)
\(\tau_{13}\) \(\tau_{13}\) \(\sigma\) \(\mathop{\mathrm{id}}\nolimits\) \(\sigma^2\) \(\tau_{12}\) \(\tau_{23}\)
\(\tau_{23}\) \(\tau_{23}\) \(\sigma^2\) \(\sigma\) \(\mathop{\mathrm{id}}\nolimits\) \(\tau_{13}\) \(\tau_{12}\)
\(\sigma\) \(\sigma\) \(\tau_{13}\) \(\tau_{23}\) \(\tau_{12}\) \(\sigma^2\) \(\mathop{\mathrm{id}}\nolimits\)
\(\sigma^2\) \(\sigma^2\) \(\tau_{23}\) \(\tau_{12}\) \(\tau_{13}\) \(\mathop{\mathrm{id}}\nolimits\) \(\sigma\)

On voit que le groupe \(\mathfrak{S}\left(3\right)\) n’est pas commutatif : par exemple \(\tau_{12} \circ \tau_{13} \neq \tau_{13}\circ\tau_{12}\). Plus généralement, le groupe \(\mathfrak{S}\left(n\right)\) n’est jamais commutatif puisque si \(i,j,k\) sont distincts, \(\tau_{ij} \circ \tau_{jk} \neq \tau_{jk} \circ \tau_{ij}\). On peut montrer que les groupes finis de moins de \(5\) éléments sont tous commutatifs donc \(\mathfrak{S}\left(3\right)\) donne le premier exemple de groupe non commutatif à \(6\) éléments.

Signature d’une permutation

(Signature d’une permutation).
Soit une permutation \(\sigma \in \mathfrak{S}\left(n\right)\). On dit qu’un couple \((i, j) \in [\kern-0.127em[ 1, n ]\kern-0.127em]^2\) est un inversion de \(\sigma\) lorsque \[i < j \textrm{ et } \sigma(i) > \sigma(j).\] On note \(I(\sigma)\) le nombre d’inversions de la permutation \(\sigma\), et on définit la signature de la permutation \(\sigma\) par \[\varepsilon(\sigma) = (-1)^{I(\sigma)}.\] On dit qu’une permutation \(\sigma\) est paire si \(\varepsilon(\sigma) = +1\) et impaire lorsque \(\varepsilon(\sigma) = -1\).
Considérons la permutation \(\sigma = \bigl(\begin{smallmatrix}1&2&3&4&5&6&7 \\ 3&5&7&2&1&4&6 \end{smallmatrix}\bigr)\). Écrivons son tableau d’inversions :
i 1 2 3 4 5 6 7
\(\mathop{\mathrm{Card}}\{j > i \mid \sigma(j) < \sigma(i)\}\) 2 3 4 1 0 0 0
On trouve que \(I(\sigma) = 10\) et \(\varepsilon(\sigma) = 1\);
(Expression algébrique de la signature).
Soit une permutation \(\sigma \in \mathfrak{S}\left(n\right)\). On a les expressions suivantes pour sa signature : \[\varepsilon(\sigma) = \prod_{1\leqslant i < j \leqslant n} \dfrac{\sigma(j)-\sigma(i)}{j-i} = \prod_{\substack{\{i,j\} \subset [\kern-0.127em[ 1, n ]\kern-0.127em] \newline i \neq j }} \dfrac{\sigma(j)-\sigma(i)}{j-i}\]
Considérons une paire1 \(\{i,j\} \in[\kern-0.127em[ 1, n ]\kern-0.127em]\) avec \(i \neq j\). Puisque \(\dfrac{\sigma(i)-\sigma(j)}{i-j} = \dfrac{\sigma(j)-\sigma(i)}{j-i}\) on peut supposer que \(i < j\) et donc \(P = \prod_{i<j} \dfrac{\sigma(j)-\sigma(i)}{j-i} = \prod_{ \{i,j\} } \dfrac{\sigma(j)-\sigma(i)}{j-i}\).
  • Si \((i,j)\) est une inversion de \(\sigma\), \(i < j\) et \(\sigma(i) > \sigma(j)\) donc \(\dfrac{\sigma(j)-\sigma(i)}{j-i} = - \dfrac{\lvert \sigma(j)-\sigma(i) \rvert }{\lvert j-i \rvert }\).

  • Si \((i,j)\) n’est pas une inversion de \(\sigma\), \(\dfrac{\sigma(j)-\sigma(i)}{j-i} = \dfrac{\lvert \sigma(j)-\sigma(i) \rvert }{\lvert j-i \rvert }\).

On peut donc écrire \[P = (-1)^{I(\sigma)} \dfrac{\prod_{ \{i,j\} }\lvert \sigma(j)-\sigma(i) \rvert }{\prod_{\{i,j\}}\lvert j-i \rvert }.\] On remarque également que \[\prod_{\{i,j\}}\lvert \sigma(j)-\sigma(i) \rvert = \prod_{\{k,l\}} \lvert k-l \rvert .\] En effet, puisque \(\sigma\) est bijective, pour toute paire \(\{k,l\}\) il existe une unique paire \(\{i,j\}\) telle que \(\{k,l\} = \{\sigma(i), \sigma(j)\}\). Finalement, \(P = (-1)^{I(\sigma)} = \varepsilon(\sigma)\);
(La signature est un morphisme de groupes).
L’application \[\varepsilon: \left\{ \begin{array}{ccl} \bigl(\mathfrak{S}\left(n\right), \circ\bigr) & \longrightarrow & \bigl(\{-1, 1\}, \times\bigr) \newline \sigma & \longmapsto & \varepsilon(\sigma) \end{array} \right.\] est un morphisme de groupes.
Soient deux permutations \(\sigma_1\), \(\sigma_2\) de \(\mathfrak{S}\left(n\right)\). Montrons que \(\varepsilon(\sigma_1\circ\sigma_2) = \varepsilon(\sigma_1) \times \varepsilon(\sigma_2)\). En utilisant la forme algébrique de la signature, \[P=\varepsilon(\sigma_1\circ \sigma_2) = \prod_{\{i,j\}} \dfrac{\sigma_1(\sigma_2(j)) - \sigma_1(\sigma_2(i))}{j-i}\] \[P= \prod_{\{i,j\}} \dfrac{\sigma_1(\sigma_2(j))-\sigma_1(\sigma_2(i))} {\sigma_2(j)-\sigma_2(i)} \prod_{\{i,j\}} \dfrac{\sigma_2(j)-\sigma_2(i)}{j-i}.\] Mais comme toute paire \(\{k,l\}\) s’écrit de façon unique \(\{\sigma_2(j), \sigma_{2}(i)\}\)\(\{i,j\}\) est une paire, \[P = \prod_{\{k,l\}} \dfrac{\sigma_1(k)-\sigma_1(l)}{k-l} \prod_{\{i,j\}} \dfrac{\sigma_2(j)-\sigma_2(i)}{j-i} = \varepsilon(\sigma_1)\times \varepsilon(\sigma_2).\]
(Groupe alterné).
La signature étant un morphisme de groupes, son noyau \[\operatorname{Ker}\varepsilon= \{\sigma \in \mathfrak{S}\left(n\right) \mid \varepsilon(\sigma) = +1\}\] est un sous-groupe du groupe symétrique, appelé groupe alterné. On le note \(\mathcal{A}_n\).
(Signature d’une transposition).
Soit \(\tau\) une transposition de \(\mathfrak{S}\left(n\right)\). C’est une permutation impaire : \(\varepsilon(\tau) = -1\).
Soit \(i \in [\kern-0.127em[ 2, n ]\kern-0.127em]\). La transposition \(\tau_{1i}\) s’écrit : \[\tau_{1i} = \bigl(\begin{smallmatrix}1 & 2 & \dots & (i-1) & i & (i+1) & \dots & n \\ i & 2 & \dots & (i-1) & 1 & (i+1) & \dots & n \end{smallmatrix}\bigr).\] Le tableau d’inversions de \(\tau_{1i}\) s’écrit donc :
\(i\) \(1\) \(2\) \(\dots\) \(i-1\) \(i\) \(n\)
\((i-1)\) \(1\) \(1\) \(0\) \(0\)
Par conséquent, \(I(\tau_{1i}) = (i-1) + (i-2) = 2i-3\) d’où l’on tire \(\varepsilon(\tau_{1i}) = (-1)^{2i-3} = -1\). Il suffit ensuite de remarquer que si \(i, j \in [\kern-0.127em[ 1, n ]\kern-0.127em]\) sont distincts et différents de \(1\), \[\tau_{ij} = \tau_{1i} \circ \tau_{1j} \circ \tau_{1i}\] et par conséquent, \[\varepsilon(\tau_{ij}) = \varepsilon(\tau_{1i}) \varepsilon(\tau_{1j})\varepsilon(\tau_{1i}) = -1.\]
Puisque l’application \[\varphi: \left\{ \begin{array}{ccl} \mathcal{A}_n & \longrightarrow & \mathfrak{S}\left(n\right) \setminus \mathcal{A}_n \newline \sigma & \longmapsto & \tau\circ \sigma \end{array} \right.\] est une bijection, on en déduit que le cardinal du groupe alterné vaut \(n! / 2\).
(Autre caractérisation de la signature).
Si une permutation \(\sigma\) s’écrit comme produit de \(p\) transpositions, \[\sigma = \tau_1\circ \dots \circ \tau_p\] alors \(\varepsilon(\sigma) = (-1)^p\).
Comme la signature est un morphisme de groupes, \(\varepsilon(\sigma) = \varepsilon(\tau_1) \times \dots \times \varepsilon(\tau_p) = (-1)^p\).
La décomposition d’une permutation en produit de transpositions n’est pas unique, mais la parité du nombre de transpositions est la même pour toute décomposition.
Dans les années \(1870\), Sam Loyd a offert une prime de \(1000\) dollars à la personne qui trouverait la solution du jeu de taquin suivant : la case \(16\) est vide, et les pièces peuvent glisser sur cette case vide. Lors du premier coup, on peut faire glisser la case \(15\) ou la case \(12\) sur la case vide, et ainsi de suite. Le défi consiste à obtenir la même configuration que la configuration initiale où les cases \(14\) et \(15\) sont inversées.

Toute configuration du taquin peut être représentée par une permutation \(\sigma \in \mathfrak{S}\left(16\right)\) : \(\sigma(i)\) représente le numéro de pièce qui se trouve sur la case \(i\). La position initiale correspond à la transposition \(\mathop{\mathrm{id}}\nolimits\) et la position finale à la transposition \(\tau_{14,15}\). Pour passer d’une configuration \(\sigma\) à une configuration \(\sigma'\), on échange une plaque avec la case vide donc \(\sigma'=\tau\circ\sigma\)\(\tau\) est une transposition. Si l’on arrive à résoudre le puzzle en \(n\) coups, on a donc \[\tau_n \circ \dots \circ \tau_{1}\circ \mathop{\mathrm{id}}\nolimits= \tau_{14,15}\] En prenant la signature, \((-1)^{n} = -1\) et il faut donc un nombre impair de coups. Colorions maintenant les cases du taquin alternativement en noir et blanc comme sur un échiquier. On s’aperçoit qu’a chaque mouvement, la case vide change de couleur. Comme dans la configuration initiale et finale la case vide est de la même couleur, le nombre de coups doit être pair. On aboutit donc à une contradiction et le problème est impossible à résoudre.

Arthur Cayley, né le 16 août 1821 à Richmond, mort le 26 janvier 1895 à Cambridge

Image
Mathématicien anglais. Arthur Cayley montre très tôt de fortes aptitudes pour les mathématiques. À \(14\) ans, il rentre au King’s College School. Ses professeurs invitent ses parents à pousser leur fils vers l’université. Il entre à Cambridge à l’âge exceptionnel de 17 ans. Pour ses 20 ans, il a déjà versé trois contributions au Cambridge Mathematical Journal. Celles-ci portent sur des lectures des œ uvres de Lagrange et Laplace. À la fin du premier cycle, il reçoit le Smith’s Prize.
Mais à 25 ans, il choisit d’embrasser la profession d’avocat. Métier qu’il exercera pendant 14 ans. Il côtoie alors le mathématicien Sylvester, lui aussi avocat et avec lequel il aura de nombreuses discussions mathématiques. Cayley publiera pendant cette période entre 200 et 300 articles mathématiques.
Alors qu’il est âgé de 42 ans, on lui propose une chaire à Cambridge. Il renonce alors à son travail lucratif d’avocat pour se consacrer entièrement aux mathématiques. L’œ uvre mathématique de Cayley est immense et est réunie dans une collection de 13 volumes intitulée Collected Mathematical Papers. Il a en particulier et parallèlement à Grassmann découvert les notions d’espace vectoriel et de dimension. Il est le premier, avec Sylvester, a introduire la notion de matrice. Il s’est beaucoup intéressé à la théorie des invariants qui vise à étudier les propriétés algébriques invariantes par l’action d’une application linéaire. Vous étudierez en seconde année le théorème de Hamilton-Cayley qui est une de ses contributions fondamentales à l’algèbre linéaire et qui dit que toute matrice carrée annule son polynôme caractéristique.

Construction du déterminant

Étant donnée une famille de \(n\) vecteurs \((x_1,\dots, x_n)\) d’un espace vectoriel de dimension \(n\), nous voulons développer un outil qui permet de détecter si cette famille est liée ou libre. Dans la suite, \(E\) désigne un \(\mathbb{K}\)-espace vectoriel de dimension finie \(n\).

Formes \(n\)-linéaires alternées

(Forme \(n\)-linéaire ).
Soit \(E\) un \(\mathbb{K}\)-espace vectoriel. On dit qu’une application \(\varphi: E^n \mapsto \mathbb{K}\) est \(n\)-linéaire si elle est linéaire par rapport à chaque variable, les autres étant fixées : \(\forall i \in [\kern-0.127em[ 1, n ]\kern-0.127em],~\forall (x_1,\dots, x_{i-1}, x_{i+1},\dots, x_n) \in E^n,~ \forall (x,y) \in E^2,~\forall (\lambda, \mu) \in \mathbb{K} [2]\), \[\varphi(x_1,\dots, x_{i-1}, \lambda x + \mu y, x_{i+1},\dots, x_n) = \lambda \varphi(x_1,\dots, x_{i-1},x, x_{i+1}, \dots, x_n) + \mu \varphi(x_1,\dots, x_{i-1}, y, x_{i+1},\dots, x_n).\] Nous noterons \(\mathcal{L}^n(E)\) l’ensemble des formes \(n\)-linéaires sur l’espace \(E\).
On vérifie facilement que \(\mathcal{L}^n(E)\) est un sous-espace vectoriel de l’espace vectoriel des applications de \(E^n\) vers \(E\).
(Opération de \(\mathfrak{S}\left(n\right)\) sur \(\mathcal{L}^n(E)\)).
Soit \(\varphi\in \mathcal{L}^n(E)\) une forme \(n\)-linéaire et \(\sigma \in \mathfrak{S}\left(n\right)\) une permutation. On définit une nouvelle forme \(n\)-linéaire : \[\sigma \star \varphi: \left\{ \begin{array}{ccl} E^n & \longrightarrow & \mathbb{K} \newline (x_1,\dots, x_n) & \longmapsto & \varphi(x_{\sigma(1)},\dots, x_{\sigma(n)}) \end{array} \right.\] et si \(\sigma_1, \sigma_2 \in \mathfrak{S}\left(n\right)\), \(\sigma_1 \star (\sigma_2 \star \varphi) = (\sigma_1 \circ \sigma_2) \star \varphi\).
On vérifie facilement que \(\sigma\star \varphi\) est encore une forme \(n\)-linéaire. Notons pour \(i \in [\kern-0.127em[ 1, n ]\kern-0.127em]\), \(y_i = x_{\sigma(i)}\) et calculons, \(\sigma_1 \star (\sigma_2 \star \varphi) (x_1,\dots, x_n) = (\sigma_2 \star \varphi)(x_{\sigma_1(1)},\dots, x_{\sigma_1(n)}) = \varphi(y_{\sigma_2(1)}, \dots, y_{\sigma_2(n)})\). Mais \(y_{\sigma_2(i)} = x_{\sigma_1(\sigma_2(i))} = x_{\sigma_1\circ \sigma_2(i)}\) d’où le résultat.
(Forme n-linéaire antisymétrique).
On dit qu’une forme \(n\)-linéaire \(\varphi\in \mathcal{L}^n(E)\) est antisymétrique lorsque \(\forall \sigma \in \mathfrak{S}\left(n\right)\), \(\sigma \star \varphi= \varepsilon(\sigma)\varphi\)\(\varepsilon(\sigma)\) désigne la signature de la permutation \(\sigma\).
Une forme \(n\)-linéaire \(\varphi\) est antisymétrique si et seulement si \(\forall (x_1,\dots, x_n) \in E^n\), \(\forall i, j \in [\kern-0.127em[ 1, n ]\kern-0.127em]\), \(i < j\), \[\varphi(x_1,\dots, x_{i-1}, x_j, x_{i+1},\dots, x_n) = - \varphi(x_1,\dots, x_i, \dots, x_j, \dots, x_n)\]
  • Si \(\varphi\) est antisymétrique, en notant \(\tau_{ij}\) la transposition qui échange \(i\) et \(j\), on obtient immédiatement le résultat.

  • Réciproquement, toute permutation \(\sigma\) s’écrit comme un produit de transpositions : \[\sigma = \tau_1 \circ \dots \tau_k\] et \(\varepsilon(\sigma) = (-1)^k\). Il suffit d’utiliser la proposition précédente : \(\sigma \star \varphi= \tau_1 \star \dots \tau_{k} \star \varphi= (-1)^k \varphi= \varepsilon(\sigma) \varphi\).

Nous voulons trouver des formes \(n\)-linéaires qui s’annulent sur les systèmes liés. En particulier, lorsque deux vecteurs d’une famille sont égaux, notre forme doit s’annuler. C’est ce qui motive la définition suivante :

On dit qu’une forme \(n\)-linéaire \(\varphi: E^n \mapsto \mathbb{K}\) est alternée si elle s’annule sur tout système comportant deux vecteurs égaux : \(\forall (x_1,\dots, x_n) \in E^n\), \(\forall i, j \in [\kern-0.127em[ 1, n ]\kern-0.127em]\), \(i < j\), si \(x_i = x_j\), alors \[\varphi(x_1,\dots, x_i, \dots, x_j, \dots, x_n) = 0_{\mathbb{K} }\]

Les deux notions de forme \(n\)-linéaire antisymétrique et alternée sont identiques comme le montre le théorème suivant :

(Alternée = Antisymétrique).
Une forme \(n\)-linéaire est antisymétrique si et seulement si elle est alternée.
  • Supposons \(\varphi\) antisymétrique et considérons \(n\) vecteurs \((x_1,\dots, x_n)\) avec \(x_i = x_j = x\). Pour la permutation \(\tau_{ij}\) qui échange \(i\) et \(j\), on doit avoir \[\varphi(x_1,\dots, x_i, \dots, x_j, \dots, x_n) = - \varphi(x_1,\dots, x_j, \dots, x_i, \dots, x_n)\] d’où \(2\varphi(x_1,\dots, x_i, \dots, x_j, \dots, x_n) = 0_{\mathbb{K} }\). Comme nous travaillons avec un corps \(\mathbb{K} =\mathbb{Q}^{,} \mathbb{R} ,\mathbb{C}\), il vient que \(\varphi(x_1,\dots, x_i, \dots, x_j, \dots, x_n) = 0_{\mathbb{K} }\).

  • Réciproquement, soient \(i < j\) deux indices, puisque \(\varphi\) est alternée, \[\varphi(x_1,\dots, x_i + x_j, \dots, x_i + x_j, \dots, x_n) = O_{\mathbb{K} }\] Mais en développant, en utilisant la bilinéarité et le fait que \(\varphi\) est alternée, on trouve que \[\varphi(x_1,\dots, x_i, \dots, x_j, \dots, x_n) + \varphi(x_1,\dots, x_j, \dots, x_i, \dots, x_n) = 0_{\mathbb{K} }\] Nous avons donc montré que pour toute transposition \(\tau_{ij}\), \(\tau_{ij}\star \varphi= -\varphi\). Il suffit de conclure en utilisant le lemme .

On note \(\mathcal{A}^n(E)\) l’ensemble des formes \(n\)-linéaires antisymétriques (ou alternées) et on vérifie facilement que c’est un sous-espace vectoriel de \(\mathcal{L}^n(E)\).
(Une forme \(n\)-linéaire antisymétrique détecte les systèmes liés).
Soit \(\varphi\) une forme \(n\)-linéaire antisymétrique. Si la famille \((x_1,\dots, x_n)\) est liée, alors \(\varphi(x_1,\dots, x_n) = 0_{\mathbb{K} }\).
Si la famille est liée, l’un des vecteurs de cette famille est combinaison linéaire des autres : il existe \(i \in [\kern-0.127em[ 1, n ]\kern-0.127em]\) tel que \[x_i = \displaystyle{\sum_{j\neq i}^{ }} \lambda_j x_j.\] Mais comme \(\varphi\) est alternée, \[\varphi(x_1,\dots, x_i, \dots, x_n) = \displaystyle{\sum_{j\neq i}^{ }} \lambda_j \varphi(x_1,\dots, x_j, \dots, x_j, \dots, x_n) = 0_{\mathbb{K} }.\]

Déterminant de \(n\) vecteurs dans une base

Pour comprendre ce paragraphe, nous allons commencer par un calcul simple en dimension \(2\). Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(2\) et \(e=(e_1,e_2)\) une base de \(E\). Considérons une famille de deux vecteurs \((x_1,x_2)\) que nous décomposons dans la base \(e\) : \[\begin{cases} x_1 &= x_{11} e_1 + x_{21} e_2 \\ x_2 &= x_{12} e_1 + x_{22} e_2 \end{cases}.\] Soit \(\varphi\) une forme \(2\)-linéaire alternée sur \(E\). En utilisant la bilinéarité, \[\begin{aligned} \varphi(x_1, x_2) &= x_{11} \varphi(e_1, x_{12}e_1 + x_{22}e_2) + x_{21}\varphi(e_2,x_{12}e_1 + x_{22}e_2) \\ &= x_{11}x_{12} \varphi(e_1,e_1) + x_{11}x_{22} \varphi(e_1,e_2) + x_{21}x_{12}\varphi(e_2,e_1) + x_{21}x_{22}\varphi(e_2,e_2).\end{aligned}\] Puisque \(\varphi\) est alternée, \(\varphi(e_1,e_1) = \varphi(e_2,e_2) = 0_{\mathbb{K} }\) et \(\varphi(e_2,e_1) = -\varphi(e_1,e_2)\). Finalement, \[\varphi(x_1,x_2) = \bigl[x_{11}x_{22} - x_{21}x_{22} \bigr] \varphi(e_1,e_2).\] Définissons une application que nous appellerons déterminant dans la base \(e\) : \[\mathop{\rm det}_{e} : \left\{ \begin{array}{ccl} E^2 & \longrightarrow & \mathbb{K} \newline (x_1,x_2) & \longmapsto & x_{11}x_{22}-x_{21}x_{12} \end{array} \right. .\] On vérifie facilement que cette application \(\mathop{\rm det}_{e}\) est bien une forme \(2\)-linéaire alternée. Alors, en notant \(\lambda = \varphi(e_1,e_2)\), nous avons montré que \(\varphi=\lambda \mathop{\rm det}_e\). En d’autres termes, l’espace des formes \(2\)-linéaires alternées sur un espace de dimension \(2\) est une droite vectorielle engendrée par \(\mathop{\rm det}_e\) : \(\mathcal{A}^2(E) = \mathop{\mathrm{Vect}}(\mathop{\rm det}_{e})\). Ce résultat se généralise en dimension \(n\) quelconque : c’est le théorème principal de ce paragraphe.

(Les formes \(n\)-linéaires alternées forment une droite vectorielle).
Soit \(e=(e_1,\dots, e_n)\) une base d’un espace \(E\) de dimension \(n\). Pour une famille \((x_1,\dots, x_n)\) de \(n\) vecteurs de \(E\), on note \(x_{ij}\) les composantes des vecteurs \(x_j\) dans la base \(e\) : \[\forall j \in [\kern-0.127em[ 1, n ]\kern-0.127em], \quad x_j = \displaystyle{\sum_{i=1}^{n}} x_{ij} e_i.\]
  1. L’application \[\mathop{\rm det}_{e} : \left\{ \begin{array}{ccl} E^n & \longrightarrow & \mathbb{K} \newline (x_1,\dots, x_n) & \longmapsto & \displaystyle{\sum_{\sigma \in \mathfrak{S}\left(n\right)}^{ }}\varepsilon(\sigma) x_{\sigma(1),1} \dots x_{\sigma(n), n} \end{array} \right.\] est une forme \(n\)-linéaire alternée appelée déterminant dans la base \(e\).

  2. Toute forme \(n\)-linéaire alternée sur \(E\) est proportionnelle au déterminant et l’espace \(\mathcal{A}^n(E)\) est une droite vectorielle : \[\mathcal{A}^n(E) = \mathop{\mathrm{Vect}}(\mathop{\rm det}_e), \quad \dim \mathcal{A}^n(E) = 1.\]

  3. \(\mathop{\rm det}_e(e_1,\dots, e_n) = 1_{\mathbb{K} }\).

Soit \(\varphi\in \mathcal{A}^n(E)\) une forme \(n\)-linéaire alternée et \((x_1,\dots, x_n) \in E^n\) \(n\) vecteurs que l’on décompose dans la base \(e\). Calculons en utilisant la \(n\)-linéarité de \(\varphi\), \[\begin{aligned} \varphi(x_1,\dots, x_n) &= \varphi(\displaystyle{\sum_{i_1=1}^{n}} x_{i_1,1}e_{i_1}, \dots, \displaystyle{\sum_{i_n=1}^{n}} x_{i_n,n} e_{i_n}) \\ &= \displaystyle{\sum_{i_1=1}^{n}} \dots \displaystyle{\sum_{i_n=1}^{n}} x_{i_1,1}x_{i_2,2}\dots x_{i_n,n} \varphi(e_{i_1},\dots, e_{i_n}). \end{aligned}\] Puisque \(\varphi\) est alternée, lorsque \(i_p=i_q\), \(\varphi(e_{i_1},\dots, e_{i_p}, \dots, e_{i_q},\dots, e_{i_n}) = 0_{\mathbb{K} }\). Par conséquent, ne restent dans la somme que les termes correspondant aux \(n\)-uplets \((i_1,\dots, i_n)\) où les \(i_k\) sont tous distincts. L’application \(\sigma : \left\{ \begin{array}{ccl} [\kern-0.127em[ 1, n ]\kern-0.127em] & \longrightarrow & [\kern-0.127em[ 1, n ]\kern-0.127em] \newline k & \longmapsto & i_k \end{array} \right.\) est donc une permutation de \([\kern-0.127em[ 1, n ]\kern-0.127em]\). Nous pouvons alors écrire \[\varphi(x_1,\dots, x_n) = \displaystyle{\sum_{\sigma \in \mathfrak{S}\left(n\right)}^{ }} x_{\sigma(1),1} \dots x_{\sigma(n),n}\varphi(e_{\sigma(1)}, \dots e_{\sigma(n)}).\] Mais puisque \(\varphi\) est alternée, \(\varphi(e_{\sigma(1)},\dots, e_{\sigma(n)}) = \varepsilon(\sigma)\varphi(e_1,\dots, e_n)\). En notant \(\lambda = \varphi(e_1,\dots, e_n)\), on obtient finalement que \[\varphi(x_1,\dots, x_n) = \lambda \displaystyle{\sum_{\sigma \in \mathfrak{S}\left(n\right)}^{ }} \varepsilon(\sigma)x_{\sigma(1),1} \dots x_{\sigma(n), n}.\] Nous avons donc montré qu’il existait une constante \(\lambda \in \mathbb{K}\) telle que \(\varphi= \lambda \mathop{\rm det}_{e}\). La vérification que \(\mathop{\rm det}_e\) est bien une forme \(n\)-linéaire alternée est technique et moins intéressante, nous ne la ferons pas. Vérifions enfin que \(\mathop{\rm det}_e(e_1,\dots, e_n)=1\). Puisque le vecteur \(e_j\) se décompose dans la base \(e\) avec les coordonnées \(x_{ij} = \delta_{ij}\), \[\mathop{\rm det}_e(e_1,\dots, e_n) = \displaystyle{\sum_{\sigma \in \mathfrak{S}\left(n\right)}^{ }} \varepsilon(\sigma) \delta_{\sigma(1),1}\dots \delta_{\sigma(n),n}.\] Mais si \(\sigma \neq \mathop{\mathrm{id}}\nolimits\), il existe \(i \in [\kern-0.127em[ 1, n ]\kern-0.127em]\) tel que \(\sigma(i) \neq i\) et alors \(\delta_{\sigma(i),i} = 0\) et le terme correspondant de la somme est nul. Il ne reste donc que le terme correspondant à \(\sigma=\mathop{\mathrm{id}}\nolimits\) qui vaut \(1\).
Considérons un espace vectoriel de dimension \(3\) et une base \(e=(e_1,e_2,e_3)\). Trois vecteurs \((x_1,x_2,x_3)\) se décomposent dans cette base : \[\begin{cases} x_1 &= x_{11}e_1 + x_{21}e_2 + x_{31} e_3 \\ x_2 &= x_{12}e_1 + x_{22}e_2 + x_{32} e_3 \\ x_3 &= x_{13}e_1 + x_{23} e_2 + x_{33} e_3 \end{cases}.\] Dans \(\mathfrak{S}\left(3\right)\), il y a trois permutations paires : \[\mathop{\mathrm{id}}\nolimits=\bigl(\begin{smallmatrix}1 & 2 & 3 \\ 1 & 2 & 3 \end{smallmatrix}\bigr), \quad \sigma=\bigl(\begin{smallmatrix}1&2&3 \\ 2&3&1 \end{smallmatrix}\bigr),\quad, \sigma^2=\bigl(\begin{smallmatrix}1&2&3 \\ 3&1&2 \end{smallmatrix}\bigr)\] ainsi que trois permutations impaires : \[\tau_{12}=\bigl(\begin{smallmatrix}1&2&3 \\ 2&1&3 \end{smallmatrix}\bigr),\quad \tau_{13}=\bigl(\begin{smallmatrix}1&2&3 \\ 3&2&1 \end{smallmatrix}\bigr),\quad \tau_{23}=\bigl(\begin{smallmatrix}1&2&3 \\ 1&3&2 \end{smallmatrix}\bigr).\] Le déterminant des trois vecteurs dans la base \(e\) s’écrit donc : \[\mathop{\rm det}_e(x_1,x_2,x_3) = x_{11}x_{22}x_{33} + x_{21}x_{32}x_{13}+x_{31}x_{12}x_{23} - x_{21}x_{12}x_{33}-x_{31}x_{32}x_{13} - x_{11}x_{32}x_{23}\] Si l’on considère la matrice des trois vecteurs dans la base \(e\), \(\begin{pmatrix} x_{11} & x_{12} & x_{13} \\ x_{21} & x_{22} & x_{23} \\ x_{31} & x_{32} & x_{33} \end{pmatrix}\), on dispose d’un moyen mnémotechnique pour calculer le déterminant des trois vecteurs, la Règle de Sarrus. Il suffit de recopier en bas de la matrice ses deux premières lignes et de tracer les trois diagonales descendantes, de prendre le produit des coefficients sur chacune des diagonales affectés du signe \(+\) et de tracer les trois diagonales montantes en prenant le produit des coefficients sur chaque diagonale affecté du signe \(-\) :

\[\psmatrix[colsep=0.5cm,rowsep=0.5cm] x_{11} & x_{12} & x_{13} \\ x_{21} & x_{22} & x_{23} \\ x_{31} & x_{32} & x_{33} \\ x_{11} & x_{12} & x_{13} \newline x_{21} & x_{22} & x_{23} \ncline[linecolor=blue]{->}{1,1}{2,2} \ncline[linecolor=blue]{->}{2,2}{3,3} \ncline[linecolor=blue]{->}{2,1}{3,2} \ncline[linecolor=blue]{->}{3,2}{4,3} \ncline[linecolor=blue]{->}{3,1}{4,2} \ncline[linecolor=blue]{->}{4,2}{5,3} \ncline[linestyle=dashed,linecolor=red]{->}{5,1}{4,2} \ncline[linestyle=dashed,linecolor=red]{->}{4,2}{3,3} \ncline[linestyle=dashed,linecolor=red]{->}{4,1}{3,2} \ncline[linestyle=dashed,linecolor=red]{->}{3,2}{2,3} \ncline[linestyle=dashed,linecolor=red]{->}{3,1}{2,2} \ncline[linestyle=dashed,linecolor=red]{->}{2,2}{1,3} \endpsmatrix.\]

(Formule de changement de base).
Soient \(e\) et \(e'\) deux bases de l’espace \(E\) et \((x_1,\dots, x_n) \in E^n\). On a la relation suivante entre le déterminant des vecteurs dans les deux bases : \[\mathop{\rm det}_{e'}(x_1,\dots, x_n) = \mathop{\rm det}_{e'}(e_1,\dots,e_n) \times \mathop{\rm det}_{e}(x_1,\dots, x_n).\]
La preuve est typique et utilise le théorème de structure de \(\mathcal{A}^n(E)\). Puisque \(\mathop{\rm det}_{e'} \in \mathcal{A}^n(E)\), il existe une constante \(\lambda \in \mathbb{K}\) telle que \(\mathop{\rm det}_{e'} = \lambda \mathop{\rm det}_e\). En particulier, \[\mathop{\rm det}_{e'}(e_1,\dots, e_n) = \lambda \mathop{\rm det}_e(e_1,\dots, e_n) = \lambda.\] Alors, \[\mathop{\rm det}_{e'}(x_1,\dots,x_n) = \lambda \mathop{\rm det}_{e}(x_1,\dots, x_n) = \mathop{\rm det}_{e'}(e_1,\dots, e_n) \mathop{\rm det}_{e}(x_1,\dots,x_n).\]
(Le déterminant détecte exactement les familles liées).
Une famille \((x_1,\dots, x_n)\) est liée si et seulement si \(\mathop{\rm det}_e(x_1,\dots, x_n) = 0_{\mathbb{K} }\).
  • Nous avons déjà vérifié que si la famille est liée, son déterminant est nul.

  • Supposons donc que \((x_1,\dots, x_n)\) est une famille de déterminant nul. Par l’absurde, si elle était libre, elle définirait une base \(e'\) de \(E\), mais d’après la formule de changement de base, on aurait \[1_{\mathbb{K} } = \mathop{\rm det}_{e'}(x_1,\dots,x_n) = \mathop{\rm det}_{e'}(e_1,\dots,e_n)\times \mathop{\rm det}_e(x_1,\dots,x_n) = 0_{\mathbb{K} }\] ce qui est impossible.

Déterminant d’un endomorphisme

Dans ce paragraphe, \(E\) désigne un \(\mathbb{K}\)-espace vectoriel de dimension finie \(n\) et \(u \in \mathfrak{L}\left(E\right)\) un endomorphisme. Nous allons attacher à \(u\) un scalaire \(\mathop{\rm det}(u)\) appelé déterminant de l’endomorphisme.

(Déterminant d’un endomorphisme).
Si \(e=(e_1,\dots, e_n)\) est une base de \(E\), le scalaire \[\mathop{\rm det}(u) = \mathop{\rm det}_e(u(e_1),\dots, u(e_n))\] est indépendant de la base \(e\), on l’appelle déterminant de l’endomorphisme \(u\).
Définissons l’application \[\varphi: \left\{ \begin{array}{ccl} E^n & \longrightarrow & \mathbb{K} \newline (x_1,\dots, x_n) & \longmapsto & \mathop{\rm det}_{e}(u(x_1),\dots, u(x_n)) \end{array} \right. .\] Il est clair que \(\varphi\) est une forme \(n\)-linéaire alternée. Puisque \(\mathcal{A}^n(E)\) est une droite vectorielle, il existe une constante \(\lambda \in \mathbb{K}\) telle que \(\varphi= \lambda \mathop{\rm det}_e\), c’est-à-dire \(\forall (x_1,\dots, x_n)\), \(\mathop{\rm det}_e(u(x_1),\dots, u(x_n)) = \lambda \mathop{\rm det}_e(x_1,\dots, x_n)\). En prenant \((x_1,\dots, x_n) = (e_1,\dots, e_n)\), on trouve que \[\lambda = \mathop{\rm det}_e(u(e_1),\dots, u(e_n)).\] Considérons maintenant une autre base \(e'=(e_1',\dots, e_n')\) de \(E\). En prenant \((x_1,\dots, x_n) = (u(e_1'),\dots, u(e_n'))\), on a : \[\mathop{\rm det}_e(u(e_1'),\dots, u(e_n')) = \mathop{\rm det}_e(u(e_1),\dots,u(e_n)) \mathop{\rm det}_e(e_1',\dots, e_n')\] En utilisant la formule du changement de base pour le déterminant, on a également : \[\mathop{\rm det}_e(u(e_1'),\dots, u(e_n')) = \mathop{\rm det}_e(e_1',\dots,e_n') \mathop{\rm det}_{e'}(u(e_1'),\dots, u(e_n')).\] Puisque \((e_1',\dots, e_n')\) est libre, \(\mathop{\rm det}_e(e_1',\dots, e_n') \neq 0_{\mathbb{K} }\) et en simplifiant, on trouve finalement que \[\mathop{\rm det}_e(u(e_1'),\dots, u(e_n')) = \mathop{\rm det}_e(u(e_1),\dots, u(e_n))\] ce qui montre que l’expression \(\mathop{\rm det}(u)\) ne dépend pas de la base \(e\).
\(\mathop{\rm det}(\mathop{\mathrm{id}}\nolimits_E) = \mathop{\rm det}_e(e_1,\dots, e_n) = 1_{\mathbb{K} }\) et \(\mathop{\rm det}(0_{\mathfrak{L}_{}(E)}) = 0_{\mathbb{K} }\). Si \(\lambda \in \mathbb{K}\), \[\mathop{\rm det}(\lambda u) = \lambda^n \mathop{\rm det}(u).\] En effet, en utilisant la multilinéarité du déterminant de \(n\) vecteurs, \(\mathop{\rm det}(\lambda u) = \mathop{\rm det}_e(\lambda u(e_1),\dots, \lambda u(e_n)) = \lambda^n \mathop{\rm det}_e(u(e_1),\dots, u(e_n))\).
(Le déterminant est multiplicatif).
Si \(u\) et \(v\) sont deux endomorphismes de \(E\), \[\boxed{\mathop{\rm det}(u\circ v) = \mathop{\rm det}(u) \times \mathop{\rm det}(v) }.\]
Soit \(e=(e_1,\dots, e_n)\) une base de \(E\), définissons l’application \[\varphi: \left\{ \begin{array}{ccl} E^n & \longrightarrow & \mathbb{K} \newline (x_1,\dots, x_n) & \longmapsto & \mathop{\rm det}_e(u(x_1),\dots, u(x_n)) \end{array} \right. .\] On vérifie aisément que \(\varphi\) est une forme \(n\)-linéaire alternée et puisque \(\mathcal{A}^n(E)\) est une droite vectorielle, il existe une constante \(\lambda \in \mathbb{K}\) telle que \(\varphi= \lambda \mathop{\rm det}_e\). En prenant \((x_1,\dots, x_n) = (e_1,\dots, e_n)\), on tire que \(\lambda = \mathop{\rm det}(u)\). Par conséquent, \(\forall (x_1,\dots, x_n) \in E^n\), \[\mathop{\rm det}_e(u(x_1),\dots, u(x_n)) = \mathop{\rm det}(u) \mathop{\rm det}_e(x_1,\dots, x_n).\] En prenant ensuite \((x_1,\dots, x_n) = (v(e_1),\dots, v(e_n))\), on en déduit \[\mathop{\rm det}_e(u\circ v(e_1),\dots, u\circ v(e_n)) = \mathop{\rm det}(u) \mathop{\rm det}_e(v(e_1),\dots, v(e_n))\] c’est-à-dire \(\mathop{\rm det}(u\circ v) = \mathop{\rm det}(u) \times \mathop{\rm det}(v)\).
(Un endomorphisme est inversible si et seulement si son déterminant est non nul).
  1. \(\boxed{ u \in \mathrm{GL}_{ }(E) \Longleftrightarrow \mathop{\rm det}(u) \neq 0_{\mathbb{K} } }\).

  2. Si \(u \in \mathrm{GL}_{ }(E)\), \(\mathop{\rm det}(u^{-1}) = \dfrac{1}{\mathop{\rm det}(u)}\).

Si \(u\) est inversible, \(u \circ u^{-1} = \mathop{\mathrm{id}}\nolimits_E\) d’où \(\mathop{\rm det}(u) \times \mathop{\rm det}(u^{-1}) = 1_{\mathbb{K} }\) ce qui montre que \(\mathop{\rm det}(u) \neq 0_{\mathbb{K} }\) et \(\mathop{\rm det}(u^{-1}) = \dfrac{1}{\mathop{\rm det}(u)}\). Réciproquement, si \(\mathop{\rm det}(u) = \mathop{\rm det}_e(u(e_1),\dots, u(e_n)) \neq 0_{\mathbb{K} }\), la famille \((u(e_1),\dots, u(e_n))\) est libre et on sait qu’alors \(u\) est inversible.
L’application \[\mathop{\rm det}: \left\{ \begin{array}{ccl} ( \mathrm{GL}_{ }(E) , \circ) & \longrightarrow & (\mathbb{K} [\star], \times) \newline u & \longmapsto & \mathop{\rm det}(u) \end{array} \right.\] est un morphisme de groupes. Par contre, le déterminant n’est pas linéaire et en général, \(\mathop{\rm det}(u+v) \neq \mathop{\rm det}(u) + \mathop{\rm det}(v)\).

Déterminant d’une matrice carrée

(Déterminant d’une matrice carrée).
Soit \(A = \begin{pmatrix} a_{1,1} & \dots & a_{1,n} \\ \vdots & & \vdots \\ a_{n,1} & \dots & a_{n,n} \end{pmatrix} \in \mathfrak{M}_{n}(\mathbb{\mathbb{K} })\) une matrice carrée. On définit son déterminant par la formule : \[\mathop{\rm det}(A) = \displaystyle{\sum_{\sigma \in \mathfrak{S}\left(n\right)}^{ }} \varepsilon(\sigma) a_{\sigma(1),1} \dots a_{\sigma(n), n}\] On notera entre deux barres le déterminant d’une matrice : \[\mathop{\rm det}(A) = \begin{vmatrix} a_{1,1} & \dots & a_{1,n} \\ \vdots & & \vdots \newline a_{n,1} & \dots & a_{n,n} \end{vmatrix} .\]
(2).
Si \(E = \mathbb{K} [n]\) et \(e\) désigne la base canonique de \(\mathbb{K} [n]\), il existe un unique endomorphisme \(u \in \mathfrak{L}\left(E\right)\) ayant pour matrice \(A\) dans la base canonique : \(A = \mathop{\mathrm{Mat}}_{e}(u)\) et alors \[\mathop{\rm det}(A) = \mathop{\rm det}(u)\] En effet, la \(j\)-ème colonne de \(A\) correspond aux coordonnées du vecteur \(u(e_j)\) dans la base \(E\) : \[u(e_j) = \displaystyle{\sum_{i=1}^{n}} a_{i,j} e_i\] et alors \[\mathop{\rm det}(u) = \mathop{\rm det}_e(u(e_1),\dots, u(e_n))\] et il suffit d’utiliser la formule du déterminant de \(n\) vecteurs. On en déduit les propriétés suivantes en utilisant les résultats sur le déterminant d’un endomorphisme :
  1. \(A, B \in \mathfrak{M}_{n}(\mathbb{\mathbb{K} })\), \(\boxed{\mathop{\rm det}(AB) = \mathop{\rm det}(A)\mathop{\rm det}(B)}\).

  2. \(A \in \mathrm{GL}_{n}(\mathbb{K} ) \Longleftrightarrow \mathop{\rm det}(A) \neq 0_{\mathbb{K} }\) et si \(A\) est inversible, \(\mathop{\rm det}(A^{-1}) = \dfrac{1}{\mathop{\rm det}(A)}\).

  3. \(\mathop{\rm det}(\lambda A) = \lambda^n \mathop{\rm det}(A)\).

  4. Si \(A\) et \(B\) sont deux matrices semblables, alors elles ont même déterminant. En effet, s’il existe \(P \in \mathrm{GL}_{n}(\mathbb{K} )\) telle que \(A = PBP^{-1}\), \(\mathop{\rm det}(A) = \mathop{\rm det}(P) \mathop{\rm det}(B) \mathop{\rm det}(P^{-1}) = \mathop{\rm det}(P) \dfrac{1}{\mathop{\rm det}(P)} \mathop{\rm det}(B) = \mathop{\rm det}(B)\).

Le résultat suivant est à la base du calcul pratique des déterminants :

(Opérations élémentaires sur les colonnes).
  1. On ne modifie pas le déterminant d’une matrice si l’on retranche à une de ses colonnes \(C_j\) une combinaison linéaire des autres colonnes : \[\mathop{\rm det}(C_1,\dots,C_{j-1}, C_j - \displaystyle{\sum_{k\neq j}^{ }} \lambda_k C_k, C_{j+1},\dots, C_n) = \mathop{\rm det}(C_1,\dots, C_j, \dots, C_n).\] Lors du calcul d’un déterminant, pour expliquer les calculs, on code cette opération élémentaire sur les colonnes de façon algorithmique : \(\leftarrow C_j{C_j - \displaystyle{\sum_{k\neq j}^{ }} \lambda_k C_k}\).

  2. Si l’on inverse deux colonnes d’une matrice, on change son déterminant en son opposé : \[\mathop{\rm det}(C_1,\dots, C_k,\dots, C_l,\dots, C_n) = - \mathop{\rm det}(C_1,\dots, C_l, \dots, C_k, \dots, C_n).\] On désigne cette opération élémentaire par : \(\leftrightarrow C_k{C_l}\).

 
  1. Il suffit d’utiliser la multilinéarité du déterminant : \(\mathop{\rm det}(C_1,\dots, C_j - \sum_{k\neq j} \lambda_k C_k, \dots, C_n) =\mathop{\rm det}(C_1,\dots, C_j, \dots, C_n) - \sum_{k\neq j} \lambda_k \mathop{\rm det}(C_1,\dots, C_k, \dots, C_k,\dots, C_n)\). On utilise ensuite que le déterminant est une forme \(n\)-linéaire alternée : lorsque deux colonnes sont égales dans un déterminant, il est nul.

  2. Le déterminant est une forme \(n\)-linéaire antisymétrique et le résultat est immédiat.

(Formules de Cramer).
Soit \(A \in \mathrm{GL}_{n}(\mathbb{K} )\) une matrice inversible. Notons \(C_1,\dots, C_n\) les vecteurs colonnes de \(A\). Le système de Cramer \(AX = B\) possède une unique solution \(X = \begin{pmatrix} x_1 \\ \vdots \newline x_n\end{pmatrix}\) et on sait exprimer \(x_i\) à l’aide de déterminants : \[\forall i \in [\kern-0.127em[ 1, n ]\kern-0.127em], \quad x_i = \dfrac{\mathop{\rm det}(A_i)}{\mathop{\rm det}(A)}\]\(A_i\) est la matrice obtenue en remplaçant la \(i\)-ème colonne de \(A\) par le second membre \(B\).
Comme \(AX = B\), en notant \(C_1,\dots, C_n\) les vecteurs colonnes de \(A\), \[x_1C_1 + \dots + x_i C_i + \dots + x_n C_n = B.\] Calculons alors le déterminant de la matrice \(A_i\) : \[\mathop{\rm det}(A_i) = \mathop{\rm det}(C_1,\dots, \displaystyle{\sum_{k=1}^{n}} x_k C_k, \dots, C_n).\] Par multilinéarité, \[\mathop{\rm det}(A_i) = \displaystyle{\sum_{k=1}^{n}} x_i \mathop{\rm det}(C_1,\dots, C_k, \dots, C_n).\] mais tous ces déterminants sont nuls (deux colonnes sont égales), sauf celui où \(C_k = C_i\) et donc \(\mathop{\rm det}(A_i) = x_i\mathop{\rm det}(C_1,\dots, C_i, \dots, C_n) = \mathop{\rm det}(A)\).
Cette formule est utile pour résoudre rapidement un système de deux équations à deux inconnues : \[\begin{cases} ax + by &= \alpha \\ cx + dy &= \beta \end{cases}\] qui possède une unique solution lorsque \(ad-bc \neq 0\) : \[\begin{cases} x &= \dfrac{\begin{vmatrix} \alpha & b \\ \beta & d\end{vmatrix}}{ad-bc} \\[0.5cm] y &= \dfrac{\begin{vmatrix} a & \alpha \newline c & \beta \end{vmatrix}}{ad-bc} \end{cases}.\] Dans le cas général, pour \(n \geqslant 3\) cette formule n’est pas utilisée : elle impose de calculer \((n+1)\) déterminants de taille \(n \times n\) ce qui est trop coûteux. La méthode du pivot de Gauss est préférable.
(Déterminant d’une matrice triangulaire).
Si \(A = \begin{pmatrix} a_{1,1} & \dots & a_{1,n} \\ & \ddots & \vdots \newline \mathbb{O}& & a_{n,n} \end{pmatrix}\) est une matrice triangulaire supérieure, son déterminant est le produit de ses coefficients diagonaux : \[\mathop{\rm det}(A) = a_{1,1} \times \dots \times a_{n,n}\]
Utilisons la formule du déterminant : \[\mathop{\rm det}(A) = \displaystyle{\sum_{\sigma \in \mathfrak{S}\left(n\right)}^{ }} \varepsilon(\sigma)a_{\sigma(1),1}\dots a_{\sigma(n),n}.\] Pour que \(a_{\sigma(1),1}\dots a_{\sigma(n),n}\) soit non nul, il faut que \(\sigma(1) \leqslant 1\), \(\sigma(2) \leqslant 2\), …, \(\sigma(n) \leqslant n\) et donc \(\sigma(1) = 1\), \(\sigma(2) = 2\), …, \(\sigma(n) = n\), c’est-à-dire \(\sigma = \mathop{\mathrm{id}}\nolimits_E\). Il n’y a qu’un terme non nul dans la somme qui vaut \(a_{1,1}\dots a_{n,n}\).
(Déterminant d’une transposée).
Une matrice et sa transposée ont même déterminant : \[\mathop{\rm det}({A}^{\mathrm{T}}) = \mathop{\rm det}(A)\]
La formule du déterminant donne \[\mathop{\rm det}({A}^{\mathrm{T}}) = \displaystyle{\sum_{\sigma \in \mathfrak{S}\left(n\right)}^{ }} \varepsilon(\sigma) a_{1,\sigma(1)} \dots a_{n,\sigma(n)}.\] Puisque l’application \[T : \left\{ \begin{array}{ccl} \mathfrak{S}\left(n\right) & \longrightarrow & \mathfrak{S}\left(n\right) \newline \sigma & \longmapsto & \sigma^{-1} \end{array} \right. .\] est bijective, on peut effectuer dans la somme le changement d’indices \(\sigma' = \sigma^{-1}\). Il existe \(k \in [\kern-0.127em[ 1, n ]\kern-0.127em]\) tel que \(1 = \sigma'(k)\), c’est-à-dire \(k = \sigma(1)\) et alors \(a_{1,\sigma(1)} = a_{\sigma'(k), k}\). Quitte à réordonner les termes du produit, \[a_{1,\sigma(1)}\dots a_{n,\sigma(n)} = a_{\sigma'(1),1}\dots a_{\sigma'(n),n}\] Remarquons ensuite que \(\varepsilon(\sigma') = \varepsilon(\sigma)\) car \(1=\varepsilon(\sigma \circ \sigma^{-1}) = \varepsilon(\sigma)\varepsilon(\sigma^{-1})\). On peut donc écrire \[\mathop{\rm det}({A}^{\mathrm{T}}) = \displaystyle{\sum_{\sigma' \in \mathfrak{S}\left(n\right)}^{ }} a_{\sigma'(1),1}\dots a_{\sigma'(n),n} = \mathop{\rm det}(A).\]
Les opérations élémentaires du théorème sont donc également valables sur les lignes d’une matrice puisqu’en transposant une matrice, on échange lignes et colonnes.
(Mineurs, cofacteurs).
Soit un déterminant d’une matrice \(n\times n\). \[\Delta= \begin{vmatrix} a_{1,1} & \dots & a_{1,n} \\ \vdots & & \vdots \newline a_{n,1} & \dots & a_{n,n} \end{vmatrix}.\]
  1. On note \(m_{i,j}\) le déterminant \((n-1)\times (n-1)\) obtenu en barrant la \(i\)-ème ligne et la \(j\)-ème colonne de \(\Delta\). Le scalaire \(m_{i,j}\) s’appelle le mineur relatif à \(a_{ij}\)

  2. On appelle cofacteur de \(\Delta\) relatif à \(a_{i,j}\), le scalaire \(\Delta_{ij}=(-1)^{i+j}m_{i,j}.\)

\[\Delta = \begin{vmatrix} a_{1,1} & \dots & a_{1,n-1} & 0 \\ \vdots & & \vdots & \vdots \\ a_{n-1,1} & \dots & a_{n-1,n-1} & 0 \\ a_{n,1} & \dots & a_{n,n-1} & 1 \end{vmatrix} = \begin{vmatrix} a_{1,1} & \dots & a_{1,n-1} \\ \vdots & & \vdots \newline a_{n-1,1} & \dots & a_{n-1,n-1} \end{vmatrix} = m_{n,n}.\] Le premier déterminant est de taille \(n\times n\) et le deuxième est le mineur \(m_{n,n}\) de taille \((n-1) \times (n-1)\).
Avec la formule du déterminant, \[\Delta = \displaystyle{\sum_{\sigma \in \mathfrak{S}\left(n\right)}^{ }} \varepsilon(\sigma) a_{\sigma(1),1} \dots a_{\sigma(n-1),n-1} a_{\sigma(n),n}.\] Mais comme la dernière colonne est remplie de zéros sauf à la dernière ligne, \(a_{\sigma(n),n} \neq 0 \Longleftrightarrow \sigma(n) = n\). Il ne reste dans la somme que les termes correspondant aux permutations telles que \(\sigma(n) = n\). La restriction \(\sigma'\) d’une telle permutation à \([\kern-0.127em[ 1, n-1 ]\kern-0.127em]\) définit une permutation de \(\mathfrak{S}\left(n-1\right)\) et on peut écrire \[\Delta = \displaystyle{\sum_{\sigma' \in \mathfrak{S}\left(n-1\right)}^{ }} \varepsilon(\sigma) a_{\sigma'(1),1} \dots a_{\sigma'(n-1),n-1}.\] Il suffit alors de remarquer que \(\sigma\) et \(\sigma'\) ont le même nombre d’inversions, donc que \(\varepsilon(\sigma) = \varepsilon(\sigma')\).
\[\begin{vmatrix} a_{1,1} & \dots & a_{1,j-1} & 0 & a_{1,j+1} & \dots & a_{1,n} \\ \vdots & & \vdots & \vdots& \vdots & \ & \vdots \\ & & & 0 & & & \\ a_{i,1} & \dots & a_{i, j-1} & 1 & a_{i,j+1} & \dots & a_{i,n} \\ & & & 0 & & & \\ \vdots& & \vdots & \vdots & \vdots & & \vdots \newline a_{n,1} & \dots & a_{n,j-1} & 0 & a_{n,j+1} & \dots & a_{n,n} \end{vmatrix} = \Delta_{ij}.\]
L’idée consiste à effectuer des échanges de deux colonnes successives pour placer la colonne \(C_j\) en dernière position sans modifier l’ordre des autres colonnes : \(\leftrightarrow C_j{C_{j+1}}, \dots, \leftrightarrow C_{n-1}{C_n}\). Chaque échange de colonnes modifie le signe du déterminant (la forme \(n\)-linéaire est antisymétrique) et il y a \((n-j)\) échanges. On obtient donc que notre déterminant vaut : \[(-1)^{n-j}\begin{vmatrix} a_{1,1} & \dots & a_{1,j-1} &a_{1,j+1}& \dots & a_{1n} & 0 \\ \vdots & & & & & \vdots &\vdots \\ a_{i,1} &\dots &a_{i,j-1} &a_{i,j+1} & & \vdots &1 \\ \vdots & & & & & \vdots &\vdots \\ a_{n,1} & \dots &a_{n,j-1} &a_{n,j+1}&\dots & a_{n,n} & 0 \end{vmatrix}.\] Une fois la colonne en dernière position, on amène la ligne \(i\) en dernière position en effectuant \((n-i)\) échanges \(\leftrightarrow L_i{L_{i+1}} \dots \leftrightarrow L_{n-1}{L_n}\). Au total, on a fait \((2n-i-j)\) échanges et comme \((-1)^{2n-i-j}=(-1)^{i+j}\), notre déterminant vaut : \[(-1)^{i+j}\begin{vmatrix} a_{1,1} & \dots & a_{1,j-1} & a_{1,j+1} & \dots & a_{1,n} & 0 \\ \vdots & & \vdots & \vdots & & \vdots & \vdots \\ a_{i-1,1} & \dots & a_{i-1,j-1}& a_{i-1,j+1}& \dots & a_{i-1,n}& 0 \\ a_{i+1,1}& \dots & a_{i+1,j-1} & a_{i+1,j+1}& \dots & a_{i+1,n}& 0 \\ \vdots & & \vdots & \vdots & & \vdots & \vdots \newline a_{n,1} & \dots & a_{n,j-1}& a_{n,j+1}& \dots & a_{n,n} & 1 \end{vmatrix}.\] En utilisant le lemme [thm:0522103603], notre déterminant vaut donc  : \(\Delta = (-1)^{i+j}m_{ij} = \Delta_{i,j}\).
(Développement d’un déterminant par rapport à une ligne-colonne).
Soit une matrice carrée \(A = ((a_{i,j}))_{i,j\in [\kern-0.127em[ 1, n ]\kern-0.127em]} \in \mathfrak{M}_{n}(\mathbb{\mathbb{K} })\), \[\boxed{\mathop{\rm det}(A) = \displaystyle{\sum_{i=1}^{n}} a_{i,j} \Delta_{i,j} = \displaystyle{\sum_{j=1}^{n}} a_{i,j} \Delta_{i,j}}.\]
Notons \(C_1,\dots, C_j, \dots, C_n\) les vecteurs colonnes de notre matrice. Décomposons le vecteur \(C_j\) sur la base canonique de \(\mathbb{K} [n]\) : \[C_j = \displaystyle{\sum_{i=1}^{n}} a_{i,j} K_i\]\(K_i = (0, \dots, \underbrace{1}_{i}, \dots, 0)\) est le \(i\)-ème vecteur de la base canonique de \(\mathbb{K} [n]\). Puisque le déterminant est une forme \(n\)-linéaire, en développant par rapport à la \(j\)-ème colonne, \[\mathop{\rm det}(A) = \mathop{\rm det}(C_1,\dots, \displaystyle{\sum_{i=1}^{n}} a_{i,j} K_j, \dots, C_n) = \displaystyle{\sum_{i=1}^{n}} a_{i,j} \Delta_{i,j}.\] Le déterminant \(\Delta_{i,j}\) est le déterminant calculé au lemme [thm:0601100623]. On a donc \[\mathop{\rm det}(A) = \displaystyle{\sum_{i=1}^{n}} a_{i,j} \Delta_{i,j}.\] Pour l’autre formule, il suffit d’échanger le rôle des lignes-colonnes, c’est-à-dire considérer la matrice \({A}^{\mathrm{T}}\) qui a même déterminant que \(A\).
Développons un déterminant \(3\times 3\) selon la deuxième colonne : \[\Delta=\begin{vmatrix} a & d & g \\ b&e&h\\c&f&i \end{vmatrix} = -d \begin{vmatrix}b&h\\c&i\end{vmatrix} + e\begin{vmatrix}a&g\\c&i\end{vmatrix} -f\begin{vmatrix}a&g\\b&h\end{vmatrix}.\] Développons ce même déterminant selon la troisième ligne : \[\Delta = c\begin{vmatrix}d&g\\e&h\end{vmatrix} -f \begin{vmatrix}a&g\\b&h\end{vmatrix} +i\begin{vmatrix}a&d\newlineb&e\end{vmatrix}.\]

On dispose d’une méthode typique pour calculer un déterminant \(n\times n\).

  1. À l’aide d’opérations élémentaires sur les lignes-colonnes, faire apparaître le maximum de zéros dans une colonne (ligne).

  2. Développer alors le déterminant selon cette colonne (ligne) et se ramener au calcul de déterminants de taille inférieure : \((n-1) \times (n-1)\).

Cette méthode ainsi que d’autres sont développées dans l’appendice sur les techniques d’algèbre, [AnnexeB], paragraphe [app:calcul_determinant], p. [app:calcul_determinant].

Calcul de \[V_n(x_1,x_2,\ldots,x_n) = \begin{vmatrix} 1 & x_1 & x_1^2 & \dots & x_1^{n-1} \\ 1 & x_2 & x_2^2 & \dots & x_2^{n-1} \\ \vdots & \vdots & \vdots & &\vdots \\ 1 & x_{n-1} & x_{n-1}^2 & \dots & x_{n-1}^{n-1} \\ 1 & x_n & x_n^2 & \dots & x_n^{n-1} \end{vmatrix}.\] (déterminant de Vandermonde)

Il suffit d’exécuter l’opération sur les colonnes \(C_{i} \longleftarrow C_{i} - (x_n \times C_{i-1})\) , en partant de \(i=n\) et en remontant jusqu’à \(i=2\).

\[V_n(x_1,x_2,\ldots,x_n) =\begin{vmatrix} 1 & x_1-x_n & x_1(x_1-x_n) & \dots & x_1^{n-2}(x_1-x_n)\\ 1 & x_2-x_n & x_2(x_2-x_n) & \dots & x_2^{n-2}(x_2-x_n)\\ \vdots & \vdots & \vdots & &\vdots \\ 1 & x_{n-1}-x_n & x_{n-1}(x_{n-1}-x_n) & \dots & x_{n-1}^{n-2}(x_{n-1}-x_n)\\ 1 & 0 & 0 & \dots & 0 \end{vmatrix}.\]

En développant selon la dernière ligne, il vient : \[V_n(x_1,x_2,\ldots,x_n) = \begin{vmatrix} x_1-x_n & x_1(x_3-x_n) & \dots & x_1^{n-2}(x_1-x_n)\\ x_2-x_n & x_2(x_2-x_n) & \dots & x_2^{n-2}(x_2-x_n)\\ \vdots & \vdots & &\vdots \\ x_{n-1}-x_n & x_{n-1}(x_{n-1}-x_n) & \dots & x_{n-1}^{n-2}(x_{n-1}-x_n)\\ \end{vmatrix}.\] Soit \[V_n(x_1,x_2,\ldots,x_n) = (x_1-x_n)(x_2-x_n)\dots(x_{n-1}-x_n) \begin{vmatrix} 1 & x_1 & x_1^2 & \dots & x_1^{n-2}\\ 1 & x_2 & x_2^2 & \dots & x_2^{n-2}\\ 1 & x_3 & x_3^2 & \dots & x_3^{n-2}\\ \vdots & \vdots & \vdots & &\vdots \\ 1 & x_{n-1} & x_{n-1}^2 & \dots & x_{n-1}^{n-2}\newline \end{vmatrix}.\]

Par récurrence immédiate, \[V_n(x_1,x_2,\ldots,x_n) = \prod_{1\leqslant i<j\leqslant n} (x_j-x_i).\]
(Condition d’alignement de trois points dans le plan).
On se place dans le plan rapporté à un repère \(\mathcal{R}\) et on considère trois points \(M_1 \underset{}{\left|\begin{matrix} x_1 \\ y_1 \end{matrix}\right.}\), \(M_2 \underset{}{\left|\begin{matrix} x_2 \\ y_2 \end{matrix}\right.}\), \(M_3 \underset{}{\left|\begin{matrix} x_3 \\ y_3 \end{matrix}\right.}\). Ces trois points sont alignés si et seulement si \[\boxed{ \begin{vmatrix} 1 & 1 & 1 \\ x_1 & x_2 & x_3 \newline y_1 & y_2 & y_3 \end{vmatrix} = 0 }\]
En utilisant les opérations élémentaires \(\leftarrow C_2{C_2-C_1}\) et \(\leftarrow C_3{C_3-C_1}\), \(\Delta = \begin{vmatrix} 1 & 1 & 1 \\ x_1 & x_2 & x_3 \\ y_1 & y_2 & y_3 \end{vmatrix} = \begin{vmatrix} 1 & 0 & 0 \\ x_1 & (x_2-x_1) & (x_3-x_1) \\ y_1 & (y_2-y_1) & (y_3-y_1) \end{vmatrix}\) et en développant par rapport à la première ligne, \(\Delta = \begin{vmatrix} (x_2-x_1) & (x_3-x_1) \newline (y_2-y_1) & (y_3-y_1) \end{vmatrix} = \mathop{\rm det}_e(\overrightarrow{M_1M_2}, \overrightarrow{M_1M_3})\). Les trois points sont alignés si et seulement si les vecteurs \(\overrightarrow{M_1M_2}\) et \(\overrightarrow{M_1M_3}\) sont colinéaires, c’est-à-dire \(\Delta = \mathop{\rm det}(\overrightarrow{M_1M_2}, \overrightarrow{M_1M_3})=0\),
(Comatrice).
Soit \(A \in \mathfrak{M}_{n}(\mathbb{\mathbb{K} })\) une matrice carrée. On définit sa comatrice comme étant la matrice des cofacteurs : \[\mathop{\mathrm{com}}(A) = (( \Delta_{i,j}))_{1\leqslant i,j \leqslant n} \in \mathfrak{M}_{n}(\mathbb{\mathbb{K} }) .\]

On dispose de la relation fondamentale entre une matrice et sa comatrice :

(Relation entre matrice et comatrice).
\[\boxed{ A \times {\mathop{\mathrm{com}}(A)}^{\mathrm{T}} = \mathop{\rm det}(A) . I_n }.\]
Calculons les coefficients de la matrice \(B = A \times {\mathop{\mathrm{com}}(A)}^{\mathrm{T}}\), \(C = ((c_{i,j}))\)\[c_{i,j} = \displaystyle{\sum_{k=1}^{n}} a_{i,k} \Delta_{j,k}.\]
  • Si \(i = j\), \(c_{i,i} = \displaystyle{\sum_{k=1}^{n}} a_{i,k} \Delta_{i,k} = \mathop{\rm det}(A)\), on reconnaît le développement de \(\mathop{\rm det}(A)\) selon la ligne \(i\).

  • Si \(i \neq j\), considérons la matrice \(\tild{A}\) obtenue en remplaçant la jème ligne de \(A\) par la ligne \(i\). En développant \(\mathop{\rm det}(\tild{A})\) selon la ligne \(L_j\), on trouve que \(\mathop{\rm det}(\tild{A}) = \displaystyle{\sum_{k=1}^{n}} a_{ik} \Delta_{j,k}=c_{i,j}\) et puisque deux lignes de \(\tild{A}\) sont identiques, \(\mathop{\rm det}(\tild{A}) = 0\).

Les coefficients diagonaux de \(C\) valent \(\mathop{\rm det}(A)\) et les autres sont nuls et donc \(C = \mathop{\rm det}(A) I_n\).
(Expression de l’inverse d’une matrice).
Si \(A \in \mathrm{GL}_{n}(\mathbb{K} )\) est une matrice inversible, on dispose d’une formule (théorique) qui donne son inverse : \[A^{-1} = \dfrac{1}{\mathop{\rm det}(A)} {\mathop{\mathrm{com}}(A)}^{\mathrm{T}}.\]
Puisque \(\mathop{\rm det}(A) \neq 0\), on peut diviser la relation fondamentale par \(\mathop{\rm det}(A)\) : \(A \times \bigl[ \dfrac{1}{\mathop{\rm det}(A)}{\mathop{\mathrm{com}}(A)}^{\mathrm{T}}\bigr] = I_n\) ce qui donne l’expression de \(A^{-1}\).
Cette formule est surtout d’un intérêt théorique pour \(n \geqslant 3\) car elle demande de calculer \(n^2\) déterminants \((n-1)\times (n-1)\) (les cofacteurs) et un déterminant \(n \times n\). Par contre, il est bon de connaître par coeur l’expression de l’inverse d’une matrice \(2 \times 2\). Si \(A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}\) est une matrice inversible, \(\mathop{\rm det}(A) = ad-bc \neq 0\) et \(\mathop{\mathrm{com}}(A) = \begin{pmatrix} d & -c \\ -b & a \end{pmatrix}\) d’où \[\boxed{A^{-1} = \dfrac{1}{ad-bc} \begin{pmatrix} d & -b \newline -c & a \end{pmatrix}}.\] On retient qu’il suffit d’inverser les éléments diagonaux, de changer le signe des autres coefficients et de diviser par \(\mathop{\rm det}(A)\).
Exprimons le déterminant de \(\mathop{\mathrm{com}}(A)\) en fonction du déterminant de \(A\). En prenant le déterminant de la relation fondamentale, on trouve que : \[\mathop{\rm det}(A) \mathop{\rm det}(\mathop{\mathrm{com}}(A)) = (\mathop{\rm det}A)^n\]
  • Si \(A\) est inversible, on peut diviser par \(\mathop{\rm det}(A)\) d’où \(\mathop{\rm det}(\mathop{\mathrm{com}}(A)) = \mathop{\rm det}(A)^{n-1}\).

  • Si \(A\) n’est pas inversible, notons \(u\) l’endomorphisme ayant \(A\) comme matrice dans la base canonique de \(\mathbb{K} [n]\) et \(v\) l’endomorphisme ayant \(\mathop{\mathrm{com}}(A)\) dans la base canonique. Puisque \(u\circ v = 0\), \(\mathop{\mathrm{Im}}v \subset \operatorname{Ker}u\). Si \(A \neq 0\), \(\dim \operatorname{Ker}u < n\) ce qui montre que \(v\) n’est pas inversible donc que \(\mathop{\rm det}(\mathop{\mathrm{com}}(A)) = 0\). Si \(A = 0\), tous ses cofacteurs sont nuls et alors \(\mathop{\mathrm{com}}(A) = 0\) et on a encore \(\mathop{\rm det}(\mathop{\mathrm{com}}(A)) = 0\).

Dans tous les cas, on a vérifié que \(\mathop{\rm det}(\mathop{\mathrm{com}}(A)) = (\mathop{\rm det}(A))^{n-1}\).
(Formule du déterminant par blocs).
Soit \(A \in \mathfrak{M}_{p}(\mathbb{\mathbb{K} })\) et \(C \in \mathfrak{M}_{n-p}(\mathbb{\mathbb{K} })\) deux matrices carrées et \(B \in \mathfrak{M}_{p,n-p}(\mathbb{\mathbb{K} })\) une matrice rectangulaire. On définit la matrice carrée par blocs : \[M = \begin{pmatrix} A & B \newline 0_{n-p,p} & C \end{pmatrix} \in \mathfrak{M}_{n}(\mathbb{\mathbb{K} }) .\] On sait calculer un déterminant avec un bloc de zéros en bas à gauche : \[\boxed{\mathop{\rm det}(M) = \mathop{\rm det}(A) \mathop{\rm det}(C) }\]
En utilisant la formule du déterminant, \[\mathop{\rm det}(M) = \displaystyle{\sum_{\sigma \in \mathfrak{S}\left(n\right)}^{ }} \varepsilon(\sigma) m_{\sigma(1),1}\dots m_{\sigma(p),p} m_{\sigma(p+1),p+1} \dots m_{\sigma(n),n}.\] Puisque dans les \(p\) premières colonnes, il y a des zéros dans les lignes d’indice supérieur à \(p+1\), pour que le produit \(m_{\sigma(1),1}\dots m_{\sigma(p),p}\) soit non nul, il est nécessaire que \(\sigma(1),\dots, \sigma(p) \in [\kern-0.127em[ 1, p ]\kern-0.127em]\) et alors \(m_{\sigma(1),1}\dots m_{\sigma(p),p} = a_{\sigma(1),1}\dots a_{\sigma(p),p}\). Ne reste donc dans cette somme que les termes correspondant à des permutations \(\sigma\) vérifiant \(\sigma([\kern-0.127em[ 1, p ]\kern-0.127em]) \subset [\kern-0.127em[ 1, p ]\kern-0.127em]\) et \(\sigma([\kern-0.127em[ p+1,n, ) ]\kern-0.127em]\subset [\kern-0.127em[ p+1, n ]\kern-0.127em]\). On peut décomposer ces permutations sous la forme \(\sigma = \sigma_1 \circ \sigma_2\)\(\sigma_1\) laisse invariant \([\kern-0.127em[ p+1, n ]\kern-0.127em]\) et \(\sigma_2\) laisse invariant \([\kern-0.127em[ 1, p ]\kern-0.127em]\). On a \(\varepsilon(\sigma) = \varepsilon(\sigma_1) \varepsilon(\sigma_2)\). De plus, la restriction de \(\sigma_1\) à \([\kern-0.127em[ 1, p ]\kern-0.127em]\) définit une permuatation de \(\mathfrak{S}\left([\kern-0.127em[ 1, p ]\kern-0.127em]\right)\), et la restriction de \(\sigma_2\) à \([\kern-0.127em[ p+1, n ]\kern-0.127em]\) définit une permutation de \(\mathfrak{S}\left([\kern-0.127em[ p+1, n ]\kern-0.127em]\right)\). Alors, \(\mathop{\rm det}(M)= \displaystyle{\sum_{(\sigma_1,\sigma_2)}^{ }} \varepsilon(\sigma_1)\varepsilon(\sigma_2) a_{\sigma_1(1),1}\dots a_{\sigma_1(p),p} c_{\sigma_2(p+1),p+1} \dots c_{\sigma_2(n),n}\) que l’on peut écrire \(\Bigl[\displaystyle{\sum_{\sigma_1 \in \mathfrak{S}\left([\kern-0.127em[ 1, p ]\kern-0.127em]\right)}^{ }} \varepsilon(\sigma_1)a_{\sigma_1(1),1} \dots a_{\sigma_1(p),p}\Bigr] \times \Bigl[ \displaystyle{\sum_{\sigma_2 \in \mathfrak{S}\left([\kern-0.127em[ p+1, n ]\kern-0.127em]\right)}^{ }} \varepsilon(\sigma_2) c_{\sigma_2(p+1),p+1} \dots c_{\sigma_2(n),n}\Bigr] =\mathop{\rm det}(A) \times \mathop{\rm det}(C)\). On peut prouver la formule de façon plus simple en effectuant le produit par blocs suivant : \[\begin{pmatrix} I_p & 0_{p,n-p} \\ 0_{n-p,p} & C \end{pmatrix} \begin{pmatrix} A & B \\ 0_{n-p,p} & I_{n-p} \end{pmatrix} = \begin{pmatrix} A & B \\ 0_{n-p,p} & C \end{pmatrix}.\] En développant successivement selon les colonnes \(C_1,\dots, C_p\), on calcule facilement \[\mathop{\rm det}\begin{pmatrix} I_p & 0_{p,n-p} \\ 0_{n-p,p} & C \end{pmatrix} = \mathop{\rm det}(C).\] et en développant successivement selon les lignes \(L_n\), … \(L_{p+1}\), on calcule facilement \[\mathop{\rm det}\begin{pmatrix} A & B \newline 0_{n-p,p} & I_{n-p} \end{pmatrix} = \mathop{\rm det}(A).\] Il suffit ensuite d’utiliser que le déterminant du produit de deux matrices carrées est le produit de leurs déterminants.
(1).
Attention à ne pas utiliser d’autres formules que celle du théorème. Par exemple, si \(A,B,C,D \in \mathfrak{M}_{n}(\mathbb{\mathbb{K} })\), en général \(\mathop{\rm det}\begin{pmatrix} A & B \newline C & D \end{pmatrix} \neq \mathop{\rm det}(A)\mathop{\rm det}(D) - \mathop{\rm det}(B)\mathop{\rm det}(C)\)
Soient \((a, b, c, d) \in \mathbb{K} [4]\), Formons la matrice \[M = \begin{pmatrix} a I_n & b I_n \\ cI_n & d I_n \end{pmatrix} \in \mathfrak{M}_{2n}(\mathbb{\mathbb{K} }) .\] Pour calculer son déterminant, essayons de faire apparaître un bloc de zéros en bas à gauche.
  1. Si \(d \neq 0\), en effectuant les opérations élémentaires suivantes sur les colonnes : \(\leftarrow C_1{C_1-\dfrac{c}{d} C_{n+1}}\), …, \(\leftarrow C_n{C_n - \dfrac{c}{d} C_{2n}}\), on obtient \[\mathop{\rm det}(M) = \mathop{\rm det}\begin{pmatrix} \bigl(a - \dfrac{c}{d}\bigr)I_n & b I_n \\ 0_{n,n} & d I_n \end{pmatrix} = \bigl(a-\dfrac{c}{d}\bigr)^n d^n = (ad-bc)^n.\]

  2. Si \(d = 0\), le déterminant à calculer s’écrit \[\mathop{\rm det}(M) = \mathop{\rm det}\begin{pmatrix} aI_n & b I_n \\ c I_n & 0_{n,n} \end{pmatrix}.\] Amenons le bloc de zéros à gauche en effectuant les opérations suivantes sur les colonnes : \(\leftrightarrow C_1{C_{n+1}}\), …, \(\leftrightarrow C_n{C_{2n}}\). On obtient \[\mathop{\rm det}(M) = (-1)^n \mathop{\rm det}\begin{pmatrix} bI_n & aI_n \\ 0_{n,n} & cI_n \end{pmatrix} = (-1)^n b^n c^n.\]

Dans les deux cas, on obtient que \(\mathop{\rm det}(M) = (ad-bc)^n\).

  1. 1  C’est-à-dire un sous-ensemble de \(\llbracket 1,n\rrbracket\) constitué de deux éléments

Bibliographie


    Barre utilisateur

    [ID: 79] [Date de publication: 5 janvier 2022 22:53] [Catégorie(s): Le cours de SUP ] [ Nombre commentaires: 0] [nombre d'éditeurs: 1 ] [Editeur(s): Emmanuel Vieillard-Baron ] [nombre d'auteurs: 3 ] [Auteur(s): Emmanuel Vieillard-Baron Alain Soyeur François Capaces ]




    Commentaires sur le cours

    Documents à télécharger

    Groupe symétrique, déterminant
    Télécharger Télécharger avec les commentaires

    L'article complet