Calcul matriciel

Image
Introduction au calcul matriciel.

Pour bien aborder ce chapitre

Tout est dit dans le théorème [theo_appli_lin_base2010-04-3017:25:48] page [theo_appli_lin_base2010-04-3017:25:48] du chapitre [chap_dim_ev]...si on se fixe une base \(e=\left(e_1,\dots,e_p\right)\) de \(E\) et une base \(f=\left(f_1,\dots,f_q\right)\) de \(F\) alors une application linéaire \(u\in L\left(E,F\right)\) est entièrement déterminée par les composantes des vecteurs \(u\left(e_i\right)\) dans la base \(f\). Ces \(pq\) scalaires définissent complètement \(u\). Il est tentant de les représenter dans un tableau. Si on note, pour tout \(j\in\llbracket 1,p\rrbracket\), \(u\left(e_j\right)=\sum_{i=1}^q a_{i,j} f_j\) alors on peut écrire :

Image

Ce tableau est la matrice de \(u\) dans les bases \(e\) de \(E\) et \(f\) de \(G\). Se posent alors des questions naturelles :

  1. Si on effectue cette manipulation pour deux applications linéaires \(u\) et \(v\), comment se calcule la matrice correspondante à \(\alpha u+\beta v\)? On verra qu’on peut définir une addition entre les matrices et une multiplication par un scalaire. Avec ces deux lois, l’ensemble des matrices (de même taille) possède une structure de \(\mathbb{K}\)-espace vectoriel.

  2. Si \(u\) et \(v\) sont deux endomorphismes de \(E\), quel est le lien entre la matrice de \(u\circ v\) et celles de \(u\) et \(v\)? Pour l’expliciter, on définira le produit entre les matrices.

  3. Peut-on calculer le rang d’une application linéaire facilement à partir de sa matrice dans des bases données? La réponse est oui et l’outil est le pivot de Gauss.

  4. Peut-on par un procédé calculatoire déterminer si un endomorphisme est inversible à partir de sa matrice dans des bases données? La réponse est encore oui et l’outil est le déterminant.

  5. Pour un endomorphisme inversible, existe-t-il un procédé permettant de calculer la matrice de son inverse? Cet outil existe et il est donné par la comatrice.

  6. Si on prend d’autres bases \(e'\) et \(f'\) de \(E\) et \(F\), peut-on calculer la matrice de \(u\) dans ces nouvelles bases en fonction de sa matrice dans les bases initiales? La réponse est encore positive et on mettra en place des formules de changement de bases.

  7. Enfin, pour un endomorphisme \(u\in L\left(E\right)\), existe-il une base de \(E\) dans laquelle la matrice de \(u\) prend une forme simple et facile à manipuler? La réponse sera donnée en spé dans le chapitre sur la réduction des endomorphismes.

Au niveau historique, on peut indiquer qu’au \(3^{\textrm{ e}}\) siècle, le mathématicien chinois Liu Hui résolvait les systèmes linéaires ayant jusqu’à \(6\) inconnues. Il représentait ces systèmes grâce à des tableaux et avait découvert la méthode qu’on appelle maintenant pivot de Gauss pour les résoudre. Au \(17^{\textrm{ e}}\) siècle, toujours pour résoudre des systèmes linéaires, Leibniz invente le déterminant. Cette notion est approfondie par Cramer qui découvre soixante ans plus tard la méthode qui porte maintenant son nom. Il faut attendre le \(19^{\textrm{ e}}\) siècle, pour que la notation matricielle sous forme de rectangle (ou carré) de nombres  apparaisse. Gauss découvre le produit matriciel en dimension \(3\) et indique que la formule se généralise dans les autres dimensions mais sans détailler. Sylvester, le premier, dénomme ces rectangles de nombres du mot matrix.

Dans tout ce chapitre, \(m,n,p,q,r\) sont des entiers positifs, \(\mathbb{K}\) désigne le corps \(\mathbb{R}\) des réels ou le corps \(\mathbb{C}\) des complexes. \(E\) et \(F\) sont des \(\mathbb{K}\)-espaces vectoriels.

Matrice à coefficients dans \(\mathbb{K}\)

Définitions

(Matrice).
Soit \(\mathbb{K}\) un corps et \(q,p\in\mathbb{N}^*\). On appelle matrice à \(q\) lignes et \(p\) colonnes à coefficients dans \(\mathbb{K}\) toute application : \[A: \left\{ \begin{array}{ccl} \llbracket 1,q\rrbracket\times\llbracket 1,p\rrbracket & \longrightarrow & \mathbb{K} \newline \left(i,j\right) & \longmapsto & a_{i,j} \end{array} \right.\] que l’on note :

Image

  • Le coefficient de \(A\) qui se trouve à l’intersection de la \(i\)-ème ligne et de la \(j\)-ème colonne est noté \(a_{i,j}\)  ou \(\left[A\right]_{i,j}\):

    1. \(i\) représente l’indice de ligne.

    2. \(j\) représente l’indice de colonne.

  • On dit aussi que \(A\) est une matrice \(q\times p\) ou une matrice \(\left(q,p\right)\) à coefficients dans \(\mathbb{K}\).

  • On note \(\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) l’ensemble des matrices à \(q\) lignes et \(p\) colonnes à coefficients dans \(\mathbb{K}\).

On notera aussi \(\left[A\right]_{ij}\) ou encore \(a_{ij}\) le coefficient \(a_{i,j}\) de \(A\).
(Vecteur ligne, vecteur colonne d’une matrice).
Pour toute matrice \(A\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) : \[A=\left(\begin{array}{ccc} a_{1,1}&\dots&a_{1,p}\\ \vdots& \dots&\vdots\newline a_{q,1}&\dots&a_{q,p} \end{array}\right)\] on appelle, pour \(\left(i,j\right)\in\llbracket 1,q\rrbracket\times\llbracket 1,p\rrbracket\) :
  • \(i\)-ème vecteur ligne de \(A\) le \(p-\)uplet \(L_i=\left(a_{i,1},\ldots,a_{i,p}\right)\in \mathbb{K}^p\).

  • \(j\)-ème vecteur colonne de \(A\) le \(q-\)uplet \(C_j\left(a_{1,j},\ldots,a_{q,j}\right)\in \mathbb{K}^q\).

(Matrice ligne, matrice colonne).
  • Une matrice colonne est une matrice qui ne possède qu’une seule colonne.

  • Une matrice ligne est une matrice qui ne possède qu’une seule ligne.

(Matrice nulle).
On dit que \(A\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) est la matrice nulle de \(\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) si et seulement si tous ses coefficients sont nuls. On la note : \(0_{\mathfrak{M}_{q,p}\left(\mathbb{K}\right)}\) ou \(0\) lorsqu’aucune confusion n’est à craindre.
(Matrice carrée).
Une matrice possédant autant de lignes que de colonnes est dite carrée. On note \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) l’ensemble des matrices carrées à \(n\) lignes et \(n\) colonnes.
(Matrice identité).
On appelle matrice identité et on note \(I_n\) la matrice de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) donnée par : \[I_n=\begin{pmatrix} 1 & 0 & \dots & 0 \\ 0 & 1 & \ddots & \vdots \\ \vdots&\ddots & \ddots &0 \newline 0 & \dots & 0 & 1 \end{pmatrix} \in \mathfrak{M}_{n}(\mathbb{\mathbb{K} })\] Tous ses coefficients sont nuls sauf ceux situés sur la diagonale et qui valent \(1\).
\(I_1=\begin{pmatrix} 1 \end{pmatrix}\), \(I_2=\begin{pmatrix} 1&0\\0&1 \end{pmatrix}\), \(I_3=\begin{pmatrix} 1&0&0\\0&1&0\newline0&0&1 \end{pmatrix}\).

L’espace vectoriel \(\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\)

On munit \(\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) d’une addition et d’une multiplication par un scalaire. Le triplet \(\left(\mathfrak{M}_{q,p}\left(\mathbb{K}\right),+,.\right)\) est alors un \(\mathbb{K}\)-espace vectoriel  de dimension \(pq\).

(Somme de matrices, multiplication d’une matrice par un scalaire).
  • Soient \(A=\left(a_{i,j}\right),B=\left(b_{i,j}\right)\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\). On définit \(A+B\) comme étant la matrice \(C=\left(c_{i,j}\right)\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) donnée par : \[\forall \left(i,j\right)\in\llbracket 1,q\rrbracket\times\llbracket 1,p\rrbracket, \quad c_{i,j}=a_{i,j}+b_{i,j}.\]

  • Soit \(A=\left(a_{i,j}\right)\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) et \(\lambda\in\mathbb{K}\). On définit \(\lambda\cdot A\) comme étant la matrice \(D=\left(d_{i,j}\right)\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) donnée par : \[\forall \left(i,j\right)\in\llbracket 1,q\rrbracket\times\llbracket 1,p\rrbracket, \quad d_{i,j}=\lambda a_{i,j}\]

Muni de ces deux lois \(\left(\mathfrak{M}_{q,p}\left(\mathbb{K}\right),+,\cdot\right)\) est un \(\mathbb{K}-\)espace vectoriel.
Laissée au lecteur. On vérifie aisément les différents axiomes définissant un espace vectoriel.
\[\begin{pmatrix}1&-1&0\\-2&1&-3 \end{pmatrix}-2 \begin{pmatrix}0&2&1\\-1&0&1 \end{pmatrix}=\begin{pmatrix}1&-5&-2\newline0&1&-5 \end{pmatrix}\]
(Matrices élémentaires).
Pour tout \(i\in\llbracket 1,q\rrbracket\) et \(j\in\llbracket 1,p\rrbracket\) on définit la matrice élémentaire \(E_{i,j}\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) par :

Image

Tous les coefficients de la matrice élémentaire \(E_{i,j}\) sont nuls sauf celui à l’intersection de la \(i\)-ème ligne et de la \(j\)-ème colonne qui vaut \(1\).
Les matrices élémentaires de \(\mathfrak{M}_{2,3}\left(\mathbb{K}\right)\) sont \[E_{1,1}=\begin{pmatrix}1&0&0\\0&0&0\end{pmatrix}, E_{1,2}=\begin{pmatrix}0&1&0\\0&0&0\end{pmatrix}, E_{1,3}=\begin{pmatrix}0&0&1\\0&0&0\end{pmatrix}, E_{2,1}=\begin{pmatrix}0&0&0\\1&0&0\end{pmatrix}, E_{2,2}=\begin{pmatrix}0&0&0\\0&1&0\end{pmatrix}, E_{2,3}=\begin{pmatrix}0&0&0\newline0&0&1\end{pmatrix}.\] À titre d’exercice, et pour préparer le théorème suivant, montrer que cette famille de \(6\) matrices constitue une base de \(\mathfrak{M}_{2,3}\left(\mathbb{K}\right)\).
(Base canonique de \(\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\)).
La famille formée par les matrices élémentaires \(\left(E_{i,j}\right)_{ \left(i,j\right)\in\llbracket 1,q\rrbracket\times\llbracket 1,p\rrbracket}\) est une base de \(\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) appelée base canonique de \(\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\). On en déduit que : \[\boxed{\dim \mathfrak{M}_{q,p}\left(\mathbb{K}\right)=qp}\]
  • Prouvons que cette famille est libre. Soient \(\left(\alpha_{i,j}\right)_{i\in\llbracket 1,q\rrbracket,j\in\llbracket 1,p\rrbracket}\) une famille de scalaires de \(\mathbb{K}\) tels que : \(\sum_{i=1}^q\sum_{j=1}^p \alpha_{i,j}E_{i,j}=0\). Alors on a l’égalité : \[\left(\begin{matrix} \alpha_{1,1} & \dots& \alpha_{1,p} \\ \vdots & \vdots & \vdots \newline \alpha_{q,1} & \dots& \alpha_{q,p} \end{matrix}\right)=0.\] Par identification des coefficients de ces deux matrices, on a : \(\forall i\in\llbracket 1,q\rrbracket,\quad \forall j\in\llbracket 1,p\rrbracket,\quad \alpha_{i,j}=0\) ce qui prouve la liberté de la famille \(\left(E_{i,j}\right)\).

  • Montrons que cette famille est génératrice de \(\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\). Soit \(A=\left(a_{i,j}\right)_{i\in\llbracket 1,q\rrbracket,j\in\llbracket 1,p\rrbracket}\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\). On a clairement : \(A=\sum_{i=1}^q\sum_{j=1}^p a_{i,j}E_{i,j}\). Ce qui prouve que la famille \(\left(E_{i,j}\right)\) est génératrice de \(\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\).

Produit matriciel

On définit maintenant, quand c’est possible, le produit de deux matrices. Le théorème [comp_appl_lin_matrice] page [comp_appl_lin_matrice] explicite le sens de ce produit, il correspond en fait à la composition des applications linéaires.

(Produit matriciel).
Soit \(A\in\mathfrak{M}_{r,q}\left(\mathbb{K}\right)\) et \(B\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\). On définit \(AB\) comme la matrice \(C\) de \(\mathfrak{M}_{r,p}\left(\mathbb{K}\right)\) définie par : \[\forall i\in\llbracket 1,r\rrbracket \quad \forall j\in\llbracket 1,p\rrbracket \quad c_{i,j}= \left[AB\right]_{i,j}=\sum_{k=1}^q a_{i,k}b_{k,j}\]

Image

On ne peut effectuer le produit de \(A\in\mathfrak{M}_{r,q}\left(\mathbb{K}\right)\) et \(B\in\mathfrak{M}_{q',p}\left(\mathbb{K}\right)\) que si \(q=q'\)!
Si \(A=\begin{pmatrix} 1&-1\\0&2\\1&-3\end{pmatrix}\) et \(B=\begin{pmatrix}-1&1&0\\0&2&1 \end{pmatrix}\) alors \(AB=\begin{pmatrix}-1&-1&-1\\0&4&2\\-1&-5&-3\end{pmatrix}\) et \(BA=\begin{pmatrix}-1&3\newline1&1 \end{pmatrix}\). Remarquons qu’en général, le produit \(AB\) peut exister sans que ce ne soit forcément le cas pour le produit \(BA\).

Il est souvent utile dans les exercices de savoir multiplier les matrices élémentaires. Pour ce faire introduisons le symbole de Kronecker.

(Symbole de Kronecker).
Pour tout \(i,j\in\mathbb{N}\), on définit le symbole de Kronecker \(\delta_{i,j}\) par : \[\delta_{i,j}= \begin{cases} 1 & \textrm{ si $i=j$}\newline 0 & \textrm{ sinon} \end{cases}\]
Le nombre \(\delta_{i,j}\) est l’élément générique de la matrice identité \(I_n\).
(Produit de matrices élémentaires).
Pour deux matrices élémentaires de \(\mathfrak{M}_{n}(\mathbb{\mathbb{K} })\), on a la formule importante suivante qui donne leur produit : \[\boxed{ E_{k,\ell}E_{p,q} = \delta_{\ell,p} E_{k,q} }\]
Par un calcul direct. Voir aussi le paragraphe [utilisation_des_matrices_elementaires] page [utilisation_des_matrices_elementaires].
(Règles de calculs avec les matrices).
Quant les produit suivants sont possibles, pour des matrices \(A,B, C\) et des scalaires \(\alpha,\beta\) :
  1. Le produit matriciel est distributif à gauche par rapport à l’addition : \(C\left(\alpha A+\beta B\right)=\alpha CA+\beta CB\).

  2. Le produit matriciel est distributif à droite par rapport à l’addition :\(\left(\alpha A+\beta B\right)C=\alpha AC+\beta BC\).

  3. Le produit matriciel est associatif : \(\left(AB\right)C=A\left(BC\right)\).

  4. Le produit matriciel admet la matrice \(I_n\) comme élément neutre :\(A I_n=I_n A=A\).

Laissée au lecteur.

Transposition

(Transposée d’une matrice).
On appelle transposée de \(A\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) la matrice noté \({A}^{\mathrm{T}}\in \mathfrak{M}_{p,q}\left(\mathbb{K}\right)\) dont les colonnes sont formées par les lignes de \(A\). Autrement dit : \[\forall i\in\llbracket 1,p\rrbracket, \quad \forall j\in\llbracket 1,q\rrbracket, \quad \left[{A}^{\mathrm{T}}\right]_{i,j}=a_{j,i}\]
Transposer revient à échanger les lignes et les colonnes d’une matrice.
Si \(A=\begin{pmatrix} 1&-3\\2&7\\0&-4\end{pmatrix}\) alors \({A}^{\mathrm{T}}= \begin{pmatrix} 1&2&0\newline-3&7&-4 \end{pmatrix}\).
L’application : \[\Phi: \left\{ \begin{array}{ccl} \mathfrak{M}_{q,p}\left(\mathbb{K}\right) & \longrightarrow & \mathfrak{M}_{p,q}\left(\mathbb{K}\right) \newline A & \longmapsto & ^tA \end{array} \right.\] est un isomorphisme d’espaces vectoriels. En particulier, si \(A,B\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) et si \(\alpha,\beta \in\mathbb{K}\). Alors : \[\boxed{{\left({A}^{\mathrm{T}}\right)}^{\mathrm{T}}=A} \quad \textrm{ et} \quad\boxed{{\left(\alpha A + \beta B \right)}^{\mathrm{T}} = \alpha {A}^{\mathrm{T}} + \beta {B}^{\mathrm{T}}}.\]
La linéarité ainsi que la relation \({\left({A}^{\mathrm{T}}\right)}^{\mathrm{T}}=A\) sont faciles à prouver. Pour la bijectivité, on propose deux méthodes :
  • On montre facilement que, si \(A\in\operatorname{Ker}\Phi\), on a \({\left({A}^{\mathrm{T}}\right)}=0\) et donc \(A={\left({A}^{\mathrm{T}}\right)}^{\mathrm{T}}=0\) et \(\operatorname{Ker}\Phi=\left\{0\right\}\), \(\theta\) est injective. Grâce à la formule du rang, on en déduit qu’elle est aussi surjective et donc bijective.

  • On peut aussi remarquer que \(\Phi\circ \Phi= \mathop{\mathrm{id}}\nolimits\) ce qui prouve que \(\Phi\) est bijective et égale à sa fonction réciproque.

En prenant un peu d’avance sur le paragraphe [para_matrice_sym_antisym], L’opération de transposition sur \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est une symétrie par rapport à \(\operatorname{Ker}\Phi -\mathop{\mathrm{id}}\nolimits=\mathcal{S}_n\left(\mathbb{K}\right)\) parallèlement à \(\operatorname{Ker}\Phi +\mathop{\mathrm{id}}\nolimits=\mathcal{A}_n\left(\mathbb{K}\right)\).
(Transposée d’un produit).
Pour tout \(A\in\mathfrak{M}_{r,q}\left(\mathbb{K}\right)\) et \(B\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) : \[\boxed{{\left(AB\right)}^{\mathrm{T}}={B}^{\mathrm{T}}{A}^{\mathrm{T}}}\]
On suppose que \(A=\left(a_{i,k}\right)\in\mathfrak{M}_{r,q}\left(\mathbb{K}\right)\), que \(B=\left(b_{k,j}\right)\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\), \(C=AB=\left(c_{i,j}\right)\in\mathfrak{M}_{r,p}\left(\mathbb{K}\right)\)\(c_{i,j}=\sum_{k=1}^q a_{i,k}b_{k,j}\). On note aussi :
  • \(A'={A}^{\mathrm{T}}=\left(a'_{i,k}\right)\in\mathfrak{M}_{q,r}\left(\mathbb{K}\right)\) avec pour tout \(i\in\llbracket 1,q\rrbracket\) et tout \(k\in\llbracket 1,r\rrbracket\), \(a'_{i,k}=a_{k,i}\).

  • \(B'={B}^{\mathrm{T}}=\left(b'_{k,j}\right)\in\mathfrak{M}_{p,q}\left(\mathbb{K}\right)\) avec pour tout \(k\in\llbracket 1,p\rrbracket\) et tout \(j\in\llbracket 1,q\rrbracket\), \(b'_{k,j}=b_{j,k}\).

  • \(C'={B}^{\mathrm{T}}{A}^{\mathrm{T}}=\left(c'_{i,j}\right)\in\mathfrak{M}_{p,r}\left(\mathbb{K}\right)\).

Pour tout \(i\in\llbracket 1,p\rrbracket\) et \(j\in\llbracket 1,r\rrbracket\)  : \[c'_{i,j} = \sum_{k=1}^q b'_{i,k} a'_{k,j}= \sum_{k=1}^q a_{j,k} b_{k,i} = c_{j,i}\] et par conséquent, \(C'={B}^{\mathrm{T}}{A}^{\mathrm{T}} = C={AB}^{\mathrm{T}}\).
Attention au retournement dans le produit.

Avec Maple

Voici une feuille de calcul Maple sur les matrices. On notera :

  • la première ligne qui sert à charger en mémoire les instructions maple pour faire du calcul matriciel.

  • la commande pour le produit de deux matrices : \(\&*\). Pour l’addition de deux matrices, on utilisera + et pour la multiplication par un scalaire *.

  • la commande pour évaluer les matrices : evalm.

> with(linalg): \(\sharp\)On charge la librairie de calcul matriciel > A:=matrix([[1,-1],[0,2],[1,-3]]); [1 -1] [ ] A := [0 2] [ ] [1 -3] > B:=matrix([[2,0],[1,-3],[-1,1]]); [ 2 0] [ ] B := [ 1 -3] [ ] [-1 1]

> C:=matrix([[-1,1,0],[0,2,1]]); [-1 1 0] C := [ ] [ 0 2 1]

> evalm(2*A-B); \(\sharp\)on calcule 2A-B [ 0 -2] [ ] [-1 7] [ ] [ 3 -7]

> evalm(A and *C); \(\sharp\)on calcule AC [-1 -1 -1] [ ] [ 0 4 2] [ ] [-1 -5 -3] > transpose(A); \(\sharp\)on transpose A [ 1 0 1] [ ] [-1 2 -3]

Matrices d’une famille de vecteurs, d’une application linéaire

Matrice d’une famille de vecteurs relativement à une base

(Matrice d’un vecteur relativement à une base).
Soient \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension finie \(n\) et \(e=\left(e_1,\ldots,e_n\right)\) une base de \(E\). Soit \(x\in E\) un vecteur qui se décompose sur la base \(e\) en : \[x= x_1e_1+\dots + x_n e_n\] On appelle matrice de \(x\) relativement à la base \(e\) et on note \(\textrm{ Mat}_{e}\left(x\right)\) la matrice colonne donnée par : \[\textrm{ Mat}_{e}\left(x\right)= \begin{pmatrix} x_1\\ \vdots\newline x_n \end{pmatrix}\in\mathfrak{M}_{n,1}\left(\mathbb{K}\right)\]\(\displaystyle{x=\sum_{i=1}^n x_i e_i}\)
On considère \(\mathbb{R}^3\) muni de sa base canonique \(e=\left(e_1,e_2,e_3\right)\). Soit \(v=\left(1,-2,3\right)\in \mathbb{R}^3\). Alors \(\textrm{ Mat}_{e}\left(v\right)=\begin{pmatrix} 1\\-2\newline3 \end{pmatrix}\).
\(\textrm{ Mat}_{e}\left(x\right)\) représente les coordonnées du vecteur \(x\) dans la base \(e\). Il y a bien sûr une bijection entre les vecteurs de \(E\) et les matrices colonnes de taille \(n\) (qui contiennent les composantes de ces vecteurs dans une base fixée). De plus, effectuer des calculs avec ces vecteurs   correspond à effectuer des calculs avec ces matrices. C’est le sens de la proposition suivante.
(Tout \(\mathbb{K}\)-espace vectoriel  de dimension \(n\) est isomorphe à \(\mathfrak{M}_{n,1}\left(\mathbb{K}\right)\)).
Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\) et soit \(e\) une base de \(E\). L’application \(\theta: \left\{ \begin{array}{ccl} E & \longrightarrow & \mathfrak{M}_{n,1}\left(\mathbb{K}\right) \newline x & \longmapsto & \textrm{ Mat}_{e}\left(x\right) \end{array} \right.\) qui à un vecteur associe la matrice colonne de ses coordonnées dans la base \(E\) est un isomorphisme de \(\mathbb{K}-\)espaces vectoriels.
Si \(x=\sum_{i=1}^n x_i e_i\) et si \(y=\sum_{i=1}^n y_i e_i\) alors pour tout \(\alpha,\beta\in\mathbb{K}\), \(\alpha x+\beta y=\sum_{i=1}^n \left(\alpha x_i + \beta y_i\right) e_i\) donc il est clair que \(\textrm{ Mat}_{e}\left(\alpha x+\beta y\right)=\alpha \textrm{ Mat}_{e}\left(x\right)+\beta \textrm{ Mat}_{e}\left(y\right)\) et \(\theta\) est linéaire. Si \(x\in\operatorname{Ker} \theta\) alors \(\theta\left(x\right)=0\) et les composantes de \(x\) dans la base \(e\) valent toutes \(0\). Donc \(x=0\) et \(\theta\) est injective. De plus, \(\dim E=\dim \mathfrak{M}_{n,1}\left(\mathbb{K}\right)\) donc \(\theta\) est bijective.
(Matrice d’une famille de vecteurs relativement à une base).
Soient \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(q\) et \(e=\left(e_1,\ldots,e_q\right)\) une base de \(E\). On considère \(\left(v_1,\ldots,v_p\right)\) une famille de \(p\) vecteurs de \(E\) qui se décomposent dans la base \(e\) sous la forme : \[\forall j\in\llbracket 1,p\rrbracket \quad v_j=\sum_{i=1}^q a_{i,j}e_i.\] On appelle matrice de la famille \(\left(v_1,\ldots,v_p\right)\) relativement à la base \(e\) et on note \(\textrm{ Mat}_{e}\left(v_1,\ldots,v_p\right)\) la matrice :

Image

La \(j\)-ème colonne de cette matrice est constituée des coordonnées du vecteur \(v_j\) dans la base \(e\).
On se place à nouveau dans \(\mathbb{R}^3\) muni de sa base canonique \(e=\left(e_1,e_2,e_3\right)\). Soient \(v_1=\left(-1,3,0\right),v_2=\left(0,-1,5\right),v_3=\left(-3,2,1\right),v_4=\left(1,0,-1\right)\in \mathbb{R}^3\) et soit \(v=\left(v_1,v_2,v_3,v_4\right)\) alors \(\textrm{ Mat}_{e}\left(v\right)=\begin{pmatrix} -1&0&-3&1\\3&-1&2&0\newline0&5&1&-1 \end{pmatrix}\).

Matrice d’une application linéaire relativement à deux bases

(Matrice d’une application linéaire relativement à deux bases).
Soient: 
  1. \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(p\) et \(e=\left(e_1,\ldots,e_p\right)\) une base de \(E\).

  2. \(F\) un \(\mathbb{K}\)-espace vectoriel de dimension \(q\) et \(f=\left(f_1,\ldots,f_q\right)\) une base de \(F\).

  3. \(u\in\mathfrak{L}\left(E,F\right)\).

On appelle matrice de \(u\) relativement aux bases \(f\) et \(e\) et on note \(\textrm{ Mat}_{f\gets e}\left(u\right)\) (ou \(\textrm{ Mat}_{e,f}\left(u\right)\)) la matrice \(q\times p\) donnée par :

Image

\(\left(a_{1j},\dots,a_{qj}\right)\) sont les composantes du vecteur \(u\left(e_j\right)\) dans la base \(f\).

Autrement dit : \(\textrm{ Mat}_{f\gets e}\left(u\right)\) est la matrice de la famille de vecteurs \(\left(u\left(e_1\right),\ldots,u\left(e_p\right)\right)\) relativement à la base \(f\) : \[\textrm{ Mat}_{f\gets e}\left(u\right)= \textrm{ Mat}_{f}\left(u\left(e_1\right),\ldots,u\left(e_p\right)\right).\]
Les notations utilisées sont un peu lourdes mais elles rendront très simples à retenir les formules de changement de base.
Donnons deux exemples :
  • Soit \(E=\mathbb{R}^3\) muni de sa base canonique \(e\) et \(F=\mathbb{R}^2\) muni de sa base canonique \(f\). Soit \(u: \left\{ \begin{array}{ccl} E & \longrightarrow & F \\ \left(x,y,z\right) & \longmapsto & \left(x+y-z,2x-y+3z\right) \end{array} \right.\) alors comme \(u\left(e_1\right)=\left(1,2\right)\), \(u\left(e_2\right)=\left(1,-1\right)\) et \(u\left(e_3\right)=\left(-1,3\right)\), \(\textrm{ Mat}_{f\gets e}\left(u\right)=\begin{pmatrix}1&1&-1\\ 2&-1&3\end{pmatrix}\).

  • Soit \(E=\mathbb{R}_3\left[X\right]\) muni de sa base canonique \(e\) et \(u: \left\{ \begin{array}{ccl} E & \longrightarrow & E \\ P & \longmapsto & 2P-P' \end{array} \right.\) alors \(u\left(1\right)=2\), \(u\left(X\right)=2X-1\), \(u\left(X^2\right)=2X^2-2X\) et \(u\left(X^3\right)=2X^3-3X^2\). Il vient alors \(\textrm{ Mat}_{e}\left(u\right)=\begin{pmatrix}2&-1&0&0\\0&2&-2&0\\0&0&2&-3\newline0&0&0&2 \end{pmatrix}\).

(Matrice d’une forme linéaire relativement à une base).
Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\) et \(e=\left(e_1,\ldots,e_n\right)\) une base de \(E\). Si \(\varphi\) est une forme linéaire sur \(E\), on appelle matrice de \(\varphi\) relativement à la base \(e\) la matrice ligne \(1\times n\) donnée par : \[\textrm{ Mat}_{e}\left(\varphi\right)=\left(\varphi\left(e_1\right),\dots,\varphi\left(e_n\right)\right)\]
(Une application linéaire est entièrement déterminée par sa matrice dans deux bases).
Soient: 
  1. \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(p\) et \(e=\left(e_1,\ldots,e_p\right)\) une base de \(E\).

  2. \(F\) un \(\mathbb{K}\)-espace vectoriel de dimension \(q\) et \(f=\left(f_1,\ldots,f_q\right)\) une base de \(F\).

l’application : \[\theta: \left\{ \begin{array}{ccl} \mathfrak{L}\left(E,F\right) & \longrightarrow & \mathfrak{M}_{q,p}\left(\mathbb{K}\right) \newline u & \longmapsto & \textrm{ Mat}_{f\gets e}\left(u\right) \end{array} \right.\] est un isomorphisme d’espaces vectoriels. En particulier, si \(M\in \mathfrak{M}_{q,p}\left(\mathbb{K}\right)\), il existe une unique application linéaire \(u\in \mathfrak{L}\left(E,F\right)\) telle que \(\theta^{-1}\left(M\right)=u\). On dit que \(u\) est l’application linéaire de \(E\) dans \(F\) représentée par \(M\) dans les bases \(e\) de \(E\) et \(f\) de \(F\).
  • On vérifie tout d’abord que \(\theta\) est linéaire. Soient \(\alpha,\beta\in\mathbb{K}\) et soient \(u,v\in \mathfrak{L}\left(E,F\right)\). On suppose que \(\theta\left(u\right)=\textrm{ Mat}_{f\gets e}\left(u\right)=A=\left(a_{i,j}\right)\in \mathfrak{M}_{q,p}\left(\mathbb{K}\right)\), que \(\theta\left(v\right)=\textrm{ Mat}_{f\gets e}\left(v\right)=B=\left(b_{i,j}\right)\in \mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) et que \(\theta\left(\alpha u + \beta v\right)=\textrm{ Mat}_{f\gets e}\left(\alpha u +\beta v\right)= C=\left(c_{i,j}\right)\in \mathfrak{M}_{q,p}\left(\mathbb{K}\right)\). Par conséquent : \[\forall j\in\llbracket 1,p\rrbracket,\quad u\left(e_j\right)=\sum_{k=1}^q a_{k,j}f_k \quad \textrm{ et} \quad v\left(e_j\right)=\sum_{k=1}^q b_{k,j}f_k.\] Par suite, pour tout \(j\in\llbracket 1,p\rrbracket\) : \[\left(\alpha u + \beta v\right)\left(e_j\right)=\sum_{k=1}^q c_{k,j}f_k = \alpha u\left(e_j\right)+\beta v\left(e_j\right)=\sum_{k=1}^q \left(\alpha a_{k,j}+\beta b_{k,j}\right)f_k.\]

    Par identification, la famille \(f\) formant une base de \(F\), on a : \[\forall k\in\llbracket 1,p\rrbracket, \quad \forall j\in\llbracket 1,p\rrbracket, \quad c_{k,j} = \alpha a_{k,j}+\beta b_{k,j}\] ce qui prouve que : \(C=\alpha A + \beta B\) et que \(\theta\) est linéaire.

  • \(\theta\) est injective. En effet, si \(u\in\mathfrak{L}\left(E,F\right)\) est telle que \(\theta\left(u\right)=0\) alors \(\forall j\in\llbracket 1,p\rrbracket,\quad u\left(e_j\right)=\sum_{k=1}^q 0.f_k=0\). \(u\) s’annulant sur une base de \(E\) ne peut que s’annuler sur \(E\) tout entier et donc \(u=0\). On en déduit que \(\operatorname{Ker}\theta=\left\{0\right\}\) et que \(\theta\) est injective.

  • \(\theta\) est surjective. Soit \(A=\left(a_{i,j}\right)\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\). Considérons l’application linéaire \(u\in\mathfrak{L}\left(E,F\right)\) donnée par : \(\forall j\in\llbracket 1,p\rrbracket,\quad u\left(e_j\right)=\sum_{k=1}^q a_{k,j}f_k\) (Rappelons qu’une application linéaire est complètement déterminées par les valeurs qu’elle prend sur une base de l’espace vectoriel sur lequel elle est définie). On a clairement \(\theta\left(u\right)=A\) ce qui prouve que \(\theta\) est surjective.

(Autrement dit  :).
Avec les notations précédentes, se fixant une base \(e\) dans \(E\) et une base \(f\) dans \(F\).
  • Toute matrice de \(\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) est celle d’une application linéaire \(u\in\mathfrak{L}\left(E,F\right)\) dans les bases \(e\) et \(f\).

  • Réciproquement, à toute application linéaire de \(\mathfrak{L}\left(E,F\right)\) correspond une et une seule matrice de \(\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) qui la représente dans les bases \(e\) et \(f\).

En utilisant ces deux dernières propositions, on obtient :

\(\quad\) Soient \(E\) et \(F\) deux \(\mathbb{K}\)-espace vectoriel de dimension finie, soient \(e\) et \(f\) des bases respectives de \(E\) et \(F\). Si on note \(p=\dim E\) et \(q=\dim F\), on a : \[\boxed{\dim \mathfrak{L}\left(E,F\right)=\dim \mathfrak{M}_{q,p}\left(\mathbb{K}\right)=qp}\]
En effet, deux \(\mathbb{K}\)-espaces vectoriels isomorphes ont la même dimension.

Le théorème suivant justifie la définition du produit matriciel. Composer des applications linéaires revient à multiplier les matrices correspondantes.
(Fondamental! Matrice de la composée de deux applications linéaires).
Soient: 

  1. \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(p\) et \(e=\left(e_1,\ldots,e_p\right)\) une base de \(E\).

  2. \(F\) un \(\mathbb{K}\)-espace vectoriel de dimension \(q\) et \(f=\left(f_1,\ldots,f_q\right)\) une base de \(F\).

  3. \(G\) un \(\mathbb{K}\)-espace vectoriel de dimension \(r\) et \(g=\left(g_1,\ldots,g_r\right)\) une base de \(G\).

  4. \(u\in\mathfrak{L}\left(E,F\right)\) et \(v\in\mathfrak{L}\left(F,G\right)\).

alors : \[\boxed{\textrm{ Mat}_{g\gets e}\left(v\circ u\right)= \textrm{ Mat}_{g\gets f}\left(v\right) \times \textrm{ Mat}_{f \gets e}\left(u\right)}\]
Notons : \(A=\left(a_{i',j'}\right)=\textrm{ Mat}_{f \gets e}\left(u\right) \quad B=\left(b_{i'',j''}\right)=\textrm{ Mat}_{g \gets f}\left(v\right) \quad \textrm{ et} \quad C=\left(c_{i,j}\right)=\textrm{ Mat}_{g\gets e}\left(v\circ u\right)\). Soient \(j\in \llbracket 1,p\rrbracket\) et \(i\in\llbracket 1,r\rrbracket\). On a : \(\left(v \circ u \right)\left(e_j\right) = v\left(u\left(e_j\right)\right) =v\left(\sum_{k=1}^q a_{k,j} f_k\right) = \sum_{k=1}^q a_{k,j} v\left(f_k\right) = \sum_{k=1}^q a_{k,j} \sum_{i=1}^r b_{i,k} g_i = \sum_{k=1}^q \sum_{i=1}^r b_{i,k} a_{k,j} g_i = \sum_{i=1}^r \left(\sum_{k=1}^q b_{i,k} a_{k,j} \right) g_i\) Et par identification : \(c_{i,j}=\sum_{k=1}^q b_{j,k} a_{k,i}\) ce qui prouve le résultat.

Enfin, on écrit le calcul de l’image d’un vecteur par une application linéaire peut s’effectuer, en dimension finie, au moyen des matrices.

(Écriture matricielle de l’image d’un vecteur par une application linéaire).
Soient: 
  1. \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(p\) et \(e=\left(e_1,\ldots,e_p\right)\) une base de \(E\).

  2. \(F\) un \(\mathbb{K}\)-espace vectoriel de dimension \(q\) et \(f=\left(f_1,\ldots,f_q\right)\) une base de \(F\).

  3. \(u\in\mathfrak{L}\left(E,F\right)\).

alors : \[\boxed{\textrm{ Mat}_{f}\left(u\left(x\right)\right)=\textrm{ Mat}_{f\gets e}\left(u\right) \times \textrm{ Mat}_{e}\left(x\right)}\] Autrement dit, si \(Y=\textrm{ Mat}_{f}\left(u\left(x\right)\right)\), \(A=\textrm{ Mat}_{f\gets e}\left(u\right)\) et \(X=\textrm{ Mat}_{e}\left(x\right)\), on a : \(\boxed{Y=AX}\).
Posons \(A=\left(a_{i,j}\right)\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\), \(X=\left(x_j\right)\in\mathfrak{M}_{p,1}\left(\mathbb{K}\right)\) et \(Y=\left(y_i\right)\in\mathfrak{M}_{q,1}\left(\mathbb{K}\right)\). On a : \(u\left(x\right)=u\left(\sum_{j=1}^p x_j e_j\right)=\sum_{j=1}^p x_j u\left( e_j\right) = \sum_{j=1}^p x_j \sum_{i=1}^q a_{i,j}f_i = \sum_{i=1}^q \sum_{j=1}^p a_{i,j} x_j f_i=\sum_{i=1}^q y_i f_i.\) Par identification, on a bien : \[\forall i\in\llbracket 1,q\rrbracket,\quad y_i=\sum_{j=1}^p a_{i,j} x_j\] ce qui prouve le résultat.
  • Soit deux applications linéaires \[u : \left\{ \begin{array}{ccl} \mathbb{R}^{3} & \longrightarrow & \mathbb{R}^{2} \\ (x,y,z) & \longmapsto & (x-y,~x+y+z) \end{array} \right. \quad v : \left\{ \begin{array}{ccl} \mathbb{R}^{2} & \longrightarrow & \mathbb{R}^{3} \\ (x,y) & \longmapsto & (x+y,~x+2y,~x-y) \end{array} \right.\] On note \(e\) la base canonique de \(\mathbb{R}^{3}\) et \(f\) la base canonique de \(\mathbb{R}^{2}\).

    1. On écrit \(\textrm{ Mat}_{f\gets e}\left(u\right)=\begin{pmatrix}1&-1&0\\1&1&1\end{pmatrix}\) et \(\textrm{ Mat}_{e\gets f}\left(v\right)=\begin{pmatrix}1&1\\1&2\\1&-1\end{pmatrix}\).

    2. On écrit maintenant \(\textrm{ Mat}_{e\gets e}\left(v\circ u\right)\) et \(\textrm{ Mat}_{f\gets f}\left(u\circ v\right)\). On sait que \[\textrm{ Mat}_{e\gets e}\left(v\circ u\right)=\textrm{ Mat}_{e\gets f}\left(v\right) \times \textrm{ Mat}_{f\gets e}\left(u\right)=\begin{pmatrix}1&1\\1&2\\1&-1\end{pmatrix}\times\begin{pmatrix} 1&-1&0\\1&1&1\end {pmatrix}=\begin{pmatrix}2&0&1\\3&1&2\\0&-2&-1 \end{pmatrix}\] et que \[\textrm{ Mat}_{f\gets f}\left(u\circ v\right)= \textrm{ Mat}_{f\gets e}\left(u\right) \times \textrm{ Mat}_{e\gets f}\left(v\right) \times = \begin{pmatrix} 1&-1&0\\1&1&1\end {pmatrix}\times \begin{pmatrix}1&1\\1&2\\1&-1\end{pmatrix}=\begin{pmatrix}0&-1\\ 3&2\end{pmatrix}.\]

    3. Donnons l’expression analytique de \(u\circ v\) et \(v\circ u\). On utilise le théorème [prod_mat_vect].

      D’une part \(\begin{pmatrix}2&0&1\\3&1&2\\0&-2&-1 \end{pmatrix}\begin{pmatrix}x\\y\\z\end{pmatrix}=\begin{pmatrix} 2x+z\\3x+y+2z\\ -2y-z\end{pmatrix}\) donc \(u\circ v\left(x,y,z\right)=\left(2x+z,3x+y+2z, -2y-z\right)\).

      D’autre part \(\begin{pmatrix}0&-1\\ 3&2\end{pmatrix}\begin{pmatrix}x\\y\end{pmatrix}=\begin{pmatrix}-y\newline3x+2y \end{pmatrix}\) et \(v\circ u\left(x,y\right)=\left(-y,3x+2y\right)\).

Matrices carrées

Définitions

Rappelons qu’une matrice est carrée si et seulement si elle possède autant de lignes que de colonnes. L’ensemble des matrices carrées de taille \(n\) est noté \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\).

  • \(\left(\mathfrak{M}_{n}\left(\mathbb{K}\right),+,\cdot\right)\) possède une structure d’espace vectoriel de dimension finie \(n^2\).

  • \(\left(\mathfrak{M}_{n}\left(\mathbb{K}\right),+,\times\right)\) possède une structure d’anneau unitaire (non commutatif).

Le premier point est un corollaire immédiat des propositions [prop_ev_matrice14:52:53] et [base_ev_matrices14:53:34]. On vérifie facilement les axiomes d’un anneau pour \(\left(\mathfrak{M}_{n}\left(\mathbb{K}\right),+,\times\right)\).
Comme \(\left(\mathfrak{M}_{n}\left(\mathbb{K}\right),+,\times\right)\) est un anneau, pour deux matrices \(A,B\in \mathfrak{M}_{n}\left(\mathbb{K}\right)\), on pourra utiliser la formule du binôme de Newton (voir le théorème [formule_binome_anneau14:59:12] page [formule_binome_anneau14:59:12]) dès que \(A\) et \(B\) commutent, c’est-à-dire dès que \(AB=BA\).
Calculons les puissance de \(A=\begin{pmatrix}1&-1&1\\0&1&-1\\0&0&1 \end{pmatrix}\). On remarque que \(A=I_3+B\) avec \(B=\begin{pmatrix}0&-1&1\\0&0&-1\\0&0&0 \end{pmatrix}\). On remarque aussi que \(B^2=\begin{pmatrix}0&0&1\\0&0&0\\0&0&0\end{pmatrix}\) et que \(B^3=0\). Comme \(I_3B=B I_3=B\), on peut appliquer la formule du binôme et écrire pour \(n\geqslant 2\) : \[A^n=\sum_{k=0}^n \dbinom{n}{k} I_3^{n-k}B^k= I_3+n B + \dfrac{n\left(n-1\right)}{2}B^2 =\begin{pmatrix}1&-n& {\scriptstyle n\left(n+1\right)\over\scriptstyle 2}\\0&1&-n\newline0&0&1 \end{pmatrix}.\] Par un calcul direct, on montre que cette égalité reste correcte si \(n=0,1\) d’où le résultat.
(Matrice d’un endomorphisme dans une base).
Soient \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\) et \(e\) une base de \(E\). Soit \(u\in \mathfrak{L}\left(E\right)\) un endomorphisme de \(E\). On appelle matrice de l’endomorphisme \(u\) dans la base \(e\) la matrice notée \(\textrm{ Mat}_{e}\left(u\right)\) et donnée par : \[\textrm{ Mat}_{e}\left(u\right) = \textrm{ Mat}_{e \gets e}\left(u\right)\] Remarquons que \(\textrm{ Mat}_{e}\left(u\right)\) est une matrice carrée : \(\textrm{ Mat}_{e}\left(u\right)\in \mathfrak{M}_{n}\left(\mathbb{K}\right)\).
(Un endomorphisme est entièrement déterminé par sa matrice dans une base).
Soient \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\) et \(e\) une base de \(E\). Alors, l’application \[\theta: \left\{ \begin{array}{ccl} \mathfrak{L}\left(E\right) & \longrightarrow & \mathfrak{M}_{n}\left(\mathbb{K}\right) \newline u & \longmapsto & \textrm{ Mat}_{e}\left(u\right) \end{array} \right.\] est un isomorphisme d’anneaux et d’espaces vectoriels. En particulier, si \(M\in \mathfrak{M}_{n}\left(\mathbb{K}\right)\), il existe un unique endomorphisme \(u\in \mathfrak{L}\left(E\right)\) tel que \(\theta^{-1}\left(M\right)=u\). On dit que \(u\) est l’endomorphisme de \(E\) représenté par \(M\) dans la base \(e\).
Le fait que \(\theta\) est un isomorphisme d’espaces vectoriels est un cas particulier du théorème [isom_lin_mat]. Par ailleurs, si \(u,v\in \mathfrak{L}\left(E\right)\) alors \(\theta\left(u\circ v\right) = \textrm{ Mat}_{e}\left(u\circ v\right) = \textrm{ Mat}_{e}\left(u\right)\textrm{ Mat}_{e}\left( v\right)=\theta\left(u\right) \theta\left(v\right)\) ce qui prouve que \(\theta\) est un morphisme d’anneaux.
(Autrement dit  :).
Avec les notations de la proposition précédente, se fixant une base \(e\) de \(E\) :
  • A toute matrice \(A\) de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) correspond un et un seul endomorphisme \(u\) de \(E\) dont la matrice dans la base \(e\) est \(A\).

  • Réciproquement, à tout endomorphisme de \(E\) correspond une et une seule matrice de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) qui le représente dans la base \(e\).

Éléments inversibles dans \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\), groupe \(GL_{n}\left(\mathbb{K}\right)\)

(Matrice inversible).
On dit qu’une matrice carrée \(A\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est inversible si et seulement si il existe \(B\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) tel que : \[AB=I_n \quad \textrm{ et} \quad BA=I_n\] Si tel est le cas \(B\) est unique et est appelée matrice inverse de la matrice \(A\); on la note \(A^{-1}\). L’ensemble des matrices de taille \(n\) est noté \(GL_{n}\left(\mathbb{K}\right)\).
Soit \(B\) et \(B'\) deux matrices de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) telles que \(AB=BA=I_n\) et \(AB'=B'A=I_n\). On a donc \[B = BI_n = B\left(AB'\right) = \left(BA\right)B' = I_nB' = B'.\]
La matrice \(A= \begin{pmatrix} 1 & 1 \\ 0 & 1 \\ \end{pmatrix}\) est inversible. En effet, cherchons son inverse sous la forme \(B= \begin{pmatrix} x&y\\z&t\end{pmatrix}\). Comme \(AB=I_2\) on a le système :\(\begin{cases}x+z=1\\y+t=0\\z=0\\t=1 \end{cases}\) qu’on résout et on trouve \(B=\begin{pmatrix}1&-1\newline0&1 \end{pmatrix}\). On vérifie que \(AB=BA=I_3\) donc \(B=A^{-1}\).
On comprend grâce à cet exemple qu’il va falloir développer des outils plus sophistiqués si on veut montrer sans trop de calculs qu’une matrice est inversible. Ces outils seront le rang (voir paragraphe [para_rang_jeudi_06_mai_2010]) et le déterminant (voir paragraphe [para_det_jeudi_06_mai_2010]). On montrera aussi dans ce dernier paragraphe comment, grâce à la notion de comatrice, on pourra calculer l’inverse de matrices inversibles de taille pas trop grande.

La proposition suivante permet de traduire la notion d’inversibilité entre les matrices et les applications linéaires.

(Une application linéaire est inversible si et seulement si sa matrice est inversible).
Soient \(e\) et \(f\) des bases respectives des \(\mathbb{K}\)-espace vectoriels  \(E\) et \(F\) tous deux de dimension \(n\), \(u\in\mathfrak{L}\left(E,F\right)\) et \(A=\textrm{ Mat}_{f \gets e}\left(u\right)\). Alors \(A\) est inversible si et seulement si \(u\) est un isomorphisme.
  • Supposons que \(A\) est inversible. Alors il existe \(B\in \mathfrak{M}_{n}\left(\mathbb{K}\right)\) tel que \(AB=BA=I_n\). Soit \(v\) élément de \(\mathfrak{L}\left(E,F\right)\) tel que \(B=\textrm{ Mat}_{e \gets f}\left(v\right)\). On a : \[\textrm{ Mat}_{e \gets e}\left(Id_E\right)=I_n=BA=\textrm{ Mat}_{e \gets f}\left(v\right) \textrm{ Mat}_{f \gets e}\left(u\right) = \textrm{ Mat}_{e \gets e}\left(v\circ u\right).\] Par conséquent : \(v\circ u = Id_F\). De même, on a : \[\textrm{ Mat}_{f \gets f}\left(Id_F\right)=I_n=AB= \textrm{ Mat}_{f \gets e}\left(u\right) \textrm{ Mat}_{e \gets f}\left(v\right)= \textrm{ Mat}_{f \gets f}\left(u\circ v\right).\] Par conséquent : \(u\circ v = Id_E\). On a ainsi prouvé que \(u\) est un isomorphisme de \(E\) dans \(F\) d’application réciproque \(v\).

  • Réciproquement si \(u\) est un isomorphisme de \(E\) dans \(F\) alors notons \(v:F \rightarrow E\) son application réciproque. Posons \(B= \textrm{ Mat}_{e \gets f}\left(v\right)\). On a :

    \[AB=\textrm{ Mat}_{f \gets e}\left(u\right) \textrm{ Mat}_{e \gets f}\left(v\right)= \textrm{ Mat}_{f \gets f}\left(u\circ v\right)=\textrm{ Mat}_{f \gets f}\left(Id_F\right)=I_n\] et \[BA=\textrm{ Mat}_{e \gets f}\left(v\right) \textrm{ Mat}_{f \gets e}\left(u\right) = \textrm{ Mat}_{e \gets e}\left(v\circ u\right)= \textrm{ Mat}_{e \gets e}\left(Id_E\right)=I_n\] et donc \(A\) est inversible de matrice inverse \(B\).

(Si \(E\) est de dimension \(n\), \(GL_{n}\left(\mathbb{K}\right)\) et \(GL_{ }\left(E\right)\) sont des groupes isomorphes ).
  1. \(\left(GL_{n}\left(\mathbb{K}\right),\times\right)\) est un groupe (en général non abélien).

  2. Si \(E\) est un \(\mathbb{K}\)-espace vectoriel de dimension \(n\) et si \(e\) est une base de \(E\), l’application \[\theta: \left\{ \begin{array}{ccl} GL_{ }\left(E\right) & \longrightarrow & GL_{n}\left(\mathbb{K}\right) \newline u & \longmapsto & \textrm{ Mat}_{e}\left(u\right) \end{array} \right.\] est un isomorphisme de groupe.

Le produit de deux matrices inversibles est inversible, on le démontrera dans la proposition [prop_prod_mat_inv]. Donc le produit est stable dans \(GL_{n}\left(\mathbb{K}\right)\). Il est aussi associatif, son élément neutre est la matrice identitée et par définition toute matrice de \(GL_{n}\left(\mathbb{K}\right)\) admet une matrice inverse élément de \(GL_{n}\left(\mathbb{K}\right)\). Par ailleurs :
  • \(\theta\) est bien définie car si \(u\) est un automorphisme de \(E\) alors \(\textrm{ Mat}_{e}\left(u\right)\) est inversible.

  • \(\theta\) est un morphisme de groupe : si \(\left(u,v\right)\in \left(GL_{ }\left(E\right)\right)^2\), alors \(\theta\left(u\circ v\right) = \textrm{ Mat}_{e}\left(u\circ v\right) = \textrm{ Mat}_{e}\left(u\right) \textrm{ Mat}_{e}\left(v\right)=\theta\left(u\right)\theta\left(v\right)\).

  • \(\theta\) est injective car si \(\theta\left(u\right)=I_n\) alors \(\textrm{ Mat}_{e}\left(u\right)=I_n\) et donc \(u=Id_E\).

  • Enfin, \(\theta\) est surjective car toute matrice de \(GL_{n}\left(\mathbb{K}\right)\) représente un automorphisme de \(E\).

Les deux démonstrations qui viennent sont typiques de ce chapitre. Pour démontrer une propriété sur les matrices, on la transcrit en terme d’application linéaire. Vous devez vous familiariser avec cette gymnastique.
On reprend la matrice \(A= \begin{pmatrix} 1 & 1 \\ 0 & 1 \\ \end{pmatrix}\) de l’exemple [exemple_inversion_matrice] p. [exemple_inversion_matrice].

\(A\) est la matrice, dans la base \((1,X)\), de l’endomorphisme \(u\) de \(\mathbb{K}_1[X]\) dans lui-même défini par \(u(P) = P(X+1)\).

Il est clair que l’endomorphisme \(v\) de \(\mathbb{K}_1[X]\) dans lui-même défini par \(v(P) = P(X-1)\) "défait ce que fait \(u\)" et donc que \(u\) et \(v\) sont inverses l’un de l’autre. Donc \(A\) est inversible d’après la proposition [mat_inv_implique_isom] p. [mat_inv_implique_isom]. De plus \(A^{-1}\) est la matrice de \(v\) dans la base \((1,X)\), à savoir \(\begin{pmatrix} 1 & -1 \\ 0 & 1 \newline \end{pmatrix}\).
(Une première caractérisation des matrices inversibles).

Soient \(A,B\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\). On suppose que :

  1. \(A\times B=I_n\)

alors \(A\) et \(B\) sont inversibles et inverses l’une de l’autre : \(B=A^{-1}\) et \(A=B^{-1}\).
Soient \(E\) un espace vectoriel de dimension \(n\), \(e\) une base de \(E\) et soit \(u\) l’endomorphisme de \(E\) représenté par \(A\) dans la base \(e\) et \(v\) l’endomorphisme de \(E\) représenté par \(B\) dans la base \(e\). Comme \(AB=I_n\), on a : \(I_n=AB=\textrm{ Mat}_{e}\left(u\right)\textrm{ Mat}_{e}\left(v\right)=\textrm{ Mat}_{e}\left(u\circ v\right)=\textrm{ Mat}_{e}\left(Id_E\right)\). Par conséquent : \(u\circ v=Id_E\). On en déduit que d’après le théorème [inverse_a_gauche_a_droite15:23:57] page [inverse_a_gauche_a_droite15:23:57] que \(u\) est inversible d’inverse \(v\) et donc que \(A\) est inversible d’inverse \(B\).
(Une seconde caractérisation des matrices inversibles).
\[A\in GL_{n}\left(\mathbb{K}\right) \Longleftrightarrow\left[\forall X\in\mathfrak{M}_{n,1}\left(\mathbb{K}\right), \quad AX=0 \quad\Rightarrow \quad X=0\right].\]
Soient \(E\) un espace vectoriel de dimension \(n\), \(e\) une base de \(E\) et soit \(u\) l’endomorphisme de \(E\) représenté par \(A\) dans la base \(e\) : \(A=\textrm{ Mat}_{e}\left(u\right)\). Soient \(X\in\mathfrak{M}_{n,1}\left(\mathbb{K}\right)\) et \(x\) le vecteur de \(E\) tel que \(\textrm{ Mat}_{e}\left(x\right)=X\). On a : \[AX=0 \Longleftrightarrow\textrm{ Mat}_{e}\left(u\right)\textrm{ Mat}_{e}\left(x\right) =0 \Longleftrightarrow\textrm{ Mat}_{e}\left(u\left(x\right)\right)=0.\] Si \(A\) est inversible alors \(u\) est un isomorphisme. Donc \(AX=0\) n’est possible que si \(u\left(x\right)=0\) c’est-à-dire si \(x=0\). Par conséquent \(X=0\). Réciproquement, si \(AX=0\) entraîne \(X=0\), alors \(u\left(x\right)=0\) entraîne \(x=0\) et donc \(\operatorname{Ker}u=\left\{0\right\}\) par suite \(u\) est injectif. Comme \(u\) est un endomorphisme, \(u\) est donc aussi surjectif d’après le corollaire [carac_autom15:26:38] page [carac_autom15:26:38] et définit bien un isomorphisme. Par conséquent \(A\) est inversible.
Si \(A,B\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) sont inversibles, il en est de même pour \(AB\) et : \[\boxed{\left(AB\right)^{-1}=B^{-1}A^{-1}}.\]
Supposons que \(A\) et \(B\) soient inversibles. Il existe alors \(A',B'\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) telles que : \(AA'=I_n\) et \(BB'=I_n\). Montrons que : \(B'A'\) est la matrice inverse de \(AB\) ce qui prouvera le résultat. Il suffit pour ce faire de remarquer que : \[ABB'A'=A\underbrace{B B'}_{=I_n}A' = AA'=I_n.\]
Si \(A\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\), \({A}^{\mathrm{T}}\) est inversible si et seulement si \(A\) l’est. De plus, si tel est le cas : \[\boxed{\left({A}^{\mathrm{T}}\right)^{-1}={\left(A^{-1}\right)}^{\mathrm{T}}}.\]
On a la série d’équivalences : \[A \in GL_{n}\left(\mathbb{K}\right) \Longleftrightarrow\exists B\in\mathfrak{M}_{n}\left(\mathbb{K}\right):~ AB=I_n \Longleftrightarrow\exists B\in\mathfrak{M}_{n}\left(\mathbb{K}\right):~ {\left(AB\right)}^{\mathrm{T}}={I_n}^{\mathrm{T}}\Longleftrightarrow\exists B\in\mathfrak{M}_{n}\left(\mathbb{K}\right):~ {B}^{\mathrm{T}}{A}^{\mathrm{T}}=I_n \Longleftrightarrow{A}^{\mathrm{T}}\in GL_{n}\left(\mathbb{K}\right).\]
On a vu au chapitre [geom_plan] que si \(\overrightarrow{u}\) est un vecteur du plan de coordonnées \((x,y)\) dans une base orthonormale directe \(e=\left(\overrightarrow{\imath},\overrightarrow{\jmath}\right)\) et si \(R_\theta\) est la rotation vectorielle d’angle \(\theta \in\mathbb{R}\) alors les coordonnées de \(R_\theta\left(\overrightarrow{u}\right)\) dans \(e\) sont : \(\left(x',y'\right)= \left(\cos \theta x-\sin \theta y,\sin \theta x+\cos \theta y\right)\) . On a donc :

\[\textrm{ Mat}_{e}\left(R_\theta\right)=\left(\begin{array}{cc} \cos \theta&-\sin \theta \\ \sin \theta&\cos \theta \end{array}\right).\]

Remarquons que \(R_\theta\) est un automorphisme du plan, de bijection réciproque : \(R_{-\theta}\). On a par ailleurs bien : \[\textrm{ Mat}_{e}\left(R_\theta\right) \textrm{ Mat}_{e}\left(R_{-\theta}\right)= \left(\begin{array}{cc} \cos \theta&-\sin \theta \\ \sin \theta&\cos \theta \end{array}\right) \left(\begin{array}{cc} \cos \theta&\sin \theta \\ -\sin \theta&\cos \theta \end{array}\right)=I_2.\] Remarquons que \(\left(\textrm{ Mat}_{e}\left(R_\theta\right)\right)^{-1}={\textrm{ Mat}_{e}\left(R_\theta\right)}^{\mathrm{T}}\). Les matrices inversibles \(A\) dont la matrice inverse est égale à leur transposée: \({A}^{\mathrm{T}}\) sont dites orthogonales.

Camille Jordan, né le 5 janvier 1838 à Lyon, mort le 22 janvier 1922 à Paris)

Image
Mathématicien Français. Camille Jordan est issu d’un milieu favorisé. Son père était polytechnicien et sa mère était la sœur du peintre Pierre Puvis de Chavannes. Il fait des études brillantes et intègre Polytechnique à la première place. Il devient ingénieur du corps des mines et mène en parallèle des recherches mathématiques. En 1876, il succède à Cauchy comme enseignant à l’école Polytechnique.
Ses travaux mathématiques portent sur la géométrie, (courbes de Jordan), mais également sur l’étude du groupe des permutations, et les séries de Fourier. Il est aussi l’auteur d’un procédé de réduction des endomorphismes tellement utile qu’il est parfois nommé jordanisation des endomorphismes. Réduire un endomorphisme consiste à trouver une base dans laquelle sa matrice prend une forme simple . Dans le cas de la jordanisation, il s’agit d’une matrice diagonale par blocs dont les blocs sont des matrices de Jordan (voir l’exercice ). Ce procédé est en particulier important pour résoudre certaines équations différentielles. Ajoutons que Jordan était réputé pour l’excentricité de ses notations. Il prend sa retraite en 1912. Celle-ci est marquée par le décès de trois de ses huit enfants durant la première guerre mondiale.

Trace d’une matrice

(Trace d’une matrice carrée).
Soit \(A=\left(a_{i,j}\right)\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) une matrice carrée. On appelle trace de \(A\) et on note \(\mathop{\mathrm{Tr}}\left(A\right)\), le scalaire : \[\mathop{\mathrm{Tr}}\left(A\right)=\sum_{i=1}^n a_{i,i}\]
La trace de \(A\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est égale à la somme des éléments diagonaux de \(A\).
(Propriétés de la trace).
  • L’application \(\mathop{\mathrm{Tr}}: \left\{ \begin{array}{ccl} \mathfrak{M}_{n}\left(\mathbb{K}\right) & \longrightarrow & \mathbb{K} \newline A & \longmapsto & \mathop{\mathrm{Tr}}\left(A\right) \end{array} \right.\) est un forme linéaire. En particulier, si \(\alpha,\beta\in \mathbb{K}\) et si \(A,B\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) alors \(\boxed{\mathop{\mathrm{Tr}}\left(\alpha A + \beta B\right) = \alpha\mathop{\mathrm{Tr}}\left(A\right) + \beta \mathop{\mathrm{Tr}} \left(B\right)}\).

  • \(\forall A,B \in \mathfrak{M}_{n}\left(\mathbb{K}\right), \quad \boxed{\mathop{\mathrm{Tr}}\left(AB\right)=\mathop{\mathrm{Tr}}\left(BA\right)}\).

  • La linéarité de la trace est laissée en exercice.

  • Soient \(A,B \in \mathfrak{M}_{n}\left(\mathbb{K}\right)\). On suppose que \(A=\left(a_{i,j}\right)\) et \(B=\left(b_{i,j}\right)\). On a : \(\mathop{\mathrm{Tr}}\left(AB\right)= \sum_{i=1}^n\left(\sum_{k=1}^n a_{i,k} b_{k,i}\right)\) et \(\mathop{\mathrm{Tr}}\left(BA\right)= \sum_{i=1}^n\left(\sum_{k=1}^n a_{k,i} b_{i,k}\right)\) et ces deux quantités sont bien égales.

(En résumé : Opérations sur les matrices ).
  1. Si \(A,B\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) et si \(\alpha,\beta \in\mathbb{K}\), alors : \[{\left({A}^{\mathrm{T}}\right)}^{\mathrm{T}}=A\] \[{\left(\alpha A + \beta B \right)}^{\mathrm{T}} = \alpha {A}^{\mathrm{T}} + \beta {B}^{\mathrm{T}}\] \[{\left(AB\right)}^{\mathrm{T}}={B}^{\mathrm{T}}{A}^{\mathrm{T}}\]

  2. Si \(A,B\in GL_{n}\left(\mathbb{K}\right)\), \[\left(AB\right)^{-1}=B^{-1}A^{-1}\] \[\left({A}^{\mathrm{T}}\right)^{-1}={\left(A^{-1}\right)}^{\mathrm{T}}\]

  3. Si \(A,B\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) et si \(\alpha,\beta \in\mathbb{K}\), alors : \[\mathop{\mathrm{Tr}}\left(\alpha A + \beta B\right) = \alpha\mathop{\mathrm{Tr}}\left(A\right) + \beta \mathop{\mathrm{Tr}}\left(B\right)\] \[\mathop{\mathrm{Tr}}\left(AB\right)=\mathop{\mathrm{Tr}}\left(BA\right)\]

Matrices carrées remarquables

Matrices scalaires, diagonales, triangulaires

Nous allons nous intéresser à deux types particuliers de matrice dans cette section: les matrices diagonales et les matrices triangulaires. Les premières se multiplient et s’inversent très facilement (quand c’est possible évidemment). Avec les secondes, les calculs sont plus difficiles mais moins que dans le cas de matrices quelconques.

(Matrices scalaires, diagonales).
  • Une matrice \(D\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est diagonale si et seulement si : \[\forall i,j\in\llbracket 1,n\rrbracket \quad i\neq j \Rightarrow d_{i,j}=0\] \[D=\begin{pmatrix} \lambda_1 & 0 & \dots & 0 \\ 0 & \lambda_2 &\ddots & \vdots\\ \vdots& \ddots & \ddots & 0 \newline 0 & \dots & 0 & \lambda_n \end{pmatrix}.\] On notera \(D=\mathrm{Diag}\left(\lambda_1,\ldots,\lambda_2\right)\) ainsi que \(\mathcal{D}_n\left(\mathbb{K}\right)\) l’ensemble des matrices diagonales de taille \(n\).

  • Les matrices diagonales de la forme \(\mathrm{Diag}\left(\lambda,\ldots,\lambda\right)\)\(\lambda\in\mathbb{K}\) sont appelées matrices scalaires.

Une matrice \(A \in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est scalaire si et seulement si il existe \(\lambda\in\mathbb{K}\) tel que \(A=\lambda I_n\).
(Matrice triangulaire supérieure).
On dit que \(T\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est triangulaire supérieure lorsque : \[\forall i,j\in\llbracket 1,n\rrbracket \quad i>j \Rightarrow t_{i,j}=0\] \(T\) est de la forme : \[T=\begin{pmatrix} t_{11} & & \dots & t_{1n} \\ 0 & t_{22} & & \\ \vdots &\ddots & \ddots & \vdots \newline 0 & \dots & 0 & t_{nn} \end{pmatrix}\] On note \(\mathcal{T}_n\left(\mathbb{K}\right)\) l’ensemble des matrices triangulaires supérieures de taille \(n\).
(Dimension du sous-espace des matrices diagonales et du sous-espace des matrices triangulaires).
  1. Le sous-ensemble des matrices scalaire de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est un sous-espace vectoriel de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) de dimension \(1\).

  2. Le sous-ensemble des matrices diagonales \(\mathcal{D}_n\left(\mathbb{K}\right)\) de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est un sous-espace vectoriel de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) de dimension \(n\).

  3. Le sous-ensemble des matrices triangulaires supérieures \(\mathcal{T}_n\left(\mathbb{K}\right)\) de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est un sous-espace vectoriel de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) de dimension \(\dfrac{n\left(n+1\right)}{2}\).

  • Le fait que chacun de ces quatre sous-ensembles de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) sont des sous-espaces vectoriels de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est laissé en exercice au lecteur.

  • La matrice identité engendre clairement le sous-ensemble des matrices scalaire de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\). Par conséquent ce sous-ensemble est de dimension \(1\).

  • Les matrices élémentaires \(\left(E_{i,i}\right)_{i\in\llbracket 1,n\rrbracket}\) engendrent clairement le sous-ensemble des matrices diagonales \(\mathcal{D}_n\left(\mathbb{K}\right)\) de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\). Comme cette famille est une sous-famille d’une famille libre, elle est libre et forme donc une base de \(\mathcal{D}_n\left(\mathbb{K}\right)\). Par conséquent : \(\dim \mathcal{D}_n\left(\mathbb{K}\right)=n\).

  • De même les matrices élémentaires \(\left(E_{i,j}\right)_{i,j\in\llbracket 1,n\rrbracket,j\geqslant i}\) engendrent le sous-ensemble des matrices triangulaires supérieures \(\mathcal{T}_n\left(\mathbb{K}\right)\) de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\). Comme cette famille est une sous-famille d’une famille libre, elle est libre et forme donc une base de \(\mathcal{T}_n\left(\mathbb{K}\right)\). Il y a \(\dfrac{n\left(n+1\right)}{2}\) de telles matrices et donc : \(\dim \mathcal{T}_n\left(\mathbb{K}\right) = \dfrac{n\left(n+1\right)}{2}\).

(Opérations algébriques avec les matrices diagonales et les matrices triangulaires supérieures).
  • Si \(D_1\) et \(D_2\) sont deux matrices diagonales dont les coefficients diagonaux sont respectivement \(\lambda_1,\ldots,\lambda_n\) et \(\mu_1,\ldots,\mu_n\), \(D_1 D_2\) est diagonale et ses coefficients diagonaux sont \(\lambda_1 \mu_1,\ldots,\lambda_n \mu_n\).

  • Si \(T_1\) et \(T_2\) sont deux matrices triangulaires supérieures dont les coefficients diagonaux sont respectivement \(\lambda_1,\ldots,\lambda_n\) et \(\mu_1,\ldots,\mu_n\), \(T_1 T_2\) est triangulaire supérieure et ses coefficients diagonaux sont \(\lambda_1 \mu_1,\ldots,\lambda_n \mu_n\).

  • Si \(N\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est une matrice triangulaire supérieure dont tous les coefficients diagonaux sont nuls, alors \(N^n=0\); on dit que \(N\) est nilpotente.

Exercice.
(Inverse d’une matrice diagonale et d’une matrice triangulaire).
  • Une matrice diagonale \(D=\mathrm{Diag}\left(\lambda_1,\ldots,\lambda_n\right)\) est inversible si et seulement si tous ses coefficients diagonaux sont non nuls. Dans ce cas : \[D^{-1}=\mathrm{Diag}\left({\lambda_1}^{-1},\ldots,{\lambda_n}^{-1}\right)\]

  • Une matrice triangulaire supérieure \(T\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) de la forme : \[T=\begin{pmatrix} t_{11} & * & \dots & * \\ 0 & t_{22} & & \\ \vdots &\ddots & \ddots & \vdots \\ 0 & \dots & 0 & t_{nn} \end{pmatrix}\]

    est inversible si et seulement si tous ses coefficients diagonaux sont non nuls. Dans ce cas, \(T^{-1}\) est de la forme : \[T=\begin{pmatrix} t_{11}^{-1} & * & \dots & * \\ 0 & t_{22}^{-1} & & * \\ \vdots &\ddots & \ddots & \vdots \newline 0 & \dots & 0 & t_{nn}^{-1} \end{pmatrix}.\]

  • Soit \(D=\mathrm{Diag}(\lambda_1,\ldots,\lambda_n)\) une matrice diagonale. Supposons que : \(\forall k\in\llbracket 1,n\rrbracket,~~\lambda_k\neq 0\) alors clairement la matrice \(\mathrm{Diag}({\lambda_1}^{-1},\ldots,{\lambda_n}^{-1})\) est la matrice inverse de \(D\). Réciproquement, si un des coefficients, \(\lambda_1\) par exemple est nul. Alors, posant \(X={\left(1,0,\dots,0\right)}^{\mathrm{T}}\in\mathfrak{M}_{n,1}\left(\mathbb{K}\right)\), on a \(AX=0\) et \(X\neq 0\) donc, appliquant la proposition [test_inversible], \(A\) n’est pas inversible.

  • De même si \(T\) est une matrice triangulaire supérieure telle que ses coefficients diagonaux sont non nuls, alors en posant \(X={\left(x1,\dots,x_n\right)}^{\mathrm{T}}\in\mathfrak{M}_{n,1}\left(\mathbb{K}\right)\), on a : \(TX=0\) si et seulement si : \[\left\{ \begin{aligned} \lambda_1 x_1 + a_{1,2} x_2 +a_{1,3}x_3+ \dots+ a_{1,n}x_n&=0 \\ \lambda_2 x_2 + a_{2,3} x_3 + \dots+ a_{2,n}x_n&=0 \\ \vdots\quad &= \vdots\newline \lambda_n x_n&=0 \end{aligned} \right.\] comme les \(\lambda_i\), pour \(i\in\llbracket 1,n\rrbracket\) sont non nuls, ce système possède comme unique solution le \(n\)-uplet nul donc \(X=0\) et appliquant à nouveau la proposition [test_inversible], \(A\) n’est pas inversible. Réciproquement, si un des coefficient, \(\lambda_1\) par exemple est nul, alors en posant \(X={\left(1,0,\dots,0\right)}^{\mathrm{T}}\in\mathfrak{M}_{n,1}\left(\mathbb{K}\right)\), on a \(AX=0\) et \(X\neq 0\) donc, appliquant la proposition [test_inversible], \(A\) n’est pas inversible.

Matrices symétriques, antisymétriques

(Matrices symétriques, antisymétriques).
Soit \(A\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\).
  • On dit que \(A\) est symétrique si et seulement si \({A}^{\mathrm{T}}=A\) c’est-à-dire si et seulement si : \[\forall i,j\in\llbracket 1,n\rrbracket \quad a_{j,i}=a_{i,j}\] L’ensemble des matrices symétriques de taille \(n\) est noté \(\mathcal{S}_n\left(\mathbb{K}\right)\).

  • On dit que \(A\) est antisymétrique si et seulement si \({A}^{\mathrm{T}}=-A\) c’est-à-dire si et seulement si : \[\forall i,j\in\llbracket 1,n\rrbracket \quad a_{j,i}=-a_{i,j}\] L’ensemble des matrices antisymétriques de taille \(n\) est noté \(\mathcal{A}_n\left(\mathbb{K}\right)\) à \(n\) lignes et \(n\) colonnes.

Par définition, si \(A=\left(a_{i,j}\right)\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est antisymétrique, et si \(i\in\llbracket 1,n\rrbracket\) alors \(a_{i,i}=-a_{i,i}\) et donc \(a_{i,i}=0\). Les coefficients diagonaux d’une matrice antisymétrique sont donc nuls.
\(\mathcal{S}_n\left(\mathbb{K}\right)\) et \(\mathcal{A}_n\left(\mathbb{K}\right)\) sont des sous-espaces vectoriels supplémentaires de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\). De plus : \[\boxed{\dim \mathcal{S}_n\left(\mathbb{K}\right) = \dfrac{n\left(n+1\right)}{2}} \quad \textrm{ et} \quad \boxed{\dim \mathcal{A}_n\left(\mathbb{K}\right) = \dfrac{n\left(n-1\right)}{2}}\]
Posons, pour tout \(i,j\in\llbracket 1,n\rrbracket\), \(i<j\) posons \(F_{i,j}=E_{i,j}+E_{j,i}\) et \(H_{i,j}=E_{i,j}-E_{j,i}\)\(E_{i,j}\) désigne la matrice élémentaire \(\left(i,j\right)\). On a : \[\mathcal{S}_n\left(\mathbb{K}\right)=Vect{\left\{F_{i,j},E_{i,i}~|~ i,j\in\llbracket 1,n\rrbracket,i<j\right\}}\] et \[\mathcal{A}_n\left(\mathbb{K}\right) = Vect\left(\left\{H_{i,j}~|~ i,j\in\llbracket 1,n\rrbracket,i<j\right\}\right)\] ce qui prouve que ces deux ensembles sont des sous-espaces vectoriels de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\). De plus, on vérifie facilement que les familles \(\left(F_{i,j},E_{i,i}~|~ i,j\in\llbracket 1,n\rrbracket,i<j\right)\) et \(\left(H_{i,j}~|~ i,j\in\llbracket 1,n\rrbracket,i<j\right)\) sont libres de cardinal respectif \(\dfrac{n\left(n+1\right)}{2}\) et \(\dfrac{n\left(n-1\right)}{2}\). Elles constituent donc des bases de, respectivement, \(\mathcal{S}_n\left(\mathbb{K}\right)\) et \(\mathcal{A}_n\left(\mathbb{K}\right)\) ce qui donne leur dimension. On vérifie de plus facilement que si une matrice est à la fois symétrique et antisymétrique, elle est nulle et donc \(\mathcal{S}_n\left(\mathbb{K}\right) \cap \mathcal{A}_n\left(\mathbb{K}\right)=\left\{0\right\}\). Comme de plus : \(\dim \mathcal{S}_n\left(\mathbb{K}\right) +\dim \mathcal{A}_n\left(\mathbb{K}\right)= \dim \mathfrak{M}_{n}\left(\mathbb{K}\right) = n^2\) on peut affirmer que ces deux sous-espaces sont supplémentaires dans \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\).

Matrices de transvection et de dilatation, opérations élémentaires sur les lignes et les colonnes d’une matrice

On considère dans tout ce paragraphe une matrice

\[A=\left(\begin{array}{ccc} a_{1,1}&\dots&a_{1,p}\\ \vdots& &\vdots\newline a_{n,1}&\dots&a_{n,p} \end{array}\right) \in \mathfrak{M}_{n,p}\left(\mathbb{K}\right).\]

(Opérations élémentaires sur les lignes ou les colonnes d’une matrice).
On appelle opération élémentaire sur les lignes (respectivement sur les colonnes) de la matrice \(A\) une des opérations suivantes :
  1. Addition d’une ligne (respectivement d’une colonne) à une autre ligne (respectivement à une autre colonne).

  2. Multiplication d’une ligne (respectivement d’une colonne) par un scalaire .

  3. Échange de deux lignes (respectivement de deux colonnes)

On note, pour tous \({i,j}\in\llbracket 1,n\rrbracket\) et tout \(\lambda \in\mathbb{K}^*\) :
  • \(L_i \gets \lambda L_i\) la multiplication de la ligne \(i\) par le scalaire \(\lambda\).

  • \(L_i \gets L_i+\lambda L_j\) l’addition de la ligne \(\lambda L_j\) à la ligne \(L_i\).

  • \(L_i \leftrightarrow L_j\) l’échange des lignes \(i\) et \(j\).

On a des notations analogues avec les colonnes.

Nous noterons, pour tout \(i\in\llbracket 1,n\rrbracket\) et tout \(j\in\llbracket 1,p\rrbracket\), \(E_{ij}\) la matrice élémentaire de \(\mathfrak{M}_{n,p}\left(\mathbb{K}\right)\) dont tous les coefficients sont nuls sauf celui à l’intersection de la \(i\)-ème ligne et de la \(j\)-ème colonne et qui vaut \(1\).
(Traduction des oel en termes matriciels).
On a le tableau de correspondances :

\(k\) oel matrice \(P\)
\(1\) \(L_i \gets L_i+\lambda L_j\) \(I_n+\lambda E_{i,j}\) Matrice de transvection
\(2\) \(L_i \gets \lambda L_i\) \(I_n-E_{i,i}+\lambda E_{i,i}\) Matrice de dilatation
\(3\) \(L_i \leftrightarrow L_j\) \(I_n-E_{i,i}-E_{j,j}+E_{i,j}+E_{j,i}\)
qui se lit ainsi : Effectuer l’opération élémentaire n°\(k\) sur les lignes de \(A\) revient à multiplier \(A\) par la matrice inversible \(P\)
Par un calcul direct.
(Traduction des oec en termes matriciels).
On a le tableau de correspondances :
\(k\) oec matrice \(P\)
\(1\) \(C_i \gets \lambda C_i+\lambda C_j\) \(I_p+\lambda E_{i,j}\) Matrice de transvection
\(2\) \(C_i \gets \lambda C_i\) \(I_p-E_{i,i}+\lambda E_{i,i}\) Matrice de dilatation
\(3\) \(C_i \leftrightarrow C_j\) \(I_p-E_{i,i}-E_{j,j}+E_{i,j}+E_{j,i}\)
qui se lit ainsi : Effectuer l’opération élémentaire n°\(k\) sur les colonnes de \(A\) revient à multiplier \(A\) par la matrice inversible \(P\)
Par un calcul direct.

Matrices de changement de base

Comme leur nom l’indique, les matrices de changement de base vont nous permettre de calculer la matrice d’une application linéaire dans des bases données quand on connaît cette matrice pour d’autres bases.

(Matrice de changement de base).
Soient \(e=\left(e_1,\dots,e_n\right)\) et deux bases du \(\mathbb{K}-\)espace vectoriel  \(E\) de dimension \(n\). On appelle matrice de passage de \(e\) à \(f\) (ou matrice de changement de base) et on note \(P_{e \rightarrow f}\) la matrice de la famille \(\left(f_1,\ldots,f_n\right)\) relativement à la base \(e\) : \[P_{e \rightarrow f}=\textrm{ Mat}_{e}\left(f_1,\ldots,f_n\right)\]
\(P_{e \rightarrow f} \in\mathfrak{M}_{n}\left(\mathbb{K}\right)\).
(Propriétés des matrices de changement de base).

Soient \(e\), \(f\) et \(g\) trois bases du \(\mathbb{K}\)-espace vectoriel \(E\) de dimension \(n\). On a :

  1. \[\boxed{P_{e \rightarrow f}=\textrm{ Mat}_{e\gets f}\left(id_E\right)}\]

  2. \[\boxed{P_{e \rightarrow g}=P_{e \rightarrow f}\times P_{f \rightarrow g}}\]

  3. \(P_{e \rightarrow f}\) est inversible et : \[\boxed{\left[P_{e \rightarrow f}\right]^{-1}=P_{f \rightarrow e}}\]

  1. La première égalité est laissée en exercice.

  2. On a, par application du théorème [comp_appl_lin_matrice] : \(P_{e \rightarrow f}\times P_{f \rightarrow g} = \textrm{ Mat}_{e\gets f}\left(id_E\right)\times \textrm{ Mat}_{f\gets g}\left(id_E\right)= \textrm{ Mat}_{e\gets g}\left(id_E\circ id_E\right)=\textrm{ Mat}_{e\gets g}\left(id_E\right) = P_{e \rightarrow g}\).

  3. Par application de la proposition précédente, on a : \(P_{e \rightarrow f} \times P_{f \rightarrow e} = P_{e \rightarrow e}=I_n\) et \(P_{f \rightarrow e} \times P_{e \rightarrow f} = P_{f \rightarrow f}=I_n\) Par conséquent, \(P_{e \rightarrow f}\) est inversible et : \(\left[P_{e \rightarrow f}\right]^{-1}=P_{f \rightarrow e}\).

(Caractérisation matricielle de la liberté d’une famille de vecteurs).
Soient \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\), \(e\) une base de \(E\) et \(x\) une famille de \(n\) vecteurs de \(E\). Alors, la famille \(x\) est libre si et seulement si la matrice des \(n\) vecteurs de la famille \(x\) dans la base \(e\), \(\textrm{ Mat}_{e}\left(x_1,\dots,x_n\right)\) est inversible.
  • Supposons que la famille \(x\) soit libre. Comme elle est de cardinal \(n\), elle forme une base de \(e\) et donc, appliquant la propriété précédente, \(\textrm{ Mat}_{e}\left(x_1,\dots,x_n\right)=P_{e \rightarrow x}\) est une matrice de passage de la base \(e\) à la base \(x\) et est donc inversible.

  • Réciproquement, si \(\textrm{ Mat}_{e}\left(x_1,\dots,x_n\right)\) est inversible alors cette matrice représente un automorphisme \(u\) de \(E\) dans la base \(e\) et comme l’image d’une base de \(E\) par un automorphisme de \(E\) est une base de \(E\), on en déduit que \(x\) est une base de \(E\). En particulier \(x\) est libre.

(Toute matrice inversible s’interprète comme une matrice de changement de base).
Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\) et \(e\) une base de \(E\). Alors pour toute matrice inversible \(A\in GL_{n}\left(\mathbb{K}\right)\), il existe une unique base \(e'\) de \(E\) telle que \(A=P_{e \rightarrow e'}\).
Soit \(A\in GL_{n}\left(\mathbb{K}\right)\). Les vecteurs colonnes de \(A\) sont les coordonnées d’une famille de vecteurs \(f\) dans la base \(e\) : \(A=\textrm{ Mat}_{e}\left(f_1,\dots,f_n\right)\). Par application de la proposition précédente, la famille \(f\) est libre et donc \(A=\textrm{ Mat}_{e}\left(f\right)=P_{e\rightarrow f}\).

Changement de base

Pour un vecteur

(Formule de changement de base pour un vecteur).
Soient \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\). Considérons \(e\) et \(f\) deux bases de \(E\) et \(x\in E\). Alors : \[\boxed{\textrm{ Mat}_{f}\left(x\right)=P_{f\rightarrow e} \times\textrm{ Mat}_{e}\left(x\right)}.\]
Posons \(\textrm{ Mat}_{f}\left(x\right)=\left(X'_i\right)\in\mathfrak{M}_{n,1}\left(\mathbb{K}\right)\), \(\textrm{ Mat}_{e}\left(x\right)=\left(X_i\right) \in \mathfrak{M}_{n,1}\left(\mathbb{K}\right)\) et \(P_{f\rightarrow e}=\left(a_{i,j}\right)\in\mathfrak{M}_{n,n}\left(\mathbb{K}\right)\). On a : \[x=\sum_{i=1}^n X'_i f_i = \sum_{j=1}^n X_j e_j \quad \textrm{ et} \quad\forall i\in \llbracket 1,n\rrbracket,\quad e_j=\sum_{i=1}^n a_{i,j}f_i.\] Par conséquent : \[\begin{aligned} x&=&\sum_{j=1}^n X_j e_j\\ &=&\sum_{j=1}^n X_j\left(\sum_{i=1}^n a_{i,j}f_i\right)\\ &=&\sum_{i=1}^n \left(\sum_{j=1}^n a_{i,j}X_j\right) f_i\\ &=&\sum_{i=1}^n X'_i f_i\end{aligned}\] Donc, par identification, on a bien : \(\forall i\in\llbracket 1,n\rrbracket,\quad X'_i=\sum_{j=1}^n a_{i,j}X_j\).
On peut aussi prouver ce résultat de la façon suivante : \[\begin{aligned} \textrm{ Mat}_{f}\left(x\right) &=& \textrm{ Mat}_{f}\left(Id_E\left(x\right)\right)\\ &=&\textrm{ Mat}_{f\gets e}\left(Id_E\right)\times\textrm{ Mat}_{e}\left(x\right) \textrm{ par application de ref@prod\_mat\_vect@finref}\newline &=&P_{f\rightarrow e} \times\textrm{ Mat}_{e}\left(x\right)\end{aligned}\]

Pour une application linéaire

(Formule de changement de base pour une application linéaire).

On considère :

  • \(e\) et \(e'\) deux bases du \(\mathbb{K}\)-espace vectoriel \(E\)

  • \(f\) et \(f'\) deux bases du \(\mathbb{K}\)-espace vectoriel \(F\)

et \(u\in\mathfrak{L}\left(E,F\right)\). On a la formule de changement de base : \[\boxed{\textrm{ Mat}_{f'\gets e'}\left(u\right) = P_{f'\rightarrow f}\times\textrm{ Mat}_{f\gets e}\left(u\right)\times P_{e \rightarrow e'}}\]
Soit \(x\in E\) et \(y=u\left(x\right)\). Soit \(X=\textrm{ Mat}_{e}\left(x\right)\), \(Y=\textrm{ Mat}_{f}\left(y\right)\), \(X'=\textrm{ Mat}_{e'}\left(x\right)\), \(Y'=\textrm{ Mat}_{f'}\left(y\right)\), \(A=\textrm{ Mat}_{f\gets e}\left(u\right)\) et \(A'=\textrm{ Mat}_{f'\gets e'}\left(u\right)\). On a, par application du théorème [prod_mat_vect] : \(Y=AX\) et \(Y'=A'X'\). De plus, par application de la proposition précédente : \(X=P_{e\rightarrow e'}X'\) et \(Y=P_{f\rightarrow f'}Y'\). On a donc : \[Y'=P_{f'\rightarrow f}Y = P_{f'\rightarrow f} A X \quad \textrm{ et} \quad Y'=A'X' = A'P_{e'\rightarrow e}X.\] Par conséquent : \(A' P_{e'\rightarrow e} = P_{f'\rightarrow f} A\) ce qui donne bien : \(A'= P_{f'\rightarrow f}\times\textrm{ Mat}_{f\gets e}\left(u\right)\times P_{e \rightarrow e'}\). On peut aussi démontrer cette formule ainsi : \[A'=\textrm{ Mat}_{f'\gets e'}\left(u\right) = \textrm{ Mat}_{f'\gets e'}\left(Id_F\circ u \circ Id_E\right)\] \[=\textrm{ Mat}_{f'\gets f}\left(Id_F\right)\times \textrm{ Mat}_{f\gets e}\left(u\right) \times \textrm{ Mat}_{e\gets e'}\left(Id_E\right)\] \[=P_{f'\rightarrow f}\times\textrm{ Mat}_{f\gets e}\left(u\right)\times P_{e \rightarrow e'}\]

Pour un endomorphisme

(Formule de changement de base pour un endomorphisme).
On considère \(e\) et \(e'\) deux bases du \(\mathbb{K}\)-espace vectoriel \(E\) et \(u\in\mathfrak{L}\left(E\right)\). On a la formule de changement de base : \[\boxed{\textrm{ Mat}_{e'}\left(u\right) = P_{e'\rightarrow e}\times\textrm{ Mat}_{e}\left(u\right)\times P_{e \rightarrow e'}}\] qui s’écrit aussi avec \(P=P_{e \rightarrow e'}, A=\textrm{ Mat}_{e}\left(u\right)\) et \(A'=\textrm{ Mat}_{e'}\left(u\right)\) : \[\boxed{A'=P^{-1}AP}\]
C’est un corollaire immédiat de la proposition précédente.
Avec les notations précédentes, si \(A'=P^{-1}AP\) alors \(A'^n=P^{-1}A^nP\).

Pour une forme linéaire

(Formule de changement de base pour une forme linéaire).
Soient \(e\) et \(e'\) deux bases du \(\mathbb{K}\)-espace vectoriel \(E\). Si \(\varphi\) est une forme linéaire sur \(E\), on a : \[\boxed{\textrm{ Mat}_{e'}\left(\varphi\right) = \textrm{ Mat}_{e}\left(\varphi\right)\times P_{e \rightarrow e'}}.\]
C’est encore un corollaire immédiat de la proposition précédente.

Un exemple

Soit l’espace vectoriel \(E=\mathbb{R}^{2}\) muni de sa base canonique \(e\) et les deux vecteurs \(f_1=(1,2)\), \(f_2=(1,3)\).

  1. Montrons que le système \(f=(f_1,f_2)\) est une base de \(E\). Ces deux vecteurs ne sont pas colinéaires, ils forment donc une famille libre de \(\mathbb{R}^2\). Comme \(\dim \mathbb{R}^2=2\), \(f\) est forcément une base de \(E\). On écrit \(\textrm{ Mat}_{e}\left(f\right)=\begin{pmatrix} 1&1\\2&3 \end{pmatrix}\)

  2. On écrit la matrice de passage \(P_{e\rightarrow f}=\begin{pmatrix} 1&1\\2&3 \end{pmatrix}\).

  3. On inverse cette matrice en cherchant une matrice \(B=\begin{pmatrix} x&y\\z&t \end{pmatrix}\) telle que \(P_{e\rightarrow f} \times B=I_2\). On obtient un système et on trouve \(P_{f \rightarrow e}=B=\begin{pmatrix} 3&-1\\-2&1 \end{pmatrix}\)

  4. Soit le vecteur \(x=(4,1)\). On cherche matriciellement les coordonnées du vecteur \(x\) dans la base \(f\). On trouve \(\textrm{ Mat}_{f}\left(x\right)=P_{f\rightarrow e}\textrm{ Mat}_{e}\left(x\right)=\begin{pmatrix} 3&-1\\-2&1 \end{pmatrix} \begin{pmatrix}4\\1\end{pmatrix}=\begin{pmatrix}11 \\-7 \end{pmatrix}\).

  5. Soit l’endomorphisme \(u : \left\{ \begin{array}{ccl} E & \longrightarrow & E \\ (x,y) & \longmapsto & (2x+y,x-y) \end{array} \right.\). On écrit les matrices de cet endomorphisme dans les bases \(e\) et \(f\) : \(\textrm{ Mat}_{e}\left(u\right)=\begin{pmatrix} 2&1\\1&-1 \end{pmatrix}\) et \(\textrm{ Mat}_{f}\left(u\right)=P_{f\rightarrow e} \textrm{ Mat}_{e}\left(u\right) P_{e\rightarrow f}= \begin{pmatrix} 3&-1\\-2&1 \end{pmatrix} \begin{pmatrix} 2&1\\1&-1 \end{pmatrix} \begin{pmatrix} 1&1\\2&3 \end{pmatrix}=\begin{pmatrix}13&17\newline-9&-12\end{pmatrix}\).

Rang d’une matrice

On va développer dans cette section des méthodes pratiques pour :

  1. calculer le rang d’une application linéaire à partir de sa matrice dans des bases données.

  2. tester si une matrice (et donc si l’endomophisme associé) est inversible.

Définition et propriétés

(Rang d’une matrice ).
On appelle rang de \(A\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\), et on note \(\mathop{\mathrm{rg}}A\), le rang de la famille constituée des vecteurs colonnes \(C_1\),...,\(C_p\) de \(A\) dans \(\mathbb{K}^q\).
\[\mathop{\mathrm{rg}}\begin{pmatrix} 1&0&0\\0&1&0\\0&0&1 \end{pmatrix}=3,\quad \mathop{\mathrm{rg}}\begin{pmatrix} 1&1&1\\0&1&1\\0&0&1 \end{pmatrix}=3,\quad \mathop{\mathrm{rg}}\begin{pmatrix} 1&0&1\\-1&1&1\newline2&-1&0 \end{pmatrix}=2 .\]
(Le rang d’une matrice est égal au rang de l’application linéaire qu’elle représente).
Soient :
  1. \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(p\) muni d’une base \(e\).

  2. \(F\) un \(\mathbb{K}\)-espace vectoriel de dimension \(q\) muni d’une base \(f\).

  3. \(A\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\).

On sait qu’il existe une unique application linéaire \(u\in\mathfrak{L}\left(E,F\right)\) telle que \(A=\textrm{ Mat}_{f\gets e}\left(u\right)\) alors on a : \(\boxed{\mathop{\mathrm{rg}}{u}=\mathop{\mathrm{rg}}{A}}\).
D’après la proposition [prop_isom_vecteurs_matrices] page [prop_isom_vecteurs_matrices], l’application \(\theta:F \to \mathfrak{M}_{q,1}\left(\mathbb{K}\right)\) qui à un vecteur de \(F\) associe sa matrice dans la base \(f\) est un isomorphisme de \(\mathbb{K}\)-espaces vectoriels. On identifie dans la suite \(\mathfrak{M}_{q,1}\left(\mathbb{K}\right)\) et \(\mathbb{K}^q\). Notons \[\mathscr F=Vect\left(u\left(e_1\right),\dots,u\left(e_p\right)\right)\subset F \quad \textrm{ et} \quad\mathscr G=Vect\left(C_1,\dots,C_p\right)\subset \mathbb{K}^q.\] Rappelons que \(\mathop{\mathrm{rg}}{u}=\dim \mathscr F\) et que \(\mathop{\mathrm{rg}}{A}=\dim \mathscr G\). Mais \(\theta\left(\mathscr F\right)=\mathscr G\) donc \(\dim \mathscr F=\dim \mathscr G\) et \(\mathop{\mathrm{rg}}{u}=\mathop{\mathrm{rg}}{A}\).
(Une matrice carrée est inversible si et seulement si son rang est égal à sa taille).
\(A\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est inversible si et seulement si \(\mathop{\mathrm{rg}}\left(A\right)=n\).
Soient \(e\) une base d’un \(\mathbb{K}\)-espace vectoriel \(E\) de dimension \(n\) et soit \(u\) l’unique endomorphisme de \(E\) tel que : \(\textrm{ Mat}_{e}\left(u\right)=A\). On a  : \(A\) inversible \(\Longleftrightarrow\) \(u\) est un automorphisme de \(E\) \(\Longleftrightarrow\) \(\mathop{\mathrm{rg}}A=\mathop{\mathrm{rg}} u=n\).
Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\), \(e\) une base de \(E\) et \(\left(x_1,\ldots,x_n\right)\) une famille de \(n\) vecteurs de \(E\). Alors \(\textrm{ Mat}_{e}\left(x_1,\ldots,x_n\right)\) est inversible si et seulement si \(\left(x_1,\ldots,x_n\right)\) est une base de \(E\).
Soit \(u\) l’endomorphisme de \(E\) défini par : \(\forall i\in\llbracket 1,n\rrbracket,\quad u\left(e_i\right)=x_i\). Notons \(A=\textrm{ Mat}_{e}\left(x_1,\ldots,x_n\right) =\textrm{ Mat}_{e}\left(u\right)\). On a : \(A\) est inversible \(\Longleftrightarrow\) \(u\) est un automorphisme de \(E\) \(\Longleftrightarrow\) l’image d’une base de \(E\) par \(u\) est une base de \(E\).
Soit \(A\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\). On a : A est une matrice de rang \(r\) si et seulement si il existe \(Q\in GL_{q}\left(\mathbb{K}\right)\) et \(P\in GL_{p}\left(\mathbb{K}\right)\) telles que \(A=Q J_r P\)

image

  • Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(p\), \(e\) une base de \(E\), \(F\) un \(\mathbb{K}\)-espace vectoriel de dimension \(q\) et \(f\) une base de \(F\). Soit \(u\in\mathfrak{L}\left(E,F\right)\) l’unique application linéaire de \(E\) dans \(F\) telle que \(\textrm{ Mat}_{f\gets e}\left(u\right)=A\). On a : \(\mathop{\mathrm{rg}}u = \mathop{\mathrm{rg}}A=r\). Faisant comme dans la démonstration du théorème [formule_du_rang], on peut décomposer \(E\) en la somme : \(E=\operatorname{Ker}u \oplus G\)\(G\) est un sous-espace de \(E\) tel que \(u_{|G}: G \rightarrow \mathop{\rm Im}u\) est un isomorphisme. Par conséquent, \(\dim G = \dim \mathop{\rm Im}u = \mathop{\mathrm{rg}}u = r\). Soit \(\left({e'_1},\dots,{e'_r}\right)\) une base de \(G\) et \(\left(e'_{r+1},\dots,e'_p\right)\) une base de \(\operatorname{Ker}f\). \(e'=\left({e'_1},\dots,{e'_r},e'_{r+1},\dots,e'_n\right)\) est donc une base de \(E\) et l’image d’une base d’un espace vectoriel par un isomorphisme étant une base de l’espace vectoriel d’arrivée, \(\left(u\left(e'_1\right),\dots,u\left(e'_r\right)\right)\) est une base de \(\mathop{\rm Im}f\) qu’on peut compléter en une base \(f'=\left(u\left(e'1\right),\dots,u\left(e'_r\right),f'_{r+1},\dots,f'_{q}\right)\) de \(F\). On a : \(\textrm{ Mat}_{f' \gets e'}\left(u\right)=J_r\) et utilisant les formules de changement de base, on a : \[A=\textrm{ Mat}_{f\gets e}\left(u\right)=P_{f\rightarrow f'}\times \textrm{ Mat}_{f'\gets e'}\left(u\right)\times P_{e'\rightarrow e}\] qui est de la forme voulue.

  • Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(p\) et \(F\) un \(\mathbb{K}\)-espace vectoriel de dimension \(q\). Soit \(e\) une base de \(E\), \(f\) une base de \(F\) et :

    • \(e'\) une autre base de \(E\) telle que \(P_{e'\rightarrow e}=P\).

    • \(f'\) une autre base de \(F\) telle que \(P_{f'\rightarrow f}=Q\).

    Soit \(u\in\mathfrak{L}\left(E,F\right)\) tel que : \(\textrm{ Mat}_{f'\gets e'}\left(u\right)=J_r\). Interprétant la formule \(A=Q J_r P\) comme une formule de changement de base, on a : \(A=\textrm{ Mat}_{f\gets e}\left(u\right)\). Par conséquent : \(\mathop{\mathrm{rg}}A = \mathop{\mathrm{rg}}u = \mathop{\mathrm{rg}}J_r\).

(Le rang d’une matrice est égal au rang de sa transposée).
Pour tout \(A\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\), \(\mathop{\mathrm{rg}}\left({A}^{\mathrm{T}}\right)=\mathop{\mathrm{rg}}\left(A\right)\).
Posons \(r=\mathop{\mathrm{rg}}A\). En appliquant la proposition précédente, il existe \(Q\in GL_{q}\left(\mathbb{K}\right)\) et \(P\in GL_{p}\left(\mathbb{K}\right)\) telles que \(A=Q J_r P\). Par conséquent : \({A}^{\mathrm{T}}={P}^{\mathrm{T}}{ J_r}^{\mathrm{T}} {Q }^{\mathrm{T}} ={P}^{\mathrm{T}} J_r {Q }^{\mathrm{T}}\) et \({P}^{\mathrm{T}}\in GL_{p}\left(\mathbb{K}\right)\), \({Q}^{\mathrm{T}}\in GL_{q}\left(\mathbb{K}\right)\). Par conséquent, appliquant à nouveau la proposition précédente : \(\mathop{\mathrm{rg}}{A}^{\mathrm{T}} =r\).
(Matrices équivalentes).
Deux matrices \(A,B\in \mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) sont dites équivalentes si et seulement s’il existe deux matrices inversibles \(Q\in GL_{q}\left(\mathbb{K}\right)\) et \(P\in GL_{p}\left(\mathbb{K}\right)\) telles que \(A = QBP^{-1}\).
Un corollaire du théorème précédent est que deux matrices sont équivalentes si et seulement si elles ont même rang.
(Matrices semblables).
Deux matrices carrées \(A,B\in \mathfrak{M}_{n}\left(\mathbb{K}\right)\) sont dites semblables s’il existe une matrice inversible P telle que \(A = PBP^{-1}\).
Deux matrices semblables sont a fortiori équivalentes.
Deux matrices semblables ont même trace.

Calcul pratique du rang d’une matrice

(Deux matrices déduites l’une de l’autre par une oel ou une oec ont même rang).
Deux matrices obtenues l’une de l’autre par une oel ou une oec sont de même rang.
Soit \(A\in\mathfrak{M}_{n,p}\left(\mathbb{K}\right)\) et \(P\) une matrice correspondant à une oel ou une oec. \(P\) est donc inversible. Posons \(B=PA\). Soit \(r=\mathop{\mathrm{rg}}\left(A\right)\). On applique le théorème [carac_rang_matrice]. Il existe des matrices \(Q_1\in GL_{n}\left(\mathbb{K}\right)\) et \(Q_2\in GL_{p}\left(\mathbb{K}\right)\) telles que \(A=Q_1 I_r Q_2\). On a donc : \(B=PQ_1I_rQ_2=Q_0I_rQ_2\) avec \(Q_0=PQ_1\) qui est une matrice inversible de \(GL_{n}\left(\mathbb{K}\right)\). Par conséquent, \(B\) étant de la forme \(Q_0I_rQ_2\)\(Q_0\) et \(Q_1\) sont inversibles. On applique à nouveau la proposition [carac_rang_matrice] et on peut affirmer que \(B\) est de rang \(r\).
begindivlemmebegintextndtext Soit \(\alpha\in\mathbb{K}^*\). On a :

\[\mathop{\mathrm{rg}}\left(\begin{array}{c|ccc} \alpha&\star&\dots&\star\\\hline 0&&&\\ \vdots&&A'& \newline 0&&& \end{array}\right)=1+ \mathop{\mathrm{rg}}{A'}.\]

enddivlemme
Soit \[A=\left(\begin{array}{c|ccc} \alpha&\star&\dots&\star\\\hline 0&&&\\ \vdots&&A'& \newline 0&&& \end{array}\right).\] Par définition, \(\mathop{\mathrm{rg}}{A} = \dim Vect\left(L_1,\dots,L_n\right)\)\(L_1,\dots,L_n\) représentent les vecteurs colonnes de \({A}^{\mathrm{T}}\). Posons \(F=Vect\left(L_1\right)\) et \(G=Vect\left(L_2,\dots,L_n\right)\). Montrons que ces deux sous-espaces vectoriels de \(\mathbb{K}^p\) sont en somme directe. Soit \(L=\left(\ell_1,\dots,\ell_p\right)\in F \cap G\). Comme \(L\in F\), on a : \(L = \lambda L_1\). Comme \(L\in G\), on a aussi \(\ell_1=0\). Par conséquent, en regardant la première coordonnée, \(\lambda\alpha = 0\), d’où \(\lambda=0\) et donc \(L=0\). Donc \(F\) et \(G\) sont en somme directe. On a donc \(\dim Vect\left(L_1,\dots,L_n\right)=\dim F + \dim G\) ce qui s’écrit aussi \(\mathop{\mathrm{rg}}{A}=1+ \mathop{\mathrm{rg}}{A'}\).
(Application au calcul du rang d’une matrice \(A\)).
Pour calculer le rang d’une matrice, on applique le plan suivant :
  1. Si \(A=0\) alors \(\mathop{\mathrm{rg}}{A}=0\).

  2. Sinon \(A\) possède un coefficient \(\alpha\) non nul. Par des permutations de lignes et de colonnes, on peut supposer que \(\alpha\) est en position \(\left(1,1\right)\). En retranchant aux \(n-1\) dernières lignes un multiple judicieusement choisi de la première ligne, on obtient une matrice du type :

    \[\left(\begin{array}{c|ccc} \alpha&\star&\dots&\star\\\hline 0&&&\\ \vdots&&A'& \newline 0&&& \end{array}\right)\]

    et donc \(\mathop{\mathrm{rg}}{A}= 1+ \mathop{\mathrm{rg}}{A'}\)

  3. On se ramène ainsi à une matrice de taille \(\left(n-1\right)\times \left(p-1\right)\) sur laquelle il suffit de réitérer le procédé jusqu’à obtenir une matrice de taille nulle.

Calculons le rang de la matrice \(A=\begin{pmatrix} 1&-1&2&0\\0&2&1&-1\\1&-1&2&0 \end{pmatrix}\). On a \[\begin{aligned} \mathop{\mathrm{rg}}\left(A\right)=\mathop{\mathrm{rg}}{\begin{pmatrix} 1&-1&2&0\\0&2&1&-1\\1&-1&2&0 \end{pmatrix}} \xlongequal{L_3 \leftarrow L_3-L_1}\mathop{\mathrm{rg}}{\begin{pmatrix} 1&-1&2&0\\0&2&1&-1\\0&0&0&0 \end{pmatrix}} =1+\mathop{\mathrm{rg}}\begin{pmatrix} 2&1&-1\newline0&0&0 \end{pmatrix} =2+ \mathop{\mathrm{rg}}\begin{pmatrix} 0&0 \end{pmatrix}=2\end{aligned}\]
(Méthode du pivot de Gauss).
Par une suite d’oel, on peut transformer une matrice inversible en une matrice triangulaire supérieure (inversible!).
On va démontrer cette proposition en effectuant une récurrence sur la taille \(n\) de cette matrice.
  1. Si \(n=1\) la proposition est évidente.

  2. Soit \(n\in\mathbb{N}\), \(n>1\).

  3. Supposons la proposition vraie au rang \(n-1\) et prouvons la au rang \(n\). Soit \(A=\left(a_{ij}\right)\in GL_{n}\left(\mathbb{K}\right)\). Quitte à permuter les lignes de \(A\), cette matrice étant inversible, on peut supposer que \(a_{11}\neq 0\). Par des oel, en utilisant comme pivot le coefficient \(a_{11}\), on peut alors transformer \(A\) en une matrice \(B\) de la forme : \[B=\left(\begin{array}{c|ccc} a_{11}&\star&\dots&\star\\\hline 0&&&\\ \vdots&&A'& \newline 0&&& \end{array}\right)\] et on a, par application du lemme précédent : \(\mathop{\mathrm{rg}}{A}=\mathop{\mathrm{rg}}{B}= 1+ \mathop{\mathrm{rg}}{A'}\). On applique l’hypothèse de récurrence à \(A'\), on peut transformer \(A'\), via une suite finie d’oel, en une matrice triangulaire. On effectue les oel correspondantes sur la matrice \(B\) et on la transforme en une matrice triangulaire.

  4. La proposition est alors démontrée par application du principe de récurrence.

Grâce aux opérations élémentaires sur les lignes et en s’inspirant de l’algorithme précédent, on peut calculer l’inverse d’une matrice \(A\in GL_{n}\left(\mathbb{K}\right)\) donnée. Il suffit de suivre les étapes suivantes.
  1. On juxtapose \(A\) et \(I_n\).

  2. Grâce à des oel de type 1 et 3 sur \(A\) on se ramène à une matrice triangulaire supérieure. Ceci correspond à multiplier successivement à gauche \(A\) par des matrices \(P_1\), …, \(P_r\) de type 1 ou 3. La matrice triangulaire obtenue est \(P_r.\dots.P_1.A\). On effectue ces mêmes oel sur \(I_n\). La matrice obtenue est \(P_r.\dots.P_1\).

  3. On effectue des oel de type 2 sur \(P_r.\dots.P_1.A\) afin d’obtenir une matrice triangulaire dont la diagonale ne comporte que des 1. Ceci correspond à multiplier successivement à gauche \(A\) par des matrices \(Q_1\), …, \(Q_s\) de type 2. La matrice triangulaire obtenue est \(Q_s.\dots.Q_1.P_r.\dots.P_1.A\). On effectue ces mêmes oel sur \(I_n\). La matrice obtenue est \(Q_s.\dots.Q_1.P_r.\dots.P_1\).

  4. Enfin, à nouveau grâce à des oel de type 1, on se ramène à la matrice \(I_n\). Ceci correspond à multiplier successivement à gauche \(Q_s.\dots.Q_1.P_r.\dots.P_1.A\) par des matrices \(R_1\), …, \(R_t\) de type 1. La matrice triangulaire obtenue est \(R_t.\dots.R_1.Q_s.\dots.Q_1.P_r.\dots.P_1.A\). On effectue ces mêmes oel sur \(I_n\). La matrice obtenue est \(R_t.\dots.R_1.Q_s.\dots.Q_1.P_r.\dots.P_1\).

  5. Au final, on a donc \(R_t.\dots.R_1.Q_s.\dots.Q_1.P_r.\dots.P_1.A=I_n\). La matrice \(R_t.\dots.R_1.Q_s.\dots.Q_1.P_r.\dots.P_1\) est donc l’inverse de \(A\).

La matrice \(A=\begin{pmatrix}1&1&-1\\-1&1&0\\0&-1&1 \end{pmatrix}\) est de rang \(3\) comme on le vérifie en appliquant la méthode [algo_calc_rang]. Calculons son inverse : \[\begin{array}{rrrcccrrr} 1 & 1 & -1 & & & & 1 & 0 & 0 \\ -1 & 1 &0 & & & & 0 & 1 & 0 \\ 0 & -1 & 1 & & & & 0 & 0 & 1\\ &&&&&&&&\\ 1 & 1 & -1 & & & & 1 & 0 & 0 \\ 0 & 2 & -1& \qquad L_2&\leftarrow&L_2+L_1 & 1 & 1 & 0 \\ 0 & -1 &1 & && & 0 & 0 & 1\\ &&&&&&&&\\ 1 & 1 & -1 & && & 1& 0 & 0 \\ 0 & 2 & -1 & & & & 1 & 1 & 0 \\ 0 & 0 & 1/2 & \qquad L_3&\leftarrow&L_3+L_2/2 &1/2 & 1/2 & 1\\ &&&&&&&&\\ 1 & 1 & 1 & && & 1 & 0 & 0 \\ 0 & 1 & -1/2 & \qquad L_2&\leftarrow&L_2/2 & 1/2 & 1/2 & 0 \\ 0 & 0 & 1 & \qquad L_3&\leftarrow &2L_3 & 1 & 1 & 2\\ &&&&&&&&\\ 1 & 1 & 0 & \qquad L_1&\leftarrow&L_1+L_3 & 2 & 1 & 2 \\ 0 & 1 & 0 & \qquad L_2&\leftarrow&L_2+L_3/2 & 1 & 1 & 1 \\ 0 & 0 & 1 & && & 1 & 1 & 2\\ &&&&&&&&\\ 1 & 0 & 0 & \qquad L_1&\leftarrow&L_1-L_2 & 1 & 0 & 1 \\ 0 & 1 & 0 & && & 1 & 1 & 1 \\ 0 & 0 & 1 & && & 1 & 1 & 2\\ \end{array}\] et on en déduit que \(A^{-1}=\begin{pmatrix} 1&0&1\\1&1&1\newline1&1&2 \end{pmatrix}\).

Déterminant d’une matrice carrée de taille \(2\) ou \(3\)

Grâce à la notion de déterminant nous disposerons d’un outil performant pour prouver qu’une matrice est inversible. Cette notion a néanmoins d’autres applications comme le calcul de l’inverse d’une matrice inversible via le calcul de la comatrice, la résolution de certains systèmes linéaires, les problèmes d’orientation du plan ou de l’espace...

Comme stipulé dans les programmes des filières PCSI, PTSI, TSI, nous nous bornerons à travailler en dimension \(2\) ou \(3\). Néanmoins, la plupart des démonstrations que nous allons donner sont valables en dimension \(n\) quelconque.

Les étudiants de la filière MPSI devront compléter ce chapitre par la lecture du chapitre [chap_groupe_sym] sur le groupe symétrique.

Dans toute la suite, on pourra considérer que \(n\) est un entier égal à \(2\) ou \(3\) et que \(E\) est un \(\mathbb{K}\)-espace vectoriel  de dimension \(n\). On commencera par expliquer ce qu’est le déterminant d’une matrice, d’une famille de vecteurs puis d’un endomorphisme. Nous nous intéresserons ensuite à des méthodes pratiques de calcul du déterminant. Enfin, nous donnerons des applications.

Définitions

(Déterminant d’une matrice de taille \(2\) ou \(3\)).
  • On appelle déterminant de la matrice \(A=\left( \begin{array}{cc} a_{1,1}&a_{1,2}\\ a_{2,1}&a_{2,2} \end{array}\right)\in\mathfrak{M}_{2}\left(\mathbb{K}\right)\) le scalaire de \(\mathbb{K}\), noté \(\mathop{\rm det}\left(A\right)\) et donné par : \[\mathop{\rm det}\left(A\right)= \left| \begin{array}{cc} a_{1,1} & a_{1,2}\\ a_{2,1} &a_{2,2} \end{array} \right|=a_{1,1}a_{2,2}-a_{1,2}a_{2,1}\]

  • On appelle déterminant de la matrice \(A=\left( \begin{array}{ccc} a_{1,1}&a_{1,2}&a_{1,3}\\ a_{2,1}&a_{2,2}&a_{2,3}\\a_{3,1}&a_{3,2}&a_{3,3} \end{array}\right)\in\mathfrak{M}_{3}\left(\mathbb{K}\right)\) le scalaire de \(\mathbb{K}\), noté \(\mathop{\rm det}\left(A\right)\) et donné par : \[\mathop{\rm det}\left(A\right)= \left| \begin{array}{ccc} a_{1,1} & a_{1,2}&a_{1,3}\\ a_{2,1} &a_{2,2}&a_{2,3}\\ a_{3,1} &a_{3,2}&a_{3,3} \end{array} \right|=a_{1,1} \left| \begin{array}{cc} a_{2,2}&a_{2,3}\\ a_{3,2} &a_{3,3} \end{array} \right| - a_{2,1}\left| \begin{array}{cc} a_{1,2}&a_{1,3}\\ a_{3,2} &a_{3,3} \end{array} \right| + a_{3,1}\left| \begin{array}{cc} a_{1,2}&a_{1,3}\\ a_{2,2} &a_{2,3} \end{array} \right|=\] \[a_{1,1}a_{2,2}a_{3,3}+a_{1,2}a_{2,3}a_{3,1}+a_{1,3}a_{2,1}a_{3,2}-a_{3,1}a_{2,2}a_{1,3}-a_ {3,2}a_{2,3}a_{1,1}-a_{3,3}a_{2,1}a_{1,2}\] qui se calcule avec la règle de Sarrus. Voir remarque [regle_de_Sarrus] p. [regle_de_Sarrus].

\[\psmatrix[colsep=0.5cm,rowsep=0.5cm] a_{1,1} & a_{1,2} & a_{1,3} & a_{1,1} & a_{1,2}\\ a_{2,1} & a_{2,2} & a_{2,3} & a_{2,1} & a_{2,2}\\ a_{3,1} & a_{3,2} & a_{3,3} & a_{3,1} & a_{3,2}\newline \ncline[linecolor=blue]{->}{1,1}{2,2} \ncline[linecolor=blue]{->}{2,2}{3,3} \ncline[linecolor=blue]{<-}{1,2}{2,3} \ncline[linecolor=blue]{<-}{2,3}{3,4} \ncline[linecolor=blue]{->}{1,3}{2,4} \ncline[linecolor=blue]{->}{2,4}{3,5} \ncline[linecolor=red]{->}{1,5}{2,4} \ncline[linecolor=red]{->}{2,4}{3,3} \ncline[linecolor=red]{<-}{1,4}{2,3} \ncline[linecolor=red]{<-}{2,3}{3,2} \ncline[linecolor=red]{->}{1,3}{2,2} \ncline[linecolor=red]{->}{2,2}{3,1} \ncarc[arcangle=-90,linestyle=dashed,linecolor=blue]{->}{3,3}{3,4}_{{\blue +}} \ncarc[arcangle=90,linestyle=dashed,linecolor=blue]{->}{1,2}{1,3} \ncarc[arcangle=90,linestyle=dashed,linecolor=red]{<-}{1,3}{1,4} \ncarc[arcangle=-90,linestyle=dashed,linecolor=red]{<-}{3,2}{3,3}_{{\red -}} \endpsmatrix\]

  • \(\mathop{\rm det}I_2=1\), \(\mathop{\rm det}I_3=1\).

  • Plus généralement, le déterminant d’une matrice triangulaire est égal au produit de ses coefficients diagonaux.

Propriétés

(Propriétés du déterminant d’une matrice).

Soient \(A\), \(B\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\)

  1. \(\boxed{\mathop{\rm det}\left(0_{\mathfrak{M}_{n}\left(\mathbb{K}\right)}\right)=0}\).

  2. \(\boxed{\mathop{\rm det}\left(I_n\right)=1}\).

  3. \(\boxed{\mathop{\rm det}\left(\lambda A\right)=\lambda^n\mathop{\rm det}\left(A\right)}\)\(\lambda\in\mathbb{K}\).

  4. \(\boxed{\mathop{\rm det}\left(AB\right)=\mathop{\rm det}\left(A\right)\times \mathop{\rm det}\left(B\right)}\)

  5. Caractérisation des matrices inversibles : \[\boxed{A\in GL_{n}\left(\mathbb{K}\right) \Longleftrightarrow\mathop{\rm det}\left(A\right)\neq 0}.\] Autrement dit : le déterminant d’une matrice inversible est inversible

  6. Si \(A\) est inversible alors \(\boxed{\mathop{\rm det}\left(A^{-1}\right)={\scriptstyle 1\over\scriptstyle\mathop{\rm det}\left(A\right)}}\).

  7. \(\boxed{\mathop{\rm det}\left({A}^{\mathrm{T}}\right)=\mathop{\rm det}\left(A\right)}\)

Ces propriétés se démontrent pour la plupart par des calculs directs. Prouvons par exemple les points 5 et 6. Soit \(A\in GL_{n}\left(\mathbb{K}\right)\) une matrice inversible. Alors \(A\times A^{-1}=I_n\) et d’après les points 2 et 4, \(\mathop{\rm det}\left(A\right)\mathop{\rm det}\left(A^{-1}\right)=1\) donc \(\mathop{\rm det}\left(A\right)\neq 0\) et \(\mathop{\rm det}\left(A^{-1}\right)={\scriptstyle 1\over\scriptstyle\mathop{\rm det}\left(A\right)}\). La réciproque sera une conséquence du corollaire [carac_famille_libre_avec_det]. En effet, \(A\) peut être vue comme la matrice d’une certaine famille de \(n\) vecteurs dans un espace de dimension \(n\) dans une base \(e\) fixée. Dire que \(\mathop{\rm det}\left(A\right)\neq 0\) revient à dire que cette famille est libre et donc que la matrice \(A\) qui les représente dans la base \(e\) est inversible.

Déterminants d’ordre \(2\) ou \(3\) d’une famille de vecteurs

Définition

(Déterminant d’ordre \(2\) et \(3\) d’une famille de vecteurs).
Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\) muni d’une base \(e=\left(e_1,\dots,e_n\right)\).
  • Si \(n=2\), on appelle déterminant dans la base \(e\) des vecteurs \(V_1\) et \(V_2\) de \(E\) et on note \(\mathop{\rm det}_e\left(V_1,V_2\right)\), le déterminant de la matrice formée par la famille \(\left(V_1,V_2\right)\) dans la base \(e\) : \(\textrm{ Mat}_{e}\left(V_1,V_2\right)\) : \[\mathop{\rm det}_{e}\left(V_1,V_2\right)=\mathop{\rm det}\textrm{ Mat}_{e}\left(V_1,V_2\right)\] En particulier, si : \(V_1=x_{1,1}e_1+x_{1,2}e_2\), \(V_2=x_{2,1}e_1+x_{2,2}e_2\) alors : \[\mathop{\rm det}_{e}\left(V_1,V_2\right)=\left| \begin{array}{cc} x_{1,1} & x_{2,1}\\ x_{1,2} &x_{2,2} \end{array} \right|=x_{11}x_{22}-x_{12}x_{21}\]

  • Si \(n=3\), on appelle déterminant dans la base \(e\) des vecteurs \(V_1\), \(V_2\) et \(V_3\) de \(E\) et on note \(\mathop{\rm det}_e\left(V_1,V_2,V_3\right)\), le déterminant de la matrice formée par la famille \(\left(V_1,V_2,V_3\right)\) dans la base \(e\) : \(\textrm{ Mat}_{e}\left(V_1,V_2,V_3\right)\) : \[\mathop{\rm det}_{e}\left(V_1,V_2,V_3\right)=\mathop{\rm det} \textrm{ Mat}_{e}\left(V_1,V_2,V_3\right)\] En particulier, si : \(V_1=x_{1,1}e_1+x_{1,2}e_2+x_{1,3}e_3\), \(V_2=x_{2,1}e_1+x_{2,2}e_2+x_{2,3}e_3\) et \(V_3=x_{3,1}e_1+x_{3,2}e_2+x_{3,3}e_3\) alors : \[\mathop{\rm det}_{e}\left(V_1,V_2,V_3\right)=\left| \begin{array}{ccc} x_{1,1} & x_{2,1}&x_{3,1}\\ x_{1,2} &x_{2,2}&x_{3,2}\newline x_{1,3} &x_{2,3}&x_{3,3} \end{array} \right|\] \[=x_{1,1}x_{2,2}x_{3,3}+x_{1,2}x_{2,3}x_{3,1}+x_{1,3}x_{2,1}x_{3,2}-x_{3,1}x_{2,2}x_{1,3} -x_{3,2}x_{2,3}x_{1,1}-x_{3,3}x_{2,1}x_{1,2}\] qui se calcule avec la règle de Sarrus.

  • Le déterminant introduit dans les chapitres [geom_plan] et [geom_espace] est celui dans les bases canoniques respectives de \(\mathbb{R}^2\) et \(\mathbb{R}^3\).

  • Le déterminant d’une matrice carrée définie dans le paragraphe précédent est le déterminant de ses vecteurs colonnes dans la base canonique de \(\mathbb{K}^n\).

Propriétés

(Le déterminant de deux ou trois vecteurs est une forme multilinéaire alternée).
Soit \(e\) une base du \(\mathbb{K}\)-espace vectoriel \(E\).
  • Si \(n=2\), le déterminant est une forme bilinéaire et alternée : pour tout \(u\), \({u_1}\), \({u_2}\), \(v\), \({v_1}\), \({v_2} \in E\) et pour tous scalaires \(\lambda_1\), \(\lambda_2\), on a :

    1. Le déterminant est une forme bilinéaire : \[\boxed{\mathop{\rm det}_e( u, \lambda_1 {v_1}+\lambda_2 {v_2})=\lambda_1\mathop{\rm det}_e( u ,{v_1})+\lambda_2\mathop{\rm det}_e(u ,{v_2})}\] \[\boxed{\mathop{\rm det}_e(\lambda_1 {u_1}+\lambda_2 {u_2}, v)=\lambda_1\mathop{\rm det}_e( {u_1} ,{v})+\lambda_2\mathop{\rm det}_e({u_2} ,{v})}\]

    2. Le déterminant est alterné : \[\boxed{\mathop{\rm det}_e\left(v,u\right)=-\mathop{\rm det}_e\left(u,v\right)}\]

  • Si \(n=3\), Le déterminant est une forme trilinéaire et alternée : pour tout \(u\), \({u_1}\), \({u_2}\), \(v\), \({v_1}\), \({v_2}\), \(w\), \(w_1\), \(w_2 \in E\) et pour tous scalaires \(\lambda_1\), \(\lambda_2\), on a :

    1. Le déterminant est une forme trilinéaire : \[\boxed{\mathop{\rm det}_e(\lambda_1 {u_1}+\lambda_2 {u_2}, v,w)=\lambda_1\mathop{\rm det}_e( {u_1} ,{v},w)+\lambda_2\mathop{\rm det}_e({u_2} ,{v},w)}\] \[\boxed{\mathop{\rm det}_e( u, \lambda_1 {v_1}+\lambda_2 {v_2},w)=\lambda_1\mathop{\rm det}_e( u ,{v_1},w)+\lambda_2\mathop{\rm det}_e( u ,{v_2},w)}\] \[\boxed{\mathop{\rm det}_e( u, v,\lambda_1 {vw_1}+\lambda_2 {w_2})=\lambda_1\mathop{\rm det}_e( u ,{v},w_1)+\lambda_2\mathop{\rm det}_e( u ,{v},w_2)}\]

    2. Le déterminant est alterné : \[\boxed{\mathop{\rm det}_e\left(u,v,w\right)=-\mathop{\rm det}_e\left(v,u,w\right)=\mathop{\rm det}_e\left(v,w,u\right)=-\mathop{\rm det}_e\left(w,v,u\right) }.\]

Par un calcul direct.
On suppose que \(n=2\) ou \(3\). Soient \(x_1,\dots, x_n\in E\). Si deux des vecteurs de cette famille sont égaux alors \(\mathop{\rm det}_e\left(x_1,\dots,x_n\right)=0\).

Formule de changement de base

(Formule de changement de base).
Soient :
  • \(E\) un \(\mathbb{K}\)-espace vectoriel  de dimension \(n\).

  • \(e=\left(e_1,\dots,e_n\right)\) une base de \(E\).

  • \(e'=\left(e_1',\dots,e_n'\right)\) une autre base de \(E\).

  • \(\mathscr S=\left(x_1,\dots,x_n\right)\) une famille de \(n\) vecteurs de \(E\).

Alors :

\[\mathop{\rm det}_{e'}\left(x_1,\dots,x_n\right)=\mathop{\rm det}_{e'}\left(e_1,\dots,e_n\right)\times \mathop{\rm det}_e\left(x_1,\dots,x_n\right)\]
On a : \[\begin{aligned} \mathop{\rm det}_{e'}\left(x_1,\dots,x_n\right) &=& \mathop{\rm det}\left(\textrm{ Mat}_{e'}\left(x_1,\dots,x_n\right)\right)\\ &=&\mathop{\rm det}\left(P_{e \gets e'} \times\textrm{ Mat}_{e}\left(x_1,\dots,x_n\right)\right)\\ &=&\mathop{\rm det}\left(\textrm{ Mat}_{e'}\left(e\right) \times \textrm{ Mat}_{e}\left(x_1,\dots,x_n\right)\right) \\ &=& \mathop{\rm det}\left(\textrm{ Mat}_{e'}\left(e\right)\right)\times \mathop{\rm det} \left(\textrm{ Mat}_{e}\left(x_1,\dots,x_n\right)\right) \newline &=& \mathop{\rm det}_{e'}\left(e\right)\times \mathop{\rm det}_e\left(x_1,\dots,x_n\right)\end{aligned}\]
En remplaçant \(x\) par \(e'\) dans cette dernière formule, on obtient : \[1 =\mathop{\rm det}_{e'}\left(e'\right)=\mathop{\rm det}_{e'}\left(e\right) \times \mathop{\rm det}_{e}\left(e'\right)\]
(Caractérisation des familles libres via le déterminant).

Soient :

  • \(E\) un \(\mathbb{K}\)-espace vectoriel  de dimension \(n\).

  • \(e=\left(e_1,\dots,e_n\right)\) une base de \(E\).

  • \(\mathscr S=\left(x_1,\dots,x_n\right)\) une famille de \(n\) vecteurs de \(E\).

Alors \(\mathscr S\) est libre si et seulement si \(\mathop{\rm det}_e\left(x_1,\dots,x_n\right)\neq 0\).

  • Supposons que \(\mathscr S\) soit libre. Alors comme \(\mathscr S\) est de cardinal \(n=\dim E\), \(\mathscr S\) forme une base de \(E\). Par conséquent, \(\textrm{ Mat}_{e}\left(\mathscr S\right)\) est inversible et \(\mathop{\rm det}_{e}\left(\mathscr S\right)=\mathop{\rm det}\textrm{ Mat}_{e}\left(\mathscr S\right) \neq 0\).

  • Réciproquement, supposons que \(\mathscr S\) soit liée, alors, quitte à re-numéroter les vecteurs de la famille \(\mathscr S\), on peut supposer que \(x_1\) est combinaison linéaire des vecteurs : \(x_{2},\dots,x_{n}\), c’est-à-dire qu’il existe \(\alpha_2,\dots,\alpha_n\) tels que : \(x_1=\alpha_2 x_2 + \dots+\alpha_n x_n\). On a donc \[\mathop{\rm det}_{e}\left(x_1,x_2,\dots,x_n\right)=\mathop{\rm det}_{e}\left(\alpha_2 x_2 + \dots+\alpha_n x_n,x_2,\dots,x_n\right)=\alpha_2 \mathop{\rm det}_{e}\left( x_2 ,x_2\dots,x_n\right) + \dots+\alpha_n\mathop{\rm det}_e\left(x_n,x_2,\dots,x_n\right)=0\] par application de la remarque [vecteurs_egaux_determinant_nul] p.[vecteurs_egaux_determinant_nul]. Donc \(\mathop{\rm det}_{e}\left(\mathscr S\right)\) est nul.

(Caractérisation des familles liées via le déterminant).

Soient :

  • \(E\) un \(\mathbb{K}\)-espace vectoriel  de dimension \(n\).

  • \(e=\left(e_1,\dots,e_n\right)\) une base de \(E\).

  • \(\mathscr S=\left(x_1,\dots,x_n\right)\) une famille de \(n\) vecteurs de \(E\).

Alors \(\mathscr S\) est liée si et seulement si \(\mathop{\rm det}_e\left(x_1,\dots,x_n\right)=0\).

Par contraposée de la proposition précédente.

Déterminant d’un endomorphisme

Définition

(Déterminant d’un endomorphisme).

Soient :

  • \(E\) un \(\mathbb{K}\)-espace vectoriel  de dimension \(n\).

  • \(e=\left(e_1,\dots,e_n\right)\) une base de \(E\).

  • \(u\) un endomorphisme de \(E\).

Le scalaire \(\mathop{\rm det}_e\left(u\left(e_1\right),\dots,u\left(e_n\right)\right)\) est indépendant de \(e\) et est appelé déterminant de l’endomorphisme \(u\). On le note \(\mathop{\rm det}\left(u\right)\)..
Soit \(f\) une autre base de \(E\). On a : \(\textrm{ Mat}_{f}\left(u\right)=P_{f\rightarrow e} \times \textrm{ Mat}_{e}\left(u\right) \times P_{e \rightarrow f}.\) Par conséquent, \[\mathop{\rm det}_f\left(u\left(f_1\right),\dots,u\left(f_n\right)\right)= \mathop{\rm det}\left(\textrm{ Mat}_{f}\left(u\right)\right) = \mathop{\rm det}\left( P_{f\rightarrow e} \times \textrm{ Mat}_{e}\left(u\right) \times P_{e \rightarrow f}\right)\] \[= \mathop{\rm det}\left( P_{f\rightarrow e}\right) \mathop{\rm det}\left(\textrm{ Mat}_{e}\left(u\right) \right) \mathop{\rm det}\left(P_{e \rightarrow f}\right) = \mathop{\rm det}\left(\textrm{ Mat}_{e}\left(u\right) \right)\] car \(P_{e\rightarrow f}= \left[P_{f\rightarrow e}\right]^{-1}\) et donc \(\mathop{\rm det}\left(P_{e \rightarrow f}\right) = \left(\mathop{\rm det}\left(P_{f \rightarrow e}\right)\right)^{-1}\).
Si \(u\) est un endomorphisme de \(E\) et que \(e\) est une base de \(E\), on a : \(\mathop{\rm det}\left(u\right)=\mathop{\rm det}\left(\textrm{ Mat}_{e}\left(u\right)\right)\).

Propriétés

(Propriétés du déterminant d’un endomorphisme).

Soient \(E\) un \(\mathbb{K}\)-espace vectoriel  de dimension \(n\), \(u\), \(v\) des endomorphismes de \(E\). On a :

  1. \(\boxed{\mathop{\rm det}\left(0_{\mathfrak{L}\left(E\right)}\right)=0_\mathbb{K}}\).

  2. \(\boxed{\mathop{\rm det}\left(Id_E\right)=1_\mathbb{K}}\)

  3. \(\boxed{\mathop{\rm det}\left(\lambda u\right)=\lambda^n \mathop{\rm det}\left(u\right)}\)\(\lambda\in\mathbb{K}\) est un scalaire.

  4. \(\boxed{\mathop{\rm det}\left(u\circ v\right)=\mathop{\rm det}\left(u\right)\times \mathop{\rm det}\left(v\right)}\).

  5. Caractérisation des automorphismes de \(E\) : \[\boxed{u\in GL_{ }\left(E\right) \Longleftrightarrow\mathop{\rm det}\left(u\right)\neq 0}\]

  6. Si \(u\in GL_{ }\left(E\right)\) alors \(\boxed{\mathop{\rm det}\left(u^{-1}\right)={\scriptstyle 1\over\scriptstyle\mathop{\rm det}\left(u\right)}}\).

C’est un corollaire immédiat du théorème [prop_det_matrice] et de la remarque précédente.

Méthodes de calcul du déterminant

On se restreindra dans cette section aux déterminants des matrices carrées, le déterminant d’une famille de vecteurs ou d’un endomorphisme s’en déduisant.

Opération sur les lignes et les colonnes

Les propriétés qui suivent découlent directement des propriétés des formes \(n\)-linéaires alternées :

(Calcul d’un déterminant par des oel et des oec).
  1. Un déterminant qui a deux colonnes identiques est nul.

  2. Un déterminant qui a une colonne combinaison linéaire des autres colonnes est nul.

  3. Un déterminant dont une colonne est formée de \(0\) est nul.

  4. On ne change pas la valeur d’un déterminant en ajoutant à une colonne une combinaison linéaire des autres colonnes.

  5. Si on multiplie par \(\lambda\) une colonne d’un déterminant, on multiplie par \(\lambda\) la valeur de ce déterminant.

  6. Quand on permute deux colonnes d’un déterminant, on change son signe.

  7. Comme le déterminant d’une matrice est égale à celui de sa transposée, les \(6\) phrases précédentes restent vraies si on remplace le mot "colonne" par le mot "ligne".

Démontrons par exemple le point \(4\). On suppose que la matrice \(A\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est composée des vecteurs colonnes \(C_1\),\(\dots\),\(C_n\) Soient \(i\in\llbracket 1,n\rrbracket\), \(\alpha_1,\dots,\alpha_{i-1},\alpha_{i+1},\dots,\alpha_n\) des scalaires de \(\mathbb{K}\). On a : \[\begin{aligned} \mathop{\rm det}\left(A\right)=\mathop{\rm det}\left(C_1,\dots,C_n\right)&=&\mathop{\rm det}\left(C_1,\dots,C_n\right) + \underbrace{\mathop{\rm det}\left(C_1,\dots,C_{i-1},\sum_{k=1, k\neq i}^n \alpha_k C_k,C_{i+1},\dots,C_n\right)}_{=0 \textrm{ en raison du second point}} \newline &=& \mathop{\rm det}\left(C_1,\dots,C_{i-1},C_i+\sum_{k=1, k\neq i}^n \alpha_k C_k,C_{i+1},\dots,C_n\right)\end{aligned}\]
Calculons
  • \(\left|\begin{array}{ccc} 1&3&1\\ 1&2&0\\ 0&1&2\end{array}\right| \xlongequal{L_2 \longleftarrow L_2 - L_1}\begin{vmatrix} 1&3&1\\ 1&2&0\\ 0&1&2 \end{vmatrix} = \begin{vmatrix} 1&3&1\\ 0&-1&-1\\ 0&1&2 \end{vmatrix} = -1\)

  • \(\left|\begin{array}{ccc} 1&1&2\\ 2&3&1\\ 0&0&0\end{array}\right|=0\) car la troisième ligne est nulle.

  • \(\left|\begin{array}{ccc} 2&1&4\\ 1&1&2\newline 3&2&6\end{array}\right|=0\) car \(L_3 = L_1 + L_2\).

Développement d’un déterminant suivant une rangée

Soit \(A\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) une matrice de la forme : \[A=\left(\begin{array}{ccc|c} & & & 0\\ & A' & & \vdots\\ & & & 0\newline \hline \star&\dots&\star&\alpha \end{array}\right)\]\(A'\in\mathfrak{M}_{n-1}\left(\mathbb{K}\right)\). Alors \(\boxed{\mathop{\rm det}\left(A\right)=\alpha \mathop{\rm det}\left(A'\right)}\).
Par un calcul immédiat en utilisant la définition du déterminant d’une matrice de taille \(2\) ou \(3\).
(matrices triangulaires).
On appelle matrice triangulaire inférieure toute matrice \(A\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) vérifiant \(\forall i < j, a_{ij} = 0\). On appelle matrice triangulaire supérieure toute matrice \(A\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) vérifiant \(\forall i > j, a_{ij} = 0\).

Soit \(L\) (resp. \(U\)) l’ensemble des matrices triangulaires inférieures (resp. supérieures). \(L\) et \(U\) sont des sous-espaces-vectoriels de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\), et \(\mathfrak{M}_{n}\left(\mathbb{K}\right) = L + U\). \(L\cap U\) est l’espace vectoriel des matrices diagonales.

(Le déterminant d’une matrice triangulaire est égal au produit de ses éléments diagonaux).
Soit \(A=\left(a_{ij}\right)\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) une matrice triangulaire:  Alors : \[\boxed{\mathop{\rm det}A=\prod_{k=1}^n a_{kk}}\]
Immédiat par un calcul direct (si \(n=2\) ou \(3\)) ou en utilisant la propriété précédente.
On va calculer, sous forme factorisée :
  1. \(\left|\begin{array}{ccc} a-b-c&2a&2a\\ 2b&b-c-a&2b\\ 2c&2c&c-a-b \end{array}\right|\)

  2. \(\left|\begin{array}{ccc} 1+a&a&a\\ b&1+b&b\\ c&c&1+c \end{array}\right|\)

  3. \(\left|\begin{array}{ccc} a&b&c\\ c&a&b\\ b&c&a \end{array}\right|\)

  4. \(\left|\begin{array}{ccc} 1&a&a^2\\ 1&b&b^2\\ 1&c&c^2 \end{array}\right|\)

  5. \(\left|\begin{array}{ccc} bc&ca&ab \\ a&b&c \\ 1&1&1\end{array}\right|\)

\(a,b,c\) sont trois complexes .
  1. On commence par additionner toutes les lignes, disons dans la troisième : \(L_3 \longleftarrow L_1 + L_2 + L_3\) On peut mettre \((a+b+c)\) en facteur.
    \(\left|\begin{array}{ccc} a-b-c&2a&2a\\ 2b&b-c-a&2b\\ 2c&2c&c-a-b \end{array}\right| = (a+b+c) \left|\begin{array}{ccc} a-b-c&2a&2a\\ 2b&b-c-a&2b\\ 1&1&1 \end{array}\right|\). On effectue \(\begin{array}{ccc} C_1 & \longleftarrow & C_1 - C_3 \\ C_2 & \longleftarrow & C_2 - C_3 \end{array}\) :
    \(\left|\begin{array}{ccc} a-b-c&2a&2a\\ 2b&b-c-a&2b\\ 2c&2c&c-a-b \end{array}\right| = (a+b+c) \left|\begin{array}{ccc} -(a+b+c)&0&2a\\ 0&-(a+b+c)&2b\\ 0&0&1 \end{array}\right| = (a+b+c)^3\).

  2. En procédant de la même façon :
    \(\left|\begin{array}{ccc} 1+a&a&a\\ b&1+b&b\\ c&c&1+c \end{array}\right| = (1+a+b+c)\left|\begin{array}{ccc} 1+a&a&a\\ b&1+b&b\\ 1&1&1 \end{array}\right| = (1+a+b+c)\left|\begin{array}{ccc} 1&0&a\\ 0&1&b\\ 0&0&1 \end{array}\right| = (1+a+b+c)\).

  3. Là encore : \(L_3 \longleftarrow L_1 + L_2 + L_3\) On peut mettre \((a+b+c)\) en facteur.
    \(\left|\begin{array}{ccc} a&b&c\\ c&a&b\\ b&c&a \end{array}\right| = (a+b+c)\left|\begin{array}{ccc} a&b&c\\ c&a&b\\ 1&1&1 \end{array}\right| = (a+b+c)\left|\begin{array}{ccc} a&bj&cj^2\\ c&aj&bj^2\\ 1&j&j^2 \end{array}\right| = (a+b+c)\left|\begin{array}{ccc} a+bj+cj^2&bj&cj^2\\ c+aj+bj^2&aj&bj^2\\ 0&j&j^2 \end{array}\right| = (a+b+c)(a+bj+cj^2)\left|\begin{array}{ccc} 1&b&c\\ j&a&b\\ 0&1&1 \end{array}\right| = (a+b+c)(a+bj+cj^2)\left|\begin{array}{ccc} 1&b-c&c\\ j&a-b&b\\ 0&0&1 \end{array}\right| = (a+b+c)(a+bj+cj^2)(a-b+cj-bj) = (a+b+c)(a+bj+cj^2)(a+bj^2+cj)\) .

  4. On effectue \(\begin{array}{ccc} L_1 & \longleftarrow & L_1 - L_3 \\ L_2 & \longleftarrow & L_2 - L_3 \end{array}\) :
    \(\left|\begin{array}{ccc} 1&a&a^2\\ 1&b&b^2\\ 1&c&c^2 \end{array}\right| = \left|\begin{array}{ccc} 0&a-c&a^2-c^2\\ 0&b-c&b^2-c^2\\ 1&c&c^2 \end{array}\right| = (a-c)(b-c)\left|\begin{array}{ccc} 0&1&a+c\\ 0&1&b+c\\ 1&c&c^2 \end{array}\right|= (a-c)(b-c)(b-a)\).

  5. \(\left|\begin{array}{ccc} bc&ca&ab \\ a&b&c \\ 1&1&1\end{array}\right| = \left|\begin{array}{ccc} bc-ab&ca-ab&ab \\ a-c&b-c&c \\ 0&0&1\end{array}\right| = (a-c)(b-c) \left|\begin{array}{ccc} -b&-a&ab \\ 1&1&c \newline 0&0&1\end{array}\right| = (a-c)(b-c)(a-b)\).

(Mineur,cofacteur).
Soit \(A=\left(a_{ij}\right)\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\).
  • On appelle mineur d’indice \(\left(i,j\right)\) le déterminant \(\Delta_{i,j}\) de la matrice obtenue en supprimant la \(i\)-ème ligne et la \(j\)-ème colonne de la matrice \(A\).

  • On appelle cofacteur d’indice \(\left(i,j\right)\) et on note \(A_{i,j}\) le scalaire \(A_{i,j}=\left(-1\right)^{i+j}\Delta_{i,j}\).

(Développement d’un déterminant suivant une ligne ou une colonne).

Soit \(A=\left(a_{ij}\right)\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\).

  • Soit \(j_0\in\llbracket 1,n\rrbracket\). Alors : \[\begin{aligned} \mathop{\rm det}A &=& \sum_{i=1}^n a_{i,j_0}A_{i,j_0}\\ &=& \sum_{i=1}^n \left(-1\right)^{i+j_0}a_{i,j_0}\Delta_{i,j_0} \end{aligned}\]

  • Soit \(i_0\in\llbracket 1,n\rrbracket\). Alors : \[\begin{aligned} \mathop{\rm det}A &=& \sum_{j=1}^n a_{i_0,j}A_{i_0,j}\newline &=& \sum_{j=1}^n \left(-1\right)^{i_0+j}a_{i_0,j}\Delta_{i_0,j} \end{aligned}\]

On peut le vérifier facilement par un calcul immédiat dans les cas \(n=2\) et \(n=3\).

Applications

Colinéarité de deux vecteurs du plan

(Caractérisation de l’alignement de trois points du plan).
Soit \(\mathscr R \left(O,e_1,e_2\right)\) un repère du plan. \(e=\left(e_1,e_2\right)\) forme donc une base du plan. Soient \(M_0\left(x_0,y_0\right)\), \(M_1\left(x_1,y_1\right)\), \(M_2\left(x_2,y_2\right)\) trois points distincts du plan. Alors, \(M_0\), \(M_1\), \(M_2\) sont alignés si et seulement si \[\boxed{\left| \begin{array}{ccc} 1&1 &1 \\ x_0&x_1&x_2 \newline y_0&y_1&y_2 \end{array} \right|=0}\]
On a : \[\begin{aligned} \left| \begin{array}{ccc} 1&1 &1 \\ x_0&x_1&x_2 \\ y_0&y_1&y_2 \end{array} \right|=0 &\Longleftrightarrow& \left| \begin{array}{ccc} 1&0 &0 \\ x_0&x_1-x_0&x_2-x_0 \\ y_0&y_1-y_0&y_2-y_0 \end{array} \right|=0 \textrm{ par des opérations sur les colonnes}\\ &\Longleftrightarrow& \left|\begin{array}{cc} x_1-x_0&x_2-x_0\\ y_1-y_0&y_2-y_0 \end{array} \right|=0 \textrm{ par développement suivant la première ligne}\\ &\Longleftrightarrow& \mathop{\rm det}_e\left(\overrightarrow{M_0M_1},\overrightarrow{M_0M_2}\right)=0\\ &\Longleftrightarrow& \textrm{ les vecteurs $\overrightarrow{M_0M_1}$ et $\overrightarrow{M_0M_2}$ sont colinéaires}\\ %%&\ssi& \p{x_1-x_0}\p{y_2-y_0}=\p{x_2-x_0}\p{y_1-y_0} \\ %%&\ssi& \p{x_2-x_0} = \lambda \p{x_1-x_0} \et \p{y_2-y_0}=\lambda \p{y_1-y_0} %%\text{ où $\lambda\in\R$}\newline &\Longleftrightarrow& \textrm{ les points $M_0$, $M_1$, $M_2$ sont alignés} \end{aligned}\]

Inversion de matrice

(Comatrice).
Soit \(A=\left(a_{ij}\right)\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\). On appelle comatrice de \(A\) et on note \(\mathop{\rm Com}\left(A\right)\) la matrice des cofacteurs de \(A\) : \[\forall i,j\in\llbracket 1,n\rrbracket, \quad \left[\mathop{\rm Com}\left(A\right)\right]_{i,j}=A_{i,j} =\left(-1\right)^{i+j}\Delta_{i,j}\]
Soit \(A\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\). Alors : \[\boxed{A\times{\left(\mathop{\rm Com}A\right)}^{\mathrm{T}}={\left(\mathop{\rm Com}\left( A\right)\right)}^{\mathrm{T}}\times A=\left(\mathop{\rm det} A\right)I_n}\] En particulier, si \(A\in GL_{n}\left(\mathbb{K}\right)\) : \[\boxed{A^{-1}={\scriptstyle 1\over\scriptstyle\mathop{\rm det}A}{\left(\mathop{\rm Com}\left( A\right)\right)}^{\mathrm{T}}}\]
Notons, pour tout \(i,j\in\llbracket 1,n\rrbracket\), \(b_{ij}=\left(-1\right)^{i+j}\Delta_{i,j}\) et posons \(B=\left(b_{ij}\right)\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\). Soit \(i,j\in\llbracket 1,n\rrbracket\), on a : \[\left[A{B}^{\mathrm{T}}\right]_{ij}=\sum_{k=1}^n a_{ik} b_{jk}= \sum_{k=1}^n a_{ik} \left(-1\right)^{j+k}\Delta_{j,k}=\begin{cases} \mathop{\rm det}\left(A\right)&\textrm{ si } i=j\newline 0 &\textrm{ sinon}\end{cases}\]
  • Soit \(A=\begin{pmatrix} 1&-1\\-3&2\end{pmatrix}\). Comme \(\mathop{\rm det} \left(A\right)=-1\), \(A\in GL_{2}\left(\mathbb{R}\right)\). On calcule \(\mathop{\rm Com}\left(A\right) = \begin{pmatrix} 2&3\\1& 1 \end{pmatrix}\) et \(A^{-1}={\scriptstyle 1\over\scriptstyle\mathop{\rm det}A}{\left(\mathop{\rm Com} \left(A\right)\right)}^{\mathrm{T}}=\begin{pmatrix}-2&-1\\ -3&-1\end{pmatrix}\).

  • Soit \(A=\begin{pmatrix} 1&1&2\\0&1&1\\ -1&0&2\end{pmatrix}\). On calcule \(\mathop{\rm det} \left(A\right)=3\) donc \(A\in GL_{3}\left(\mathbb{R}\right)\). On calcule alors \(\mathop{\rm Com}\left(A\right) = \begin{pmatrix} 2&-1&1\\-2&4&-1\\-1&-1&1 \end{pmatrix}\) et \(A^{-1}={\scriptstyle 1\over\scriptstyle\mathop{\rm det}A}{\left(\mathop{\rm Com} \left(A\right)\right)}^{\mathrm{T}}={\scriptstyle 1\over\scriptstyle 3}\begin{pmatrix}2&-2&-1\\ -1&4&-1\newline 1&-1&1\end{pmatrix}\).

On comprend après ces quelques calculs les limitations pratiques de cette méthode. En dimension \(2\) et \(3\) les calculs restent faisables mais ils deviennent très lourds dés que \(n\geqslant 4\) si la matrice ne possède pas beaucoup de \(0\).

Orientation du plan et de l’espace

(Bases de même sens, de sens contraire).
Soit \(E\) un \(\mathbb{K}\)-espace vectoriel  de dimension \(2\) ou \(3\). Soient \(e\) et \(e'\) deux bases de \(E\). On dit que :
  • \(e\) et \(e'\) sont de même sens (ou ont même orientation) si et seulement si \(\mathop{\rm det}_e\left(e'\right)>0\).

  • Sinon, on dit que \(e\) et \(e'\) sont de sens contraires (ou n’ont pas la même orientation).

(Orientation).
Soit \(E\) un \(\mathbb{K}\)-espace vectoriel  de dimension \(2\) ou \(3\). Orienter \(E\) revient à choisir une base \(e\) de \(E\). Si \(e'\) une autre base de \(E\), on dit qu’elle est directe si elle est de même sens que \(E\) et indirecte sinon.
On oriente \(E=\mathbb{R}^2\) en prenant la base canonique \(e\). La base donnée par \(e'=\left(\left(1,1\right),\left(1,-1\right)\right)\) est indirecte. En effet : \[\left| \begin{array}{cc} 1&1\newline 1&-1 \end{array} \right|=-2< 0\]

Systèmes linéaires

On termine ce chapitre par une étude des systèmes linéaires.

Définitions

(Système linéaire à \(n\) équations et \(p\) inconnues).
Soient \[A=\left(\begin{array}{ccc} a_{1,1}&\dots&a_{1,p}\\ \vdots& &\vdots\\ a_{n,1}&\dots&a_{n,p} \end{array}\right) \in \mathfrak{M}_{n,p}\left(\mathbb{K}\right) \quad \textrm{ et} \quad B=\left(\begin{array}{c}b_1\\\vdots\newlineb_n\end{array}\right) \in \mathfrak{M}_{n,1}\left(\mathbb{K}\right)\]

On considère le système linéaire à \(n\) lignes et \(p\) inconnues \(\left(\mathscr S\right)\) donné par :

\[\left(\mathscr S\right) = \left\{ \begin{aligned} a_{1,1}x_1&+a_{1,2}x_2&+\cdots&+a_{1,p}x_p&=&b_1\cr & & & &\hfill\vdots\hfill&\cr a_{n,1}x_1&+a_{n,2}x_2&+\cdots&+a_{n,p}x_p&=&b_n \end{aligned}\right.\]

  1. Résoudre ce système consiste à déterminer l’ensemble \(\mathcal S\) de tous les \(p\)-uplets \(\left(x_1,\dots,x_p\right)\in\mathbb{K}^p\) vérifiant \(\left(\mathscr S\right)\).

  2. Le vecteur \(b=\left(b_1,\dots,b_n\right)\) s’appelle le second membre du système \(\left(\mathscr S\right)\).

  3. On appelle système homogène associé au système \(\left(\mathscr S\right)\), le système obtenu lorsque \(b=0\). On le note \(\left(\mathscr S_0\right)\) et on note \(\mathcal S_0\) l’ensemble de ses solutions.

  4. \(A\) s’appelle la matrice du système \(\left(\mathscr S\right)\).

  5. \(\mathop{\mathrm{rg}}{A}\) s’appelle le rang du système et est noté \(\mathop{\mathrm{rg}}\left(\mathscr S\right)\).

  6. On dit que le système est compatible si l’ensemble de ses solutions est non vide.

Interprétations

La compréhension des différentes interprétations qu’on peut avoir d’un système linéaire est un bon test de votre compréhension de l’algèbre linéaire.

Interprétation vectorielle

Notons \(C_1=\left(a_{11},\dots,a_{n1}\right),\dots,C_p=\left(a_{1p},\dots,a_{np}\right)\in\mathbb{K}^n\) les \(p\) vecteurs colonnes de \(A\) et \(b=\left(b_1,\dots,b_n\right)\) le second membre de \(\left(\mathscr S\right)\). On a :

Donc :

  • Le système est compatible si et seulement si \(b\in Vect{\left(C_1,\dots,C_p\right)}\).

  • \(\mathop{\mathrm{rg}}\left(\mathscr S\right)=\mathop{\mathrm{rg}}\left(\left\{C_1,\dots,C_p\right\}\right)\).

Interprétation matricielle

Notons \(X=\left(\begin{array}{c}x_1\\\vdots\\x_p\end{array}\right) \in \mathfrak{M}_{p,1}\left(\mathbb{K}\right)\) On a :

Interprétation en termes de formes linéaires

Notons \(E=\mathbb{K}^p\), \(e\) la base canonique de \(E\) et \(L_1=\left(a_{1,1},\dots,a_{1,p}\right),\dots,L_n=\left(a_{n,1},\dots,a_{n,p}\right)\in\mathbb{K}^p\) les \(n\) vecteurs lignes de \(A\). Soient \(\varphi_{1},\dots,\varphi_n\) \(n\) formes linéaires sur \(E\) telles que : \[\forall i\in\llbracket 1,n\rrbracket,\quad \textrm{ Mat}_{e}\left(\varphi_i\right)=L_i\]

On a :

\(\Longleftrightarrow\forall i\in\llbracket 1,n\rrbracket ,\quad \varphi_i\left(x_1,\dots,x_p\right)=0\)
\(\Longleftrightarrow\displaystyle{ \left(x_1,\dots,x_p\right)\in\bigcap_{i=1}^n \operatorname{Ker}{\varphi_i}}\)

Interprétation en termes d’applications linéaires

Considérons \(E=\mathbb{K}^p\) et \(F=\mathbb{K}^n\) munis de leurs bases canoniques respectives \(e\) et \(f\). Soient \(u\in\mathfrak{L}\left(E,F\right)\) l’unique application linéaire de \(E\) dans \(F\) telle que \(\textrm{ Mat}_{f\gets e}\left(u\right)=A\) et \(x\) le vecteur de \(E\) tel que \(\textrm{ Mat}_{e}\left(x\right)=\left(\begin{array}{c}x_1\\\vdots\newlinex_p\end{array}\right)\).

On a :

Donc :

  • Le système \(\left(\mathscr S\right)\) est compatible si et seulement si \(b \in \mathop{\rm Im}\left(u\right)\).

  • Si \(u\) est injective et si le système \(\left(\mathscr S\right)\) est compatible alors l’ensemble des solutions de \(\left(\mathscr S\right)\) ne possède qu’un et un seul élément.

  • Si \(u\) est surjective, le système \(\left(\mathscr S\right)\) est compatible.

  • Si \(u\) est à la fois surjective et injective alors l’ensemble des solutions de \(\left(\mathscr S\right)\) ne possède qu’une et une seule solution.

Structure de l’ensemble des solutions

(Structure de l’ensemble des solutions de l’équation homogène).
Soit \(\left(\mathscr S\right)\) un système linéaire à \(n\) équations et \(p\) inconnues. L’ensemble des solutions du système homogène \(\left(\mathscr S_0\right)\) associé à \(\left(\mathscr S\right)\) est un \(\mathbb{K}\)-espace vectoriel  de dimension \(p-\mathop{\mathrm{rg}}\left(\mathscr S\right)\).
Soit \(u:\mathbb{K}^p\rightarrow \mathbb{K}^n\) l’application linéaire représentée par \(A\) dans les bases canoniques de \(\mathbb{K}^n\) et \(\mathbb{K}^p\). Soit \(x=\left(x_1,\dots,x_p\right)\in\mathbb{K}^p\). \(x\) est solution de \(\left(\mathscr S_0\right)\) si et seulement si \(u\left(x\right)=0\) c’est-à-dire si et seulement si \(x\in\operatorname{Ker}u\). Par conséquent \(\left(\mathscr S_0\right)=\operatorname{Ker}u\). Ceci prouve à la fois que \(\left(\mathscr S_0\right)\) est un sous-espace vectoriel de \(\mathbb{K}^p\) mais aussi que, d’après la formule du rang, \(\dim \left(\mathscr S_0\right) = \dim \operatorname{Ker}u = \dim \mathbb{K}^p - \mathop{\mathrm{rg}}u = p - \mathop{\mathrm{rg}}\mathscr S\).
(Structure de l’ensemble des solutions de \(\left(\mathscr S\right)\)).
Soit \({ S}\) l’ensemble des solutions du système linéaire \(\left(\mathscr S\right)\).
  1. Si le système \(\left(\mathscr S\right)\) n’est pas compatible alors \(\mathcal S=\varnothing\).

  2. Sinon, alors il existe une solution particulière \(x_0\) de \(\left(\mathscr S\right)\) et on a alors : \[\mathcal S=x_0+\mathcal S_0=\left\{x_0+x \in\mathbb{K}^p~|~ x\in S_0\right\}\]

Supposons que le système \(\left(\mathscr S\right)\) soit compatible, alors \(\mathcal S \neq \varnothing\). Soit \(x_0\in\mathcal S\). On a : \[x \in\mathcal S \Longleftrightarrow u\left(x\right)=b \Longleftrightarrow u\left(x-x_0\right)=0 \Longleftrightarrow x-x_0 \in \operatorname{Ker}u = \mathcal S_0 \Longleftrightarrow x=x_0 + \mathcal S_0\]

Cas Particulier : Les systèmes de Cramer

(Système de Cramer).
Un système de \(n\) équations à \(n\) inconnues de rang \(n\) est dit de Cramer.
Matriciellement, un système de Cramer s’écrit \(AX=B\)\(A\in GL_{n}\left(\mathbb{K}\right)\) et \(B\in\mathfrak{M}_{n,1}\left(\mathbb{K}\right)\).
(Résolution matricielle d’un système de Cramer).
Un système de Cramer possède une et une seule solution qui s’écrit matriciellement : \(X=A^{-1}B\).
\(A\) étant inversible, la proposition est immédiate.
(Formules de Cramer).
Si \(\left(\mathscr S\right)\) est un système de Cramer d’écriture matricielle \(AX=B\), l’unique solution de \(\left(\mathscr S\right)\) est le \(n\)-uplet \(\left(x_1,\dots,x_n\right)\) tel que : \[\forall i\in\llbracket 1,n\rrbracket,\quad \boxed{x_i={\scriptstyle\mathop{\rm det}A_i\over\scriptstyle\mathop{\rm det}A}}\]\(A_i\) est la matrice obtenue en remplaçant la \(i\)-ème colonne de \(A\) par \(B\).
Soit \(\left(x_1,\dots,x_n\right)\) l’unique solution de \(\left(\mathscr S\right)\) alors si \(C_1,\dots,C_n\) désignent les vecteurs colonnes de \(A\), on a : \(\sum_{k=1}^n x_k C_k = B\). Par conséquent, pour tout \(i\in\llbracket 1,n\rrbracket\), on a : \[\begin{aligned} \mathop{\rm det}\left(C_1,\dots,C_{i-1},B,C_{i+1},\dots, C_n\right) &=& \sum_{k=1}^n x_k \mathop{\rm det}\left(C_1,\dots,C_{i-1},C_{k},C_{i+1},\dots, C_n\right) \newline &=& x_i \mathop{\rm det}\left(C_1,\dots,C_{i-1},C_{i},C_{i+1},\dots, C_n\right) = x_i \mathop{\rm det}\left(A\right)\end{aligned}\] d’où le résultat.
En particulier, si \(n=2\), on a : Soit \[\left(\mathscr S\right)=\left\{ \begin{aligned} ax&+by&=&\alpha\cr cx&+dy&=&\beta \end{aligned}\right..\] Notons \(A= \left( \begin{array}{cc} a&b\\ c&d \end{array} \right)\) Ce système est de Cramer si et seulement si \(\mathop{\rm det}\left(A\right)=\left| \begin{array}{cc} a&b\\ c&d \end{array} \right|=ad-bc\neq 0\) et dans ce cas, le couple solution de \(\left(\mathscr S\right)\) est donné par : \[x=\dfrac{\left| \begin{array}{cc} \alpha&b\\ \beta &d \end{array} \right|}{ad-bc} \quad \textrm{ et} \quad y=\dfrac{\left| \begin{array}{cc} a&\alpha\newline b&\beta \end{array} \right|}{ad-bc}\]

Méthode du Pivot de Gauss

Si un système à \(n\) équations et à \(n\) inconnues est sous forme triangulaire (c’est-à-dire si la matrice \(A\) correspondante est triangulaire et sans zéro sur la diagonale) alors il est de Cramer. En effet, la matrice \(A\) est inversible.

Méthode : Résolution d’un système de Cramer par la méthode de Gauss
Soit \(\left(\mathscr S\right)\) un système de Cramer d’écriture matricielle \(AX=B\). La méthode du pivot de Gauss consiste, en utilisant des oel à transformer la matrice \(A\) en une matrice triangulaire supérieure en effectuant les mêmes opérations sur la matrice colonne \(B\). Le système correspondant est alors équivalent au système initial et possède donc le même ensemble solution.

La descente : \(\left\lbrace \begin{array}{ccccc} x&+2y&+3z&=&1\cr -x&-3y&+5z&=&2\cr x&+y&+z&=&-1 \end{array}\right.\)

On fait apparaître des zéros : coefficients de \(x\) dans les deuxièmes et troisièmes lignes. On ne touche pas à la première. \[\left\lbrace \begin{array}{cccccc} x&+2y&+3z&=&1&\cr &-y&+8z&=&3&L_2\longleftarrow L_2+L_1\cr & y&+2z&=&2&L_3\longleftarrow L_3-L_1 \end{array}\right.\] Ces opérations sur les lignes se traduisent par des multiplications à gauche par des matrices. Il suffit de voir le résultat sur la matrice \(I_3\). Donc il s’agit de la matrice \[G_1 = \begin{pmatrix} 1 & 0 & 0 \\ 1 & 1 & 0 \\ -1& 0 & 1 \end{pmatrix}.\] Autrement dit \[G_1\cdot A = \begin{pmatrix} 1 & 0 & 0 \\ 1 & 1 & 0 \\ -1& 0 & 1 \end{pmatrix}\times \begin{pmatrix} 1 & 2 & 3 \\ -1 & -3 & 5 \\ 1& 1 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 2 & 3 \\ 0 & -1 & 8 \\ 0& 1 & 2 \end{pmatrix}\] ou encore \[G_1\cdot \widetilde A = \begin{pmatrix} 1 & 0 & 0 \\ 1 & 1 & 0 \\ -1& 0 & 1 \end{pmatrix}\times \begin{pmatrix} 1 & 2 & 3 & 1\\ -1 & -3 & 5 & 2\\ 1& 1 & 1 & -1 \end{pmatrix} = \begin{pmatrix} 1 & 2 & 3 & 1\\ 0 & -1 & 8 & 3\\ 0& 1 & 2 & 2 \end{pmatrix}.\] On continue de << sculpter>> le système (ou la matrice \(\widetilde A\) obtenue en soudant les matrices \(A\) et \(B\)) pour faire apparaître un zéro : le coefficient de \(y\) dans la troisième ligne. \[\left\lbrace \begin{array}{cccccc} x&+2y&+3z&=&1&\cr &-y&+8z&=&3&\cr & &10z&=&5&L_3\longleftarrow L_3+L_2 \end{array}\right.\] Cette fois \[G_2 = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0& 1 & 1 \end{pmatrix}.\] Il ne reste plus qu’à remonter : On trouve successivement \(z = {\scriptstyle 1\over\scriptstyle 2}\), \(y = 1\) et \(x = -{\scriptstyle 5\over\scriptstyle 2}\).

Il est à remarquer que \(G_1\) et \(G_2\) sont inversibles. Pour trouver leurs inverses, il suffit de défaire ce que faisaient ces matrices. Pour \(G_1^{-1}\) : \(\left\lbrace \begin{array}{l} L_1\longleftarrow L_1\cr L_2\longleftarrow L_2-L_1\cr L_3\longleftarrow L_3+L_1\cr \end{array}\right.\).

Donc \[G_1^{-1} = \begin{pmatrix} 1 & 0 & 0 \\ -1 & 1 & 0 \\ 1& 0 & 1 \end{pmatrix}.\quad\textrm{ De même }G_2^{-1} = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0& -1 & 1 \end{pmatrix}.\]

Bibliographie


    Barre utilisateur

    [ID: 77] [Date de publication: 28 décembre 2021 18:49] [Catégorie(s): Le cours de SUP ] [ Nombre commentaires: 0] [nombre d'éditeurs: 1 ] [Editeur(s): Emmanuel Vieillard-Baron ] [nombre d'auteurs: 3 ] [Auteur(s): Emmanuel Vieillard-Baron Alain Soyeur François Capaces ]




    Commentaires sur le cours

    Documents à télécharger

    L'article complet