Lecture zen
alors : \[\boxed{\textrm{ Mat}_{g\gets e}\left(v\circ u\right)=
\textrm{ Mat}_{g\gets f}\left(v\right) \times
\textrm{ Mat}_{f \gets e}\left(u\right)}\]
Ses travaux mathématiques portent sur la géométrie, (courbes de Jordan), mais également sur l’étude du groupe des permutations, et les séries de Fourier. Il est aussi l’auteur d’un procédé de réduction des endomorphismes tellement utile qu’il est parfois nommé jordanisation des endomorphismes. Réduire un endomorphisme consiste à trouver une base dans laquelle sa matrice prend une forme simple . Dans le cas de la jordanisation, il s’agit d’une matrice diagonale par blocs dont les blocs sont des matrices de Jordan (voir l’exercice ). Ce procédé est en particulier important pour résoudre certaines équations différentielles. Ajoutons que Jordan était réputé pour l’excentricité de ses notations. Il prend sa retraite en 1912. Celle-ci est marquée par le décès de trois de ses huit enfants durant la première guerre mondiale.
qui se lit ainsi : Effectuer l’opération élémentaire n°\(k\) sur les lignes de \(A\) revient à multiplier \(A\) par la matrice inversible \(P\)
begindivlemmebegintextndtext Soit \(\alpha\in\mathbb{K}^*\). On a :
enddivlemme
Soit \(\left(\mathscr S\right)\) un système de Cramer d’écriture matricielle \(AX=B\). La méthode du pivot de Gauss consiste, en utilisant des oel à transformer la matrice \(A\) en une matrice triangulaire supérieure en effectuant les mêmes opérations sur la matrice colonne \(B\). Le système correspondant est alors équivalent au système initial et possède donc le même ensemble solution.
Introduction au calcul matriciel.
Calcul matriciel
Introduction au calcul matriciel.
Pour bien aborder ce chapitre
Tout est dit dans le théorème [theo_appli_lin_base2010-04-3017:25:48] page [theo_appli_lin_base2010-04-3017:25:48] du chapitre [chap_dim_ev]...si on se fixe une base \(e=\left(e_1,\dots,e_p\right)\) de \(E\) et une base \(f=\left(f_1,\dots,f_q\right)\) de \(F\) alors une application linéaire \(u\in L\left(E,F\right)\) est entièrement déterminée par les composantes des vecteurs \(u\left(e_i\right)\) dans la base \(f\). Ces \(pq\) scalaires définissent complètement \(u\). Il est tentant de les représenter dans un tableau. Si on note, pour tout \(j\in\llbracket 1,p\rrbracket\), \(u\left(e_j\right)=\sum_{i=1}^q a_{i,j} f_j\) alors on peut écrire :
Ce tableau est la matrice de \(u\) dans les bases \(e\) de \(E\) et \(f\) de \(G\). Se posent alors des questions naturelles :
Au niveau historique, on peut indiquer qu’au \(3^{\textrm{ e}}\) siècle, le mathématicien chinois Liu Hui résolvait les systèmes linéaires ayant jusqu’à \(6\) inconnues. Il représentait ces systèmes grâce à des tableaux et avait découvert la méthode qu’on appelle maintenant pivot de Gauss pour les résoudre. Au \(17^{\textrm{ e}}\) siècle, toujours pour résoudre des systèmes linéaires, Leibniz invente le déterminant. Cette notion est approfondie par Cramer qui découvre soixante ans plus tard la méthode qui porte maintenant son nom. Il faut attendre le \(19^{\textrm{ e}}\) siècle, pour que la notation matricielle sous forme de rectangle (ou carré) de nombres apparaisse. Gauss découvre le produit matriciel en dimension \(3\) et indique que la formule se généralise dans les autres dimensions mais sans détailler. Sylvester, le premier, dénomme ces rectangles de nombres du mot matrix.
Dans tout ce chapitre, \(m,n,p,q,r\) sont des entiers positifs, \(\mathbb{K}\) désigne le corps \(\mathbb{R}\) des réels ou le corps \(\mathbb{C}\) des complexes. \(E\) et \(F\) sont des \(\mathbb{K}\)-espaces vectoriels.
Matrice à coefficients dans \(\mathbb{K}\)
Définitions
(Matrice). Soit \(\mathbb{K}\) un corps et \(q,p\in\mathbb{N}^*\). On appelle matrice à \(q\) lignes et \(p\) colonnes à coefficients dans \(\mathbb{K}\) toute application : \[A: \left\{ \begin{array}{ccl} \llbracket 1,q\rrbracket\times\llbracket 1,p\rrbracket & \longrightarrow & \mathbb{K} \newline \left(i,j\right) & \longmapsto & a_{i,j} \end{array} \right.\] que l’on note :
On notera aussi \(\left[A\right]_{ij}\) ou encore \(a_{ij}\) le coefficient \(a_{i,j}\) de \(A\).
(Vecteur ligne, vecteur colonne d’une matrice). Pour toute matrice \(A\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) : \[A=\left(\begin{array}{ccc}
a_{1,1}&\dots&a_{1,p}\\
\vdots& \dots&\vdots\newline
a_{q,1}&\dots&a_{q,p}
\end{array}\right)\] on appelle, pour \(\left(i,j\right)\in\llbracket 1,q\rrbracket\times\llbracket 1,p\rrbracket\) :
(Matrice ligne, matrice colonne).
(Matrice nulle). On dit que \(A\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) est la matrice nulle de \(\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) si et seulement si tous ses coefficients sont nuls. On la note : \(0_{\mathfrak{M}_{q,p}\left(\mathbb{K}\right)}\) ou \(0\) lorsqu’aucune confusion n’est à craindre.
(Matrice carrée). Une matrice possédant autant de lignes que de colonnes est dite carrée. On note \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) l’ensemble des matrices carrées à \(n\) lignes et \(n\) colonnes.
(Matrice identité). On appelle matrice identité et on note \(I_n\) la matrice de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) donnée par : \[I_n=\begin{pmatrix}
1 & 0 & \dots & 0 \\
0 & 1 & \ddots & \vdots \\
\vdots&\ddots & \ddots &0 \newline
0 & \dots & 0 & 1
\end{pmatrix} \in \mathfrak{M}_{n}(\mathbb{\mathbb{K} })\] Tous ses coefficients sont nuls sauf ceux situés sur la diagonale et qui valent \(1\).
\(I_1=\begin{pmatrix} 1 \end{pmatrix}\), \(I_2=\begin{pmatrix} 1&0\\0&1
\end{pmatrix}\), \(I_3=\begin{pmatrix} 1&0&0\\0&1&0\newline0&0&1
\end{pmatrix}\).
L’espace vectoriel \(\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\)
On munit \(\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) d’une addition et d’une multiplication par un scalaire. Le triplet \(\left(\mathfrak{M}_{q,p}\left(\mathbb{K}\right),+,.\right)\) est alors un \(\mathbb{K}\)-espace vectoriel de dimension \(pq\).
(Somme de matrices, multiplication d’une matrice par un scalaire).
Laissée au lecteur. On vérifie aisément les différents axiomes définissant un espace vectoriel.
\[\begin{pmatrix}1&-1&0\\-2&1&-3 \end{pmatrix}-2 \begin{pmatrix}0&2&1\\-1&0&1
\end{pmatrix}=\begin{pmatrix}1&-5&-2\newline0&1&-5 \end{pmatrix}\]
(Matrices élémentaires). Pour tout \(i\in\llbracket 1,q\rrbracket\) et \(j\in\llbracket 1,p\rrbracket\) on définit la matrice élémentaire \(E_{i,j}\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) par :
Tous les coefficients de la matrice élémentaire \(E_{i,j}\) sont nuls sauf celui à l’intersection de la \(i\)-ème ligne et de la \(j\)-ème colonne qui vaut \(1\).
Les matrices élémentaires de \(\mathfrak{M}_{2,3}\left(\mathbb{K}\right)\) sont \[E_{1,1}=\begin{pmatrix}1&0&0\\0&0&0\end{pmatrix},
E_{1,2}=\begin{pmatrix}0&1&0\\0&0&0\end{pmatrix},
E_{1,3}=\begin{pmatrix}0&0&1\\0&0&0\end{pmatrix},
E_{2,1}=\begin{pmatrix}0&0&0\\1&0&0\end{pmatrix},
E_{2,2}=\begin{pmatrix}0&0&0\\0&1&0\end{pmatrix},
E_{2,3}=\begin{pmatrix}0&0&0\newline0&0&1\end{pmatrix}.\] À titre d’exercice, et pour préparer le théorème suivant, montrer que cette famille de \(6\) matrices constitue une base de \(\mathfrak{M}_{2,3}\left(\mathbb{K}\right)\).
(Base canonique de \(\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\)).
La famille formée par les matrices élémentaires \(\left(E_{i,j}\right)_{
\left(i,j\right)\in\llbracket 1,q\rrbracket\times\llbracket 1,p\rrbracket}\) est une base de \(\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) appelée base canonique de \(\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\). On en déduit que : \[\boxed{\dim \mathfrak{M}_{q,p}\left(\mathbb{K}\right)=qp}\]
Produit matriciel
On définit maintenant, quand c’est possible, le produit de deux matrices. Le théorème [comp_appl_lin_matrice] page [comp_appl_lin_matrice] explicite le sens de ce produit, il correspond en fait à la composition des applications linéaires.
(Produit matriciel). Soit \(A\in\mathfrak{M}_{r,q}\left(\mathbb{K}\right)\) et \(B\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\). On définit \(AB\) comme la matrice \(C\) de \(\mathfrak{M}_{r,p}\left(\mathbb{K}\right)\) définie par : \[\forall i\in\llbracket 1,r\rrbracket \quad \forall j\in\llbracket 1,p\rrbracket \quad
c_{i,j}= \left[AB\right]_{i,j}=\sum_{k=1}^q a_{i,k}b_{k,j}\]
On ne peut effectuer le produit de \(A\in\mathfrak{M}_{r,q}\left(\mathbb{K}\right)\) et \(B\in\mathfrak{M}_{q',p}\left(\mathbb{K}\right)\) que si \(q=q'\)!
Si \(A=\begin{pmatrix} 1&-1\\0&2\\1&-3\end{pmatrix}\) et \(B=\begin{pmatrix}-1&1&0\\0&2&1 \end{pmatrix}\) alors \(AB=\begin{pmatrix}-1&-1&-1\\0&4&2\\-1&-5&-3\end{pmatrix}\) et \(BA=\begin{pmatrix}-1&3\newline1&1 \end{pmatrix}\). Remarquons qu’en général, le produit \(AB\) peut exister sans que ce ne soit forcément le cas pour le produit \(BA\).
Il est souvent utile dans les exercices de savoir multiplier les matrices élémentaires. Pour ce faire introduisons le symbole de Kronecker.
(Symbole de Kronecker). Pour tout \(i,j\in\mathbb{N}\), on définit le symbole de Kronecker \(\delta_{i,j}\) par : \[\delta_{i,j}=
\begin{cases}
1 & \textrm{ si $i=j$}\newline
0 & \textrm{ sinon}
\end{cases}\]
Le nombre \(\delta_{i,j}\) est l’élément générique de la matrice identité \(I_n\).
(Produit de matrices élémentaires). Pour deux matrices élémentaires de \(\mathfrak{M}_{n}(\mathbb{\mathbb{K} })\), on a la formule importante suivante qui donne leur produit : \[\boxed{ E_{k,\ell}E_{p,q} = \delta_{\ell,p} E_{k,q} }\]
Par un calcul direct. Voir aussi le paragraphe [utilisation_des_matrices_elementaires] page [utilisation_des_matrices_elementaires].
(Règles de calculs avec les matrices). Quant les produit suivants sont possibles, pour des matrices \(A,B, C\) et des scalaires \(\alpha,\beta\) :
Laissée au lecteur.
Transposition
(Transposée d’une matrice). On appelle transposée de \(A\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) la matrice noté \({A}^{\mathrm{T}}\in
\mathfrak{M}_{p,q}\left(\mathbb{K}\right)\) dont les colonnes sont formées par les lignes de \(A\). Autrement dit : \[\forall i\in\llbracket 1,p\rrbracket, \quad \forall j\in\llbracket 1,q\rrbracket, \quad
\left[{A}^{\mathrm{T}}\right]_{i,j}=a_{j,i}\]
Transposer revient à échanger les lignes et les colonnes d’une matrice.
Si \(A=\begin{pmatrix} 1&-3\\2&7\\0&-4\end{pmatrix}\) alors \({A}^{\mathrm{T}}= \begin{pmatrix} 1&2&0\newline-3&7&-4
\end{pmatrix}\).
L’application : \[\Phi: \left\{ \begin{array}{ccl} \mathfrak{M}_{q,p}\left(\mathbb{K}\right) & \longrightarrow & \mathfrak{M}_{p,q}\left(\mathbb{K}\right) \newline A & \longmapsto & ^tA \end{array} \right.\] est un isomorphisme d’espaces vectoriels. En particulier, si \(A,B\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) et si \(\alpha,\beta \in\mathbb{K}\). Alors : \[\boxed{{\left({A}^{\mathrm{T}}\right)}^{\mathrm{T}}=A} \quad \textrm{ et} \quad\boxed{{\left(\alpha A +
\beta B \right)}^{\mathrm{T}} = \alpha {A}^{\mathrm{T}} + \beta {B}^{\mathrm{T}}}.\]
La linéarité ainsi que la relation \({\left({A}^{\mathrm{T}}\right)}^{\mathrm{T}}=A\) sont faciles à prouver. Pour la bijectivité, on propose deux méthodes :
En prenant un peu d’avance sur le paragraphe [para_matrice_sym_antisym], L’opération de transposition sur \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est une symétrie par rapport à \(\operatorname{Ker}\Phi
-\mathop{\mathrm{id}}\nolimits=\mathcal{S}_n\left(\mathbb{K}\right)\) parallèlement à \(\operatorname{Ker}\Phi
+\mathop{\mathrm{id}}\nolimits=\mathcal{A}_n\left(\mathbb{K}\right)\).
(Transposée d’un produit). Pour tout \(A\in\mathfrak{M}_{r,q}\left(\mathbb{K}\right)\) et \(B\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) : \[\boxed{{\left(AB\right)}^{\mathrm{T}}={B}^{\mathrm{T}}{A}^{\mathrm{T}}}\]
On suppose que \(A=\left(a_{i,k}\right)\in\mathfrak{M}_{r,q}\left(\mathbb{K}\right)\), que \(B=\left(b_{k,j}\right)\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\), \(C=AB=\left(c_{i,j}\right)\in\mathfrak{M}_{r,p}\left(\mathbb{K}\right)\) où \(c_{i,j}=\sum_{k=1}^q a_{i,k}b_{k,j}\). On note aussi :
Attention au retournement dans le produit.
Avec Maple
Voici une feuille de calcul Maple sur les matrices. On notera :
> with(linalg): \(\sharp\)On charge la librairie de calcul matriciel > A:=matrix([[1,-1],[0,2],[1,-3]]); [1 -1] [ ] A := [0 2] [ ] [1 -3] > B:=matrix([[2,0],[1,-3],[-1,1]]); [ 2 0] [ ] B := [ 1 -3] [ ] [-1 1]
> C:=matrix([[-1,1,0],[0,2,1]]); [-1 1 0] C := [ ] [ 0 2 1]
> evalm(2*A-B); \(\sharp\)on calcule 2A-B [ 0 -2] [ ] [-1 7] [ ] [ 3 -7]
> evalm(A and *C); \(\sharp\)on calcule AC [-1 -1 -1] [ ] [ 0 4 2] [ ] [-1 -5 -3] > transpose(A); \(\sharp\)on transpose A [ 1 0 1] [ ] [-1 2 -3]
Matrices d’une famille de vecteurs, d’une application linéaire
Matrice d’une famille de vecteurs relativement à une base
(Matrice d’un vecteur relativement à une base). Soient \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension finie \(n\) et \(e=\left(e_1,\ldots,e_n\right)\) une base de \(E\). Soit \(x\in E\) un vecteur qui se décompose sur la base \(e\) en : \[x= x_1e_1+\dots + x_n e_n\] On appelle matrice de \(x\) relativement à la base \(e\) et on note \(\textrm{ Mat}_{e}\left(x\right)\) la matrice colonne donnée par : \[\textrm{ Mat}_{e}\left(x\right)=
\begin{pmatrix}
x_1\\ \vdots\newline x_n
\end{pmatrix}\in\mathfrak{M}_{n,1}\left(\mathbb{K}\right)\] où \(\displaystyle{x=\sum_{i=1}^n x_i e_i}\)
On considère \(\mathbb{R}^3\) muni de sa base canonique \(e=\left(e_1,e_2,e_3\right)\). Soit \(v=\left(1,-2,3\right)\in \mathbb{R}^3\). Alors \(\textrm{ Mat}_{e}\left(v\right)=\begin{pmatrix}
1\\-2\newline3
\end{pmatrix}\).
\(\textrm{ Mat}_{e}\left(x\right)\) représente les coordonnées du vecteur \(x\) dans la base \(e\). Il y a bien sûr une bijection entre les vecteurs de \(E\) et les matrices colonnes de taille \(n\) (qui contiennent les composantes de ces vecteurs dans une base fixée). De plus, effectuer des calculs avec ces vecteurs correspond à effectuer des calculs avec ces matrices. C’est le sens de la proposition suivante.
(Tout \(\mathbb{K}\)-espace vectoriel de dimension \(n\) est isomorphe à \(\mathfrak{M}_{n,1}\left(\mathbb{K}\right)\)). Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\) et soit \(e\) une base de \(E\). L’application \(\theta: \left\{ \begin{array}{ccl} E & \longrightarrow & \mathfrak{M}_{n,1}\left(\mathbb{K}\right) \newline x & \longmapsto & \textrm{ Mat}_{e}\left(x\right) \end{array} \right.\) qui à un vecteur associe la matrice colonne de ses coordonnées dans la base \(E\) est un isomorphisme de \(\mathbb{K}-\)espaces vectoriels.
Si \(x=\sum_{i=1}^n x_i e_i\) et si \(y=\sum_{i=1}^n y_i e_i\) alors pour tout \(\alpha,\beta\in\mathbb{K}\), \(\alpha x+\beta y=\sum_{i=1}^n \left(\alpha x_i + \beta y_i\right)
e_i\) donc il est clair que \(\textrm{ Mat}_{e}\left(\alpha x+\beta y\right)=\alpha
\textrm{ Mat}_{e}\left(x\right)+\beta \textrm{ Mat}_{e}\left(y\right)\) et \(\theta\) est linéaire. Si \(x\in\operatorname{Ker}
\theta\) alors \(\theta\left(x\right)=0\) et les composantes de \(x\) dans la base \(e\) valent toutes \(0\). Donc \(x=0\) et \(\theta\) est injective. De plus, \(\dim E=\dim
\mathfrak{M}_{n,1}\left(\mathbb{K}\right)\) donc \(\theta\) est bijective.
(Matrice d’une famille de vecteurs relativement à une base). Soient \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(q\) et \(e=\left(e_1,\ldots,e_q\right)\) une base de \(E\). On considère \(\left(v_1,\ldots,v_p\right)\) une famille de \(p\) vecteurs de \(E\) qui se décomposent dans la base \(e\) sous la forme : \[\forall j\in\llbracket 1,p\rrbracket \quad v_j=\sum_{i=1}^q a_{i,j}e_i.\] On appelle matrice de la famille \(\left(v_1,\ldots,v_p\right)\) relativement à la base \(e\) et on note \(\textrm{ Mat}_{e}\left(v_1,\ldots,v_p\right)\) la matrice :
La \(j\)-ème colonne de cette matrice est constituée des coordonnées du vecteur \(v_j\) dans la base \(e\).
On se place à nouveau dans \(\mathbb{R}^3\) muni de sa base canonique \(e=\left(e_1,e_2,e_3\right)\). Soient \(v_1=\left(-1,3,0\right),v_2=\left(0,-1,5\right),v_3=\left(-3,2,1\right),v_4=\left(1,0,-1\right)\in \mathbb{R}^3\) et soit \(v=\left(v_1,v_2,v_3,v_4\right)\) alors \(\textrm{ Mat}_{e}\left(v\right)=\begin{pmatrix}
-1&0&-3&1\\3&-1&2&0\newline0&5&1&-1
\end{pmatrix}\).
Matrice d’une application linéaire relativement à deux bases
(Matrice d’une application linéaire relativement à deux bases). Soient:
Autrement dit : \(\textrm{ Mat}_{f\gets e}\left(u\right)\) est la matrice de la famille de vecteurs \(\left(u\left(e_1\right),\ldots,u\left(e_p\right)\right)\) relativement à la base \(f\) : \[\textrm{ Mat}_{f\gets e}\left(u\right)=
\textrm{ Mat}_{f}\left(u\left(e_1\right),\ldots,u\left(e_p\right)\right).\]
On appelle matrice de \(u\) relativement aux bases \(f\) et \(e\) et on note \(\textrm{ Mat}_{f\gets e}\left(u\right)\) (ou \(\textrm{ Mat}_{e,f}\left(u\right)\)) la matrice \(q\times p\) donnée par :
où \(\left(a_{1j},\dots,a_{qj}\right)\) sont les composantes du vecteur \(u\left(e_j\right)\) dans la base \(f\).
Les notations utilisées sont un peu lourdes mais elles rendront très simples à retenir les formules de changement de base.
Donnons deux exemples :
(Matrice d’une forme linéaire relativement à une base). Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\) et \(e=\left(e_1,\ldots,e_n\right)\) une base de \(E\). Si \(\varphi\) est une forme linéaire sur \(E\), on appelle matrice de \(\varphi\) relativement à la base \(e\) la matrice ligne \(1\times n\) donnée par : \[\textrm{ Mat}_{e}\left(\varphi\right)=\left(\varphi\left(e_1\right),\dots,\varphi\left(e_n\right)\right)\]
(Une application linéaire est entièrement déterminée par sa matrice dans deux bases). Soient:
l’application : \[\theta: \left\{ \begin{array}{ccl} \mathfrak{L}\left(E,F\right) & \longrightarrow & \mathfrak{M}_{q,p}\left(\mathbb{K}\right) \newline u & \longmapsto & \textrm{ Mat}_{f\gets
e}\left(u\right) \end{array} \right.\] est un isomorphisme d’espaces vectoriels. En particulier, si \(M\in \mathfrak{M}_{q,p}\left(\mathbb{K}\right)\), il existe une unique application linéaire \(u\in \mathfrak{L}\left(E,F\right)\) telle que \(\theta^{-1}\left(M\right)=u\). On dit que \(u\) est l’application linéaire de \(E\) dans \(F\) représentée par \(M\) dans les bases \(e\) de \(E\) et \(f\) de \(F\).
(Autrement dit :). Avec les notations précédentes, se fixant une base \(e\) dans \(E\) et une base \(f\) dans \(F\).
En utilisant ces deux dernières propositions, on obtient :
\(\quad\) Soient \(E\) et \(F\) deux \(\mathbb{K}\)-espace vectoriel de dimension finie, soient \(e\) et \(f\) des bases respectives de \(E\) et \(F\). Si on note \(p=\dim E\) et \(q=\dim F\), on a : \[\boxed{\dim \mathfrak{L}\left(E,F\right)=\dim
\mathfrak{M}_{q,p}\left(\mathbb{K}\right)=qp}\]
En effet, deux \(\mathbb{K}\)-espaces vectoriels isomorphes ont la même dimension.
Le théorème suivant justifie la définition du produit matriciel. Composer des applications linéaires revient à multiplier les matrices correspondantes.
(Fondamental! Matrice de la composée de deux applications linéaires). Soient:
Notons : \(A=\left(a_{i',j'}\right)=\textrm{ Mat}_{f \gets e}\left(u\right) \quad B=\left(b_{i'',j''}\right)=\textrm{ Mat}_{g \gets f}\left(v\right) \quad \textrm{ et} \quad
C=\left(c_{i,j}\right)=\textrm{ Mat}_{g\gets e}\left(v\circ u\right)\). Soient \(j\in \llbracket 1,p\rrbracket\) et \(i\in\llbracket 1,r\rrbracket\). On a : \(\left(v \circ u \right)\left(e_j\right) = v\left(u\left(e_j\right)\right)
=v\left(\sum_{k=1}^q a_{k,j} f_k\right)
= \sum_{k=1}^q a_{k,j} v\left(f_k\right)
= \sum_{k=1}^q a_{k,j} \sum_{i=1}^r b_{i,k} g_i
= \sum_{k=1}^q \sum_{i=1}^r b_{i,k} a_{k,j} g_i
= \sum_{i=1}^r \left(\sum_{k=1}^q b_{i,k} a_{k,j} \right) g_i\)
Et par identification : \(c_{i,j}=\sum_{k=1}^q b_{j,k} a_{k,i}\) ce qui prouve le résultat.
Enfin, on écrit le calcul de l’image d’un vecteur par une application linéaire peut s’effectuer, en dimension finie, au moyen des matrices.
(Écriture matricielle de l’image d’un vecteur par une application linéaire). Soient:
alors : \[\boxed{\textrm{ Mat}_{f}\left(u\left(x\right)\right)=\textrm{ Mat}_{f\gets e}\left(u\right) \times
\textrm{ Mat}_{e}\left(x\right)}\] Autrement dit, si \(Y=\textrm{ Mat}_{f}\left(u\left(x\right)\right)\), \(A=\textrm{ Mat}_{f\gets e}\left(u\right)\) et \(X=\textrm{ Mat}_{e}\left(x\right)\), on a : \(\boxed{Y=AX}\).
Posons \(A=\left(a_{i,j}\right)\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\), \(X=\left(x_j\right)\in\mathfrak{M}_{p,1}\left(\mathbb{K}\right)\) et \(Y=\left(y_i\right)\in\mathfrak{M}_{q,1}\left(\mathbb{K}\right)\). On a : \(u\left(x\right)=u\left(\sum_{j=1}^p x_j e_j\right)=\sum_{j=1}^p
x_j u\left( e_j\right) = \sum_{j=1}^p x_j \sum_{i=1}^q a_{i,j}f_i = \sum_{i=1}^q
\sum_{j=1}^p a_{i,j} x_j f_i=\sum_{i=1}^q y_i f_i.\) Par identification, on a bien : \[\forall i\in\llbracket 1,q\rrbracket,\quad y_i=\sum_{j=1}^p a_{i,j} x_j\] ce qui prouve le résultat.
Matrices carrées
Définitions
Rappelons qu’une matrice est carrée si et seulement si elle possède autant de lignes que de colonnes. L’ensemble des matrices carrées de taille \(n\) est noté \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\).
Le premier point est un corollaire immédiat des propositions [prop_ev_matrice14:52:53] et [base_ev_matrices14:53:34]. On vérifie facilement les axiomes d’un anneau pour \(\left(\mathfrak{M}_{n}\left(\mathbb{K}\right),+,\times\right)\).
Comme \(\left(\mathfrak{M}_{n}\left(\mathbb{K}\right),+,\times\right)\) est un anneau, pour deux matrices \(A,B\in
\mathfrak{M}_{n}\left(\mathbb{K}\right)\), on pourra utiliser la formule du binôme de Newton (voir le théorème [formule_binome_anneau14:59:12] page [formule_binome_anneau14:59:12]) dès que \(A\) et \(B\) commutent, c’est-à-dire dès que \(AB=BA\).
Calculons les puissance de \(A=\begin{pmatrix}1&-1&1\\0&1&-1\\0&0&1
\end{pmatrix}\). On remarque que \(A=I_3+B\) avec \(B=\begin{pmatrix}0&-1&1\\0&0&-1\\0&0&0
\end{pmatrix}\). On remarque aussi que \(B^2=\begin{pmatrix}0&0&1\\0&0&0\\0&0&0\end{pmatrix}\) et que \(B^3=0\). Comme \(I_3B=B I_3=B\), on peut appliquer la formule du binôme et écrire pour \(n\geqslant
2\) : \[A^n=\sum_{k=0}^n \dbinom{n}{k} I_3^{n-k}B^k= I_3+n B + \dfrac{n\left(n-1\right)}{2}B^2
=\begin{pmatrix}1&-n& {\scriptstyle n\left(n+1\right)\over\scriptstyle 2}\\0&1&-n\newline0&0&1 \end{pmatrix}.\] Par un calcul direct, on montre que cette égalité reste correcte si \(n=0,1\) d’où le résultat.
(Matrice d’un endomorphisme dans une base). Soient \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\) et \(e\) une base de \(E\). Soit \(u\in \mathfrak{L}\left(E\right)\) un endomorphisme de \(E\). On appelle matrice de l’endomorphisme \(u\) dans la base \(e\) la matrice notée \(\textrm{ Mat}_{e}\left(u\right)\) et donnée par :
\[\textrm{ Mat}_{e}\left(u\right) = \textrm{ Mat}_{e \gets e}\left(u\right)\] Remarquons que \(\textrm{ Mat}_{e}\left(u\right)\) est une matrice carrée : \(\textrm{ Mat}_{e}\left(u\right)\in
\mathfrak{M}_{n}\left(\mathbb{K}\right)\).
(Un endomorphisme est entièrement déterminé par sa matrice dans une base). Soient \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\) et \(e\) une base de \(E\). Alors, l’application \[\theta: \left\{ \begin{array}{ccl} \mathfrak{L}\left(E\right) & \longrightarrow & \mathfrak{M}_{n}\left(\mathbb{K}\right) \newline u & \longmapsto & \textrm{ Mat}_{e}\left(u\right) \end{array} \right.\] est un isomorphisme d’anneaux et d’espaces vectoriels.
En particulier, si \(M\in \mathfrak{M}_{n}\left(\mathbb{K}\right)\), il existe un unique endomorphisme \(u\in
\mathfrak{L}\left(E\right)\) tel que \(\theta^{-1}\left(M\right)=u\). On dit que \(u\) est l’endomorphisme de \(E\) représenté par \(M\) dans la base \(e\).
Le fait que \(\theta\) est un isomorphisme d’espaces vectoriels est un cas particulier du théorème [isom_lin_mat]. Par ailleurs, si \(u,v\in \mathfrak{L}\left(E\right)\) alors \(\theta\left(u\circ v\right) = \textrm{ Mat}_{e}\left(u\circ v\right) = \textrm{ Mat}_{e}\left(u\right)\textrm{ Mat}_{e}\left(
v\right)=\theta\left(u\right) \theta\left(v\right)\) ce qui prouve que \(\theta\) est un morphisme d’anneaux.
(Autrement dit :). Avec les notations de la proposition précédente, se fixant une base \(e\) de \(E\) :
Éléments inversibles dans \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\), groupe \(GL_{n}\left(\mathbb{K}\right)\)
(Matrice inversible). On dit qu’une matrice carrée \(A\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est inversible si et seulement si il existe \(B\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) tel que : \[AB=I_n \quad \textrm{ et} \quad BA=I_n\] Si tel est le cas \(B\) est unique et est appelée matrice inverse de la matrice \(A\); on la note \(A^{-1}\). L’ensemble des matrices de taille \(n\) est noté \(GL_{n}\left(\mathbb{K}\right)\).
Soit \(B\) et \(B'\) deux matrices de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) telles que \(AB=BA=I_n\) et \(AB'=B'A=I_n\). On a donc \[B = BI_n = B\left(AB'\right) = \left(BA\right)B' = I_nB' = B'.\]
La matrice \(A= \begin{pmatrix}
1 & 1 \\
0 & 1 \\
\end{pmatrix}\) est inversible. En effet, cherchons son inverse sous la forme \(B=
\begin{pmatrix} x&y\\z&t\end{pmatrix}\). Comme \(AB=I_2\) on a le système :\(\begin{cases}x+z=1\\y+t=0\\z=0\\t=1 \end{cases}\) qu’on résout et on trouve \(B=\begin{pmatrix}1&-1\newline0&1 \end{pmatrix}\). On vérifie que \(AB=BA=I_3\) donc \(B=A^{-1}\).
On comprend grâce à cet exemple qu’il va falloir développer des outils plus sophistiqués si on veut montrer sans trop de calculs qu’une matrice est inversible. Ces outils seront le rang (voir paragraphe [para_rang_jeudi_06_mai_2010]) et le déterminant (voir paragraphe [para_det_jeudi_06_mai_2010]). On montrera aussi dans ce dernier paragraphe comment, grâce à la notion de comatrice, on pourra calculer l’inverse de matrices inversibles de taille pas trop grande.
La proposition suivante permet de traduire la notion d’inversibilité entre les matrices et les applications linéaires.
(Une application linéaire est inversible si et seulement si sa matrice est inversible). Soient \(e\) et \(f\) des bases respectives des \(\mathbb{K}\)-espace vectoriels \(E\) et \(F\) tous deux de dimension \(n\), \(u\in\mathfrak{L}\left(E,F\right)\) et \(A=\textrm{ Mat}_{f \gets e}\left(u\right)\). Alors \(A\) est inversible si et seulement si \(u\) est un isomorphisme.
(Si \(E\) est de dimension \(n\), \(GL_{n}\left(\mathbb{K}\right)\) et \(GL_{ }\left(E\right)\) sont des groupes isomorphes ).
Le produit de deux matrices inversibles est inversible, on le démontrera dans la proposition [prop_prod_mat_inv]. Donc le produit est stable dans \(GL_{n}\left(\mathbb{K}\right)\). Il est aussi associatif, son élément neutre est la matrice identitée et par définition toute matrice de \(GL_{n}\left(\mathbb{K}\right)\) admet une matrice inverse élément de \(GL_{n}\left(\mathbb{K}\right)\). Par ailleurs :
Les deux démonstrations qui viennent sont typiques de ce chapitre. Pour démontrer une propriété sur les matrices, on la transcrit en terme d’application linéaire. Vous devez vous familiariser avec cette gymnastique.
On reprend la matrice \(A= \begin{pmatrix}
1 & 1 \\
0 & 1 \\
\end{pmatrix}\) de l’exemple [exemple_inversion_matrice] p. [exemple_inversion_matrice].
Il est clair que l’endomorphisme \(v\) de \(\mathbb{K}_1[X]\) dans lui-même défini par \(v(P) = P(X-1)\) "défait ce que fait \(u\)" et donc que \(u\) et \(v\) sont inverses l’un de l’autre. Donc \(A\) est inversible d’après la proposition [mat_inv_implique_isom] p. [mat_inv_implique_isom]. De plus \(A^{-1}\) est la matrice de \(v\) dans la base \((1,X)\), à savoir \(\begin{pmatrix}
1 & -1 \\
0 & 1 \newline
\end{pmatrix}\).
\(A\) est la matrice, dans la base \((1,X)\), de l’endomorphisme \(u\) de \(\mathbb{K}_1[X]\) dans lui-même défini par \(u(P) = P(X+1)\).
(Une première caractérisation des matrices inversibles).
alors \(A\) et \(B\) sont inversibles et inverses l’une de l’autre : \(B=A^{-1}\) et \(A=B^{-1}\).
Soient \(A,B\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\). On suppose que :
Soient \(E\) un espace vectoriel de dimension \(n\), \(e\) une base de \(E\) et soit \(u\) l’endomorphisme de \(E\) représenté par \(A\) dans la base \(e\) et \(v\) l’endomorphisme de \(E\) représenté par \(B\) dans la base \(e\). Comme \(AB=I_n\), on a : \(I_n=AB=\textrm{ Mat}_{e}\left(u\right)\textrm{ Mat}_{e}\left(v\right)=\textrm{ Mat}_{e}\left(u\circ
v\right)=\textrm{ Mat}_{e}\left(Id_E\right)\). Par conséquent : \(u\circ v=Id_E\). On en déduit que d’après le théorème [inverse_a_gauche_a_droite15:23:57] page [inverse_a_gauche_a_droite15:23:57] que \(u\) est inversible d’inverse \(v\) et donc que \(A\) est inversible d’inverse \(B\).
(Une seconde caractérisation des matrices inversibles). \[A\in GL_{n}\left(\mathbb{K}\right) \Longleftrightarrow\left[\forall X\in\mathfrak{M}_{n,1}\left(\mathbb{K}\right), \quad AX=0
\quad\Rightarrow \quad X=0\right].\]
Soient \(E\) un espace vectoriel de dimension \(n\), \(e\) une base de \(E\) et soit \(u\) l’endomorphisme de \(E\) représenté par \(A\) dans la base \(e\) : \(A=\textrm{ Mat}_{e}\left(u\right)\). Soient \(X\in\mathfrak{M}_{n,1}\left(\mathbb{K}\right)\) et \(x\) le vecteur de \(E\) tel que \(\textrm{ Mat}_{e}\left(x\right)=X\). On a : \[AX=0 \Longleftrightarrow\textrm{ Mat}_{e}\left(u\right)\textrm{ Mat}_{e}\left(x\right) =0 \Longleftrightarrow\textrm{ Mat}_{e}\left(u\left(x\right)\right)=0.\] Si \(A\) est inversible alors \(u\) est un isomorphisme. Donc \(AX=0\) n’est possible que si \(u\left(x\right)=0\) c’est-à-dire si \(x=0\). Par conséquent \(X=0\). Réciproquement, si \(AX=0\) entraîne \(X=0\), alors \(u\left(x\right)=0\) entraîne \(x=0\) et donc \(\operatorname{Ker}u=\left\{0\right\}\) par suite \(u\) est injectif. Comme \(u\) est un endomorphisme, \(u\) est donc aussi surjectif d’après le corollaire [carac_autom15:26:38] page [carac_autom15:26:38] et définit bien un isomorphisme. Par conséquent \(A\) est inversible.
Si \(A,B\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) sont inversibles, il en est de même pour \(AB\) et : \[\boxed{\left(AB\right)^{-1}=B^{-1}A^{-1}}.\]
Supposons que \(A\) et \(B\) soient inversibles. Il existe alors \(A',B'\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) telles que : \(AA'=I_n\) et \(BB'=I_n\). Montrons que : \(B'A'\) est la matrice inverse de \(AB\) ce qui prouvera le résultat. Il suffit pour ce faire de remarquer que : \[ABB'A'=A\underbrace{B B'}_{=I_n}A' = AA'=I_n.\]
Si \(A\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\), \({A}^{\mathrm{T}}\) est inversible si et seulement si \(A\) l’est. De plus, si tel est le cas : \[\boxed{\left({A}^{\mathrm{T}}\right)^{-1}={\left(A^{-1}\right)}^{\mathrm{T}}}.\]
On a la série d’équivalences : \[A \in GL_{n}\left(\mathbb{K}\right) \Longleftrightarrow\exists B\in\mathfrak{M}_{n}\left(\mathbb{K}\right):~
AB=I_n \Longleftrightarrow\exists B\in\mathfrak{M}_{n}\left(\mathbb{K}\right):~ {\left(AB\right)}^{\mathrm{T}}={I_n}^{\mathrm{T}}\Longleftrightarrow\exists
B\in\mathfrak{M}_{n}\left(\mathbb{K}\right):~ {B}^{\mathrm{T}}{A}^{\mathrm{T}}=I_n \Longleftrightarrow{A}^{\mathrm{T}}\in GL_{n}\left(\mathbb{K}\right).\]
On a vu au chapitre [geom_plan] que si \(\overrightarrow{u}\) est un vecteur du plan de coordonnées \((x,y)\) dans une base orthonormale directe \(e=\left(\overrightarrow{\imath},\overrightarrow{\jmath}\right)\) et si \(R_\theta\) est la rotation vectorielle d’angle \(\theta \in\mathbb{R}\) alors les coordonnées de \(R_\theta\left(\overrightarrow{u}\right)\) dans \(e\) sont : \(\left(x',y'\right)= \left(\cos \theta
x-\sin \theta y,\sin \theta x+\cos \theta y\right)\) . On a donc :
Remarquons que \(R_\theta\) est un automorphisme du plan, de bijection réciproque : \(R_{-\theta}\). On a par ailleurs bien : \[\textrm{ Mat}_{e}\left(R_\theta\right) \textrm{ Mat}_{e}\left(R_{-\theta}\right)=
\left(\begin{array}{cc}
\cos \theta&-\sin \theta \\
\sin \theta&\cos \theta
\end{array}\right)
\left(\begin{array}{cc}
\cos \theta&\sin \theta \\
-\sin \theta&\cos \theta
\end{array}\right)=I_2.\] Remarquons que \(\left(\textrm{ Mat}_{e}\left(R_\theta\right)\right)^{-1}={\textrm{ Mat}_{e}\left(R_\theta\right)}^{\mathrm{T}}\). Les matrices inversibles \(A\) dont la matrice inverse est égale à leur transposée: \({A}^{\mathrm{T}}\) sont dites orthogonales.
\[\textrm{ Mat}_{e}\left(R_\theta\right)=\left(\begin{array}{cc} \cos \theta&-\sin \theta \\ \sin \theta&\cos \theta \end{array}\right).\]
Camille Jordan, né le 5 janvier 1838 à Lyon, mort le 22 janvier 1922 à Paris)
Mathématicien Français. Camille Jordan est issu d’un milieu favorisé. Son père était polytechnicien et sa mère était la sœur du peintre Pierre Puvis de Chavannes. Il fait des études brillantes et intègre Polytechnique à la première place. Il devient ingénieur du corps des mines et mène en parallèle des recherches mathématiques. En 1876, il succède à Cauchy comme enseignant à l’école Polytechnique.
Ses travaux mathématiques portent sur la géométrie, (courbes de Jordan), mais également sur l’étude du groupe des permutations, et les séries de Fourier. Il est aussi l’auteur d’un procédé de réduction des endomorphismes tellement utile qu’il est parfois nommé jordanisation des endomorphismes. Réduire un endomorphisme consiste à trouver une base dans laquelle sa matrice prend une forme simple . Dans le cas de la jordanisation, il s’agit d’une matrice diagonale par blocs dont les blocs sont des matrices de Jordan (voir l’exercice ). Ce procédé est en particulier important pour résoudre certaines équations différentielles. Ajoutons que Jordan était réputé pour l’excentricité de ses notations. Il prend sa retraite en 1912. Celle-ci est marquée par le décès de trois de ses huit enfants durant la première guerre mondiale.
Trace d’une matrice
(Trace d’une matrice carrée). Soit \(A=\left(a_{i,j}\right)\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) une matrice carrée. On appelle trace de \(A\) et on note \(\mathop{\mathrm{Tr}}\left(A\right)\), le scalaire : \[\mathop{\mathrm{Tr}}\left(A\right)=\sum_{i=1}^n a_{i,i}\]
La trace de \(A\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est égale à la somme des éléments diagonaux de \(A\).
(Propriétés de la trace).
(En résumé : Opérations sur les matrices ).
Matrices carrées remarquables
Matrices scalaires, diagonales, triangulaires
Nous allons nous intéresser à deux types particuliers de matrice dans cette section: les matrices diagonales et les matrices triangulaires. Les premières se multiplient et s’inversent très facilement (quand c’est possible évidemment). Avec les secondes, les calculs sont plus difficiles mais moins que dans le cas de matrices quelconques.
(Matrices scalaires, diagonales).
Une matrice \(A \in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est scalaire si et seulement si il existe \(\lambda\in\mathbb{K}\) tel que \(A=\lambda I_n\).
(Matrice triangulaire supérieure). On dit que \(T\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est triangulaire supérieure lorsque : \[\forall i,j\in\llbracket 1,n\rrbracket \quad i>j \Rightarrow t_{i,j}=0\] \(T\) est de la forme : \[T=\begin{pmatrix}
t_{11} & & \dots & t_{1n} \\
0 & t_{22} & & \\
\vdots &\ddots & \ddots & \vdots \newline
0 & \dots & 0 & t_{nn}
\end{pmatrix}\] On note \(\mathcal{T}_n\left(\mathbb{K}\right)\) l’ensemble des matrices triangulaires supérieures de taille \(n\).
(Dimension du sous-espace des matrices diagonales et du sous-espace des matrices triangulaires).
(Opérations algébriques avec les matrices diagonales et les matrices triangulaires supérieures).
Exercice.
(Inverse d’une matrice diagonale et d’une matrice triangulaire).
Matrices symétriques, antisymétriques
(Matrices symétriques, antisymétriques). Soit \(A\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\).
Par définition, si \(A=\left(a_{i,j}\right)\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est antisymétrique, et si \(i\in\llbracket 1,n\rrbracket\) alors \(a_{i,i}=-a_{i,i}\) et donc \(a_{i,i}=0\). Les coefficients diagonaux d’une matrice antisymétrique sont donc nuls.
\(\mathcal{S}_n\left(\mathbb{K}\right)\) et \(\mathcal{A}_n\left(\mathbb{K}\right)\) sont des sous-espaces vectoriels supplémentaires de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\). De plus : \[\boxed{\dim \mathcal{S}_n\left(\mathbb{K}\right) = \dfrac{n\left(n+1\right)}{2}} \quad \textrm{ et} \quad
\boxed{\dim \mathcal{A}_n\left(\mathbb{K}\right) = \dfrac{n\left(n-1\right)}{2}}\]
Posons, pour tout \(i,j\in\llbracket 1,n\rrbracket\), \(i<j\) posons \(F_{i,j}=E_{i,j}+E_{j,i}\) et \(H_{i,j}=E_{i,j}-E_{j,i}\) où \(E_{i,j}\) désigne la matrice élémentaire \(\left(i,j\right)\). On a : \[\mathcal{S}_n\left(\mathbb{K}\right)=Vect{\left\{F_{i,j},E_{i,i}~|~
i,j\in\llbracket 1,n\rrbracket,i<j\right\}}\] et \[\mathcal{A}_n\left(\mathbb{K}\right) = Vect\left(\left\{H_{i,j}~|~
i,j\in\llbracket 1,n\rrbracket,i<j\right\}\right)\] ce qui prouve que ces deux ensembles sont des sous-espaces vectoriels de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\). De plus, on vérifie facilement que les familles \(\left(F_{i,j},E_{i,i}~|~ i,j\in\llbracket 1,n\rrbracket,i<j\right)\) et \(\left(H_{i,j}~|~
i,j\in\llbracket 1,n\rrbracket,i<j\right)\) sont libres de cardinal respectif \(\dfrac{n\left(n+1\right)}{2}\) et \(\dfrac{n\left(n-1\right)}{2}\). Elles constituent donc des bases de, respectivement, \(\mathcal{S}_n\left(\mathbb{K}\right)\) et \(\mathcal{A}_n\left(\mathbb{K}\right)\) ce qui donne leur dimension. On vérifie de plus facilement que si une matrice est à la fois symétrique et antisymétrique, elle est nulle et donc \(\mathcal{S}_n\left(\mathbb{K}\right) \cap
\mathcal{A}_n\left(\mathbb{K}\right)=\left\{0\right\}\). Comme de plus : \(\dim \mathcal{S}_n\left(\mathbb{K}\right) +\dim
\mathcal{A}_n\left(\mathbb{K}\right)= \dim \mathfrak{M}_{n}\left(\mathbb{K}\right) = n^2\) on peut affirmer que ces deux sous-espaces sont supplémentaires dans \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\).
Matrices de transvection et de dilatation, opérations élémentaires sur les lignes et les colonnes d’une matrice
On considère dans tout ce paragraphe une matrice
\[A=\left(\begin{array}{ccc} a_{1,1}&\dots&a_{1,p}\\ \vdots& &\vdots\newline a_{n,1}&\dots&a_{n,p} \end{array}\right) \in \mathfrak{M}_{n,p}\left(\mathbb{K}\right).\]
(Opérations élémentaires sur les lignes ou les colonnes d’une matrice). On appelle opération élémentaire sur les lignes (respectivement sur les colonnes) de la matrice \(A\) une des opérations suivantes :
On note, pour tous \({i,j}\in\llbracket 1,n\rrbracket\) et tout \(\lambda
\in\mathbb{K}^*\) :
Nous noterons, pour tout \(i\in\llbracket 1,n\rrbracket\) et tout \(j\in\llbracket 1,p\rrbracket\), \(E_{ij}\) la matrice élémentaire de \(\mathfrak{M}_{n,p}\left(\mathbb{K}\right)\) dont tous les coefficients sont nuls sauf celui à l’intersection de la \(i\)-ème ligne et de la \(j\)-ème colonne et qui vaut \(1\).
(Traduction des oel en termes matriciels). On a le tableau de correspondances :
\(k\) | oel | matrice \(P\) | |
---|---|---|---|
\(1\) | \(L_i \gets L_i+\lambda L_j\) | \(I_n+\lambda E_{i,j}\) | Matrice de transvection |
\(2\) | \(L_i \gets \lambda L_i\) | \(I_n-E_{i,i}+\lambda E_{i,i}\) | Matrice de dilatation |
\(3\) | \(L_i \leftrightarrow L_j\) | \(I_n-E_{i,i}-E_{j,j}+E_{i,j}+E_{j,i}\) |
Par un calcul direct.
(Traduction des oec en termes matriciels). On a le tableau de correspondances :
qui se lit ainsi : Effectuer l’opération élémentaire n°\(k\) sur les colonnes de \(A\) revient à multiplier \(A\) par la matrice inversible \(P\)
\(k\) | oec | matrice \(P\) | |
---|---|---|---|
\(1\) | \(C_i \gets \lambda C_i+\lambda C_j\) | \(I_p+\lambda E_{i,j}\) | Matrice de transvection |
\(2\) | \(C_i \gets \lambda C_i\) | \(I_p-E_{i,i}+\lambda E_{i,i}\) | Matrice de dilatation |
\(3\) | \(C_i \leftrightarrow C_j\) | \(I_p-E_{i,i}-E_{j,j}+E_{i,j}+E_{j,i}\) |
Par un calcul direct.
Matrices de changement de base
Comme leur nom l’indique, les matrices de changement de base vont nous permettre de calculer la matrice d’une application linéaire dans des bases données quand on connaît cette matrice pour d’autres bases.
(Matrice de changement de base). Soient \(e=\left(e_1,\dots,e_n\right)\) et deux bases du \(\mathbb{K}-\)espace vectoriel \(E\) de dimension \(n\). On appelle matrice de passage de \(e\) à \(f\) (ou matrice de changement de base) et on note \(P_{e \rightarrow f}\) la matrice de la famille \(\left(f_1,\ldots,f_n\right)\) relativement à la base \(e\) : \[P_{e \rightarrow f}=\textrm{ Mat}_{e}\left(f_1,\ldots,f_n\right)\]
\(P_{e \rightarrow f} \in\mathfrak{M}_{n}\left(\mathbb{K}\right)\).
(Propriétés des matrices de changement de base).
Soient \(e\), \(f\) et \(g\) trois bases du \(\mathbb{K}\)-espace vectoriel \(E\) de dimension \(n\). On a :
(Caractérisation matricielle de la liberté d’une famille de vecteurs). Soient \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\), \(e\) une base de \(E\) et \(x\) une famille de \(n\) vecteurs de \(E\). Alors, la famille \(x\) est libre si et seulement si la matrice des \(n\) vecteurs de la famille \(x\) dans la base \(e\), \(\textrm{ Mat}_{e}\left(x_1,\dots,x_n\right)\) est inversible.
(Toute matrice inversible s’interprète comme une matrice de changement de base). Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\) et \(e\) une base de \(E\). Alors pour toute matrice inversible \(A\in GL_{n}\left(\mathbb{K}\right)\), il existe une unique base \(e'\) de \(E\) telle que \(A=P_{e \rightarrow e'}\).
Soit \(A\in GL_{n}\left(\mathbb{K}\right)\). Les vecteurs colonnes de \(A\) sont les coordonnées d’une famille de vecteurs \(f\) dans la base \(e\) : \(A=\textrm{ Mat}_{e}\left(f_1,\dots,f_n\right)\). Par application de la proposition précédente, la famille \(f\) est libre et donc \(A=\textrm{ Mat}_{e}\left(f\right)=P_{e\rightarrow f}\).
Changement de base
Pour un vecteur
(Formule de changement de base pour un vecteur).
Soient \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\). Considérons \(e\) et \(f\) deux bases de \(E\) et \(x\in E\). Alors : \[\boxed{\textrm{ Mat}_{f}\left(x\right)=P_{f\rightarrow e} \times\textrm{ Mat}_{e}\left(x\right)}.\]
Posons \(\textrm{ Mat}_{f}\left(x\right)=\left(X'_i\right)\in\mathfrak{M}_{n,1}\left(\mathbb{K}\right)\), \(\textrm{ Mat}_{e}\left(x\right)=\left(X_i\right) \in
\mathfrak{M}_{n,1}\left(\mathbb{K}\right)\) et \(P_{f\rightarrow e}=\left(a_{i,j}\right)\in\mathfrak{M}_{n,n}\left(\mathbb{K}\right)\). On a : \[x=\sum_{i=1}^n X'_i f_i = \sum_{j=1}^n X_j e_j \quad \textrm{ et} \quad\forall i\in
\llbracket 1,n\rrbracket,\quad e_j=\sum_{i=1}^n a_{i,j}f_i.\] Par conséquent : \[\begin{aligned}
x&=&\sum_{j=1}^n X_j e_j\\
&=&\sum_{j=1}^n X_j\left(\sum_{i=1}^n a_{i,j}f_i\right)\\
&=&\sum_{i=1}^n \left(\sum_{j=1}^n a_{i,j}X_j\right) f_i\\
&=&\sum_{i=1}^n X'_i f_i\end{aligned}\] Donc, par identification, on a bien : \(\forall i\in\llbracket 1,n\rrbracket,\quad
X'_i=\sum_{j=1}^n a_{i,j}X_j\).
On peut aussi prouver ce résultat de la façon suivante : \[\begin{aligned} \textrm{ Mat}_{f}\left(x\right) &=& \textrm{ Mat}_{f}\left(Id_E\left(x\right)\right)\\ &=&\textrm{ Mat}_{f\gets e}\left(Id_E\right)\times\textrm{ Mat}_{e}\left(x\right) \textrm{ par application de ref@prod\_mat\_vect@finref}\newline &=&P_{f\rightarrow e} \times\textrm{ Mat}_{e}\left(x\right)\end{aligned}\]
On peut aussi prouver ce résultat de la façon suivante : \[\begin{aligned} \textrm{ Mat}_{f}\left(x\right) &=& \textrm{ Mat}_{f}\left(Id_E\left(x\right)\right)\\ &=&\textrm{ Mat}_{f\gets e}\left(Id_E\right)\times\textrm{ Mat}_{e}\left(x\right) \textrm{ par application de ref@prod\_mat\_vect@finref}\newline &=&P_{f\rightarrow e} \times\textrm{ Mat}_{e}\left(x\right)\end{aligned}\]
Pour une application linéaire
(Formule de changement de base pour une application linéaire).
On considère :
Soit \(x\in E\) et \(y=u\left(x\right)\). Soit \(X=\textrm{ Mat}_{e}\left(x\right)\), \(Y=\textrm{ Mat}_{f}\left(y\right)\), \(X'=\textrm{ Mat}_{e'}\left(x\right)\), \(Y'=\textrm{ Mat}_{f'}\left(y\right)\), \(A=\textrm{ Mat}_{f\gets e}\left(u\right)\) et \(A'=\textrm{ Mat}_{f'\gets e'}\left(u\right)\). On a, par application du théorème [prod_mat_vect] : \(Y=AX\) et \(Y'=A'X'\). De plus, par application de la proposition précédente : \(X=P_{e\rightarrow e'}X'\) et \(Y=P_{f\rightarrow f'}Y'\). On a donc : \[Y'=P_{f'\rightarrow f}Y = P_{f'\rightarrow f} A X \quad \textrm{ et} \quad Y'=A'X' =
A'P_{e'\rightarrow e}X.\] Par conséquent : \(A' P_{e'\rightarrow e} =
P_{f'\rightarrow f} A\) ce qui donne bien : \(A'= P_{f'\rightarrow
f}\times\textrm{ Mat}_{f\gets e}\left(u\right)\times
P_{e \rightarrow e'}\). On peut aussi démontrer cette formule ainsi : \[A'=\textrm{ Mat}_{f'\gets e'}\left(u\right) =
\textrm{ Mat}_{f'\gets e'}\left(Id_F\circ u \circ Id_E\right)\] \[=\textrm{ Mat}_{f'\gets
f}\left(Id_F\right)\times \textrm{ Mat}_{f\gets e}\left(u\right) \times \textrm{ Mat}_{e\gets e'}\left(Id_E\right)\] \[=P_{f'\rightarrow f}\times\textrm{ Mat}_{f\gets e}\left(u\right)\times
P_{e \rightarrow e'}\]
Pour un endomorphisme
(Formule de changement de base pour un endomorphisme).
On considère \(e\) et \(e'\) deux bases du \(\mathbb{K}\)-espace vectoriel \(E\) et \(u\in\mathfrak{L}\left(E\right)\). On a la formule de changement de base : \[\boxed{\textrm{ Mat}_{e'}\left(u\right)
= P_{e'\rightarrow e}\times\textrm{ Mat}_{e}\left(u\right)\times
P_{e \rightarrow e'}}\] qui s’écrit aussi avec \(P=P_{e \rightarrow e'}, A=\textrm{ Mat}_{e}\left(u\right)\) et \(A'=\textrm{ Mat}_{e'}\left(u\right)\) : \[\boxed{A'=P^{-1}AP}\]
C’est un corollaire immédiat de la proposition précédente.
Avec les notations précédentes, si \(A'=P^{-1}AP\) alors \(A'^n=P^{-1}A^nP\).
Pour une forme linéaire
(Formule de changement de base pour une forme linéaire). Soient \(e\) et \(e'\) deux bases du \(\mathbb{K}\)-espace vectoriel \(E\). Si \(\varphi\) est une forme linéaire sur \(E\), on a : \[\boxed{\textrm{ Mat}_{e'}\left(\varphi\right)
= \textrm{ Mat}_{e}\left(\varphi\right)\times
P_{e \rightarrow e'}}.\]
C’est encore un corollaire immédiat de la proposition précédente.
Un exemple
Soit l’espace vectoriel \(E=\mathbb{R}^{2}\) muni de sa base canonique \(e\) et les deux vecteurs \(f_1=(1,2)\), \(f_2=(1,3)\).
Rang d’une matrice
On va développer dans cette section des méthodes pratiques pour :
Définition et propriétés
(Rang d’une matrice ). On appelle rang de \(A\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\), et on note \(\mathop{\mathrm{rg}}A\), le rang de la famille constituée des vecteurs colonnes \(C_1\),...,\(C_p\) de \(A\) dans \(\mathbb{K}^q\).
\[\mathop{\mathrm{rg}}\begin{pmatrix}
1&0&0\\0&1&0\\0&0&1
\end{pmatrix}=3,\quad
\mathop{\mathrm{rg}}\begin{pmatrix}
1&1&1\\0&1&1\\0&0&1
\end{pmatrix}=3,\quad
\mathop{\mathrm{rg}}\begin{pmatrix}
1&0&1\\-1&1&1\newline2&-1&0
\end{pmatrix}=2
.\]
(Le rang d’une matrice est égal au rang de l’application linéaire qu’elle représente). Soient :
On sait qu’il existe une unique application linéaire \(u\in\mathfrak{L}\left(E,F\right)\) telle que \(A=\textrm{ Mat}_{f\gets e}\left(u\right)\) alors on a : \(\boxed{\mathop{\mathrm{rg}}{u}=\mathop{\mathrm{rg}}{A}}\).
D’après la proposition [prop_isom_vecteurs_matrices] page [prop_isom_vecteurs_matrices], l’application \(\theta:F \to \mathfrak{M}_{q,1}\left(\mathbb{K}\right)\) qui à un vecteur de \(F\) associe sa matrice dans la base \(f\) est un isomorphisme de \(\mathbb{K}\)-espaces vectoriels. On identifie dans la suite \(\mathfrak{M}_{q,1}\left(\mathbb{K}\right)\) et \(\mathbb{K}^q\). Notons \[\mathscr F=Vect\left(u\left(e_1\right),\dots,u\left(e_p\right)\right)\subset F \quad \textrm{ et} \quad\mathscr
G=Vect\left(C_1,\dots,C_p\right)\subset \mathbb{K}^q.\] Rappelons que \(\mathop{\mathrm{rg}}{u}=\dim \mathscr F\) et que \(\mathop{\mathrm{rg}}{A}=\dim \mathscr G\). Mais \(\theta\left(\mathscr F\right)=\mathscr G\) donc \(\dim \mathscr F=\dim \mathscr G\) et \(\mathop{\mathrm{rg}}{u}=\mathop{\mathrm{rg}}{A}\).
(Une matrice carrée est inversible si et seulement si son rang est égal à sa taille). \(A\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est inversible si et seulement si \(\mathop{\mathrm{rg}}\left(A\right)=n\).
Soient \(e\) une base d’un \(\mathbb{K}\)-espace vectoriel \(E\) de dimension \(n\) et soit \(u\) l’unique endomorphisme de \(E\) tel que : \(\textrm{ Mat}_{e}\left(u\right)=A\). On a : \(A\) inversible \(\Longleftrightarrow\) \(u\) est un automorphisme de \(E\) \(\Longleftrightarrow\) \(\mathop{\mathrm{rg}}A=\mathop{\mathrm{rg}}
u=n\).
Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\), \(e\) une base de \(E\) et \(\left(x_1,\ldots,x_n\right)\) une famille de \(n\) vecteurs de \(E\). Alors \(\textrm{ Mat}_{e}\left(x_1,\ldots,x_n\right)\) est inversible si et seulement si \(\left(x_1,\ldots,x_n\right)\) est une base de \(E\).
Soit \(u\) l’endomorphisme de \(E\) défini par : \(\forall i\in\llbracket 1,n\rrbracket,\quad
u\left(e_i\right)=x_i\). Notons \(A=\textrm{ Mat}_{e}\left(x_1,\ldots,x_n\right) =\textrm{ Mat}_{e}\left(u\right)\). On a : \(A\) est inversible \(\Longleftrightarrow\) \(u\) est un automorphisme de \(E\) \(\Longleftrightarrow\) l’image d’une base de \(E\) par \(u\) est une base de \(E\).
Soit \(A\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\). On a : A est une matrice de rang \(r\) si et seulement si il existe \(Q\in GL_{q}\left(\mathbb{K}\right)\) et \(P\in GL_{p}\left(\mathbb{K}\right)\) telles que \(A=Q J_r P\) où
(Le rang d’une matrice est égal au rang de sa transposée). Pour tout \(A\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\), \(\mathop{\mathrm{rg}}\left({A}^{\mathrm{T}}\right)=\mathop{\mathrm{rg}}\left(A\right)\).
Posons \(r=\mathop{\mathrm{rg}}A\). En appliquant la proposition précédente, il existe \(Q\in GL_{q}\left(\mathbb{K}\right)\) et \(P\in GL_{p}\left(\mathbb{K}\right)\) telles que \(A=Q J_r P\). Par conséquent : \({A}^{\mathrm{T}}={P}^{\mathrm{T}}{ J_r}^{\mathrm{T}} {Q }^{\mathrm{T}} ={P}^{\mathrm{T}} J_r {Q }^{\mathrm{T}}\) et \({P}^{\mathrm{T}}\in GL_{p}\left(\mathbb{K}\right)\), \({Q}^{\mathrm{T}}\in GL_{q}\left(\mathbb{K}\right)\). Par conséquent, appliquant à nouveau la proposition précédente : \(\mathop{\mathrm{rg}}{A}^{\mathrm{T}} =r\).
(Matrices équivalentes). Deux matrices \(A,B\in \mathfrak{M}_{q,p}\left(\mathbb{K}\right)\) sont dites équivalentes si et seulement s’il existe deux matrices inversibles \(Q\in GL_{q}\left(\mathbb{K}\right)\) et \(P\in GL_{p}\left(\mathbb{K}\right)\) telles que \(A = QBP^{-1}\).
Un corollaire du théorème précédent est que deux matrices sont équivalentes si et seulement si elles ont même rang.
(Matrices semblables). Deux matrices carrées \(A,B\in \mathfrak{M}_{n}\left(\mathbb{K}\right)\) sont dites semblables s’il existe une matrice inversible P telle que \(A = PBP^{-1}\).
Deux matrices semblables sont a fortiori équivalentes.
Deux matrices semblables ont même trace.
Calcul pratique du rang d’une matrice
(Deux matrices déduites l’une de l’autre par une oel ou une oec ont même rang). Deux matrices obtenues l’une de l’autre par une oel ou une oec sont de même rang.
Soit \(A\in\mathfrak{M}_{n,p}\left(\mathbb{K}\right)\) et \(P\) une matrice correspondant à une oel ou une oec. \(P\) est donc inversible. Posons \(B=PA\). Soit \(r=\mathop{\mathrm{rg}}\left(A\right)\). On applique le théorème [carac_rang_matrice]. Il existe des matrices \(Q_1\in GL_{n}\left(\mathbb{K}\right)\) et \(Q_2\in GL_{p}\left(\mathbb{K}\right)\) telles que \(A=Q_1 I_r Q_2\). On a donc : \(B=PQ_1I_rQ_2=Q_0I_rQ_2\) avec \(Q_0=PQ_1\) qui est une matrice inversible de \(GL_{n}\left(\mathbb{K}\right)\). Par conséquent, \(B\) étant de la forme \(Q_0I_rQ_2\) où \(Q_0\) et \(Q_1\) sont inversibles. On applique à nouveau la proposition [carac_rang_matrice] et on peut affirmer que \(B\) est de rang \(r\).
\[\mathop{\mathrm{rg}}\left(\begin{array}{c|ccc} \alpha&\star&\dots&\star\\\hline 0&&&\\ \vdots&&A'& \newline 0&&& \end{array}\right)=1+ \mathop{\mathrm{rg}}{A'}.\]
Soit \[A=\left(\begin{array}{c|ccc}
\alpha&\star&\dots&\star\\\hline
0&&&\\
\vdots&&A'& \newline
0&&&
\end{array}\right).\] Par définition, \(\mathop{\mathrm{rg}}{A} = \dim
Vect\left(L_1,\dots,L_n\right)\) où \(L_1,\dots,L_n\) représentent les vecteurs colonnes de \({A}^{\mathrm{T}}\). Posons \(F=Vect\left(L_1\right)\) et \(G=Vect\left(L_2,\dots,L_n\right)\). Montrons que ces deux sous-espaces vectoriels de \(\mathbb{K}^p\) sont en somme directe. Soit \(L=\left(\ell_1,\dots,\ell_p\right)\in F \cap G\). Comme \(L\in F\), on a : \(L = \lambda L_1\). Comme \(L\in G\), on a aussi \(\ell_1=0\). Par conséquent, en regardant la première coordonnée, \(\lambda\alpha = 0\), d’où \(\lambda=0\) et donc \(L=0\). Donc \(F\) et \(G\) sont en somme directe. On a donc \(\dim
Vect\left(L_1,\dots,L_n\right)=\dim F + \dim G\) ce qui s’écrit aussi \(\mathop{\mathrm{rg}}{A}=1+
\mathop{\mathrm{rg}}{A'}\).
(Application au calcul du rang d’une matrice \(A\)). Pour calculer le rang d’une matrice, on applique le plan suivant :
Calculons le rang de la matrice \(A=\begin{pmatrix}
1&-1&2&0\\0&2&1&-1\\1&-1&2&0
\end{pmatrix}\). On a \[\begin{aligned}
\mathop{\mathrm{rg}}\left(A\right)=\mathop{\mathrm{rg}}{\begin{pmatrix}
1&-1&2&0\\0&2&1&-1\\1&-1&2&0
\end{pmatrix}} \xlongequal{L_3
\leftarrow L_3-L_1}\mathop{\mathrm{rg}}{\begin{pmatrix}
1&-1&2&0\\0&2&1&-1\\0&0&0&0
\end{pmatrix}} =1+\mathop{\mathrm{rg}}\begin{pmatrix}
2&1&-1\newline0&0&0
\end{pmatrix} =2+ \mathop{\mathrm{rg}}\begin{pmatrix}
0&0
\end{pmatrix}=2\end{aligned}\]
(Méthode du pivot de Gauss). Par une suite d’oel, on peut transformer une matrice inversible en une matrice triangulaire supérieure (inversible!).
On va démontrer cette proposition en effectuant une récurrence sur la taille \(n\) de cette matrice.
Grâce aux opérations élémentaires sur les lignes et en s’inspirant de l’algorithme précédent, on peut calculer l’inverse d’une matrice \(A\in GL_{n}\left(\mathbb{K}\right)\) donnée. Il suffit de suivre les étapes suivantes.
La matrice \(A=\begin{pmatrix}1&1&-1\\-1&1&0\\0&-1&1 \end{pmatrix}\) est de rang \(3\) comme on le vérifie en appliquant la méthode [algo_calc_rang]. Calculons son inverse : \[\begin{array}{rrrcccrrr}
1 & 1 & -1 & & & & 1 & 0 & 0 \\
-1 & 1 &0 & & & & 0 & 1 & 0 \\
0 & -1 & 1 & & & & 0 & 0 & 1\\
&&&&&&&&\\
1 & 1 & -1 & & & & 1 & 0 & 0 \\
0 & 2 & -1& \qquad L_2&\leftarrow&L_2+L_1 & 1 & 1 & 0 \\
0 & -1 &1 & && & 0 & 0 & 1\\
&&&&&&&&\\
1 & 1 & -1 & && & 1& 0 & 0 \\
0 & 2 & -1 & & & & 1 & 1 & 0 \\
0 & 0 & 1/2 & \qquad L_3&\leftarrow&L_3+L_2/2 &1/2 & 1/2 & 1\\
&&&&&&&&\\
1 & 1 & 1 & && & 1 & 0 & 0 \\
0 & 1 & -1/2 & \qquad L_2&\leftarrow&L_2/2 & 1/2 & 1/2 & 0 \\
0 & 0 & 1 & \qquad L_3&\leftarrow &2L_3 & 1 & 1 & 2\\
&&&&&&&&\\
1 & 1 & 0 & \qquad L_1&\leftarrow&L_1+L_3 & 2 & 1 & 2 \\
0 & 1 & 0 & \qquad L_2&\leftarrow&L_2+L_3/2 & 1 & 1 & 1 \\
0 & 0 & 1 & && & 1 & 1 & 2\\
&&&&&&&&\\
1 & 0 & 0 & \qquad L_1&\leftarrow&L_1-L_2 & 1 & 0 & 1 \\
0 & 1 & 0 & && & 1 & 1 & 1 \\
0 & 0 & 1 & && & 1 & 1 & 2\\
\end{array}\] et on en déduit que \(A^{-1}=\begin{pmatrix}
1&0&1\\1&1&1\newline1&1&2
\end{pmatrix}\).
Déterminant d’une matrice carrée de taille \(2\) ou \(3\)
Grâce à la notion de déterminant nous disposerons d’un outil performant pour prouver qu’une matrice est inversible. Cette notion a néanmoins d’autres applications comme le calcul de l’inverse d’une matrice inversible via le calcul de la comatrice, la résolution de certains systèmes linéaires, les problèmes d’orientation du plan ou de l’espace...
Comme stipulé dans les programmes des filières PCSI, PTSI, TSI, nous nous bornerons à travailler en dimension \(2\) ou \(3\). Néanmoins, la plupart des démonstrations que nous allons donner sont valables en dimension \(n\) quelconque.
Les étudiants de la filière MPSI devront compléter ce chapitre par la lecture du chapitre [chap_groupe_sym] sur le groupe symétrique.
Dans toute la suite, on pourra considérer que \(n\) est un entier égal à \(2\) ou \(3\) et que \(E\) est un \(\mathbb{K}\)-espace vectoriel de dimension \(n\). On commencera par expliquer ce qu’est le déterminant d’une matrice, d’une famille de vecteurs puis d’un endomorphisme. Nous nous intéresserons ensuite à des méthodes pratiques de calcul du déterminant. Enfin, nous donnerons des applications.
Définitions
(Déterminant d’une matrice de taille \(2\) ou \(3\)).
\[\psmatrix[colsep=0.5cm,rowsep=0.5cm] a_{1,1} & a_{1,2} & a_{1,3} & a_{1,1} & a_{1,2}\\ a_{2,1} & a_{2,2} & a_{2,3} & a_{2,1} & a_{2,2}\\ a_{3,1} & a_{3,2} & a_{3,3} & a_{3,1} & a_{3,2}\newline \ncline[linecolor=blue]{->}{1,1}{2,2} \ncline[linecolor=blue]{->}{2,2}{3,3} \ncline[linecolor=blue]{<-}{1,2}{2,3} \ncline[linecolor=blue]{<-}{2,3}{3,4} \ncline[linecolor=blue]{->}{1,3}{2,4} \ncline[linecolor=blue]{->}{2,4}{3,5} \ncline[linecolor=red]{->}{1,5}{2,4} \ncline[linecolor=red]{->}{2,4}{3,3} \ncline[linecolor=red]{<-}{1,4}{2,3} \ncline[linecolor=red]{<-}{2,3}{3,2} \ncline[linecolor=red]{->}{1,3}{2,2} \ncline[linecolor=red]{->}{2,2}{3,1} \ncarc[arcangle=-90,linestyle=dashed,linecolor=blue]{->}{3,3}{3,4}_{{\blue +}} \ncarc[arcangle=90,linestyle=dashed,linecolor=blue]{->}{1,2}{1,3} \ncarc[arcangle=90,linestyle=dashed,linecolor=red]{<-}{1,3}{1,4} \ncarc[arcangle=-90,linestyle=dashed,linecolor=red]{<-}{3,2}{3,3}_{{\red -}} \endpsmatrix\]
Propriétés
(Propriétés du déterminant d’une matrice).
Soient \(A\), \(B\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\)
Ces propriétés se démontrent pour la plupart par des calculs directs. Prouvons par exemple les points 5 et 6. Soit \(A\in GL_{n}\left(\mathbb{K}\right)\) une matrice inversible. Alors \(A\times A^{-1}=I_n\) et d’après les points 2 et 4, \(\mathop{\rm det}\left(A\right)\mathop{\rm det}\left(A^{-1}\right)=1\) donc \(\mathop{\rm det}\left(A\right)\neq 0\) et \(\mathop{\rm det}\left(A^{-1}\right)={\scriptstyle 1\over\scriptstyle\mathop{\rm det}\left(A\right)}\). La réciproque sera une conséquence du corollaire [carac_famille_libre_avec_det]. En effet, \(A\) peut être vue comme la matrice d’une certaine famille de \(n\) vecteurs dans un espace de dimension \(n\) dans une base \(e\) fixée. Dire que \(\mathop{\rm det}\left(A\right)\neq 0\) revient à dire que cette famille est libre et donc que la matrice \(A\) qui les représente dans la base \(e\) est inversible.
Déterminants d’ordre \(2\) ou \(3\) d’une famille de vecteurs
Définition
(Déterminant d’ordre \(2\) et \(3\) d’une famille de vecteurs). Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\) muni d’une base \(e=\left(e_1,\dots,e_n\right)\).
Propriétés
(Le déterminant de deux ou trois vecteurs est une forme multilinéaire alternée). Soit \(e\) une base du \(\mathbb{K}\)-espace vectoriel \(E\).
Par un calcul direct.
On suppose que \(n=2\) ou \(3\). Soient \(x_1,\dots, x_n\in E\). Si deux des vecteurs de cette famille sont égaux alors \(\mathop{\rm det}_e\left(x_1,\dots,x_n\right)=0\).
Formule de changement de base
(Formule de changement de base). Soient :
\[\mathop{\rm det}_{e'}\left(x_1,\dots,x_n\right)=\mathop{\rm det}_{e'}\left(e_1,\dots,e_n\right)\times
\mathop{\rm det}_e\left(x_1,\dots,x_n\right)\]
Alors :
On a : \[\begin{aligned}
\mathop{\rm det}_{e'}\left(x_1,\dots,x_n\right) &=& \mathop{\rm det}\left(\textrm{ Mat}_{e'}\left(x_1,\dots,x_n\right)\right)\\
&=&\mathop{\rm det}\left(P_{e \gets e'}
\times\textrm{ Mat}_{e}\left(x_1,\dots,x_n\right)\right)\\
&=&\mathop{\rm det}\left(\textrm{ Mat}_{e'}\left(e\right) \times
\textrm{ Mat}_{e}\left(x_1,\dots,x_n\right)\right) \\
&=& \mathop{\rm det}\left(\textrm{ Mat}_{e'}\left(e\right)\right)\times \mathop{\rm det}
\left(\textrm{ Mat}_{e}\left(x_1,\dots,x_n\right)\right) \newline
&=& \mathop{\rm det}_{e'}\left(e\right)\times \mathop{\rm det}_e\left(x_1,\dots,x_n\right)\end{aligned}\]
En remplaçant \(x\) par \(e'\) dans cette dernière formule, on obtient : \[1 =\mathop{\rm det}_{e'}\left(e'\right)=\mathop{\rm det}_{e'}\left(e\right) \times \mathop{\rm det}_{e}\left(e'\right)\]
(Caractérisation des familles libres via le déterminant).
Soient :
Alors \(\mathscr S\) est libre si et seulement si \(\mathop{\rm det}_e\left(x_1,\dots,x_n\right)\neq 0\).
(Caractérisation des familles liées via le déterminant).
Soient :
Alors \(\mathscr S\) est liée si et seulement si \(\mathop{\rm det}_e\left(x_1,\dots,x_n\right)=0\).
Par contraposée de la proposition précédente.
Déterminant d’un endomorphisme
Définition
(Déterminant d’un endomorphisme).
Soient :
Soit \(f\) une autre base de \(E\). On a : \(\textrm{ Mat}_{f}\left(u\right)=P_{f\rightarrow e} \times
\textrm{ Mat}_{e}\left(u\right) \times P_{e \rightarrow f}.\) Par conséquent, \[\mathop{\rm det}_f\left(u\left(f_1\right),\dots,u\left(f_n\right)\right)= \mathop{\rm det}\left(\textrm{ Mat}_{f}\left(u\right)\right) = \mathop{\rm det}\left(
P_{f\rightarrow e} \times \textrm{ Mat}_{e}\left(u\right) \times P_{e \rightarrow f}\right)\] \[=
\mathop{\rm det}\left( P_{f\rightarrow e}\right) \mathop{\rm det}\left(\textrm{ Mat}_{e}\left(u\right) \right) \mathop{\rm det}\left(P_{e \rightarrow f}\right)
= \mathop{\rm det}\left(\textrm{ Mat}_{e}\left(u\right) \right)\] car \(P_{e\rightarrow f}= \left[P_{f\rightarrow
e}\right]^{-1}\) et donc \(\mathop{\rm det}\left(P_{e \rightarrow f}\right) = \left(\mathop{\rm det}\left(P_{f \rightarrow
e}\right)\right)^{-1}\).
Si \(u\) est un endomorphisme de \(E\) et que \(e\) est une base de \(E\), on a : \(\mathop{\rm det}\left(u\right)=\mathop{\rm det}\left(\textrm{ Mat}_{e}\left(u\right)\right)\).
Propriétés
(Propriétés du déterminant d’un endomorphisme).
Soient \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\), \(u\), \(v\) des endomorphismes de \(E\). On a :
C’est un corollaire immédiat du théorème [prop_det_matrice] et de la remarque précédente.
Méthodes de calcul du déterminant
On se restreindra dans cette section aux déterminants des matrices carrées, le déterminant d’une famille de vecteurs ou d’un endomorphisme s’en déduisant.
Opération sur les lignes et les colonnes
Les propriétés qui suivent découlent directement des propriétés des formes \(n\)-linéaires alternées :
(Calcul d’un déterminant par des oel et des oec).
Démontrons par exemple le point \(4\). On suppose que la matrice \(A\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est composée des vecteurs colonnes \(C_1\),\(\dots\),\(C_n\) Soient \(i\in\llbracket 1,n\rrbracket\), \(\alpha_1,\dots,\alpha_{i-1},\alpha_{i+1},\dots,\alpha_n\) des scalaires de \(\mathbb{K}\). On a : \[\begin{aligned}
\mathop{\rm det}\left(A\right)=\mathop{\rm det}\left(C_1,\dots,C_n\right)&=&\mathop{\rm det}\left(C_1,\dots,C_n\right) +
\underbrace{\mathop{\rm det}\left(C_1,\dots,C_{i-1},\sum_{k=1, k\neq i}^n \alpha_k
C_k,C_{i+1},\dots,C_n\right)}_{=0 \textrm{ en raison du second point}} \newline
&=& \mathop{\rm det}\left(C_1,\dots,C_{i-1},C_i+\sum_{k=1, k\neq i}^n \alpha_k
C_k,C_{i+1},\dots,C_n\right)\end{aligned}\]
Calculons
Développement d’un déterminant suivant une rangée
Soit \(A\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) une matrice de la forme : \[A=\left(\begin{array}{ccc|c}
& & & 0\\
& A' & & \vdots\\
& & & 0\newline
\hline
\star&\dots&\star&\alpha
\end{array}\right)\] où \(A'\in\mathfrak{M}_{n-1}\left(\mathbb{K}\right)\). Alors \(\boxed{\mathop{\rm det}\left(A\right)=\alpha \mathop{\rm det}\left(A'\right)}\).
Par un calcul immédiat en utilisant la définition du déterminant d’une matrice de taille \(2\) ou \(3\).
(matrices triangulaires). On appelle matrice triangulaire inférieure toute matrice \(A\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) vérifiant \(\forall i < j, a_{ij} = 0\). On appelle matrice triangulaire supérieure toute matrice \(A\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) vérifiant \(\forall i > j, a_{ij} = 0\).
Soit \(L\) (resp. \(U\)) l’ensemble des matrices triangulaires inférieures (resp. supérieures). \(L\) et \(U\) sont des sous-espaces-vectoriels de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\), et \(\mathfrak{M}_{n}\left(\mathbb{K}\right) = L + U\). \(L\cap U\) est l’espace vectoriel des matrices diagonales.
(Le déterminant d’une matrice triangulaire est égal au produit de ses éléments diagonaux). Soit \(A=\left(a_{ij}\right)\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) une matrice triangulaire: Alors : \[\boxed{\mathop{\rm det}A=\prod_{k=1}^n a_{kk}}\]
Immédiat par un calcul direct (si \(n=2\) ou \(3\)) ou en utilisant la propriété précédente.
On va calculer, sous forme factorisée :
où \(a,b,c\) sont trois complexes .
\(\left|\begin{array}{ccc} a-b-c&2a&2a\\ 2b&b-c-a&2b\\ 2c&2c&c-a-b \end{array}\right| = (a+b+c) \left|\begin{array}{ccc} a-b-c&2a&2a\\ 2b&b-c-a&2b\\ 1&1&1 \end{array}\right|\). On effectue \(\begin{array}{ccc} C_1 & \longleftarrow & C_1 - C_3 \\ C_2 & \longleftarrow & C_2 - C_3 \end{array}\) :
\(\left|\begin{array}{ccc} a-b-c&2a&2a\\ 2b&b-c-a&2b\\ 2c&2c&c-a-b \end{array}\right| = (a+b+c) \left|\begin{array}{ccc} -(a+b+c)&0&2a\\ 0&-(a+b+c)&2b\\ 0&0&1 \end{array}\right| = (a+b+c)^3\).
\(\left|\begin{array}{ccc} 1+a&a&a\\ b&1+b&b\\ c&c&1+c \end{array}\right| = (1+a+b+c)\left|\begin{array}{ccc} 1+a&a&a\\ b&1+b&b\\ 1&1&1 \end{array}\right| = (1+a+b+c)\left|\begin{array}{ccc} 1&0&a\\ 0&1&b\\ 0&0&1 \end{array}\right| = (1+a+b+c)\).
\(\left|\begin{array}{ccc} a&b&c\\ c&a&b\\ b&c&a \end{array}\right| = (a+b+c)\left|\begin{array}{ccc} a&b&c\\ c&a&b\\ 1&1&1 \end{array}\right| = (a+b+c)\left|\begin{array}{ccc} a&bj&cj^2\\ c&aj&bj^2\\ 1&j&j^2 \end{array}\right| = (a+b+c)\left|\begin{array}{ccc} a+bj+cj^2&bj&cj^2\\ c+aj+bj^2&aj&bj^2\\ 0&j&j^2 \end{array}\right| = (a+b+c)(a+bj+cj^2)\left|\begin{array}{ccc} 1&b&c\\ j&a&b\\ 0&1&1 \end{array}\right| = (a+b+c)(a+bj+cj^2)\left|\begin{array}{ccc} 1&b-c&c\\ j&a-b&b\\ 0&0&1 \end{array}\right| = (a+b+c)(a+bj+cj^2)(a-b+cj-bj) = (a+b+c)(a+bj+cj^2)(a+bj^2+cj)\) .
\(\left|\begin{array}{ccc} 1&a&a^2\\ 1&b&b^2\\ 1&c&c^2 \end{array}\right| = \left|\begin{array}{ccc} 0&a-c&a^2-c^2\\ 0&b-c&b^2-c^2\\ 1&c&c^2 \end{array}\right| = (a-c)(b-c)\left|\begin{array}{ccc} 0&1&a+c\\ 0&1&b+c\\ 1&c&c^2 \end{array}\right|= (a-c)(b-c)(b-a)\).
(Mineur,cofacteur). Soit \(A=\left(a_{ij}\right)\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\).
(Développement d’un déterminant suivant une ligne ou une colonne).
Soit \(A=\left(a_{ij}\right)\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\).
On peut le vérifier facilement par un calcul immédiat dans les cas \(n=2\) et \(n=3\).
Applications
Colinéarité de deux vecteurs du plan
(Caractérisation de l’alignement de trois points du plan). Soit \(\mathscr R \left(O,e_1,e_2\right)\) un repère du plan. \(e=\left(e_1,e_2\right)\) forme donc une base du plan. Soient \(M_0\left(x_0,y_0\right)\), \(M_1\left(x_1,y_1\right)\), \(M_2\left(x_2,y_2\right)\) trois points distincts du plan. Alors, \(M_0\), \(M_1\), \(M_2\) sont alignés si et seulement si
\[\boxed{\left|
\begin{array}{ccc}
1&1 &1 \\
x_0&x_1&x_2 \newline
y_0&y_1&y_2
\end{array}
\right|=0}\]
On a : \[\begin{aligned}
\left|
\begin{array}{ccc}
1&1 &1 \\
x_0&x_1&x_2 \\
y_0&y_1&y_2
\end{array}
\right|=0
&\Longleftrightarrow& \left|
\begin{array}{ccc}
1&0 &0 \\
x_0&x_1-x_0&x_2-x_0 \\
y_0&y_1-y_0&y_2-y_0
\end{array}
\right|=0 \textrm{ par des opérations sur les colonnes}\\
&\Longleftrightarrow& \left|\begin{array}{cc}
x_1-x_0&x_2-x_0\\
y_1-y_0&y_2-y_0
\end{array}
\right|=0 \textrm{ par développement suivant la première ligne}\\
&\Longleftrightarrow& \mathop{\rm det}_e\left(\overrightarrow{M_0M_1},\overrightarrow{M_0M_2}\right)=0\\
&\Longleftrightarrow& \textrm{ les vecteurs $\overrightarrow{M_0M_1}$ et $\overrightarrow{M_0M_2}$ sont colinéaires}\\
%%&\ssi& \p{x_1-x_0}\p{y_2-y_0}=\p{x_2-x_0}\p{y_1-y_0} \\
%%&\ssi& \p{x_2-x_0} = \lambda \p{x_1-x_0} \et \p{y_2-y_0}=\lambda \p{y_1-y_0}
%%\text{ où $\lambda\in\R$}\newline
&\Longleftrightarrow& \textrm{ les points $M_0$, $M_1$, $M_2$ sont alignés} \end{aligned}\]
Inversion de matrice
(Comatrice). Soit \(A=\left(a_{ij}\right)\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\). On appelle comatrice de \(A\) et on note \(\mathop{\rm Com}\left(A\right)\) la matrice des cofacteurs de \(A\) : \[\forall i,j\in\llbracket 1,n\rrbracket, \quad \left[\mathop{\rm Com}\left(A\right)\right]_{i,j}=A_{i,j}
=\left(-1\right)^{i+j}\Delta_{i,j}\]
Soit \(A\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\). Alors : \[\boxed{A\times{\left(\mathop{\rm Com}A\right)}^{\mathrm{T}}={\left(\mathop{\rm Com}\left( A\right)\right)}^{\mathrm{T}}\times A=\left(\mathop{\rm det}
A\right)I_n}\] En particulier, si \(A\in GL_{n}\left(\mathbb{K}\right)\) : \[\boxed{A^{-1}={\scriptstyle 1\over\scriptstyle\mathop{\rm det}A}{\left(\mathop{\rm Com}\left( A\right)\right)}^{\mathrm{T}}}\]
Notons, pour tout \(i,j\in\llbracket 1,n\rrbracket\), \(b_{ij}=\left(-1\right)^{i+j}\Delta_{i,j}\) et posons \(B=\left(b_{ij}\right)\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\). Soit \(i,j\in\llbracket 1,n\rrbracket\), on a : \[\left[A{B}^{\mathrm{T}}\right]_{ij}=\sum_{k=1}^n a_{ik} b_{jk}= \sum_{k=1}^n a_{ik}
\left(-1\right)^{j+k}\Delta_{j,k}=\begin{cases} \mathop{\rm det}\left(A\right)&\textrm{ si } i=j\newline 0 &\textrm{
sinon}\end{cases}\]
On comprend après ces quelques calculs les limitations pratiques de cette méthode. En dimension \(2\) et \(3\) les calculs restent faisables mais ils deviennent très lourds dés que \(n\geqslant 4\) si la matrice ne possède pas beaucoup de \(0\).
Orientation du plan et de l’espace
(Bases de même sens, de sens contraire). Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(2\) ou \(3\). Soient \(e\) et \(e'\) deux bases de \(E\). On dit que :
(Orientation). Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(2\) ou \(3\). Orienter \(E\) revient à choisir une base \(e\) de \(E\). Si \(e'\) une autre base de \(E\), on dit qu’elle est directe si elle est de même sens que \(E\) et indirecte sinon.
On oriente \(E=\mathbb{R}^2\) en prenant la base canonique \(e\). La base donnée par \(e'=\left(\left(1,1\right),\left(1,-1\right)\right)\) est indirecte. En effet : \[\left|
\begin{array}{cc}
1&1\newline
1&-1
\end{array}
\right|=-2< 0\]
Systèmes linéaires
On termine ce chapitre par une étude des systèmes linéaires.
Définitions
(Système linéaire à \(n\) équations et \(p\) inconnues). Soient \[A=\left(\begin{array}{ccc}
a_{1,1}&\dots&a_{1,p}\\
\vdots& &\vdots\\
a_{n,1}&\dots&a_{n,p}
\end{array}\right) \in \mathfrak{M}_{n,p}\left(\mathbb{K}\right) \quad \textrm{ et} \quad
B=\left(\begin{array}{c}b_1\\\vdots\newlineb_n\end{array}\right) \in \mathfrak{M}_{n,1}\left(\mathbb{K}\right)\]
On considère le système linéaire à \(n\) lignes et \(p\) inconnues \(\left(\mathscr S\right)\) donné par :
\[\left(\mathscr S\right) = \left\{ \begin{aligned} a_{1,1}x_1&+a_{1,2}x_2&+\cdots&+a_{1,p}x_p&=&b_1\cr & & & &\hfill\vdots\hfill&\cr a_{n,1}x_1&+a_{n,2}x_2&+\cdots&+a_{n,p}x_p&=&b_n \end{aligned}\right.\]
Interprétations
La compréhension des différentes interprétations qu’on peut avoir d’un système linéaire est un bon test de votre compréhension de l’algèbre linéaire.
Interprétation vectorielle
Notons \(C_1=\left(a_{11},\dots,a_{n1}\right),\dots,C_p=\left(a_{1p},\dots,a_{np}\right)\in\mathbb{K}^n\) les \(p\) vecteurs colonnes de \(A\) et \(b=\left(b_1,\dots,b_n\right)\) le second membre de \(\left(\mathscr S\right)\). On a :
Donc :
Interprétation matricielle
Notons \(X=\left(\begin{array}{c}x_1\\\vdots\\x_p\end{array}\right) \in \mathfrak{M}_{p,1}\left(\mathbb{K}\right)\) On a :
Interprétation en termes de formes linéaires
Notons \(E=\mathbb{K}^p\), \(e\) la base canonique de \(E\) et \(L_1=\left(a_{1,1},\dots,a_{1,p}\right),\dots,L_n=\left(a_{n,1},\dots,a_{n,p}\right)\in\mathbb{K}^p\) les \(n\) vecteurs lignes de \(A\). Soient \(\varphi_{1},\dots,\varphi_n\) \(n\) formes linéaires sur \(E\) telles que : \[\forall i\in\llbracket 1,n\rrbracket,\quad \textrm{ Mat}_{e}\left(\varphi_i\right)=L_i\]
On a :
\(\Longleftrightarrow\forall i\in\llbracket 1,n\rrbracket ,\quad \varphi_i\left(x_1,\dots,x_p\right)=0\) |
\(\Longleftrightarrow\displaystyle{ \left(x_1,\dots,x_p\right)\in\bigcap_{i=1}^n \operatorname{Ker}{\varphi_i}}\) |
Interprétation en termes d’applications linéaires
Considérons \(E=\mathbb{K}^p\) et \(F=\mathbb{K}^n\) munis de leurs bases canoniques respectives \(e\) et \(f\). Soient \(u\in\mathfrak{L}\left(E,F\right)\) l’unique application linéaire de \(E\) dans \(F\) telle que \(\textrm{ Mat}_{f\gets e}\left(u\right)=A\) et \(x\) le vecteur de \(E\) tel que \(\textrm{ Mat}_{e}\left(x\right)=\left(\begin{array}{c}x_1\\\vdots\newlinex_p\end{array}\right)\).
On a :
Donc :
Structure de l’ensemble des solutions
(Structure de l’ensemble des solutions de l’équation homogène). Soit \(\left(\mathscr S\right)\) un système linéaire à \(n\) équations et \(p\) inconnues. L’ensemble des solutions du système homogène \(\left(\mathscr S_0\right)\) associé à \(\left(\mathscr S\right)\) est un \(\mathbb{K}\)-espace vectoriel de dimension \(p-\mathop{\mathrm{rg}}\left(\mathscr S\right)\).
Soit \(u:\mathbb{K}^p\rightarrow \mathbb{K}^n\) l’application linéaire représentée par \(A\) dans les bases canoniques de \(\mathbb{K}^n\) et \(\mathbb{K}^p\). Soit \(x=\left(x_1,\dots,x_p\right)\in\mathbb{K}^p\). \(x\) est solution de \(\left(\mathscr S_0\right)\) si et seulement si \(u\left(x\right)=0\) c’est-à-dire si et seulement si \(x\in\operatorname{Ker}u\). Par conséquent \(\left(\mathscr S_0\right)=\operatorname{Ker}u\). Ceci prouve à la fois que \(\left(\mathscr S_0\right)\) est un sous-espace vectoriel de \(\mathbb{K}^p\) mais aussi que, d’après la formule du rang, \(\dim \left(\mathscr S_0\right)
= \dim \operatorname{Ker}u = \dim \mathbb{K}^p - \mathop{\mathrm{rg}}u = p - \mathop{\mathrm{rg}}\mathscr S\).
(Structure de l’ensemble des solutions de \(\left(\mathscr
S\right)\)). Soit \({ S}\) l’ensemble des solutions du système linéaire \(\left(\mathscr S\right)\).
Supposons que le système \(\left(\mathscr S\right)\) soit compatible, alors \(\mathcal S \neq
\varnothing\). Soit \(x_0\in\mathcal S\). On a : \[x \in\mathcal S \Longleftrightarrow u\left(x\right)=b \Longleftrightarrow u\left(x-x_0\right)=0 \Longleftrightarrow x-x_0 \in \operatorname{Ker}u =
\mathcal S_0 \Longleftrightarrow x=x_0 + \mathcal S_0\]
Cas Particulier : Les systèmes de Cramer
(Système de Cramer). Un système de \(n\) équations à \(n\) inconnues de rang \(n\) est dit de Cramer.
Matriciellement, un système de Cramer s’écrit \(AX=B\) où \(A\in GL_{n}\left(\mathbb{K}\right)\) et \(B\in\mathfrak{M}_{n,1}\left(\mathbb{K}\right)\).
(Résolution matricielle d’un système de Cramer).
Un système de Cramer possède une et une seule solution qui s’écrit matriciellement : \(X=A^{-1}B\).
\(A\) étant inversible, la proposition est immédiate.
(Formules de Cramer). Si \(\left(\mathscr S\right)\) est un système de Cramer d’écriture matricielle \(AX=B\), l’unique solution de \(\left(\mathscr S\right)\) est le \(n\)-uplet \(\left(x_1,\dots,x_n\right)\) tel que :
\[\forall i\in\llbracket 1,n\rrbracket,\quad \boxed{x_i={\scriptstyle\mathop{\rm det}A_i\over\scriptstyle\mathop{\rm det}A}}\] où \(A_i\) est la matrice obtenue en remplaçant la \(i\)-ème colonne de \(A\) par \(B\).
Soit \(\left(x_1,\dots,x_n\right)\) l’unique solution de \(\left(\mathscr S\right)\) alors si \(C_1,\dots,C_n\) désignent les vecteurs colonnes de \(A\), on a : \(\sum_{k=1}^n
x_k C_k = B\). Par conséquent, pour tout \(i\in\llbracket 1,n\rrbracket\), on a : \[\begin{aligned}
\mathop{\rm det}\left(C_1,\dots,C_{i-1},B,C_{i+1},\dots, C_n\right) &=& \sum_{k=1}^n x_k
\mathop{\rm det}\left(C_1,\dots,C_{i-1},C_{k},C_{i+1},\dots, C_n\right) \newline
&=& x_i \mathop{\rm det}\left(C_1,\dots,C_{i-1},C_{i},C_{i+1},\dots, C_n\right) = x_i \mathop{\rm det}\left(A\right)\end{aligned}\] d’où le résultat.
En particulier, si \(n=2\), on a : Soit \[\left(\mathscr S\right)=\left\{ \begin{aligned} ax&+by&=&\alpha\cr cx&+dy&=&\beta \end{aligned}\right..\] Notons \(A=
\left(
\begin{array}{cc}
a&b\\
c&d
\end{array}
\right)\) Ce système est de Cramer si et seulement si \(\mathop{\rm det}\left(A\right)=\left|
\begin{array}{cc}
a&b\\
c&d
\end{array}
\right|=ad-bc\neq 0\) et dans ce cas, le couple solution de \(\left(\mathscr S\right)\) est donné par : \[x=\dfrac{\left|
\begin{array}{cc}
\alpha&b\\
\beta &d
\end{array}
\right|}{ad-bc} \quad \textrm{ et} \quad y=\dfrac{\left|
\begin{array}{cc}
a&\alpha\newline
b&\beta
\end{array}
\right|}{ad-bc}\]
Méthode du Pivot de Gauss
Si un système à \(n\) équations et à \(n\) inconnues est sous forme triangulaire (c’est-à-dire si la matrice \(A\) correspondante est triangulaire et sans zéro sur la diagonale) alors il est de Cramer. En effet, la matrice \(A\) est inversible.
Méthode : Résolution d’un système de Cramer par la méthode de Gauss
Soit \(\left(\mathscr S\right)\) un système de Cramer d’écriture matricielle \(AX=B\). La méthode du pivot de Gauss consiste, en utilisant des oel à transformer la matrice \(A\) en une matrice triangulaire supérieure en effectuant les mêmes opérations sur la matrice colonne \(B\). Le système correspondant est alors équivalent au système initial et possède donc le même ensemble solution.
La descente : \(\left\lbrace \begin{array}{ccccc} x&+2y&+3z&=&1\cr -x&-3y&+5z&=&2\cr x&+y&+z&=&-1 \end{array}\right.\)
On fait apparaître des zéros : coefficients de \(x\) dans les deuxièmes et troisièmes lignes. On ne touche pas à la première. \[\left\lbrace \begin{array}{cccccc} x&+2y&+3z&=&1&\cr &-y&+8z&=&3&L_2\longleftarrow L_2+L_1\cr & y&+2z&=&2&L_3\longleftarrow L_3-L_1 \end{array}\right.\] Ces opérations sur les lignes se traduisent par des multiplications à gauche par des matrices. Il suffit de voir le résultat sur la matrice \(I_3\). Donc il s’agit de la matrice \[G_1 = \begin{pmatrix} 1 & 0 & 0 \\ 1 & 1 & 0 \\ -1& 0 & 1 \end{pmatrix}.\] Autrement dit \[G_1\cdot A = \begin{pmatrix} 1 & 0 & 0 \\ 1 & 1 & 0 \\ -1& 0 & 1 \end{pmatrix}\times \begin{pmatrix} 1 & 2 & 3 \\ -1 & -3 & 5 \\ 1& 1 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 2 & 3 \\ 0 & -1 & 8 \\ 0& 1 & 2 \end{pmatrix}\] ou encore \[G_1\cdot \widetilde A = \begin{pmatrix} 1 & 0 & 0 \\ 1 & 1 & 0 \\ -1& 0 & 1 \end{pmatrix}\times \begin{pmatrix} 1 & 2 & 3 & 1\\ -1 & -3 & 5 & 2\\ 1& 1 & 1 & -1 \end{pmatrix} = \begin{pmatrix} 1 & 2 & 3 & 1\\ 0 & -1 & 8 & 3\\ 0& 1 & 2 & 2 \end{pmatrix}.\] On continue de << sculpter>> le système (ou la matrice \(\widetilde A\) obtenue en soudant les matrices \(A\) et \(B\)) pour faire apparaître un zéro : le coefficient de \(y\) dans la troisième ligne. \[\left\lbrace \begin{array}{cccccc} x&+2y&+3z&=&1&\cr &-y&+8z&=&3&\cr & &10z&=&5&L_3\longleftarrow L_3+L_2 \end{array}\right.\] Cette fois \[G_2 = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0& 1 & 1 \end{pmatrix}.\] Il ne reste plus qu’à remonter : On trouve successivement \(z = {\scriptstyle 1\over\scriptstyle 2}\), \(y = 1\) et \(x = -{\scriptstyle 5\over\scriptstyle 2}\).
Il est à remarquer que \(G_1\) et \(G_2\) sont inversibles. Pour trouver leurs inverses, il suffit de défaire ce que faisaient ces matrices. Pour \(G_1^{-1}\) : \(\left\lbrace \begin{array}{l} L_1\longleftarrow L_1\cr L_2\longleftarrow L_2-L_1\cr L_3\longleftarrow L_3+L_1\cr \end{array}\right.\).
Donc \[G_1^{-1} = \begin{pmatrix} 1 & 0 & 0 \\ -1 & 1 & 0 \\ 1& 0 & 1 \end{pmatrix}.\quad\textrm{ De même }G_2^{-1} = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0& -1 & 1 \end{pmatrix}.\]
Bibliographie
Barre utilisateur
[ID: 77] [Date de publication: 28 décembre 2021 18:49] [Catégorie(s): Le cours de SUP ] [ Nombre commentaires: 0] [nombre d'éditeurs: 1 ] [Editeur(s): Emmanuel Vieillard-Baron ] [nombre d'auteurs: 3 ] [Auteur(s): Emmanuel Vieillard-Baron Alain Soyeur François Capaces ]Commentaires sur le cours
Documents à télécharger
L'article complet