Chapitre d’introduction à l’algèbre linéaire.
Algèbre linéaire
Classiquement, après avoir étudié groupes, anneaux et corps, on se penche en général sur les espaces vectoriels. L’exemple le plus basique d’espace vectoriel est bien sûr \(\mathbb{R}^n\), mais des cas plus abstraits sont importants: les espaces vectoriels de polynômes, de matrices de même type de morphismes linéaires. Une erreur classique est d’oublier que les combinaisons linéaires portent sur un nombre fini de vecteurs; sinon, il convient de se placer dans un espace de Banach, où l’on peut donner sens à des sommes infinies.
Après quelques généralités ([al1]), on se penchera sur les applications linéaires ([al2]), les sommes de sous-espaces vectoriels ([al3]), les quotients ([al4]), les espaces affines ([al5]), les bases d’espaces vectoriels ([al5]), un peu de dualité ([al6]), la transposition ([al7]), les \(\mathbb{K}\)-algèbres ([al8]), avant de se pencher sur quelques compléments et exercices ([al9]).
Généralités
\(\bullet\)\((E,+)\) est un groupe abélien
\(\bullet\)\(.\) est une application de \(\mathbb{K}\times E\) dans \(E\)
\(\bullet\) \(\forall ({\lambda}, \mu, x, y) \ ({\lambda}+ \mu).x = {\lambda}.x + \mu.x \land {\lambda}.(x+y)={\lambda}.x + {\lambda}.y \land ({\lambda}.\mu).x={\lambda}.(\mu.x) \land 1.x=x\)
Des exemples classiques sont: les vecteurs dans le plan ou l’espace usuel, le corps \(\mathbb{K}\) lui-même avec pour produit externe le produit usuel, les polynômes sur \(\mathbb{K}\), éventuellement à plusieurs indéterminées et/ou de degré borné; comme on le verra un peu plus loin avec les espaces produits, \(\mathbb{K}^n\) muni des lois que l’on verra est un \(\mathbb{K}\)-espace vectoriel; l’ensemble \(\mathbb{R}^\mathbb{N}\) des suites réelles (resp. \(\mathbb{C}^\mathbb{N}\) des suites complexes) aussi.
\(\mathbb{C}\) est un \(\mathbb{R}\)-espace vectoriel, et plus généralement tout espace vectoriel sur \(\mathbb{C}\) est aussi un espace vectoriel sur \(\mathbb{R}\).
Les propriétés suivantes sont importantes:
\(\bullet\)\(0.x=0\)
\(\bullet\)\({\lambda}.0=0\)
\(\bullet\)\({\lambda}.x=0 \rightarrow {\lambda}=0 \lor x=0\)
\(\bullet\)\((-{\lambda}).x={\lambda}.(-x)=-({\lambda}.x)\)
\(\bullet\)\({\lambda}.(x-y)={\lambda}.x - {\lambda}.y\)
\(\bullet\)\(({\lambda}-\mu)x={\lambda}.x-\mu.x\)
Une partie \(A\) d’un \(\mathbb{K}\)-espace vectoriel (avec \(\mathbb{K}=\mathbb{R}\) ou \(\mathbb{K}=\mathbb{C}\)) est dite convexe si tout segment d’extrémités dans \(A\) est inclus dans \(A\).
\(\bullet\)Une boule ouverte est convexe.
\(\bullet\)Une boule fermée est convexe.
\(\bullet\)Un segment est convexe.
\(\bullet\)Une application \(f\) est convexe si et seulement si l’ensemble des \((x,f(x))\) est convexe dans le produit \(A \times \mathbb{R}\).
\(\bullet\)Une application convexe sur un intervalle \(]a,b[\) est continue
\(\bullet\)\(x \mapsto e^x\), \(x \mapsto x^n\) avec \(n\) pair sont convexes.
\(\bullet\)On se donne \(U\) une telle partie, connexe, supposée non vide (sinon le problème est trivial)
\(\bullet\)On se donne \(x_0\) dans \(U\)
\(\bullet\)On note \(V\) l’ensemble des \(x\) que l’on peut joindre à \(x_0\) par une ligne brisée.
\(\bullet\)\(V\) est non vide (il contient \(x_0\))
\(\bullet\)\(V\) est ouvert (si \(x\) est dans \(V\), alors \(B(x,\epsilon) \subset U\) pour \(\epsilon\) assez petit, et donc \(B(x,\epsilon) \subset V\) - car tout point de cette boule peut être relié à \(x\) par un segment, donc à \(x_0\) par une ligné brisée).
\(\bullet\)\(V\) est fermé; en effet soit \(x\) dans \(U\) adhérent à \(V\), alors il existe une boule ouverte centrée sur \(x\) intersectant \(V\), donc \(x\) est dans \(V\) - car toute boule est convexe.
La figure [conrevn] illustre cette démonstration.
Illustration de la proposition [convre].
Commentaire: \(V\), ensemble des points de \(U\) connectables à \(x\) par une ligne brisée, est ouvert (car tout \(y\) dans \(V\) est entouré d’une boule connectable à \(x\) en ajoutant juste un segment à \(y\)) et fermé (tout point \(z\) de l’adhérence de \(V\) est centre d’une boule intersectant \(V\) en un certain \(z'\), et peut donc être connecté à \(x\) via une ligne brisée contenant le segment \([zz']\) puis la ligne brisée de \(z'\) à \(x\). Ouvert et fermé, non vide, \(V\) est égal à la composante connexe dans laquelle il se trouve, donc il est égal à \(U\).
On donne sans démonstration le théorème facile suivant:
On note qu’on peut se contenter de vérifier que la partie est non vide et que si \({\lambda}\) et \(\mu\) sont des scalaires et si \(x\) et \(y\) lui appartiennent, alors \({\lambda}.x+\mu.y\) appartient aussi à l’ensemble.
On peut également se contenter de montrer que \(0\) appartient à cette partie (souvent le plus facile en pratique) et que si \(x\), \(y\) lui appartiennent et si \({\lambda}\) est un scalaire, alors \(x+{\lambda}.y\) appartient aussi à l’ensemble.
Bien que simple, la proposition ci-dessus doit être mentionnée. En effet, il n’en est pas de même de toutes les structures algébriques usuelles. Par exemple, un anneau inclus dans un anneau n’est pas toujours un sous-anneau; il faut pour cela ajouter une condition, qui est le fait que l’élément neutre soit le même.
Les polynômes de degré plus petit que \(n\) sont un sous-espace de l’ensemble des polynômes. L’espace des fonctions bornées de \(A\) dans \(E\) est un sous-espace vectoriel de l’espace \(E^A\) des fonctions de \(A\) dans \(\mathbb{R}\). L’ensemble des suites bornées de \(\mathbb{K}\) est un sous-espace de l’espace des suites de \(\mathbb{K}\). L’ensemble des suites de \(\mathbb{K}\) nulles sauf pour un nombre fini de points (suites dites presque nulles) est aussi un sous-espace vectoriel de l’espace des suites de \(\mathbb{K}\).
Cela permet d’introduire la définition suivante:
Applications linéaires
\(\bullet\)\(f(x+y)=f(x)+f(y)\)
\(\bullet\)\(f({\lambda}.x)={\lambda}.f(x)\)
Une application linéaire est aussi appelée morphisme d’espaces vectoriels, ou morphisme algébrique. C’est en particulier un morphisme de groupes. Une application linéaire bijective est appelée isomorphisme, une application linéaire de \(E\) dans \(E\) est appelée endomorphisme. Un endomorphisme qui est aussi un isomorphisme est appelé automorphisme. L’inverse d’un isomorphisme est un isomorphisme, appelé isomorphisme réciproque.
On note \({\cal L}(E,F)\) l’ensemble des morphismes de \(E\) dans \(F\); c’est un sous-espace vectoriel de \(F^E\). On note \({\cal L}(E)\) l’ensemble des endomorphismes de \(E\). On note \(Isom(E,F)\) l’ensemble des isomorphismes de \(E\) dans \(F\). On note \(Aut(E)\) l’ensemble des automorphismes de \(E\); il est noté \(GL(E)\) une fois qu’on l’a muni de la composition. \(GL(E)\) est un groupe, appelé groupe linéaire.
La notation \(E \simeq F\) signifie qu’il existe un isomorphisme de \(E\) dans \(F\).
L’image réciproque d’un sous-espace vectoriel par une application linéaire est un sous-espace vectoriel. On note \(Ker\ f\) et on appelle noyau de \(f\) l’image réciproque de \(\{ 0 \}\), c’est un sous-espace vectoriel. Une application linéaire est injective si et seulement si son noyau est \(\{ 0 \}\). On notera que le noyau d’une application linéaire est le noyau du morphisme de groupes correspondant.
L’image directe d’un sous-espace vectoriel par une application linéaire est un sous-espace vectoriel. On note \(Im\ f\) et on appelle image de \(f\) l’ensemble \(f(E)=\{f(x); x\in E\}\). Évidemment, \(f\) est surjective si et seulement si \(Im\ f=F\).
On note \(Id\) la fonction identité de \(E\); c’est une application linéaire et un isomorphisme. On note \(Inv\ f\) l’ ensembles des invariants de \(f\); \(Inv\ f = Ker (f-Id)\). On note \(Opp\ f\) l’ensemble des vecteurs changés en leur opposé; \(Opp\ f = Ker (f+Id)\).
Si \({\lambda}\neq 0\), on appelle homothétie de rapport \({\lambda}\) d’un espace vectoriel \(E\) l’application \(x \mapsto {\lambda}.x\).
\(\bullet\)L’image de \(0\) par une application linéaire est \(0\).
\(\bullet\)L’identité est un automorphisme, ainsi que toute homothétie de rapport \({\lambda}\neq 0\) (son application réciproque étant l’homothétie de rapport \({\lambda}^{-1}\)).
\(\bullet\)L’image d’un sous-espace vectoriel par une application linéaire est un sous-espace vectoriel. On note \(Im\ f\) l’image de \(f\), c’est un sous-espace vectoriel.
\(\bullet\)La composée de deux applications linéaires est une application linéaire.
\(\bullet\)L’application qui à \(f\) associe \(g \circ f\) (resp. \(f \circ g\)) est un morphisme d’espaces vectoriels.
\(\bullet\)\(Ker\ f \subset Ker\ (g \circ f)\)
\(\bullet\)\(Im (g \circ f) \subset Im g\)
\(\bullet\)\(g \circ f = 0\) si et seulement si \(Im\ f \subset Ker\ g\)
Par exemple, si \(f^n=0\), alors \((f-Id)^{-1}=-(Id+f+f^2+...+f^{n-1})\) : pour le prouver, il suffit de composer cette somme par \(f-Id\), de manière d’ailleurs analogique à la démonstration pour \(x\neq 1\), \(x\in \mathbb{R}\) de \(\sum_{i=0}^{n-1} x^i=(1-x^n)/(1-x)\).
On notera que si \(f_i\) est linéaire de \(E_i\) dans \(F_i\), alors \((x_1,...,x_n) \rightarrow (f_1(x_1),...,f_n(x_n))\) est une application linéaire; son noyau est le produit des noyaux.
Somme de sous-espaces vectoriels
On verra ici la somme et la somme directe au sens algébrique. Ces notions seront complétées plus tard par des notions d’orthogonalité dans les espaces munis de formes quadratiques, typiquement dans les espaces de Hilbert; en particulier, cela permettra l’analyse de Fourier, où l’on étudie des fonctions par le biais de leurs écritures dans une base ayant de bonnes propriétés.
Généralités
\(\bullet\)La somme des \(F_i\) contient tous les \(F_i\).
\(\bullet\)L’espace vectoriel engendré par l’union des \(F_i\) est leur somme.
\(\bullet\)La somme est directe si et seulement si pour tout \(j\) \(F_j \cap \sum_{i \neq j} F_i = \{0\}\).
Espaces supplémentaires
\(\boxcircle\) Généralités
\(\bullet\)Deux espaces sont supplémentaires si l’application \(\phi\) (voir la définition d’une somme de sous-espaces vectoriels) est bijective.
\(\boxcircle\) Applications aux applications linéaires. Projections, symétries.
Il est à noter qu’en dimension infinie, l’existence d’un supplémentaire à tout sous-espace vectoriel n’est pas évidente (c’est une conséquence de l’axiome du choix).
\(\bullet\)\(E= Ker\ p \oplus Im\ p\)
\(\bullet\)\(Inv\ p = Im\ p\)
On a vu plus haut qu’un endomorphisme pouvait être défini par ses restrictions sur deux espaces supplémentaires.
C’est le cas lorsque \(s\) et \(p\) se font par rapport au même espace et parallèlement au même espace.
\(\bullet\)Étant donnée \(s\) symétrie, \(E=Inv\ s \oplus Opp\ s\).
\(\bullet\)\(s\) est la symétrie par rapport à \(Inv\ s\) et parallèlement à \(Opp\ s\).
\(\boxcircle\) Dilatations, transvections
Notons que le supplémentaire n’est pas unique. En fait, on peut aussi définir de manière équivalente la notion d’hyperplan par le fait qu’un sous-espace vectoriel \(H\) est un hyperplan si et seulement si toute droite vectorielle passant par un vecteur appartenant à son complémentaire est un supplémentaire de \(H\).
Espace vectoriel quotient
Généralités
Application aux applications linéaires
Translations – espaces affines
Pour plus d’informations on pourra consulter la partie [geoaff].
On appelle sous-espace affine de \(E\) l’image d’un sous-espace vectoriel de \(E\) par une translation de \(E\).
On appelle direction d’un sous-espace affine \(A\) l’ensemble des \(x-y\) pour \(x\) et \(y\) dans \(A\).
On dit qu’un sous-espace affine \(A\) est parallèle à un sous-espace affine \(B\) si et seulement si la direction de \(A\) est incluse dans la direction de \(B\).
On dit que deux sous-espaces affines sont parallèles s’ils ont même direction.
\(\bullet\)Un sous-espace affine de \(E\) contient \(0\) si et seulement si c’est un sous-espace vectoriel (en le munissant des lois induites).
\(\bullet\)Si un espace affine \(A\) est de la forme \(a+F\) avec \(a\in A\) et \(F\) sous-espace vectoriel, alors il est aussi de la forme \(x+F\) pour tout \(x\) de \(A\).
\(\bullet\)Le sous-espace affine \(A\) est égal à \(a+F\), avec \(a\) quelconque dans \(A\), et \(F\) la direction de \(A\).
\(\bullet\)Étant donnés \(A\) et \(B\) deux espaces affines, \(a \in A\) et \(b \in B\), de direction respectives \(F\) et \(G\), alors \(A \cap B \neq \emptyset \iff b-a \in F + G\)
\(\bullet\)Étant donnés deux espaces affines d’intersection non vide, l’intersection est un espace affine de direction l’intersection de leurs directions.
Familles libres. Familles génératrices. Bases
Généralités
Un élément \(x\) est dit combinaison linéaire d’un sous-ensemble \(A\) de \(E\) si \(x\) est combinaison linéaire d’une famille d’éléments de \(A\).
Une famille d’éléments d’un sous-espace vectoriel \(F\) est dite famille génératrice de \(F\) si l’espace vectoriel engendré par cette famille est \(F\).
Une famille \((x_1,\dots,x_n)\) d’éléments de \(E\) est dite famille libre si \[\forall {\lambda}\in \mathbb{K}^n, \sum_{j \in [[1,n]]} {\lambda}_j x_{j}=0\Rightarrow (\forall j, {\lambda}_j=0).\] Une famille infinie est libre si toute sous-famille finie est libre.
\(\bullet\)L’ensemble des combinaisons linéaires des éléments de \(A\) est l’espace vectoriel engendré par \(A\).
\(\bullet\)Toute famille contenant le vecteur nul est liée.
\(\bullet\)Les éléments d’une famille libre sont deux à deux distincts.
\(\bullet\)Une famille est liée si et seulement si un de ses éléments est combinaison linéaire des autres.
\(\bullet\)La famille \((v)\) est libre si et seulement si \(v\neq 0\).
\(\bullet\)La famille \((v,w)\) est libre si et seulement si \(v\neq 0\) et \(\not\exists {\lambda}\in\mathbb{K}\) : \(w={\lambda}.v\).
\(\bullet\)Une famille est liée si et seulement si un de ses éléments appartient à l’espace vectoriel engendré par les autres.
\(\bullet\)Toute sous-famille d’une famille libre est libre.
\(\bullet\)L’image par une application linéaire d’une famille liée est une famille liée.
Le théorème suivant, facile à démontrer, est fondamental pour la suite.
Notons que les coordonnées ne sont pas (du tout) invariantes par changement de base.
Conséquences pour les applications linéaires
\(\bullet\)La famille \((g_i)\) est libre si et seulement si \(\varphi\) est injective.
\(\bullet\)La famille \((g_i)\) est génératrice si et seulement si \(\varphi\) est surjective.
Applications aux sous-espaces vectoriels
Attention, cette algèbre n’est pas commutative (en général, i.e. dès que \(E\) n’est pas isomorphe à \(\mathbb{K}\)).
Dualité
Il existe de nombreuses formes de dualité (voir l’index), très différentes. La dualité dont il est question ici est quelquefois qualifiée de dualité algébrique. De même, on parle de dual algébrique ou de bidual algébrique pour éviter la confusion avec le dual ou le bidual topologiques. On sera ici très succinct, mais il convient de lire aussi la section [blon2] pour le très important cas particulier de la dimension finie, en particulier au niveau de l’isomorphisme \(E\simeq E^{**}\).
Définitions et premières propriétés. Le dual et le bidual
On appelle dual d’un \(\mathbb{K}\)-espace vectoriel \(E\) l’ensemble \(E^{*}\) des formes linéaires sur cet espace vectoriel.
On appelle bidual d’un \(\mathbb{K}\)-espace vectoriel le dual de son dual. On le note \(E^{**}\).
\(\bullet\)Un sous-espace vectoriel est un hyperplan si et seulement si c’est le noyau d’une forme linéaire non nulle.
\(\bullet\)Deux formes linéaires non nulles sont liées (dans le dual) si et seulement si elles ont même noyau.
Orthogonalité
L’orthogonalité permet d’écrire un sous-espace vectoriel comme l’orthogonal d’un sous-espace vectoriel dans le dual. En clair, on peut donc écrire un sous-espace vectoriel comme l’intersection d’hyperplans. On verra aussi avec les topologies sur le dual l’intérêt de la dualité; la convergence faible-* par exemple, très utile, n’existerait pas sans le dual.
Étant donnée une partie non vide \(A\) de \(E\), on appelle orthogonal de \(A\) dans \(E^*\) et on note \(A^\bot\) l’ensemble des \(u\) orthogonaux à tous les éléments de \(A\).
Il n’y a pas ici de bidualité; l’orthogonal d’une partie du dual \(E^*\) est à considérer dans \(E\).
\(\bullet\)L’orthogonal d’une partie est l’orthogonal de l’espace engendré par cette partie.
\(\bullet\)L’orthogonal d’une partie est un sous-espace vectoriel.
\(\bullet\)Toute partie est incluse dans l’orthogonal de son orthogonale.
\(\bullet\)\(A \subset B\) alors l’orthogonal de \(B\) est inclus dans l’orthogonal de \(A\).
Transposition
\(\bullet\)L’application qui à \(f\) associe \(^tf\) est une application linéaire.
\(\bullet\)\(^t(g\circ f)=^tf\circ^tg\)
\(\bullet\)\(^tId_E=Id_{E^*}\)
\(\bullet\)Si \(f\) est un isomorphisme, \(^tf\) est un isomorphisme, et \(^t(f^{-1})=(^tf)^{-1}\)
\(\bullet\)\(Ker\ ^tf=(Im\ f)^\bot\) et \(Im\ ^tf=(Ker\ f)^\bot\)
\(\bullet\)\(f\) est surjective si et seulement si \(^tf\) est injective.
\(\bullet\)\(f\) est injective si et seulement si \(^tf\) est surjective.
On verra des propriétés supplémentaires en dimension finie, avec le théorème [thtranspo].
\(\mathbb{K}\)-algèbres
\(\bullet\)\((A,+,.)\) est un \(\mathbb{K}\)-espace vectoriel
\(\bullet\)\((A,+,\times)\) est un anneau
\(\bullet\)\(({\lambda}.a)\times b=a \times ({\lambda}.b)={\lambda}.(a \times b)\)
L’ensembles des suites à valeurs dans \(\mathbb{K}\) est un \(\mathbb{K}\)-algèbre commutative. L’espace vectoriel des applications de \(A\) dans \(\mathbb{K}\) est une \(\mathbb{K}\) algèbre commutative.
Zoologie d’algèbre linéaire
Tout d’abord signalons que:
Quelques points quant à des endomorphismes particuliers (projecteurs, homothéties:
Prouvons le second point.
On procède par étapes:
Examinons maintenant une famille de fonctions de \(\mathbb{R}\) dans \(\mathbb{R}\) pour avoir un exemple de famille libre infinie et de cardinal non dénombrable: la famille des fonctions \(f_a\) de \(\mathbb{R}\) dans \(\mathbb{R}\) qui à \(x\) associe \(1\) si \(x>a\) et \(0\) si \(x\leq a\) est libre.
Pour s’habituer aux manipulations sur les noyaux et les images, on peut montrer: (avec encore \(f\) un endomorphisme) \[Ker\ f=Ker\ f^2 \iff Im\ f \cap Ker\ f=\{0\}\] \[Im\ f=Im\ f^2 \iff Im\ f + Ker\ f=E\] \[n \mapsto Ker\ f^n \mbox{ est croissante pour }\subset\] \[n \mapsto Im\ f^n \mbox{ est décroissante pour }\subset\] \[\exists n/ Ker\ f^n = Ker\ f^{n+1} \rightarrow \forall k > n \ Ker\ f^k=Ker\ f^n\] \[\exists n/ Im\ f^n = Im\ f^{n+1} \rightarrow \forall k > n \ Im\ f^k=Im\ f^n\]
Algèbre linéaire en dimension finie
On consacrera ensuite plusieurs sections aux matrices : le calcul matriciel en section [blon3], les opérations sur les lignes et les colonnes en section [blon4]; enfin, deux dernières sections seront consacrées aux matrices avec des exercices et de la zoologie (sections [blon6] et [blon7] respectivement).
On passera ensuite à des sections plus originales; on reviendra un peu sur la dualité en dimension finie avec un peu de zoologie (section [blon8]).
Les espaces vectoriels ont bien sûr une interprétation physique immédiate, en particulier pour la mécanique. Ils sont aussi à la base de structures algébriques comme les espaces de Hilbert, qui auront beaucoup d’applications en analyse fonctionnelle (par exemple pour l’analyse de Fourier). Ils servent aussi à caractériser des solutions d’équations différentielles (l’ensemble des solutions étant en général un espace affine, de dimension évaluable a priori selon les caractéristiques de l’équation). L’analyse matricielle sera à la base de l’optimisation via la matrice hessienne ou les matrices représentant les contraintes en programmation linéaire.
Généralités
Dans la suite, \(E\) désigne un \(\mathbb{K}\)-espace vectoriel de dimension finie.
\(\bullet\)Supposons la propriété vraie pour \(1\), \(2\), ...,\(n-1\) ; supposons \(E\) admettant une famille génératrice \(b_1,...,b_n\) de cardinal \(n\). Notons \(H\) le sous-espace vectoriel de \(E\) engendré par \(b_1,...,b_{n-1}\).
\(\bullet\)Donnons-nous une famille \(e_1,...,e_{n+1}\) de \(E\). Notre but est de montrer que cette famille est liée.
\(\bullet\)Soit, pour \(i\in [\![1,n+1]\!]\), \(h_i \in H\) et \({\lambda}_i\in \mathbb{K}\) tel que \(e_i=h_i+{\lambda}_i b_n\).
\(\bullet\)Si tous les \({\lambda}_i\) sont nuls, alors l’hypothèse de récurrence appliquée à \(H\) permet de conclure (tous les \(e_i\) sont alors dans \(H\), et donc ils sont liés).
\(\bullet\)Supposons alors (sans perte de généralité) \({\lambda}_1\neq 0\); dans ce cas, \(b_n=\frac{1}{{\lambda}_1}(e_1-h_1)\).
Maintenant quelques théorèmes faciles, sans démonstration, mais fort pratiques néanmoins:
On consultera avec profit la section [topoevzzz] quant à la définition d’une topologie sur les sous-espaces vectoriels d’un espace vectoriel .
\(F\) et \(G\) sont supplémentaires dans \(E\) si et seulement si leur intersection est nulle et si leur somme est égale à \(E\).
\(\bullet\)\(f\) a un noyau réduit au singleton \(\{0\}\).
\(\bullet\)\(f\) est injective.
\(\bullet\)\(f\) est surjective.
\(\bullet\)\(f\) est bijective.
\(\bullet\)Multiplier un vecteur d’une famille par un scalaire non nul ne change pas le rang de la famille
\(\bullet\)On ne change pas le rang d’une famille de vecteurs en additionnant à un vecteur une combinaison linéaire des autres vecteurs
Dualité en dimension finie
La dualité existe dans plusieurs cadres: géométrie, algèbre, topologie. On s’intéresse ici à la dualité au sens algébrique. Le lecteur est invité à différencier les différentes dualités par un rapide tour d’horizon par l’entrée « dualité » de l’index. De même, il convient de ne pas confondre l’orthogonal au sens géométrique, et l’orthogonal dans le dual.
Dualité simple
\(E\) est un espace vectoriel normé de dimension finie \(n\).
On note que \(x=\sum_{j=1}^n e_j^*(x).e_j\).
\(\bullet\)\(dim\ E^*=dim\ E\).
\(\bullet\)La famille des \((e_j^*)\) est une base de \(E^*\); on l’appelle la base duale de la base \((e_i)\).
\(\bullet\)Tout \(f\) appartenant à \(E^*\) s’écrit \(f=\sum_i f(e_i).e_i^*\).
On donne sans démonstration le théorème aisé suivant (utilisant la transposition, définie en section [al7]):
Bidual
\(E\) est un espace vectoriel de dimension finie \(n\).
Orthogonalité
Ne confondons pas l’orthogonal au sens géométrique (dans un espace muni d’une forme quadratique, cf section [fqfaim], dont les exemples les plus intuitifs sont les espaces de Hilbert, en particulier euclidiens ou hermitiens) et l’orthogonal au sens de la dualité.
\(E\) est un espace vectoriel normé de dimension finie \(n\).
\(\bullet\)\(dim\ E=dim\ F+dim\ F^\bot\)
\(\bullet\)\(dim\ E=dim\ F+dim\ F^o\)
Donnons enfin sans démonstration le théorème aisé suivant:
Calcul matriciel
Le calcul matriciel sert partout. Un grand nombre de problèmes industriels se ramènent à des problèmes linéaires ou quadratiques, donc de représentation matricielle. On parle en général de problème « linéaire » lorsqu’il s’agit de chercher des minima de fonctions de la forme \(x\mapsto \sum_i {\lambda}_i x_i\) pour \(x\) tel que \(Ax\geq c\) avec \(A\) une matrice et \(c\) un vecteur. On parle de problèmes quadratiques en général pour la recherche de minima de fonctions de la forme \(x\mapsto Q(x)\), avec \(Q\) une forme quadratique, pour \(x\) tel que \(Ax\geq c\) (Notons que parfois on parle de problèmes quadratiques avec des contraintes \(B(x)\leq c\) avec \(B\) une forme quadratique définie positive). Les problèmes non-linéaires sont en général la recherche de minima de \(x\mapsto f(x)\) parmi les \(x\) tels que \(\forall i\in I,g_i(x)\geq 0\), lorsque le problème ne peut se ramener ni au linéaire, ni au quadratique. De manière amusante, le non-linéaire n’est donc pas simplement ce qui n’est pas linéaire; le quadratique n’est ni linéaire ni non-linéaire. Même les problèmes non-linéaires se ramènent fréquemment soit à une résolution successive d’un grand nombre de problèmes linéaires, soit à une résolution successive d’un grand nombre de problèmes quadratiques. Les problèmes non-linéaires que l’on ne résout pas par retour à des problèmes quadratiques ou linéaires utilisent néanmoins des matrices et en particulier la matrice dite matrice hessienne: avec \(f\) une application suffisamment dérivable, la matrice hessienne de \(f\) est: \[M_{i,j}= \frac{\partial^2 f}{\partial x_i\partial x_j}.\] Les propriétés de cette matrice sont en particulier liées aux extrêma de \(f\); voir le chapitre [extrema]. On appelle hessien le déterminant de la matrice hessienne. Attention : Ne pas dire que la hessienne est définie positive dès que le hessien est positif! La hessienne, matrice symétrique par le théorème de Schwartz, est définie positive si pour tout vecteur \(x\) non nul, \(x'Mx>0\) avec \(x'\) le transposé de \(x\) (ou, de manière équivalente, si toutes ses valeurs propres sont positives strictement, ou, de manière encore équivalente, si toute sous-matrice principale a un déterminant positif).
On parlera ici de matrices finies, i.e. avec un nombre fini de lignes et de colonnes. On peut aussi considérer des matrices avec une quantité dénombrables de lignes et de colonnes. Cela sera en particulier utile pour l’analyse du recuit simulé ou des Monte-Carlo par chaînes de Markov. Ces techniques, stochastiques, permettent l’optimisation dans des espaces non-continus (pour le recuit simulé, mais aussi les algorithmes dits évolutionnaires ou les algorithmes dits génétiques) ou le calcul d’intégrales dans des espaces délicats (pour Monte-Carlo par chaînes de Markov). La généralisation à des quantités non dénombrables est usuellement qualifiée de « noyau de transition », i.e. une application \(k(x,y)\) (pour \(x\) et \(y\) dans un même domaine non-dénombrable) telle que \(\int k(x,.)=1\) pour tout \(x\).
Les représentations canoniques de matrices sont capitales pour représenter des problèmes de manière simple. Il est indispensable de bien maitriser ce que signifie que deux matrices sont équivalentes, ou le fait qu’elles sont semblables, et surtout ne pas croire que c’est pareil.
Bases sur les matrices
On appelle matrice ligne une matrice de type \((1,p)\), et matrice colonne une matrice de type \((n,1)\).
On appelle matrice extraite d’une matrice de type \((n,p)\) la restriction de cette matrice à \(I \times J\), avec \(I \subset [\![1,n]\!]\) et \(J \subset [\![1,p]\!]\).
On appelle \(i\)-ième vecteur-ligne de la matrice \(M\) de type \((n,p)\) la restriction de cette matrice à \(\{i\}\times [\![1,p]\!]\). On peut identifier un vecteur-ligne à un élément de \(\mathbb{K}^p\).
On appelle \(j\)-ième vecteur-colonne de la matrice \(M\) de type \((n,p)\) la restriction de cette matrice à \([\![1,n]\!] \times \{j\}\). On peut identifier un vecteur-colonne à un élément de \(\mathbb{K}^n\).
On appelle matrice associée à un morphisme \(f\) de l’espace vectoriel \(E\) de dimension \(p\) dans l’espace vectoriel \(F\) de dimension \(n\) et aux bases \(B=(e_i)\) et \(B'=(f_i)\) de \(E\) et \(F\) respectivement la matrice \(M\) de type \((n,p)\) telle que \(M_{i,j}=f_i^*(e_j)\). On la note \(Mat_{B,B'}(f)\).
Commençons par deux propositions aisées:
Enfin des propriétés faciles, mais capitales:
\(\bullet\)Avec \(A=Mat_{B,B'}(f)\) et \(B=Mat_{B',B''}(g)\), \(B\times A=Mat_{B,B''}(g \circ f)\)
Espace vectoriel \({\cal M}_{n,p}(\mathbb{K})\)
Considérons \(E\) et \(F\), \(\mathbb{K}\)-espaces-vectoriels de dimensions respectives \(p\) et \(n\).
L’application de \({\cal L}(E,F)\) dans \({\cal M}_{n,p}(\mathbb{K})\) qui à une application \(f\) associe \(Mat_{B,B'}(f)\) est un isomorphisme.
Les matrices élémentaires forment une base de cet espace vectoriel qui est donc de dimension \(n.p\).
Transposition de matrices
On définit ici la transposition de matrices et son lien avec la transposition (plus abstraite) de morphismes d’espaces vectoriels (cf section [al7]).
\(\bullet\)\(^t(A \times B) = ^t\!\!B \times ^t\!\!A\)
Le cas des matrices carrées: la \(\mathbb{K}\)-algèbre \({\cal M}_n(\mathbb{K})\)
On appelle matrice d’un endormophisme \(f\) associée à une base \(B\) (finie) la matrice \(Mat_{B,B}(f)\); on la note aussi \(Mat_B(f)\).
On appelle diagonale d’une matrice carrée \(M\) de type \((n,n)\) le vecteur \((M_{1,1},...,M_{i,i},...,M_{n,n}).\)
On appelle trace d’une matrice carrée \(M\) la somme \(\sum_{i=1}^n M_{i,i}\). On la note \(tr(M)\). L’application \(M \to tr(M)\) est une application linéaire.
On appelle matrice unité d’ordre \(n\) la matrice \(M\) avec \(M_{i,j}=\delta_{i,j}\). C’est la matrice dans toute base de l’endomorphisme identité.
On appelle matrice scalaire une matrice égale à \({\lambda}.I\) avec \({\lambda}\) un scalaire et \(I\) une matrice unité. C’est la matrice dans toute base de l’homothétie de rapport \({\lambda}\).
On appelle matrice diagonale associée à un \(n\)-uplet \(m\) la matrice \(M\) de type \((n,n)\) définie par \(M_{i,i}=m_i\) et \(M_{i,j}=0\) si \(i\neq j\). On note \(M=diag(m)\).
Une matrice est dite symétrique si elle est égale à sa transposée.
Une matrice \(M\) est dite antisymétrique si elle est égale à l’opposée de sa transposée, c’est-à-dire si \(^tM=-M\).
Une matrice carrée est dite triangulaire supérieure si \(j<i \to M_{i,j}=0\)
On note \({\cal T}_n^s\) l’ensemble des matrices carrées triangulaires supérieures d’ordre \(n\).
Une matrice carrée est dite triangulaire inférieure si \(j>i \to M_{i,j}=0\)
\(\bullet\)\({\cal M}_n(\mathbb{K})\) est une \(\mathbb{K}\)-algèbre, isomorphe à la \(\mathbb{K}\)-algèbre des endomorphismes de \(\mathbb{K}^n\) (ou de \(E\), pour tout espace vectoriel \(E\) de dimension \(n\)).
\(\bullet\)Si \(M\) est inversible, alors sa transposée aussi et \((^tM)^{-1}=^t\!(M^{-1})\).
\(\bullet\)\(tr(AB)=tr(BA)\) (que \(A\) et \(B\) soient carrées ou non, pourvu que le produit soit carré)
\(\bullet\)Une matrice est scalaire si et seulement si c’est la matrice associée à un endomorphisme de la forme \(x \mapsto {\lambda}.x\), i.e. à une homothétie.
\(\bullet\)L’ensemble des matrices diagonales de \({\cal M}_n(\mathbb{K})\) est une sous-algèbre commutative de \({\cal M}_n(\mathbb{K})\).
\(\bullet\)L’ensemble des matrices symétriques de \({\cal M}_n(\mathbb{K})\) et l’ensemble des matrices antisymétriques de \({\cal M}_n(\mathbb{K})\) sont des sous-espaces vectoriels de \({\cal M}_n(\mathbb{K})\); si \(\mathbb{K}\) n’est pas de caractéristique \(2\), ils sont supplémentaires; ils sont alors de dimensions respectives \(\frac{n.(n+1)}2\) et \(\frac{n.(n-1)}2\), engendrés respectivement par les \(E_{i,j}+E_{j,i}\) pour \(i \leq j\) et par les \(E_{i,j}-E_{j,i}\) pour \(i<j\). Toute matrice carrée \(M\) s’écrit \(A+S\), avec \(A\) antisymétrique et \(S\) symétrique, avec \(A=\frac12(M-^t\!\!M)\) et \(S=\frac12(M+^t\!\!M)\)
\(\bullet\)Le produit de deux matrices symétriques est symétrique si et seulement si les deux matrices commutent.
\(\bullet\)L’ensemble des matrices triangulaires supérieures est une sous-algèbre de \({\cal M}_n(\mathbb{K})\), de dimension \(n.(n+1)/2\).
\(\bullet\)L’ensemble des matrices triangulaires inférieures est une sous-algèbre de \({\cal M}_n(\mathbb{K})\), de dimension \(n.(n+1)/2\).
\(\bullet\)L’ensemble des matrices triangulaires inférieures est isomorphe à l’ensemble des matrices triangulaires supérieures. La transposition réalise un isomorphisme entre ces espaces vectoriels.
\(\bullet\)Les éléments inversibles de l’ensemble des matrices triangulaires supérieures (resp. inférieures) sont les matrices triangulaires dont tous les coefficients diagonaux sont non nuls; ils forment un sous-groupe multiplicatif de \({\cal M}_n(\mathbb{K})\).
\(\bullet\)Étant donnée une matrice \(A\) de \({\cal M}_n(\mathbb{K})\), on appelle commutant de \(A\) le sous-ensemble de \({\cal M}_n(\mathbb{K})\) des matrices commutant avec \(A\).
\(\bullet\)Étant donnée \(A\) une matrice de \({\cal M}_n(\mathbb{K})\), on définit \(A^0=I\) avec \(I\) la matrice unité d’ordre \(n\), et \(A^{i+1}=A.A^i\) (au sens du produit matriciel). On peut ainsi définir étant donné un polynôme l’image de \(A\) par ce polynôme, en utilisant la multiplication matricielle et la multiplication par un scalaire.
\(\bullet\)Étant donnée \(A\) une matrice de \({\cal M}_n(\mathbb{K})\), l’application de \(\mathbb{K}[X] \to {\cal M}_n(\mathbb{K})\) qui à \(P\) associe \(P(A)\) est un morphisme d’algèbres. Son image est une sous-algèbre de \({\cal M}_n(\mathbb{K})\) ; on la note \(\mathbb{K}(A)\), elle est commutative.
Changement de bases
Soit \(E\) espace vectoriel de dimension \(n\), et \((e_i)\) et \((f_j)\) des bases de \(E\).
\(\bullet\)Le produit de la matrice de passage de \(B\) à \(B'\) par la matrice de passage de \(B'\) à \(B''\) est la matrice de passage de \(B\) à \(B''\).
\(\bullet\)\(P_{B,B'}^{-1}=P_{B',B}\)
\(\bullet\)Étant donné \(X\) le vecteur des coordonnées de \(x\) dans une base \(B\), les coordonnées de \(x\) dans la base \(B'\) sont données par \(X'\) avec \(X'=P_{B',B}X\).
\(\bullet\)\(Mat_{B',C'}(f)=P_{C',C}.Mat_{B,C}(f).P_{B,B'}\)
Groupe linéaire et groupe spécial linéaire
Voir [glgsl].
Groupe orthogonal réel et groupe spécial orthogonal réel
Voir [gogso]. Ne pas confondre avec groupe linéaire et groupe spécial linéaire.
Rang d’une matrice
On appelle rang d’une matrice \(M\) le rang de la famille de ses vecteurs colonnes. On le note \(rg(M)\).
La preuve des propriétés qui suivent est simple et permet de jongler un peu entre matrices et morphismes:
\(\bullet\)\(rg(Mat_{B,B'}(f))=rg(f)\)
\(\bullet\)\(rg(^tM)=rg(M) \leq min(n,p)\), avec \(M\) de type \((n,p)\).
\(\bullet\)\(rg(M)=n \iff f\) surjective
\(\bullet\)\(rg(M)=p \iff f\) injective
Étant donné \(r\) le rang de \(M\) il existe une famille libre de \(r\) vecteurs parmi la famille des vecteurs colonnes de \(M\) (par le théorème de la base incomplète).
Matrices équivalentes, matrices semblables
allons introduire et étudier les matrices semblables et les matrices équivalentes; il faut bien noter que deux matrices sont équivalentes si elles représentent le même morphisme dans des bases différentes, alors que deux matrices sont semblables si elles représentent le même endomorphisme dans des bases différentes. Pour l’endomorphisme, on n’a qu’une base à changer; pour un morphisme, on peut changer la base de départ et la base d’arrivée. Beaucoup de matrices de même type sont équivalentes: il suffit qu’elles aient même rang. La relation « être semblable » est beaucoup plus rare.
On va parler ici de matrices inversibles, mais on n’a pas de préoccupation vis à vis d’une éventuelle forme quadratique équipant l’espace vectoriel .
\(\boxcircle\) Matrices équivalentes
\(\bullet\)Il s’agit d’une relation d’équivalence.
\(\bullet\)Deux matrices de même type sont équivalentes si et seulement si elles représentent un même morphisme dans des bases différentes.
\(\boxcircle\) Matrices semblables
\(\bullet\)Deux matrices sont semblables si elles représentent un même endomorphisme dans deux bases différentes
\(\bullet\)Deux matrices semblables ont même rang
Cofacteurs et inversion
On va introduire différentes définitions dont un aboutissement sera la détermination analytique de l’inverse d’une matrice. Quoiqu’informatiquement inefficace (beaucoup trop lente), cette inversion est utile pour les propriétés analytiques qu’elle entraine.
Le déterminant de la matrice \(M\) à laquelle on ôte la \(j\)-ième colonne et la \(i\)-ième ligne est appelé mineur \((i,j)\) de \(M\). On le note généralement \(\Delta_{i,j}\).
Le déterminant de la matrice \(M\) à laquelle on ôte la \(j\)-ième colonne pour la remplacer par le \(i\)-ième vecteur de la base est appelé cofacteur \((i,j)\) de \(M\). On le note généralement \(\gamma_{i,j}(M)\).
La matrice \(\gamma\) ainsi définie est appelée comatrice de \(M\). On la note généralement \(com(M)\).
Pour y voir plus clair, le mineur \((i,j)\) de \(M\) est:
\[\left| \begin{array}{ccccccccc} M_{1,1} & M_{1,2} & M_{1,3} & \dots & M_{1,j-1} & M_{1,j+1} & \dots & M_{1,n} \\ M_{2,1} & M_{2,2} & M_{2,3} & \dots & M_{2,j-1} & M_{2,j+1} & \dots & M_{2,n} \\ M_{3,1} & M_{3,2} & M_{3,3} & \dots & M_{3,j-1} & M_{3,j+1} & \dots & M_{3,n} \\ M_{4,1} & M_{4,2} & M_{4,3} & \dots & M_{4,j-1} & M_{4,j+1} & \dots & M_{4,n} \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ M_{i-1,1} & M_{i-1,2} & M_{i-1,3} & \dots & M_{i-1,j-1} & M_{i-1,j+1} & \dots & M_{i-1,n} \\ % M_{i,1} & M_{i,2} & M_{i,3} & \dots & M_{i,j-1} & M_{i,j+1} & \dots & M_{i,n} \\ M_{i+1,1} & M_{i+1,2} & M_{i+1,3} & \dots & M_{i+1,j-1} & M_{i+1,j+1} & \dots & M_{i+1,n} \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ M_{n,1} & M_{n,2} & M_{n,3} & \dots & M_{n,j-1} & M_{n,j+1} & \dots & M_{n,n} \\ \end{array}\right|\]
et le cofacteur \((i,j)\) de \(M\) est: \[\left| \begin{array}{ccccccccc} M_{1,1} & M_{1,2} & M_{1,3} & \dots & M_{1,j-1} & 0 & M_{1,j+1} & \dots & M_{1,n} \\ M_{2,1} & M_{2,2} & M_{2,3} & \dots & M_{2,j-1} & 0 & M_{2,j+1} & \dots & M_{2,n} \\ M_{3,1} & M_{3,2} & M_{3,3} & \dots & M_{3,j-1} & 0 & M_{3,j+1} & \dots & M_{3,n} \\ M_{4,1} & M_{4,2} & M_{4,3} & \dots & M_{4,j-1} & 0 & M_{4,j+1} & \dots & M_{4,n} \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ M_{i-1,1} & M_{i-1,2} & M_{i-1,3} & \dots & M_{i-1,j-1} & 0 & M_{i-1,j+1} & \dots & M_{i-1,n} \\ M_{i,1} & M_{i,2} & M_{i,3} & \dots & M_{i,j-1} & 1 & M_{i,j+1} & \dots & M_{i,n} \\ M_{i+1,1} & M_{i+1,2} & M_{i+1,3} & \dots & M_{i+1,j-1} & 0 & M_{i+1,j+1} & \dots & M_{i+1,n} \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ M_{n,1} & M_{n,2} & M_{n,3} & \dots & M_{n,j-1} & 0 & M_{n,j+1} & \dots & M_{n,n} \\ \end{array}\right|\]
qui est d’ailleurs égal à \[\left| \begin{array}{ccccccccc} M_{1,1} & M_{1,2} & M_{1,3} & \dots & M_{1,j-1} & 0 & M_{1,j+1} & \dots & M_{1,n} \\ M_{2,1} & M_{2,2} & M_{2,3} & \dots & M_{2,j-1} & 0 & M_{2,j+1} & \dots & M_{2,n} \\ M_{3,1} & M_{3,2} & M_{3,3} & \dots & M_{3,j-1} & 0 & M_{3,j+1} & \dots & M_{3,n} \\ M_{4,1} & M_{4,2} & M_{4,3} & \dots & M_{4,j-1} & 0 & M_{4,j+1} & \dots & M_{4,n} \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ M_{i-1,1} & M_{i-1,2} & M_{i-1,3} & \dots & M_{i-1,j-1} & 0 & M_{i-1,j+1} & \dots & M_{i-1,n} \\ 0 & 0 & 0 & \dots & 0 & 1 & 0 & \dots & 0 \\ M_{i+1,1} & M_{i+1,2} & M_{i+1,3} & \dots & M_{i+1,j-1} & 0 & M_{i+1,j+1} & \dots & M_{i+1,n} \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ M_{n,1} & M_{n,2} & M_{n,3} & \dots & M_{n,j-1} & 0 & M_{n,j+1} & \dots & M_{n,n} \newline \end{array}\right|\]
Il est nécessaire pour la suite d’avoir lu la partie [determinant].
Considérons le terme \((i,j)\) de la matrice \(det\ M.Id\).
Il s’agit de \(\delta_{i,j}.det\ M\).
On cherche donc à montrer que \(\delta_{i,j}.det\ M = \sum_{k=1}^n \gamma_{k,i}.M_{k,j}\).
On distingue deux cas:
\(\bullet\)\(i \neq j\)
On considère alors la matrice \(M\), sur laquelle on remplace la colonne \(i\) par la colonne \(j\) (on ne les permute pas, on supprime la colonne \(i\), et on copie la colonne \(j\) à la place).
Le déterminant de la matrice obtenue est nul, puisqu’on a deux fois la même colonne. On développe par rapport à la colonne \(i\). On obtient \[\sum_{k=1}^n M_{k,j}.\gamma_{k,i}=0\] et donc le résultat dans ce cas est bien montré.
\(\bullet\)\(i=j\)
Dans ce cas on considère le développement de \(M\) par rapport à la \(i\)-ième colonne et on obtient \[det\ M = \sum_{k=1}^n \gamma_{k,i}.M_{k,i} = \sum_{k=1}^n \gamma_{k,i}.M_{k,j}\] d’où le résultat souhaité.
Matrices par blocs
Les matrices par blocs sont fort pratiques pour les produits, les déterminants, les inversions. En particulier, les ordinateurs fonctionnent en général avec des caches, c’est-à-dire des mémoires très rapides intermédiaires entre le processeur et la mémoire vive: ces « caches » ont une taille très limitée, et dimensionner les blocs d’un calcul par blocs de manière à ce que le cache ne soit pas débordé (ce qui entraine des communications trop fréquentes avec la beaucoup plus lente mémoire vive) change tout à la performance d’un algorithme. On peut en fait déterminer la taille du cache en examinant la vitesse d’un calcul matriciel en fonction de la taille des blocs. Notons que des découpages par bandes existent aussi.
Les méthodes expliquées ci-dessous dans le cas de quatre blocs, se généralisent naturellement au cas d’un nombre quelconque de blocs.
Produit par blocs
Étant données les matrices \(A\), \(B\), \(C\), \(D\), \(A'\), \(B'\), \(C'\) et \(D'\), avec \[largeur(A)=largeur(C)=hauteur(A')=hauteur(B')\] \[largeur(B)=largeur(D)=hauteur(C')=hauteur(D')\] on considère les matrices \(M\) et \(M'\) définies comme suit: \[M=\left( \begin{array}{cccc} A & B \\ C & D \end{array}\right),\ \ \ \ \ M'=\left( \begin{array}{cccc} A' & B' \\ C' & D' \end{array}\right)\]
Alors \[M.M'=\left( \begin{array}{cccc} A.A'+ B.C' & A.B' + B.D' \\ C.A'+D.C' & C.B' + D.D' \end{array}\right)\]
Inverse par blocs
Si \(M=\left( \begin{array}{cccc} A & C \\ 0 & B \end{array} \right)\), avec \(A\) et \(B\) inversibles, alors \(M\) est inversible et \(M^{-1}=\left( \begin{array}{cccc} A^{-1} & -A^{-1}.C.B^{-1} \\ 0 & B^{-1} \end{array}\right)\).
Déterminant par blocs
Si \(M=\left( \begin{array}{cccc} A & C \newline 0 & B \end{array} \right)\), alors \(det\ M=det\ A.det\ B\).
Opérations sur les lignes et les colonnes
On trouvera des manipulations proches de celles décrites ici dans la partie sur les déterminants [determinant]. La proposition [segle2] illustre aussi des opérations sur les lignes et les colonnes.
Les opérations sur les lignes et les colonnes d’une matrice ou d’un système linéaire sont par définition:
\(\bullet\)l’addition d’une ligne (resp. colonne) \(i\) à une ligne (resp. colonne) \(j\neq i\)
\(\bullet\)la multiplication d’une ligne (resp. colonne) \(i\) par un scalaire \({\lambda}\neq 0\)
\(\bullet\)la permutation de deux lignes (resp. colonnes) \(i\) et \(j\neq i\)
Ces opérations seront notées respectivement:
\(\bullet\)\(L_i \leftarrow L_i + L_j\) (resp. \(C_i \leftarrow C_i+ C_j\))
\(\bullet\)\(L_i \leftarrow {\lambda}.L_i\) (resp. \(C_i \leftarrow {\lambda}.C_i\))
\(\bullet\)\(L_i \leftrightarrow L_j\) (resp. \(C_i \leftrightarrow C_j\))
pourra éventuellement ajouter à une ligne (resp. une colonne) une autre ligne (resp. colonne) multipliée par un scalaire \({\lambda}\); cela se notera \(L_i\leftarrow L_i+{\lambda}L_j\) (resp. \(C_i\leftarrow C_i+{\lambda}C_j\)) : il s’agit d’une composition des deux premiers types d’opérations.
\(L_i\leftarrow {\lambda}.L_i\) correspond à la multiplication à gauche par \(diag(1,...,1,l,1,...,1)\), i.e. par la matrice avec des 1 sur la diagonale, sauf \({\lambda}\) en place \((i,i)\) ;
\(L_i\leftrightarrow L_j\) correspond à la multiplication à gauche par \(I+E_{i,j}+E_{j,i} -E_{i,i}-E_{j,j}\).
\(\bullet\)Multiplier une ligne par \({\lambda}\) multiplie le déterminant par \({\lambda}\).
\(\bullet\)Permuter deux lignes multiplie le déterminant par \(-1\).
Les mêmes résultats sont valables pour les colonnes.
\[M=\left( \begin{array}{cccc} M_{1,1} & M_{1,2} & \dots & M_{1,n} \\ M_{2,1} & M_{2,2} & \dots & M_{2,n} \\ \vdots & \vdots & \vdots & \vdots \\ M_{n,1} & M_{n,2} & \dots & M_{n,n} \\ \end{array} \right),\ \ \ \ Y=^t\!\!(y_1,...,y_n)=\left(\begin{array}{c}y_1\\y_2\\ \vdots\\ y_n\end{array}\right).\]
On suppose en outre que \(M\) est inversible.
On a alors \(Y=\sum_{k=1}^{n} X_k C_k\) avec \(C_k\) la \(k\)-ième colonne de \(M\).
Donc, quel que soit \(i\), on a \(\displaystyle M^{(i)}=\sum_{k=1}^{n} X_k {M'_k}^{(i)}\)
avec \[{M_k}^{(i)}= \left| \begin{array}{cccccccc} M_{1,1} & M_{1,2} & \dots & M_{1,i-1} & Y_1 & M_{1,i+1} & \dots & M_{1,n} \\ M_{2,1} & M_{2,2} & \dots & M_{2,i-1} & Y_2 & M_{2,i+1} & \dots & M_{2,n} \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ M_{n,1} & M_{n,2} & \dots & M_{n,i-1} & Y_n & M_{n,i+1} & \dots & M_{n,n} \\ \end{array} \right|\] et \[{M'_k}^{(i)}= \left| \begin{array}{cccccccc} M_{1,1} & M_{1,2} & \dots & M_{1,i-1} & M_{1,k} & M_{1,i+1} & \dots & M_{1,n} \\ M_{2,1} & M_{2,2} & \dots & M_{2,i-1} & M_{2,k} & M_{2,i+1} & \dots & M_{2,n} \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ M_{n,1} & M_{n,2} & \dots & M_{n,i-1} & M_{n,k} & M_{n,i+1} & \dots & M_{n,n} \newline \end{array} \right|\]
(déterminants avec deux colonnes identiques)
La méthode de Gauss consiste à :
1) permuter les lignes pour avoir un coefficient non nul en haut à gauche de la matrice; ce coefficient est appelé pivot
2) soustraire la première ligne multipliée par un coefficient adéquat à chacune des autres lignes de manière à avoir des zéros sur toute la première colonne en dehors du premier coefficient
3) Procéder de même sur la matrice extraite, simplement dépourvue de sa première ligne et sa première colonne.
Le point \(1)\) pourra toujours être réalisé si on trouve toujours un coefficient non nul à échanger; pour peu que la matrice soit inversible, cette condition sera toujours vérifiée. Si elle ne l’est pas, on peut travailler sur la matrice extraite par suppression de la première colonne.
Matrice obtenue après pivot de Gauss.
Commentaire: La « ligne brisée » évoquée comporte soit des sauts à droite, soit des sauts en diagonale en bas à droite. Le premier élément de la ligne brisée se trouve quelque part sur la première ligne (éventuellement en haut à gauche).
La matrice ainsi obtenue est donc beaucoup plus maniable: le calcul du déterminant (si la matrice est carrée) se résume à la multiplication des éléments diagonaux, la résolution de systèmes linéaires est plus aisée (il convient de noter pour cela que les opérations sur les colonnes sont de simples permutations sur les inconnues), le calcul du rang est immédiat (nombre d’éléments avant le dernier élément non nul de la dernière colonne).
Intuition Afin de minimiser les pertes de précision d’un calcul numérique, il est préférable de choisir un pivot grand en valeur absolue.
La méthode du pivot total consiste à chercher le pivot non pas seulement sur la colonne en cours, mais de permuter éventuellement les colonnes pour avoir un pivot plus grand. Par opposition au pivot total, la méthode ci-dessus est dite pivot partiel.
On appelle décomposition \(A=LU\) un produit du type \(A=LU\) avec \(L\) matrice triangulaire inférieure ne comportant que des \(1\) sur la diagonale, \(U\) matrice triangulaire supérieure.
La condition sur les déterminants ne couvre pas toutes les matrices \(A\) inversibles possibles. Cela va être résolu avec la proposition qui suit:
Exercices sur les matrices
Zoologie sur les matrices et leurs déterminants
On réutilise la notion de matrice circulante vue en section [circulant2]:
Zoologie de la dualité en dimension finie
On va présenter ici les polynômes de Lagrange (avec leurs propriétés d’interpolation), et la réécriture de sous-espaces vectoriels en tant qu’intersection d’hyperplans.
Polynômes de Lagrange
On considère l’espace \(E=\mathbb{R}_n[X]\) des polynômes à une indéterminée et de degré au plus \(n\). Soient \(a_0\), ..., \(a_n\) des réels deux à deux distincts. On définit \(n+1\) formes linéaires sur \(E\) par \(f_i(P)=P(a_i)\).
Les \(P_i\) sont appelés polynômes de Lagrange. L’intérêt de ces polynômes va être la facilité avec laquelle on va interpoler avec ces polynômes; il suffit de connaître leurs valeurs en les \(a_i\). Malheureusement, cette technique est une interpolation, c’est-à-dire que le polynôme obtenu par interpolation (corollaire ci-dessous) incorpore tous les bruits et converge en pratique très mal vers une vraie fonction connue seulement par ses valeurs en un nombre fini de points, dès que cette fonction n’est pas « vraiment » un polynôme. Ce constat est à la base de la théorie de la régularisation (e.g., régularisation de Tykhonov).
Un exemple d’utilisation Maple:
@ >p(- 0) * @ Exemple Maple
> interp([0,1,2,3],[exp(0),exp(1),exp(2),exp(3)],x);
\[{\displaystyle \frac {1}{6}} e^{3}x^{3} - {\displaystyle \frac {1}{2}} e^{3}x^{2} + {\displaystyle \frac {1}{3}} e^{3}x - {\displaystyle \frac {1}{2}} e^{2} x^{3} +\] \[2e^{2}x^{2} - {\displaystyle \frac {3}{2}} e^{2}x + {\displaystyle \frac {1}{2}} ex^{3} - {\displaystyle \frac {5}{2}} ex^{2} + 3ex - {\displaystyle \frac {1}{6} } x^{3} + x^{2} - {\displaystyle \frac {11}{6}} x + 1\]
Il est intéressant de tracer ensuite la courbe exponentielle et les graphes des interpolations à différents ordres superposés.
Définition d’un sous-espace vectoriel par une famille d’équations
Cette proposition permet de voir certaines choses clairement: ainsi, tout sous-espace vectoriel de \(\mathbb{R}^n\) peut être écrit sous formes d’un systèmes d’équations linéaires; toute droite de \(\mathbb{R}^3\) est une intersection de deux hyperplans.
- 1 Les définitions nécessaires à l’écriture élégante de la preuve de ce point arrivent un tout petit peu plus bas; la preuve se fait en considérant la projection sur le supplémentaire en question par rapport à l’un des deux sous-espaces; un espace supplémentaire du noyau est isomorphe à l’image, d’où le résultat.
Bibliographie
- [CHA] B. Chazelle, The Discrepancy Method, Cambridge University Press, 2000.[BRE] H. Brézis, Analyse fonctionnelle, Masson, 1983.[CIA] P.G. Ciarlet, Introduction à l’analyse numérique matricielle et à l’optimisation, Dunod, 1998.
Barre utilisateur
[ID: 27] [Date de publication: 13 mars 2021 19:13] [Catégorie(s): Le cours d'agrégation ] [ Nombre commentaires: 0] [nombre d'éditeurs: 1 ] [Editeur(s): Emmanuel Vieillard-Baron ] [nombre d'auteurs: 5 ] [Auteur(s): Christophe Antonini Olivier Teytaud Pierre Borgnat Annie Chateau Edouard Lebeau ]
Commentaires sur le cours
Documents à télécharger
L'article complet
Continuer à lire

Zoologie de la géométrie

Fonctions holomorphes

Statistique

Analyse fonctionnelle

Quelques résultats inclassables

Analyse numérique et mathématiques appliquées

Théorie des ensembles – autres systèmes axiomatiques – construction des ensembles usuels

Topologie

Espaces \({\cal L}^p\) et espaces \(L^p\)

Développements limités et comparaison de fonctions

Approximation de fonctions

Calcul différentiel

Extrema

Formes différentielles

Théorie des groupes

Anneaux et corps

Corps

Algèbre multilinéaire

Espaces préhilbertiens et espaces de Hilbert

Algèbre linéaire en dimension finie

Intégration

Réduction des endomorphismes

Quelques synthèses et compléments d’analyse

Interversions

Séries entières et fonctions holomorphes

Polynômes

Fourier

Graphes

Ensembles ordonnés

Polynômes à plusieurs indéterminées

Produit de convolution

Combinatoire et dénombrements

Dénombrements et probabilités

Quelques résultats supplémentaires de théorie des nombres

Géométrie affine et projective
