Pour chacune des applications linéaires suivantes :
vérifier que \(u\) est linéaire.
déterminer sa matrice dans les bases canoniques des espaces vectoriels considérés.
déterminer son rang.
Déterminer \(u^{-1}\) quand cette application existe.
calculer l’image du vecteur \(V\) donné en utilisant cette matrice.
\(u: \left\{ \begin{array}{ccl} \mathbb{R}^3 & \longrightarrow & \mathbb{R}^2 \\ \left(x,y,z\right) & \longmapsto & \left(x+y+z,x-2y-3z\right) \end{array} \right.\) et \(V=\left(0,1,-1\right)\)..
\(u: \left\{ \begin{array}{ccl} \mathbb{R}^3 & \longrightarrow & \mathbb{R}^3 \\ \left(x,y,z\right) & \longmapsto & \left(x+z,y-z,z-x\right) \end{array} \right.\) et \(V=\left(1,2,-1\right)\).
On pose \(\overrightarrow{v}=\left(1,1,1\right)\). \(u: \left\{ \begin{array}{ccl} \mathbb{R}^3 & \longrightarrow & \mathbb{R}^3 \\ \overrightarrow{u} & \longmapsto & \overrightarrow{u} \wedge \overrightarrow{v} \end{array} \right.\) et \(V=\left(-1,0,2\right)\).
\(u: \left\{ \begin{array}{ccl} \mathbb{R}_3\left[X\right] & \longrightarrow & \mathbb{R}_3\left[X\right] \\ P & \longmapsto & XP'\left(X\right) -P \end{array} \right.\) et \(V=X^3-3X^2+X-1\).
\(u: \left\{ \begin{array}{ccl} \mathbb{R}_2\left[X\right] & \longrightarrow & \mathbb{R}^3 \\ P & \longmapsto & \left(P\left(0\right),P\left(1\right),P\left(2\right)\right) \end{array} \right.\) et \(V=X^2-X+1\).
\(u: \left\{ \begin{array}{ccl} \mathfrak{M}_{2}\left(\mathbb{R}\right) & \longrightarrow & \mathfrak{M}_{2}\left(\mathbb{R}\right) \\ M & \longmapsto & {M}^{\mathrm{T}} \end{array} \right.\) et \(V= \begin{pmatrix} 1&-1\\ 0&1 \end{pmatrix}\).
\(u: \left\{ \begin{array}{ccl} \mathfrak{M}_{2}\left(\mathbb{R}\right) & \longrightarrow & \mathfrak{M}_{2}\left(\mathbb{R}\right) \\ M & \longmapsto & EM \end{array} \right.\) où \(E=\begin{pmatrix} 1&1\\ 0&1 \end{pmatrix}\) et \(V= \begin{pmatrix} 0&1\\ 1&0 \end{pmatrix}\)
On vérifie facilement que \(u\) est linéaire.
\(A =\mathop{\mathrm{Mat}}_{e'\Leftarrow e}\left(u\right)= \begin{pmatrix} 1&1&1 \\ 1&-2&-3 \end{pmatrix}\) où \(e\) est la base canonique de \(\mathbb{R}^3\) et \(e'\) celle de \(\mathbb{R}^2\).
\(\mathop{\mathrm{rg}}\left(u\right)=\mathop{\mathrm{rg}}\left(A\right)=2\)
\(u\) ne peut être bijective car \(\mathbb{R}^2\) et \(\mathbb{R}^3\) ne sont pas de même dimension.
On a \(B=\mathop{\mathrm{Mat}}_{e'}{V}=\begin{pmatrix}0\\1\\-1\end{pmatrix}\) et \(AB=\begin{pmatrix} 0\\1 \end{pmatrix}\). Donc \(u\left(V\right)=\left(0,1\right)\).
On vérifie facilement que \(u\) est linéaire.
\(A = \mathop{\mathrm{Mat}}_{ e}\left(u\right)=\begin{pmatrix} 1&0&1\\0&1&-1\\-1&0&1 \end{pmatrix}\) où \(e\) désigne la base canonique de \(\mathbb{R}^3\).
\(\mathop{\mathrm{rg}}\left(u\right)=\mathop{\mathrm{rg}}\left(A\right)=3\)
On en déduit que \(u\) est bijective. De plus \(A^{-1}=\dfrac{1}{2}\begin{pmatrix} 1&0&-1\\1&2&1\\1&0&1\end{pmatrix}\) donc \(u^{-1}: \left\{ \begin{array}{ccl} \mathbb{R}^3 & \longrightarrow & \mathbb{R}^3 \\ \left(x,y,z\right) & \longmapsto & \dfrac{1}{2}\left(x-z,x+2y+z,x+z\right) \end{array} \right.\)
On a \(B=\mathop{\mathrm{Mat}}_{e}{V}=\begin{pmatrix}1\\2\\-1\end{pmatrix}\) et \(AB=\begin{pmatrix} 0\\3 \\-2 \end{pmatrix}\). Donc \(u\left(V\right)=\left(0,3,-2\right)\).
\(u\) est linéaire par bilinéarité du produit vectoriel.
\(A = \mathop{\mathrm{Mat}}_{ e}\left(u\right)=\begin{pmatrix} 0&1&-1\\-1&0&1\\1&-1&0 \end{pmatrix}\) où \(e\) désigne la base canonique de \(\mathbb{R}^3\).
\(\mathop{\mathrm{rg}}u = \mathop{\mathrm{rg}}A = 2\).
\(u\) n’est donc pas bijective.
On a \(B=\mathop{\mathrm{Mat}}_{e}{V}=\begin{pmatrix}-1\\0\\2\end{pmatrix}\) et \(AB=\begin{pmatrix} -2\\3\\-1 \end{pmatrix}\). Donc \(u\left(V\right)=\left(-2,3,-1\right)\).
On vérifie facilement que \(u\) est linéaire.
\(A =\mathop{\mathrm{Mat}}_{ e}\left(u\right)=\begin{pmatrix} -1&0&0&0 \\ 0&0&0&0\\0&0&1&0 \\0&0&0&2\end{pmatrix}\) où \(e=\left(1,X,X^2,X^3\right)\) est la base canonique de \(\mathbb{R}_3\left[X\right]\).
\(\mathop{\mathrm{rg}}u = \mathop{\mathrm{rg}}A = 3\).
\(u\) n’est donc pas bijective.
On a \(B=\mathop{\mathrm{Mat}}_{e}{V}=\begin{pmatrix}-1\\1\\-3\\1\end{pmatrix}\) et \(AB=\begin{pmatrix} 1\\0\\-3\\2 \end{pmatrix}\). Donc \(u\left(V\right)=2X^3-3X^2+1\).
On vérifie facilement que \(u\) est linéaire.
\(A =\mathop{\mathrm{Mat}}_{e'\Leftarrow e}\left(u\right)= \begin{pmatrix} 1&0&0 \\1&1&1\\1&2&4 \end{pmatrix}\) où \(e'\) est la base canonique de \(\mathbb{R}^3\) et \(e\) celle de \(\mathbb{R}_2\left[X\right]\).
\(\mathop{\mathrm{rg}}u = \mathop{\mathrm{rg}}A = 3\).
\(A^{-1}=\dfrac{1}{2}\begin{pmatrix} 2&0&0\\-3&4&-1\\1&-2&1\end{pmatrix}\). On en déduit que \(u^{-1}: \left\{ \begin{array}{ccl} \mathbb{R}^3 & \longrightarrow & \mathbb{R}_2\left[X\right] \\ \left(x,y,z\right) & \longmapsto & \dfrac{1}{2}\left(2x + \left(-3x+4y-z\right)X + \left(x-2y+z\right)X^2\right) \end{array} \right.\)
On a \(B=\mathop{\mathrm{Mat}}_{e}{V}=\begin{pmatrix}1\\-1\\1\end{pmatrix}\) et \(AB=\begin{pmatrix} 1\\1 \\3 \end{pmatrix}\). Donc \(u\left(V\right)=3X^2+X+1\).
\(u\) est linéaire car l’opération de transposition est linéaire.
\(A = \mathop{\mathrm{Mat}}_{ e}\left(u\right)=\begin{pmatrix} 1&0&0&0\\0&0&1&0\\0&1&0&0\\0&0&0&1 \end{pmatrix}\) où \(e=\left(E_{11},E_{12},E_{21},E_{22}\right)\) est la base canonique de \(\mathfrak{M}_{2}\left(\mathbb{R}\right)\)
\(\mathop{\mathrm{rg}}u = \mathop{\mathrm{rg}}A = 4\).
On vérifie sans peine que \(A^{-1}=A\) ce qui se vérifie par ailleurs en remarquant que la transposition est une symétrie de \(\mathfrak{M}_{2}\left(\mathbb{R}\right)\).
On a \(B=\mathop{\mathrm{Mat}}_{e}{V}=\begin{pmatrix}1\\-1\\0\\1\end{pmatrix}\) et \(AB=\begin{pmatrix} 1\\0 \\-1\\1 \end{pmatrix}\). Donc \(u\left(V\right)=\begin{pmatrix}1&0\\-1&1\end{pmatrix}\)
On vérifie facilement que \(u\) est linéaire.
\(A =\mathop{\mathrm{Mat}}_{ e}\left(u\right)= \begin{pmatrix} 1&0&1&0 \\0&1&0&1\\0&0&1&0\\0&0&0&1 \end{pmatrix}\) où \(e=\left(E_{11},E_{12},E_{21},E_{22}\right)\) est la base canonique de \(\mathfrak{M}_{2}\left(\mathbb{R}\right)\)
\(\mathop{\mathrm{rg}}u = \mathop{\mathrm{rg}}A = 4\).
On vérifie que \(A^{-1}=\begin{pmatrix} 1&0&-1&0\\0&1&0&-1\\0&0&1&0\\0&0&0&1\end{pmatrix}\). On montre par ailleurs que : \(u^{-1}: \left\{ \begin{array}{ccl} \mathfrak{M}_{2}\left(\mathbb{R}\right) & \longrightarrow & \mathfrak{M}_{2}\left(\mathbb{R}\right) \\ M & \longmapsto & E^{-1}M \end{array} \right.\)
On a \(B=\mathop{\mathrm{Mat}}_{e}{V}=\begin{pmatrix}0\\1\\1\\0\end{pmatrix}\) et \(AB=\begin{pmatrix} 1\\1 \\1\\0 \end{pmatrix}\). Donc \(u\left(V\right)=\begin{pmatrix}1&1\\1&0\end{pmatrix}\)
Soit l’endomorphisme \(\varphi: \left\{ \begin{array}{ccl} \mathbb{R}_n\left[X\right] & \longrightarrow & \mathbb{R}_n\left[X\right] \\ P & \longmapsto & P'' \end{array} \right.\).
Montrer que \(\varphi\) est linéaire.
Écrire la matrice de \(\varphi\) dans la base canonique de \(\mathbb{R}_n\left[X\right]\).
\[\begin{pmatrix} 0 & 0 & 2 & 0 & \ldots & \ldots & \ldots & 0 \\ 0 & 0 & 0 & 6 & 0 & \ldots & \ldots & \vdots \\ \vdots & \vdots & \vdots & \ddots & 12 & \ddots & & \vdots \\ \vdots & \vdots & \vdots & & \ddots & \ddots & \ddots & \vdots \\ \vdots & \vdots & \vdots & & & \ddots & \ddots & 0 \\ 0 & \ldots & \ldots & \ldots & \ldots & \ldots & \ldots & n(n-1) \\ 0 & \ldots & \ldots & \ldots & \ldots & \ldots & \ldots & 0 \\ 0 & \ldots & \ldots & \ldots & \ldots & \ldots & \ldots & 0 \end{pmatrix}.\]
Soit \(\varphi: \left\{ \begin{array}{ccl} \mathbb{R}_3\left[X\right] & \longrightarrow & \mathbb{R}_3\left[X\right] \\ P & \longmapsto & XP'+P \end{array} \right.\).
Prouver que \(\varphi\in\mathfrak{L}\left(\mathbb{R}_3\left[X\right]\right)\).
Calculer la matrice de \(\varphi\) dans la base canonique de \(\mathbb{R}_3\left[X\right]\).
Démontrer que cette matrice est inversible et calculer son inverse.
En déduire que \(\varphi\) est bijective et calculer l’image réciproque de chacun des éléments de la base canonique de \(\mathbb{R}_3\left[X\right]\) par \(\varphi\).
La linéarité provient de la linéarité de la dérivation et de la multiplication par \(X\). Reste à démontrer que \(XP'+P\) est un polynôme et que \(\deg (XP'+P) \leqslant 3\) ce qui ne pose pas de difficulté.
On a \(\varphi\left( X^k\right) = XkX^{k-1} + X^k = (k+1) X^k\). D’où la matrice : \(M = \begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 2 & 0 & 0 \\ 0 & 0 & 3 & 0 \\ 0 & 0 & 0 & 4 \end{pmatrix}.\)
\(M^{-1} = \begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & {\scriptstyle 1\over\scriptstyle 2} & 0 & 0 \\ 0 & 0 & {\scriptstyle 1\over\scriptstyle 3} & 0 \\ 0 & 0 & 0 & {\scriptstyle 1\over\scriptstyle 4} \end{pmatrix}.\)
On a \(\varphi^{-1}\left( X^k\right) = \dfrac{1}{k+1}X^k\).
On considère l’espace vectoriel \(E=\mathcal{C}^{\infty}\left(\mathbb{R}\right)\) et les vecteurs \(f_1,f_2,f_3,f_4\in E\) donnés par : \[f_1:x\mapsto \mathop{\mathrm{ch}}x,\quad f_2:x\mapsto \mathop{\mathrm{sh}} x ,\quad f_3:x \mapsto x\mathop{\mathrm{ch}}x \quad \textrm{ et} \quad f_4: x \mapsto x\mathop{\mathrm{sh}}x\]
Déterminer la dimension du sous-espace vectoriel \(F\) de \(E\) engendré par la famille \(f=\left(f_1,f_2,f_3,f_4\right)\).
Soit \(\varphi:f \mapsto f'''-2f''+f'-f\). Montrer que \(\varphi\in\mathfrak{L}\left(E\right)\).
Déterminer la matrice de \(\varphi\) dans la base \(f\).
\(\varphi\) est-elle un automorphisme de \(F\) dans \(F\)? Si oui, déterminer la matrice de \(\varphi^{-1}\) dans la base \(f\).
Trouver une solution particulière de l’équation différentielle : \(f'''-2f''+f'-f = \mathop{\mathrm{sh}}x + x \mathop{\mathrm{ch}}x\).
\(\dim F = 4\) car la famille \(f\) est libre. En effet supposons \(\forall x\in\mathbb{R}, a\mathop{\mathrm{ch}}x + b\mathop{\mathrm{sh}}x +c x\mathop{\mathrm{ch}}x +dx\mathop{\mathrm{sh}}x = 0\), en regardant en \(0\), on a \(a= 0\) on a donc \(dx\mathop{\mathrm{sh}}x = -(b\mathop{\mathrm{sh}}x +c x\mathop{\mathrm{ch}}x)\) qui est donc une fonction impaire, d’où \(d = 0\). Comme en \(b\mathop{\mathrm{sh}}x = \underset{x \rightarrow +\infty}{o}\left(x\mathop{\mathrm{sh}}x\right)\) on en déduit que \(d\), puis \(c\) sont nuls. Une autre technique consiste à utiliser les développements limités. En effet, un \(DL(0,3)\) de \(f(x)=a\mathop{\mathrm{ch}}x + b\mathop{\mathrm{sh}}x +c x\mathop{\mathrm{ch}}x +dx\mathop{\mathrm{sh}}x\) est \[f(x)= a+\left(b+c\right)x+\left(a/2+d\right)x^2+\left(b/6+c/2\right)x^3+\underset{x \rightarrow 0}{o}\left(x^3\right)\] et comme \(f\) est nulle, par unicité du développement limité, il vient : \[\begin{cases} a&=0\\ b+c&=0\\ a/2+d&=0\\ b/3+c&=0 \end{cases} .\] L’unique solution de ce système est \(a=b=c=d=0\).
La linéarité est claire. \(\varphi(f_1) = f_2 - 2f_1 + f_2 - f_1 = 2f_2 - 3f_1, \varphi(f_2) = 2f_1 - 3f_2, \varphi(f_3) = 2f_4 - 3f_3 + 4f_1 - 4f_2\) et \(\varphi(f_4) = 2f_3 - 3f_4 + 4f_2 - 4f_1\).
\(M = \begin{pmatrix} -3 & 2& 4 & -4 \\ 2 & -3 & -4 & 4 \\ 0 & 0 & -3 & 2 \\ 0 & 0 & 2 & -3 \end{pmatrix}.\)
\(M^{-1} = -\dfrac{1}{25}\begin{pmatrix} 15 & 10 & 4 & -4 \\ 10 & 15 & -4 & 4 \\ 0 & 0 & 15 & 10 \\ 0 & 0 & 10 & 15 \end{pmatrix}.\) Comme \(M^{-1}\) existe, \(\varphi\) est un automorphisme de \(F\).
On cherche une solution \(u\in F\), vérifiant \(\varphi(u) = f_2 + f_3 = v\). Il suffit de prendre \(u = \varphi^{-1}(u)\) pour cela on calcule \(--\dfrac{1}{25}\begin{pmatrix} 15 & 10 & 4 & -4 \\ 10 & 15 & -4 & 4 \\ 0 & 0 & 15 & 10 \\ 0 & 0 & 10 & 15 \end{pmatrix} \begin{pmatrix} 0\\ 1\\ 1\\ 0 \end{pmatrix} = -\dfrac{1}{25} \begin{pmatrix} 14\\ 11\\ 3\\ 2\end{pmatrix}\) D’où \(u = -\dfrac{1}{25} \left( 14\mathop{\mathrm{ch}}x +11\mathop{\mathrm{sh}}x +3 x\mathop{\mathrm{ch}}x +2x\mathop{\mathrm{sh}}x \right)\).
On considère un \(\mathbb{C}\)-espace vectoriel \(E\) de dimension \(3\) et \(f\) un endomorphisme non nul de \(E\). Montrez que \(f^2 = 0\) si et seulement s’il existe une base \(e\) de \(E\) telle que \[\mathop{\mathrm{Mat}}_{e}(f) = \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}\]
Si \(f^2 = 0\), \(\mathop{\mathrm{Im}}f \subset \operatorname{Ker}f\). D’après le théorème du rang, \[\dim \mathop{\mathrm{Im}}f + \dim\operatorname{Ker}f = 3\] Comme \(\dim \mathop{\mathrm{Im}}f \leqslant\dim \operatorname{Ker}f\), il vient que \(3 \leqslant 2 \dim\operatorname{Ker}f\) et donc que \(\dim \operatorname{Ker}f \geqslant 2\). Comme \(f\) n’est pas l’endomorphisme nul, \(\dim \operatorname{Ker}f = 2\) et \(\dim \mathop{\mathrm{Im}}f = 1\). Donc il existe un vecteur \(e_1\in E\) non-nul tel que \(\mathop{\mathrm{Im}}f = \mathop{\mathrm{Vect}}(e_1)\). On complète en une base \((e_1,e_3)\) de \(\operatorname{Ker}f\) que l’on complète ensuite en une base \((e_1,e_2,e_3)\) de \(E\). Comme \(f(e_2)\in \mathop{\mathrm{Im}}f\), il existe \(\lambda \in \mathbb{R}\) tel que \(f(e_2) = \lambda e_1\). Mais \(\lambda\) n’est pas nul (sinon \(f=0\)) ; on pose alors \(\varepsilon_2 = \dfrac{1}{\lambda} e_2\). La matrice de \(f\) dans la base \(e=(e_1,\varepsilon_2,e_3)\) est de la forme souhaitée. La réciproque est évidente.
On considère la matrice \(A=\left(a_{ij}\right)\in\mathfrak{M}_{n+1}\left(\mathbb{R}\right)\) donnée par : \(\forall \left(i,j\right)\llbracket 1,n+1\rrbracket,\quad a_{ij}=\binom{j-1}{i-1}\). On suppose que \(A\) est la matrice d’un endomorphisme \(\theta\in\mathfrak{L}\left(\mathbb{R}_n\left[X\right]\right)\) dans la base canonique \(e=\left(1,X,\dots,X^n\right)\) de \(\mathbb{R}_n\left[X\right]\).
Soit \(P\in\mathbb{R}_n\left[X\right]\). Expliciter \(\theta\left(P\right)\).
En déduire que \(A\) est inversible et calculer \(A^{-1}\).
Calculer \(A^m\) pour tout \(m\in\mathbb{N}\).
Soient \(P=a_0+a_1X+\dots+a_n X^n \in\mathbb{R}_n\left[X\right]\) et \(V=\mathop{\mathrm{Mat}}_e\left(P\right)=\begin{pmatrix}a_0\\\vdots\\a_n \end{pmatrix}\). On a : \[\mathop{\mathrm{Mat}}_e\left(\theta\left(P\right)\right)=AV=\begin{pmatrix} \binom{0}{0}&\binom{1}{0}&\dots&\binom{n}{0}\\ 0 &\binom{1}{1}&\dots&\binom{n}{1}\\ \vdots& \cdots&\ddots&\vdots\\ 0&0&0&\binom{n}{n} \end{pmatrix} \begin{pmatrix}a_0 \\ \\\vdots \\ \\a_n \end{pmatrix}=\begin{pmatrix} \sum_{k=0}^n \binom{k}{0}a_k\\ \sum_{k=1}^n \binom{k}{1}a_k\\ \vdots \\ \binom{n-1}{n-1}a_{n-1}+\binom{n}{n-1}a_n \\ \binom{n}{n}a_n \end{pmatrix}\] et donc \(\theta\left(P\right)=\left(\sum_{k=0}^n \binom{k}{0}a_k\right) + \left(\sum_{k=1}^n \binom{k}{1}a_k\right) X + \dots+\left(\binom{n-1}{n-1}a_{n-1}+\binom{n}{n-1}a_n\right)X^{n-1}+\binom{n}{n}a_nX^n\), ce qui amène, en regroupant par coefficients et en utilisant la formule du binôme : \[\begin{aligned} \theta\left(P\right)&=& a_n\sum_{k=0}^n\binom{n}{k}X^k+ a_{n-1}\sum_{k=0}^{n-1} \binom{n-1}{k}X^k+\dots+a_1\left(X+1\right)+a_0\\ &=& a_n\left(X+1\right)^n+a_{n-1}(X+1)^{n-1}+\dots+a_1(X+1)+a_0\\ &=&P\left(X+1\right)\end{aligned}\] On a alors montré que \(\boxed{\theta\left(P\right)=P\left(X+1\right)}\).
\(\theta\) est un automorphisme de \(\mathbb{R}_{n}\left[X\right]\) et , pour tout \(P\in\mathbb{R}_n\left[X\right]\), \(\theta^{-1}\left(P\right)=P\left(X-1\right)\). On déduit de la question précédente que \(A\) est inversible et que : \(A^{-1}=\mathop{\mathrm{Mat}}_e \left(\theta^{-1}\right)=\left(b_{ij}\right)\) avec pour tout \(i,j\in\llbracket 0,n\rrbracket\), \(\boxed{b_{ij}=\left(-1\right)^{j-i}\binom{j-1}{i-1}}\)
De la même façon que précédemment, \(A^m=\mathop{\mathrm{Mat}}_e\left(\theta^m\right)\) et, pour tout \(P\in\mathbb{R}_n\left[X\right]\), \(\theta^m\left(P\right)=P\left(X+m\right)\) donc \(A^m=\left(c_{ij}\right)\) avec pour tout \(i,j\in\llbracket 0,n\rrbracket\), \(\boxed{c_{ij}=m^{j-i}\binom{j-1}{i-1}}\).
Soit \(A \in \mathfrak{M}_{2}(\mathbb{\mathbb{R} })\). On définit l’application \[f_A : \left\{ \begin{array}{ccl} \mathfrak{M}_{2}(\mathbb{\mathbb{R} }) & \longrightarrow & \mathfrak{M}_{2}(\mathbb{\mathbb{R} }) \\ X & \longmapsto & AX \end{array} \right.\]
Vérifier que \(f_A\) est un endomorphisme de \(\mathfrak{M}_{2}(\mathbb{\mathbb{R} })\), et déterminer sa matrice dans la base canonique de \(\mathfrak{M}_{2}(\mathbb{\mathbb{R} })\).
Comparer \(\mathop{\mathrm{rg}}f_A\) et \(\mathop{\mathrm{rg}}u_A\) où \(u_A\) est l’unique endomorphisme de matrice \(A\) dans la base canonique de \(\mathbb{R}^{2}\).
Si \(A = \begin{pmatrix} a&b\\c&d\end{pmatrix}\), on trouve \(M = \begin{pmatrix} a&0&b&0\\ 0&a&0&b\\ c&0&d&0\\ 0&c&0&d \end{pmatrix}\).
En général on a \(\mathop{\mathrm{rg}}f_A = 2\mathop{\mathrm{rg}}u_A\). Si \(A\) est inversible, alors \(f_A\) est inversible, et \(f_A^{-1}\) est définie par
Soit \(A\in {\mathfrak M}_{n}(\mathbb R)\) définie par \(a_{ij}= (-1)^{i}. \left(\begin{array}{c} n-j-1 \newline i\end{array}\right) (0\leqslant i,j\leqslant n-1)\).
Démontrer que \(A^{3}= (-1)^{n-1}I_{n}\).
En déduire que \[\sum^{n-1}_{k=0} \sum^{n-1}_{\ell=0} (-1)^{i+k+\ell}\left(\begin{array}{c} n-k-1 \\ i\end{array}\right) \left(\begin{array}{c} n-\ell-1 \\ j\end{array}\right) \left(\begin{array}{c} n-j-1 \\ \ell \end{array}\right) = (-1)^{n-1}\delta _{ij}\] pour tout \((n,i,j)\in (\mathbb N^{*})^{3}\), \(i,j \leqslant n\).
Remarquons que \(L\) est bien linéaire, et que \(L(X^k) = (1-X)^{n-1}.\dfrac{1}{(1-X)^k} = (1-X)^{n-k-1} \in \mathbb{R}_{n-1} \left[X\right]\). \(L\) est donc bien un endomorphisme. \(L^2(X^k) = (1-X)^{n-1} \left( 1 - \dfrac{1}{1-X}\right) ^{n-k-1} = (1-X)^{n-1} \left( \dfrac{-X}{1-X}\right)^{n-k-1} = (-X)^{n-k-1}(1-X)^k\).
Le calcul de \(B = A^3\) s’obtient par