Orthogonal d'un sous-espace
Bonjour,
Je commence le sujet CCP MP 2021 mathématiques 2 sur la décomposition de Dunford. Je ne compte pas ouvrir de corrigé.
Pour la question $1$, j'ai écrit :
$\boxed{D_n(\R)^{\perp} = \{ A \in M_n(\R) \ \ \forall B \in D_n(\R) \ \ <A,B>=0 \} }$
Soit $A=(a_{ij})_{1 \leq i,j \leq n} \in M_n(\R)$ et $B=(b_{ij})_{1 \leq i,j \leq n} \in D_n(\R)$
On a cherche les coefficients $a_{ij}$ de sorte que $Tr(A^T =0$.
On a pour tous $(u,v) \in [|1,n|]^2$ : $[A^T B]_{uv} = \displaystyle\sum_{k=1}^n a_{ku} b_{kv} = a_{vu} b_{vv}$ car $B$ est diagonale.
Ainsi $[A^T B]_{uu} = a_{uu} b_{uu}$
Ainsi, $\boxed{<A,B>= \displaystyle\sum_{u=1}^n a_{uu} b_{uu} =0}$
Je bloque ici pour trouver une condition sur la matrice $A$...
Je commence le sujet CCP MP 2021 mathématiques 2 sur la décomposition de Dunford. Je ne compte pas ouvrir de corrigé.
Pour la question $1$, j'ai écrit :
$\boxed{D_n(\R)^{\perp} = \{ A \in M_n(\R) \ \ \forall B \in D_n(\R) \ \ <A,B>=0 \} }$
Soit $A=(a_{ij})_{1 \leq i,j \leq n} \in M_n(\R)$ et $B=(b_{ij})_{1 \leq i,j \leq n} \in D_n(\R)$
On a cherche les coefficients $a_{ij}$ de sorte que $Tr(A^T =0$.
On a pour tous $(u,v) \in [|1,n|]^2$ : $[A^T B]_{uv} = \displaystyle\sum_{k=1}^n a_{ku} b_{kv} = a_{vu} b_{vv}$ car $B$ est diagonale.
Ainsi $[A^T B]_{uu} = a_{uu} b_{uu}$
Ainsi, $\boxed{<A,B>= \displaystyle\sum_{u=1}^n a_{uu} b_{uu} =0}$
Je bloque ici pour trouver une condition sur la matrice $A$...
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
N'oublie pas que ta dernière égalité doit être valable pour ...
C'est quand même évident, tu devrais pouvoir répondre sans aucun calcul supplémentaire.
Cordialement,
Rescassol
Ceci est valable pour toute matrice $B$.
Fixons $i \in [|1,n|]$.
Si je prends la matrice $B$ diagonale avec des zéros partout sauf en i-ème position on prend un $1$, j'obtiens $a_{ii} =0$
Ainsi, on a montré que $\forall i \in [|1,n|] \ \ a_{ii}=0$
Ainsi, $D_n(\R)^{\perp} \subset \{ \text{ensemble des matrices à diagonale nulle} \}$ (Je ne sais pas s'il y a équivalence lors du raisonnement :-S)
Réciproquement, soit $A \in \{ \text{ensemble des matrices à diagonale nulle} \}$ et $B \in D_n(\R)$. Montrons que $<A,B>=0$
D'après l'expression de $<A,B>$ calculée précédemment, on directement $<A,B>=0$
On a montré $\boxed{D_n(\R)^{\perp} = \{ \text{ensemble des matrices à diagonale nulle} \} }$
La suite a l'air plus facile que cette question.
C'est quoi le produit scalaire canonique de $\R^{n^2}$ ?
Il disent qu'on peut raisonner par équivalence en utilisant une base de l'ensemble des matrices diagonales...
Une base de ces matrices est la famille $(E_{ii})_{1 \leq i \leq n}$. Je tente cette méthode.
$A \in D_n(\R)^{\perp}$ si et seulement si pour tous $(\lambda_1, \cdots, \lambda_n) \in \R^n$ tel que $<A,\displaystyle\sum_{k=1}^n \lambda_k E_{kk}> =0$
Par linéarité du produit scalaire $<A,\displaystyle\sum_{k=1}^n \lambda_k E_{kk}>=\displaystyle\sum_{k=1}^n \lambda_k <A,E_{kk} >$
Mais $[A,E_{kk}]_{uv} = \displaystyle\sum_{p=1}^n a_{pu} \delta_{kp} \delta_{kv} = a_{ku} \delta_{kv}$
Ainsi $[A,E_{kk}]_{uu}= a_{ku} \delta_{ku}$ et donc $<A,\displaystyle\sum_{k=1}^n \lambda_k E_{kk}> = \displaystyle\sum_{k=1}^n \lambda_k a_{kk}$
Ainsi, $A \in D_n(\R)^{\perp}$ si et seulement si $\forall \ \ (\lambda_1, \cdots, \lambda_n) \in \R^n \ \ \displaystyle\sum_{k=1}^n \lambda_k a_{kk}=0$ si et seulement si $\forall k \in [|1,n|] \ a_{kk}=0$
J'espère que mon raisonnement est correct, je n'ai pas l'habitude de raisonner par équivalence.
Il est clair que $\{(a_{ij})\mid\forall i\;a_{ii}=0\}\subset (D_n(\R))^\perp$ et ces deux espaces vectoriels ont la même dimension $n^2-n$.
La lecture du cours, encore une fois, est ce qui te bloque ici...
Bien vu en effet, mais ça m'a fait travailler le calcul matriciel que je commence à bien maitriser à force de calculer avec les matrices élémentaires.
Il y a quelques mois je ne savais pas calculer le produit $A E_{ij}$ !
@Homo Topi
Sur $\R^n$ on a $<x,y>= x_1 y_1 + \cdots +x_n y_n$
Je ne comprends pas le rapport avec le produit scalaire matriciel :-S
Pourquoi c'est le même ?
OShine : prends deux matrices $A$ et $B$, de taille $2$, avec des coefficients $a_{i,j}$ et $b_{i,j}$, puis calcule la trace de ${}^t A B$. Ensuite, essaie d'écrire ce que tu vas obtenir comme le produit scalaire "usuel" de deux vecteurs.
Cela me semble plus sain que de le laisse buter sur une question le temps de gratter mettons cinq pages dont quatre de moqueries ou d'insultes.
Je ne comprends pas $\sum a_{uu}b_{uu} =0$ pour tout $b_{uu},u=1...,n$
Donc $a_{uu}=0, u=1,...,n$
C'est évident. On ne regarde pas son corrigé, ni le rapport du Jury.
On passe à la suite. Sinon il te faudra le 1/3 temps thérapeutique ou même plus.
Je l'ai déjà expliqué plus haut, je prends $B=diag(0, \cdots, 0,1,0 \cdots, 0)$ avec un $1$ en ième position et je montre que $a_{ii}=0$.
Gai Requin je n'ai pas compris.
Je n'ai jamais étudié le produit scalaire canonique de $\R^{n^2}$ c'est quoi ce produit scalaire ? Je ne comprends pas non plus de quel isomorphisme tu parles :-S
Homo Topi je sais calculer ce produit scalaire mais je ne sais pas c'est quoi le produit scalaire canonique de $\R^{n^2}$
L'isomorphisme canonique $M_n(\R)\to \R^{n^2}$ envoie $\sum a_{ij}E_{ij}$ sur $(a_{11},\ldots,a_{nn})$.
C'est quoi le rapport entre l'isomorphisme canonique et la fait d'avoir un produit scalaire analogue ?
Bd2017 si mais je ne comprends pas le produit scalaire sur $\R^{n^2}$ pourquoi il est analogue à celui sur $M_n(\R)$.
C'est quoi le produit scalaire de $M_n(\R)$ que tu évoques? Et surtout qu'est ce que tu entends par "analogue" ?
D'autre par que vient faire toutes ces discussions, le rapport du Jury , .... alors qu'ici il s'agit d'une simple question qui par ailleurs est résolue...
J'aimerais bien la comprendre ça m'intéresse.
Mais $<A,B>=\mathrm{trace}({}^t A.B)=\sum\limits_{(i,j)}a_{ij}b_{ij}$ donc le produit scalaire de $A$ et $B$ vus comme éléments de $\R^{n^2}$ est le produit scalaire usuel "produit des abscisses $+$ produit des ordonnées $+\cdots$".
Bon un exemple avec $n=2$ car je sens qu'avec $n=1$ tu as du mal OShine :
Si $A=\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}$ et $B=\begin{pmatrix}
e & f \\
g & h
\end{pmatrix}$
alors le produit scalaire canonique de $A$ et $B$ est $ae+bf+cg+dh$ (on multiplie les coefficients qui se trouvent à la même place).
Tu peux vérifier qu'en calculant $Tr(A^T $ tu obtiens la même chose. Tu peux le démontrer également, ça ne devrait pas te poser de problèmes.
Je connais le produit scalaire canonique usuel mais je n'ai jamais lu un document qui expliquait le lien entre le produit scalaire sur $\R^{n^2}$ et celui utilisé dans l'espace des matrices.
Ce qu'a expliqué Raoul.S sur multiplier les coefficients à la même place dans les matrices je n'ai jamais entendu parler de ça. Mais son exemple pour $n=2$ m'a permis de comprendre.
Application pratique : comment penses-tu que les matrices sont représentées dans la mémoire d'un ordinateur ? On prends les colonnes (ou les lignes) de la matrice et on les met les une apres les autres de façon continue. Ie comme un élément de Rn2.
Homo Topi c'est expliqué uniquement avec les matrices colonnes.
Parmi tous les $\R^k$, on s'intéresse à certains cas, on s'intéresse à $\R^4,\ \R^9,\ \R^{16},\ \R^{25},\ \R^{n^2}$.
On ne s'intéresse pas à tous les $\R^k$ mais uniquement à ceux tels que $k$ soit un carré.
Ok, et alors ?
Ca interdit d'utiliser les outils valables pour tous les $\R^k$ ?
Le "produit scalaire canonique" est celui que tu as découvert au lycée, ça devrait être évident que le produit scalaire canonique est le plus simple qu'on puisse écrire.
Et puisque tu n'as pas envie de réfléchir, je vais le faire à ta place, histoire de te montrer qu'il ne fallait que 7 neurones actifs pour comprendre.
Si $A = \begin{pmatrix} a_{1,1} & a_{1,2} \\ a_{2,1} & a_{2,2} \end{pmatrix}$ et $B = \begin{pmatrix} b_{1,1} & b_{1,2} \\ b_{2,1} & b_{2,2} \end{pmatrix}$, alors ${}^tA B = \begin{pmatrix} a_{1,1}b_{1,1} + a_{2,1}b_{2,1} & \ast \\ \ast & a_{2,2}b_{2,2} + a_{1,2}b_{1,2}\end{pmatrix}$.
Je ne calcule pas les autres coefficients puisque je m'intéresse à la trace : $\text{tr}({}^tAB) = a_{1,1}b_{1,1} + a_{2,1}b_{2,1} + a_{2,2}b_{2,2} + a_{1,2}b_{1,2}$.
Si tu ne vois pas de quels vecteurs de $\R^{2^2}$ ce truc-là est le produit scalaire...