Orthogonal d'un sous-espace — Les-mathematiques.net The most powerful custom community solution in the world

Orthogonal d'un sous-espace

Bonjour,

Je commence le sujet CCP MP 2021 mathématiques 2 sur la décomposition de Dunford. Je ne compte pas ouvrir de corrigé.

Pour la question $1$, j'ai écrit :

$\boxed{D_n(\R)^{\perp} = \{ A \in M_n(\R) \ \ \forall B \in D_n(\R) \ \ <A,B>=0 \} }$

Soit $A=(a_{ij})_{1 \leq i,j \leq n} \in M_n(\R)$ et $B=(b_{ij})_{1 \leq i,j \leq n} \in D_n(\R)$

On a cherche les coefficients $a_{ij}$ de sorte que $Tr(A^T B)=0$.

On a pour tous $(u,v) \in [|1,n|]^2$ : $[A^T B]_{uv} = \displaystyle\sum_{k=1}^n a_{ku} b_{kv} = a_{vu} b_{vv}$ car $B$ est diagonale.

Ainsi $[A^T B]_{uu} = a_{uu} b_{uu}$

Ainsi, $\boxed{<A,B>= \displaystyle\sum_{u=1}^n a_{uu} b_{uu} =0}$

Je bloque ici pour trouver une condition sur la matrice $A$...127948

Réponses

  • Essaie avec n=2, c'est vraiment pas sorcier
  • Bonjour,

    N'oublie pas que ta dernière égalité doit être valable pour ...
  • Bonjour,

    C'est quand même évident, tu devrais pouvoir répondre sans aucun calcul supplémentaire.

    Cordialement,

    Rescassol
  • D'accord merci.

    Ceci est valable pour toute matrice $B$.

    Fixons $i \in [|1,n|]$.
    Si je prends la matrice $B$ diagonale avec des zéros partout sauf en i-ème position on prend un $1$, j'obtiens $a_{ii} =0$

    Ainsi, on a montré que $\forall i \in [|1,n|] \ \ a_{ii}=0$

    Ainsi, $D_n(\R)^{\perp} \subset \{ \text{ensemble des matrices à diagonale nulle} \}$ (Je ne sais pas s'il y a équivalence lors du raisonnement :-S)

    Réciproquement, soit $A \in \{ \text{ensemble des matrices à diagonale nulle} \}$ et $B \in D_n(\R)$. Montrons que $<A,B>=0$

    D'après l'expression de $<A,B>$ calculée précédemment, on directement $<A,B>=0$

    On a montré $\boxed{D_n(\R)^{\perp} = \{ \text{ensemble des matrices à diagonale nulle} \} }$
  • Mais quel intérêt de faire un sujet ou tu bloques à la première question?
  • Le jury dit que la première question n'a pas été réussi par les candidats.

    La suite a l'air plus facile que cette question.
  • Oshine, 2h de colle. Tu recopieras 500 fois sur une feuille. "J'arrête de parler du rapport du jury jusqu'à nouvel ordre"
  • Noobey j'aimerais bien mais j'ai une question sur ce dernier. Il donne des informations qui peuvent être utiles sur les différentes méthodes à utiliser.

    C'est quoi le produit scalaire canonique de $\R^{n^2}$ ?

    Il disent qu'on peut raisonner par équivalence en utilisant une base de l'ensemble des matrices diagonales...

    Une base de ces matrices est la famille $(E_{ii})_{1 \leq i \leq n}$. Je tente cette méthode.

    $A \in D_n(\R)^{\perp}$ si et seulement si pour tous $(\lambda_1, \cdots, \lambda_n) \in \R^n$ tel que $<A,\displaystyle\sum_{k=1}^n \lambda_k E_{kk}> =0$

    Par linéarité du produit scalaire $<A,\displaystyle\sum_{k=1}^n \lambda_k E_{kk}>=\displaystyle\sum_{k=1}^n \lambda_k <A,E_{kk} >$

    Mais $[A,E_{kk}]_{uv} = \displaystyle\sum_{p=1}^n a_{pu} \delta_{kp} \delta_{kv} = a_{ku} \delta_{kv}$

    Ainsi $[A,E_{kk}]_{uu}= a_{ku} \delta_{ku}$ et donc $<A,\displaystyle\sum_{k=1}^n \lambda_k E_{kk}> = \displaystyle\sum_{k=1}^n \lambda_k a_{kk}$

    Ainsi, $A \in D_n(\R)^{\perp}$ si et seulement si $\forall \ \ (\lambda_1, \cdots, \lambda_n) \in \R^n \ \ \displaystyle\sum_{k=1}^n \lambda_k a_{kk}=0$ si et seulement si $\forall k \in [|1,n|] \ a_{kk}=0$

    J'espère que mon raisonnement est correct, je n'ai pas l'habitude de raisonner par équivalence.127960
    1.png 94.8K
  • On peut éviter de raisonner par équivalence.
    Il est clair que $\{(a_{ij})\mid\forall i\;a_{ii}=0\}\subset (D_n(\R))^\perp$ et ces deux espaces vectoriels ont la même dimension $n^2-n$.
  • Le produit scalaire canonique sur un espace euclidien se trouve dans n'importe quel cours sur le produit scalaire.

    La lecture du cours, encore une fois, est ce qui te bloque ici...
  • @Gai Requin
    Bien vu en effet, mais ça m'a fait travailler le calcul matriciel que je commence à bien maitriser à force de calculer avec les matrices élémentaires.

    Il y a quelques mois je ne savais pas calculer le produit $A E_{ij}$ !

    @Homo Topi
    Sur $\R^n$ on a $<x,y>= x_1 y_1 + \cdots +x_n y_n$

    Je ne comprends pas le rapport avec le produit scalaire matriciel :-S

    Pourquoi c'est le même ?
  • C'est parce que j'ai trouvé $<A,B>= \displaystyle\sum_{u=1}^n a_{uu} b_{uu}$ et que ça ressemble au $<x,y>=\displaystyle\sum_{k=1}^n x_k y_k$ sur $\R^n \times \R^n$ c'est ça ?
  • Non, pour $A,B$ quelconques, $<A,B>=\sum\limits_{(i,j)}a_{ij}b_{ij}$, ce qui correspond au produit scalaire usuel sur $\R^{n^2}$, après avoir identifié ce dernier avec $M_n(\R)$ via l'isomorphisme canonique $M_n(\R)\to \R^{n^2}$.
  • gai requin, je ne veux pas te dire comment te comporter sur le forum, mais c'est peut-être mieux pour lui si tu ne lui donnes pas tout.

    OShine : prends deux matrices $A$ et $B$, de taille $2$, avec des coefficients $a_{i,j}$ et $b_{i,j}$, puis calcule la trace de ${}^t A B$. Ensuite, essaie d'écrire ce que tu vas obtenir comme le produit scalaire "usuel" de deux vecteurs.
  • Homo Topi,
    Cela me semble plus sain que de le laisse buter sur une question le temps de gratter mettons cinq pages dont quatre de moqueries ou d'insultes.
  • ??
    Je ne comprends pas $\sum a_{uu}b_{uu} =0$ pour tout $b_{uu},u=1...,n$
    Donc $a_{uu}=0, u=1,...,n$

    C'est évident. On ne regarde pas son corrigé, ni le rapport du Jury.

    On passe à la suite. Sinon il te faudra le 1/3 temps thérapeutique ou même plus.
  • @Bd2017
    Je l'ai déjà expliqué plus haut, je prends $B=diag(0, \cdots, 0,1,0 \cdots, 0)$ avec un $1$ en ième position et je montre que $a_{ii}=0$.

    Gai Requin je n'ai pas compris.

    Je n'ai jamais étudié le produit scalaire canonique de $\R^{n^2}$ c'est quoi ce produit scalaire ? Je ne comprends pas non plus de quel isomorphisme tu parles :-S

    Homo Topi je sais calculer ce produit scalaire mais je ne sais pas c'est quoi le produit scalaire canonique de $\R^{n^2}$
  • Produit scalaire usuel $=$ produit des abscisses $+$ produit des ordonnées $+\cdots$
    L'isomorphisme canonique $M_n(\R)\to \R^{n^2}$ envoie $\sum a_{ij}E_{ij}$ sur $(a_{11},\ldots,a_{nn})$.
  • Je ne trouve pas sur internet ni dans mon livre c'est quoi le produit scalaire canonique sur $\R^{n^2}$
  • Mais $(a_{11}, \cdots, a_{nn})$ n'appartient pas à $\R^{n^2}$ ? Je n'ai rien compris à ce $\R^{n^2}$ et son produit scalaire :-S
  • $(a_{11}, \cdots, a_{nn})$ a combien de coordonnées réelles ?
  • Tu ne vas tout de même pas dire que tu ne sais pas ce qu'est le produit scalaire canonique sur $\R^p $ !
  • Il y a $n^2$ éléments dans $(a_{11}, \cdots, a_{nn})$. C'est un isomorphisme car le noyau est réduit à $\{0 \}$. Mais je ne vois pas le lien avec le produit scalaire.

    C'est quoi le rapport entre l'isomorphisme canonique et la fait d'avoir un produit scalaire analogue ?

    Bd2017 si mais je ne comprends pas le produit scalaire sur $\R^{n^2}$ pourquoi il est analogue à celui sur $M_n(\R)$.
  • Je ne vais pas lire tous les messages, ce n'est pas mon travail.
    C'est quoi le produit scalaire de $M_n(\R)$ que tu évoques? Et surtout qu'est ce que tu entends par "analogue" ?

    D'autre par que vient faire toutes ces discussions, le rapport du Jury , .... alors qu'ici il s'agit d'une simple question qui par ailleurs est résolue...
  • Le rapport du jury dit que le produit scalaire défini par $Tr(A^T B)$ est le "même" que le le produit scalaire canonique de $\R^{n^2}$ et je ne comprends pas cette remarque.

    J'aimerais bien la comprendre ça m'intéresse.
  • @OS : Grâce à cet isomorphisme, tu peux coder $A\in\mathrm{M}_n(\R)$ en $(a_{11}, \cdots, a_{nn})\in\R^{n^2}$.
    Mais $<A,B>=\mathrm{trace}({}^t A.B)=\sum\limits_{(i,j)}a_{ij}b_{ij}$ donc le produit scalaire de $A$ et $B$ vus comme éléments de $\R^{n^2}$ est le produit scalaire usuel "produit des abscisses $+$ produit des ordonnées $+\cdots$".
  • Exemple concret : si tu prends deux matrices $A,B$ de $\mathrm{M}_1(\R)$ par exemple, alors leur produit scalaire canonique est $AB$. On vérifie immédiatement que $Tr(A^T B)$ donne la même chose B-)-

    Bon un exemple avec $n=2$ car je sens qu'avec $n=1$ tu as du mal OShine :

    Si $A=\begin{pmatrix}
    a & b \\
    c & d
    \end{pmatrix}$ et $B=\begin{pmatrix}
    e & f \\
    g & h
    \end{pmatrix}$

    alors le produit scalaire canonique de $A$ et $B$ est $ae+bf+cg+dh$ (on multiplie les coefficients qui se trouvent à la même place).

    Tu peux vérifier qu'en calculant $Tr(A^T B)$ tu obtiens la même chose. Tu peux le démontrer également, ça ne devrait pas te poser de problèmes.
  • Ah d'accord merci.
  • Homo Topi ce n'est pas expliqué dans ton lien, je l'ai déjà lu je ne vois rien qui explique sur quoi je bloquais.
  • Si, le produit scalaire canonique est expliqué dans le lien que j'ai envoyé. Sinon, je ne l'aurais pas envoyé !
  • Non ils n'expliquent pas l'analogie entre $\R^{n^2}$ et l'espace des matrices.

    Je connais le produit scalaire canonique usuel mais je n'ai jamais lu un document qui expliquait le lien entre le produit scalaire sur $\R^{n^2}$ et celui utilisé dans l'espace des matrices.

    Ce qu'a expliqué Raoul.S sur multiplier les coefficients à la même place dans les matrices je n'ai jamais entendu parler de ça. Mais son exemple pour $n=2$ m'a permis de comprendre.
  • @ OShine : une matrice nxn c'est une famille de n2 scalaires. Ensuite on peut les représenter en tableau nxn (la matrice) ou comme vecteur de n2 coefficients (ie un élément de Rn2)


    Application pratique : comment penses-tu que les matrices sont représentées dans la mémoire d'un ordinateur ? On prends les colonnes (ou les lignes) de la matrice et on les met les une apres les autres de façon continue. Ie comme un élément de Rn2.
  • Serge_S d'accord merci.

    Homo Topi c'est expliqué uniquement avec les matrices colonnes.
  • On a des règles qui existent sur $\R^k$ , pour tout $k$ entier.
    Parmi tous les $\R^k$, on s'intéresse à certains cas, on s'intéresse à $\R^4,\ \R^9,\ \R^{16},\ \R^{25},\ \R^{n^2}$.
    On ne s'intéresse pas à tous les $\R^k$ mais uniquement à ceux tels que $k$ soit un carré.
    Ok, et alors ?
    Ca interdit d'utiliser les outils valables pour tous les $\R^k$ ?
    Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
  • Un cours, ou un article Wikipédia, ne dispense pas de réfléchir.

    Le "produit scalaire canonique" est celui que tu as découvert au lycée, ça devrait être évident que le produit scalaire canonique est le plus simple qu'on puisse écrire.

    Et puisque tu n'as pas envie de réfléchir, je vais le faire à ta place, histoire de te montrer qu'il ne fallait que 7 neurones actifs pour comprendre.

    Si $A = \begin{pmatrix} a_{1,1} & a_{1,2} \\ a_{2,1} & a_{2,2} \end{pmatrix}$ et $B = \begin{pmatrix} b_{1,1} & b_{1,2} \\ b_{2,1} & b_{2,2} \end{pmatrix}$, alors ${}^tA B = \begin{pmatrix} a_{1,1}b_{1,1} + a_{2,1}b_{2,1} & \ast \\ \ast & a_{2,2}b_{2,2} + a_{1,2}b_{1,2}\end{pmatrix}$.

    Je ne calcule pas les autres coefficients puisque je m'intéresse à la trace : $\text{tr}({}^tAB) = a_{1,1}b_{1,1} + a_{2,1}b_{2,1} + a_{2,2}b_{2,2} + a_{1,2}b_{1,2}$.

    Si tu ne vois pas de quels vecteurs de $\R^{2^2}$ ce truc-là est le produit scalaire...
  • Si ce sont les vecteurs $(a_{11},a_{21},a_{22},a_{12})$ et $(b_{11},b_{21},b_{22},b_{12})$
  • Et tu étais vraiment incapable de faire le raisonnement tout seul ?
Connectez-vous ou Inscrivez-vous pour répondre.
Success message!