Petite énigme printanière

john_john
Modifié (25 Mar) dans Algèbre
On donne deux entiers $r$ et $n$, où $1\leqslant r\leqslant n-1$, et une matrice $M\in{\mathfrak{M}}_n(\R)$, de rang $r$ ; on décrit alors $M$ par blocs : $M=\begin{pmatrix}A&B\\C&D\end{pmatrix}$, où $A\in{\mathfrak{M}}_r(\R)$. Existe-t-il une suite $k\in\N\longmapsto M_k=\begin{pmatrix}A_k&B_k\\C_k&D_k\end{pmatrix}$ de matrices de même format, de même rang $r$, de limite $M$ et telles que $A_k$ soit inversible pour tout entier $k$ ?

Réponses

  • JLT
    JLT
    Modifié (25 Mar)
    Si $(e_1,\ldots,e_r)$ est une base d'un $\R$-espace vectoriel $F$ de dimension $r$ et $(f_1,\ldots,f_r)$ est une famille quelconque de $F$, alors l'ensemble des $t\in\R$ tels que $(te_i+f_i)$ est une base, est le complémentaire d'une partie finie de $\R$. Cela vient du fait que le polynôme caractéristique de la matrice de $(f_i)$ dans la base $(e_i)$ a un nombre fini de racines.
    En prenant pour $F$ l'image de $M$, $(e_i)$ une base de $F$ et $(f_i)$ les $r$ premières colonnes de $M$, avec $t$ tendant vers $0$, on peut approcher $M$ par une suite de matrices de rang $r$ dont la sous-matrice formée par les $r$ premières colonnes est inversible. On se ramène ainsi au cas où $\begin{pmatrix} A\\C\end{pmatrix}$ est de rang $r$.
    Soient $i_1<\cdots <i_r$ tels que les lignes d'indices $i_1,\dots,i_r$ de cette dernière matrice forment une base de l'espace de ses lignes. Notons $L_i$ la ligne $i$ de $M$. Soit $M_t$ la matrice obtenue à partir de $M$ en remplaçant $L_k$ par $L_k+t L_{i_k}$. Celle-ci reste de rang $r$, et le bloc en haut à gauche est inversible pour $t$ assez petit.
  • john_john
    Modifié (25 Mar)
    Bravo, JLT ! Ma solution est tellement proche que je juge inutile de la poster (en fait, la seule différence est que je choisis une base de l'espace des colonnes de $^t\!(A\,C)$ et que je ne combine linéairement que les autres colonnes de cette matrice, grâce à une base des colonnes de $^t\!(B\,D)$ ; ensuite, opération analogue sur les lignes).
    Par exemple, avec $n=3,r=1$, alors $M=\begin{pmatrix}0&0&0\\0&0&0\\0&0&1\end{pmatrix}$ devient successivement $M'=\begin{pmatrix}0&0&0\\0&0&0\\t&0&1\end{pmatrix},\ $ puis $M''=\begin{pmatrix}t^2&0&t\\0&0&0\\t&0&1\end{pmatrix}$. L'inversibilité est acquise pour tout $t\neq0$ ; d'ailleurs, à la place de $t$, je prenais une suite de réels non nuls et de limite nulle.
  • J'ai un peu cherché une solution autour du complément de Schur (la contrainte $D_k = C_k A_k^{-1} B_k$ est assez forte...) mais sans succès (pour l'instant).
  • JLT
    JLT
    Modifié (25 Mar)
    Sinon voici une autre solution. Soit $f:M_n(\R)\times M_n(\R)\to \R$ définie par $f(P,Q)=\mathrm{det} \left[ (PMQ)_{i,j}\right]_{1\leqslant i,j\leqslant r}$. C'est une application polynomiale, et il existe $(P,Q)$ tel que $f(P,Q)=1$ donc $f$ est non nulle. Par conséquent l'ensemble de ses zéros est d'intérieur vide, et ainsi il existe une suite $(P_k,Q_k)$ tendant vers $(I,I)$ telle que $f(P_k,Q_k)\ne 0$ pour tout $k$. Il suffit de poser $M_k=P_kMQ_k$.

  • Ah oui : très joli !! L'existence de $(P,\,Q)$ est justifiée par le fait que $M$ est équivalente à la réduite canonique de rang $r$. 

    Voilà l'argument de type densité algébrique que j'espérais :)
  • La méthode numéro 2 de JLT me donne l'idée de corser la difficulté : les blocs $A_k$ doivent toujours être de rang $r$ mais les matrices $M_k$ doivent
    être semblables à $M$, ou bien être congruentes à $M$ lorsque $M$ est symétrique, ou bien encore être orthogonalement semblables à $M$ lorsque $M$ est symétrique.


    (Trois défis printaniers en tout, donc)
  • JLT
    JLT
    Modifié (26 Mar)
    Je réponds à la première énigme supplémentaire, les autres étant analogues mais plus faciles.

    Lemme. Soit $f:M_n(\R)\to \R$ définie par $f(P)=\mathrm{det}([\mathrm{Com}(P)^TMP]_{1\leqslant i,j\leqslant r})$. Alors $f$ est une fonction polynomiale non nulle.

    Démonstration du lemme. Il suffit de montrer que $M$ vérifie la propriété suivante :
     (*) Il existe $P\in GL_n(\C)$ tel que $[P^{-1}MP]_{1\leqslant i,j\leqslant\mathrm{rg}(M)}$ soit inversible.
    Si $A$ et $B$ sont deux matrices vérifiant (*), il est clair que la matrice diagonale par blocs $\mathrm{diag}(A,B)$ vérifie également (*). On se ramène ainsi au cas où $M$ est une matrice de Jordan $J_n(\lambda)$. Si $\lambda\ne 0$ l'assertion est claire. Si $\lambda=0$, la matrice de passage $P$ entre la base canonique et la base $(e_2,e_3,\ldots,e_n,e_1-e_n)$ convient.

    Revenons à l'énigme. Soit $g(P)=f(P)\mathrm{det}(P)$. Comme $g$ est le produit de deux polynômes non nuls à plusieurs variables, il est un polynôme non nul, donc l'ensemble de ses zéros est d'intérieur vide. Il existe donc une suite $(P_k)$ de matrices tendant vers $I$ telles que $g(P_k)\ne 0$ pour tout $k$. Alors la suite de matrices $P_k^{-1}MP_k$ convient.
  • Effectivement, c'est dans le premier cas que la recherche de $P$ est la plus acrobatique ! Cela dit, comment parviens-tu à conclure ensuite dans le troisième cas, sachant que le groupe orthogonal est d'intérieur vide (et n'est pas non plus algébriquement dense) ? J'ai dû, pour ma part, adapter sensiblement ton principe.
  • Ah oui c'est vrai. On peut montrer que si f est une fonction polynomiale sur $M_n(\R)$ et s'il existe $P\in SO(n)$ tel que $f(P)\ne 0$ alors $f$ ne s'annule pas sur un voisinage de $I$ dans $SO(n)$. En effet $P$ est l'exponentielle d'une matrice antisymétrique $A$, et la fonction $g(t)=f(e^{tA})$ est analytique non nulle donc ne peut s'annuler sur un voisinage de $0$.
  • Exactement ! J'avais procédé à peu près de la même façon : il existe une matrice $P\in{\rm SO}_n(\R)$ telle que $P^{-1}MP$ soit diagonale par blocs de la forme ${\rm Diag}(M_1,0)$ avec $M_1$ de rang $r$, car l'image et le noyau sont en somme directe orthogonale ; ensuite, je conclus comme toi.
    Le principe s'applique aussi si l'image et le noyau sont simplement en somme directe, même non orthogonale (l'essentiel est que l'induit sur l'image soit inversible).
    Amicalement, j__j
Connectez-vous ou Inscrivez-vous pour répondre.