Critère de nilpotence

J'approche de la fin de mon combat contre les résultats fondamentaux manquant dans mon bouquin sur les algèbres de Lie.
J'ai besoin du critère de nilpotence énoncé ici. Je vais le réécrire dans une forme un peu plus lisible que leur paragraphe indigeste, ce qui m'intéresse est surtout la rédaction de leur démonstration, qui me dérange (je trouve ça mal rédigé).
On veut donc démontrer le résultat suivant :
Soient
- $k$ un corps algébriquement clos et de caractéristique nulle
- $V$ un $k$-espace vectoriel de dimension finie
- $x \in \mathscr{L}(V)$ tel que $x=s+n$ est la décomposition de Jordan-Chevalley de $x$ : $s$ est semi-simple (donc ici, diagonalisable), $n$ est nilpotent, et ils commutent
- $(\lambda_1...,\lambda_d)$ les valeurs propres de $s$, $m_i$ la multiplicité de $\lambda_i$ et $V_i$ l'espace propre associé à $\lambda_i$, de sorte que $V = \displaystyle \bigoplus V_i$
- $E = \mathscr{L}_{\mathbb{Q}}(k)$, l'ensemble des applications $\mathbb{Q}$-linéaires $k \longrightarrow k$
- Pour tout $\varphi \in E$, on note $\varphi(s) \in \mathscr{L}(V)$ l'endomorphisme tel que $\varphi(s) : V_i \longrightarrow V_i$ soit $[v \longmapsto \varphi(\lambda_i)v]$ pour tout $i$
Proposition : $x$ est nilpotent (c'est-à-dire $s=0$) si, et seulement si, pour tout $\varphi \in E$ : $\text{Tr}(x \circ \varphi(s))=0$.

Premier point : est-ce que $x=s+n$ est effectivement nilpotent si, et seulement si, $s=0$ ? Bon, le sens réciproque est clair, mais, si $(s+n)^N=0$, a-t-on forcément $s=0$ ? Je ne trouve pas ça si immédiat que ça. $\text{Tr}(s+n)=\text{Tr}(n)=0$ par nilpotence, et $\text{Tr}(s+n)=\text{Tr}(s)+\text{Tr}(n)=\text{Tr}(s)$ donc $\text{Tr}(s)=0$, c'est un début, mais ça ne veut rien dire : la matrice $A=\begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}$ est diagonal(isabl)e et de trace nulle, mais la seule matrice diagonalisable nilpotente est la matrice nulle donc A n'est pas nilpotente.
J'ai écrit sagement ma formule du binôme $(s+n)^N=\displaystyle \sum_{j=0}^N \binom{d}{j}s^jn^{N-j}$ mais sans connaitre l'indice de nilpotence de $n$, je ne sais pas trop quoi en faire.

Réponses

  • GaBuZoMeu
    Modifié (June 2022)
    Bonjour
    Sais-tu que la décomposition de Jordan-Chevalley (ou de Dunford) est unique ? Si oui, ça règle ton problème, non ?
  • Si $x$ est nilpotent, tu peux écrire $x=0+x$ avec $0$ diagonalisable, $x$ nilpotent et les deux qui commutent. Donc par unicité d'écriture, $s=0$ et $n=x$.
  • Homo Topi
    Modifié (June 2022)
    Certes. Si $x$ est nilpotent, alors $x=0+x$ est une décomposition de J-C de $x$, donc $s=0$ et $x=n$ par unicité. Bon, au moins c'était vite réglé.
    PS : je préfère dire Jordan-Chevalley, c'est historiquement plus respectueux envers ceux qui ont fourni le meilleur résultat en premier. Je me fiche des traditions (d'ailleurs si j'avais un nom à mettre sur le "théorème chinois" en algèbre/arithmétique, je le ferais aussi).
    EDIT. Grillé par @JLapin (je suis en visite chez mes parents pour la semaine, la connexion est affreusement lente).
  • raoul.S
    Modifié (June 2022)
    Homo Topi a dit :
    si j'avais un nom à mettre sur le "théorème chinois" en algèbre/arithmétique, je le ferais aussi
    Alors dès aujourd'hui tu pourras te référer au "théorème des restes chinois" en l'appelant "théorème de Sun Zi" 🤓
  • Homo Topi
    Modifié (June 2022)
    Bon, ce petit contretemps étant réglé. Pour démontrer ce critère.
    Je commence par le sens direct, donc $x=n$ est nilpotent et $s=0$. Comme $s=0$, sa seule valeur propre est $\lambda=0$, et sa multiplicité est $m=\dim(V)$. Donc pour tout $\varphi \in E$, $\varphi(\lambda)=\varphi(0)=0$ et donc $\varphi(s)=0$, donc $x \circ \varphi(s)=0$ et $\text{Tr}(x \circ \varphi(s))=0$. Terminé.
    Réciproquement, supposons que pour tout $\varphi \in E$ : $\text{Tr}(x \circ \varphi(s))=0$. On a
    $0=\text{Tr}(x \circ \varphi(s))=\text{Tr}((s+n) \circ \varphi(s)) = \text{Tr}(s \circ \varphi(s)+n \circ \varphi(s)) = \text{Tr}(s \circ \varphi(s))+\text{Tr}(n \circ \varphi(s))$.
    Comme $n$ est nilpotent, $n \circ \varphi(s)$ l'est aussi, donc $\text{Tr}(n \circ \varphi(s))=0$, et donc $\text{Tr}(s \circ \varphi(s))=0$.
    Maintenant, en décomposant $V=\displaystyle\bigoplus_i V_i$, on a : $0=\text{Tr}(s \circ \varphi(s))=\displaystyle \sum_i \text{Tr}([s \circ \varphi(s)]|_{V_i})$.
    Sur $V_i$, on a : $s\big(\varphi(s)(v)\big)=s\big(\varphi(\lambda_i)v\big)=\varphi(\lambda_i)\cdot s(v) =\varphi(\lambda_i) \cdot \lambda_i v$ puisque $V_i$  est un espace propre de $s$, donc $\text{Tr}([s \circ \varphi(s)]|_{V_i})= \dim(V_i)\lambda_i\varphi(\lambda_i)=m_i\lambda_i\varphi(\lambda_i)$. Donc $0=\displaystyle \sum_i \text{Tr}([s \circ \varphi(s)]|_{V_i})=\sum_i m_i\lambda_i\varphi(\lambda_i)$.
    Jusque-là, je suis d'accord avec la version Wikipédia. Cependant, je ne comprends pas la suite. Ils décident d'utiliser des $\varphi$ particuliers, à valeurs rationnelles, donc, parmi les endomorphismes $\Q$-linéaires de $k$, ils prennent ceux à valeurs rationnelles et les composent avec l'injection $\Q \longrightarrow k$ (composition licite puisque $k$ est une extension de $\Q$). J'ai deux questions ici :
    1) existe-t-il forcément toujours des applications $\Q$-linéaires de $k \longrightarrow \Q$ qui sont non nulles ? Sinon, ça met la suite en défaut.
    2) pourquoi aurait-on toujours $\lambda_i=\varphi(\lambda_i)$ pour une telle application ? Je ne vois pas, et c'est visiblement nécessaire pour la fin de leur preuve.
    Raoul.S. Noté !
    [Inutile de reproduire le message précédent. AD]
  • GaBuZoMeu
    Modifié (June 2022)
    1) Ben oui, considère une base de $k$ sur $\mathbb Q$.
    2) L'identité de $k$ est $\mathbb Q$-linéaire (mais bien sûr pas à valeurs dans $\mathbb Q$).
    Si $k=\mathbb C$, la conjugaison est $\mathbb Q$-linéaire.
    PS. Je suis allé voir la page. Si tu prends $\varphi$ à valeurs dans $\mathbb Q$, alors $\varphi\big(\sum_i m_i\lambda_i\varphi(\lambda_i)\big)= \sum_i m_i\varphi(\lambda_i)^2$. Et si les $\lambda_i$ ne sont pas tous nuls, on peut bien trouver une forme $\mathbb Q$-linéaire sur $k$ qui ne s'annule pas sur un des $\lambda_i$.
  • Homo Topi
    Modifié (June 2022)
    Oui, d'accord, j'avais mal interprété. Puisque $\varphi$ est $\Q$-linéaire, on a $\varphi(0)=0$, et comme $\displaystyle \sum_i m_i \lambda_i  \varphi(\lambda_i)=0$, on a $\varphi\Big(\displaystyle \sum_i m_i \lambda_i  \varphi(\lambda_i)\Big)=0$. Par linéarité, $\varphi\Big(\displaystyle \sum_i m_i \lambda_i  \varphi(\lambda_i)\Big)= \sum_i m_i \varphi\big(  \lambda_i  \varphi(\lambda_i)\big)$.
    Si $\varphi$ est à valeurs dans $\Q$, $\varphi\big(\lambda_i  \varphi(\lambda_i)\big)=\varphi(\lambda_i)\cdot \varphi(\lambda_i)$ par linéarité. Donc on a bien $\displaystyle \sum_i m_i   \varphi(\lambda_i)^2 =0$.

    J'arrive à en conclure que $\varphi(\lambda_i)=0$ pour tout $i$, et ce pour toute $\varphi$ à valeurs dans $\Q$. Mais je ne vois pas tout à fait comment choisir les bonnes $\varphi$ pour montrer que les $\lambda_i$ sont tous nuls. Je veux y réfléchir un peu tout seul.
  • Je te laisse y réfléchir. Je t'ai déjà donné plus haut une indication;
  • Homo Topi
    Modifié (June 2022)
    Soit $(e_j)_{j\in J}$ une $\Q$-base de $k$. Alors $\lambda_i$ est de la forme $\lambda_i = \displaystyle \sum_j \alpha_{i,j}e_j$ avec les $\alpha_{i,j}$ presque tous nuls.
    Je veux définir $\varphi : k \rightarrow \Q$, $\Q$-linéaire, sur les $e_j$ de sorte que $\varphi(\lambda_i) \neq 0$ si $\lambda_i \neq 0$. Soit $j_0$ tel que $\alpha_{i,j_0}\neq 0$. Alors si $\varphi(e_{j_0})=1$ et $\varphi(e_j)=0$ pour tout $j\neq j_0$, on a $\varphi(\lambda_i)=\alpha_{i,j_0}\neq 0$. $\varphi$ ainsi construite est bien $\Q$-linéaire et à valeurs dans $\Q$.
  • Tu aurais pu, partant d'un $\lambda_i$ non nul, compléter la base ...
  • C'est vrai.
  • Homo Topi
    Modifié (June 2022)
    Bon. J'en suis à vouloir démontrer de critère de Cartan : soient
    - $k$ un corps de caractéristique nulle 
    - $V$ un espace vectoriel de dimension finie sur $k$
    - $\mathfrak{g}$ une sous-algèbre de Lie de $\mathfrak{gl}(V)$
    $\mathfrak{g}$ est résoluble si, et seulement si, pour tous $a \in \mathfrak{g}$ et $b \in [\mathfrak{g},\mathfrak{g}]$, $\text{Tr}(a \circ b)=0$.
    Le sens direct, on l'avait déjà vu : on injecte $k$ dans une clôture algébrique $K$, on travaille dans $W=V\otimes_k K$, on applique le théorème de Lie pour trigonaliser tout le monde. Dans la base fournie par le théorème de Lie, tout $b \in [\mathfrak{g},\mathfrak{g}]$ est une matrice triangulaire supérieure stricte, donc la trace est nulle. OK.
    Pour le sens réciproque : soit $b \in [\mathfrak{g},\mathfrak{g}]$. il suffit de montrer que si pour tout $a \in \mathfrak{g}$, on a $\text{Tr}(a \circ b)=0$, alors $\text{ad}_b : [\mathfrak{g},\mathfrak{g}] \longrightarrow [\mathfrak{g},\mathfrak{g}]$ est nilpotent. En effet, dans ce cas, d'après le théorème de Engel, $[\mathfrak{g},\mathfrak{g}]$ est nilpotente, ce qui équivaut à $\mathfrak{g}$ résoluble (merci tout le travail fourni en amont !). Sur Wikipédia, ils utilisent ici le critère de nilpotence de mon premier message ci-dessus. Le corps de base a besoin d'être algébriquement clos pour ça, mais je pense qu'on peut refaire la même manipulation que pour le sens direct.
    - $k$ s'injecte dans sa clôture algébrique $K$
    - $x=\text{ad}_b$ a besoin d'être un endomorphisme d'un $K$-ev de dimension finie. Alors : $\text{ad}_b$ est un endomorphisme de $[\mathfrak{g},\mathfrak{g}]$, qui est une sous-algèbre de $\mathfrak{g}$, qui est une sous-algèbre de $\mathfrak{gl}(V)$, qui est de dimension finie sur $k$ puisque c'est $\mathscr{L}(V)$. Donc pour raccourcir : $\text{ad}_b \in \mathscr{L}(V)$. Il m'a l'air assez clair que $\mathscr{L}(V) \subseteq \mathscr{L}(W)$, et puisque $\dim_K(W)=\dim_k(V)$, $\mathscr{L}(W)$ est de dimension finie sur $K$. Ouf.
    Il n'y a pas besoin de plus de vérifications pour la décomposition de J-C de $\text{ad}_b$, donc je peux appliquer le critère de nilpotence.
    Il me reste à comprendre comment ils font ça, je vais y réfléchir.
  • Dans leur preuve du critère de Cartan, je ne comprends pas comment justifier que $\displaystyle \sum_i \text{tr}([x_i,y_i]\circ \varphi(s))=\sum_i \text{tr}(x_i \circ [y_i,\varphi(s)])$.
  • Eh bien, pour des endomorphismes $a,b,c,a'\newcommand{\tr}{\mathop{\mathrm{tr}}}$ quelconques, \begin{align*}&&\tr([a,b]c)&=\tr(abc)-\tr(bac)\\\text{et}&&\tr(a[b,c])&=\tr(abc)-\tr(acb)=\tr(abc)-\tr(bac)\end{align*} vu que $\tr(a'b)=\tr(ba')$.
  • Merci, c'était tout bête en fait.
  • Homo Topi
    Modifié (July 2022)
    J'ai le problème suivant : Si $x=s+n$ est la décomposition de JC de $x$, il est vrai que $\text{ad}_x=\text{ad}_s+\text{ad}_n$. J'avais aussi montré que si $n$ est nilpotent, alors $\text{ad}_n$ est nilpotent. Visiblement, $\text{ad}_x=\text{ad}_s+\text{ad}_n$ est la décomposition de JC de $\text{ad}_x$, mais je n'arrive pas à montrer que $\text{ad}_s$ est semi-simple dès que $s$ l'est.
    Je pensais passer par le polynôme minimal. Soit $\mu$ le polynôme minimal de $s$. J'aimerais montrer que $\mu$ est aussi le polynôme minimal de $\text{ad}_s$ (en espérant que c'est vrai). Il faudrait donc que pour tout endomorphisme $f$, on ait $\mu(\text{ad}_s)(f)=0$. Mais pour calculer ce truc-là, sachant que $\text{ad}_s(f)=s\circ f - f  \circ s$, il faudrait que $s$ et $f$ commutent (sinon, déjà $\text{ad}_s^2(f)$ devient un truc non simplifiable), de sorte que $\mu(\text{ad}_s)(f)=[\mu(s),f]=\text{ad}_{\mu(s)}(f)=[0,f]=0$.
    Donc il faudrait que pour tout $f$, on ait $s\circ f = f  \circ s$. Je n'arrive pas à le montrer, même en me plaçant dans une base dans laquelle $s$ est diagonal. Si $v$ est un vecteur propre de $s$, $f \circ s (v)=\lambda f(v)$, et si $s \circ f(v)$ doit être égal à ça, alors il faudrait que $f(v) \in \text{Vect}(v)$... pour tout vecteur propre de $s$ dans notre base, et surtout, pour tout endomorphisme $f$ !
    Je suis un peu perdu dans mon bazar.
  • Calcule $\mathrm{ad}_s$ lorsque $s$ est une matrice diagonale. Une base canonique de vecteurs propres te tend les bras.
  • Homo Topi
    Modifié (July 2022)
    Je note $(v_1,\ldots,v_N)$ la base de vecteurs propres de $s$, et $s(v_i)=\lambda_i v_i$.
    J'ai besoin des $f(v_i)$ : notons $f(v_i)=\displaystyle \sum_j \alpha_{i,j} v_j$. Alors $s\big(f(v_i)\big) = s\Big( \displaystyle \sum_j \alpha_{i,j} v_j\Big) = \sum_j \alpha_{i,j} s(v_j) = \sum_j \alpha_{i,j} \lambda_j v_j$.
    En même temps, $f\big(s(v_i)\big) = f(\lambda_i v_i) = \lambda_i f(v_i) = \lambda_i \displaystyle \sum_j \alpha_{i,j} v_j$... ce n'est pas la même chose. Qu'est-ce que j'ai fait comme erreur ?
  • Je ne comprends pas grand-chose à tes calculs.
    Disons que $s$ est la matrice diagonale $\mathrm{diag}(\lambda_1,\dots,\lambda_N)$. Alors la matrice élémentaire $E_{ij}$ est une vecteur propre de $\mathrm{ad}_s$ pour la valeur propre $\lambda_i-\lambda_j$. (En effet, le produit à gauche (resp. à droite) par $s$ consiste à multiplier la $k$-ième ligne (resp. la $k$-ième colonne) par $\lambda_k$. Pour $E_{ij}$ seules comptent la $i$-ème ligne et la $j$-ème colonne.)
  • Homo Topi
    Modifié (July 2022)
    Ben... $s$ est un endomorphisme, $\text{ad}_s$ s'applique à des endomorphismes, et pour tout endomorphisme $f$, $\text{ad}_s(f)$ est un endomorphisme, c'est l'endomorphisme $s \circ f - f \circ s$. Tu m'as dit de "calculer $\text{ad}_s$"... j'ai appliqué. Mais visiblement, ce n'est pas ça que tu voulais que je fasse.
    Je vérifierai ce que tu racontes en détail plus tard !
  • La méthode de Math Coss marche, mais sinon tu peux aussi voir que les endomorphismes $f\mapsto s\circ f$ et $f\mapsto f\circ s$ sont tous deux diagonalisables et commutent donc sont simultanément diagonalisable, et donc leur différence est aussi diagonalisable.
  • Reformulation : si $m=(m_{ij})$ est une matrice quelconque, $\mathrm{ad}_s(m)=\bigl((\lambda_i-\lambda_j)m_{ij}\bigr)_{i,j}$.
  • Homo Topi
    Modifié (July 2022)
    @Namiswan je voulais réfléchir à la méthode de MC, mais ton dernier message m'a hautement embrouillé. J'avais juste mal compris ce que tu fais.
    Le raisonnement que je faisais dans ma tête, qui expliquera sans doute aussi à @Math Coss pourquoi il ne comprenait rien à ce que je racontais (puisqu'en fin de compte, ce n'est pas du tout le bon raisonnement) :
    - $s$ est semi-simple, son polynôme minimal $\mu$ est sans facteur carré.
    -  je veux savoir si $\text{ad}_s$ est semi-simple, une méthode pragmatique et naturelle serait de montrer que $\mu$ annule $\text{ad}_s$. Si c'est le cas, comme il est sans facteur carré, le polynôme minimal de $\text{ad}_s$ est forcément lui aussi sans facteur carré (puisqu'il divise $\mu$, mais je ne saurai pas si c'est exactement $\mu$... mais je n'en ai pas besoin), donc $\text{ad}_s$ sera semi-simple.
    - il faut donc que je calcule $\mu(\text{ad}_s)$, et surtout, que je l'exprime en fonction de $\mu(s)$, qui vaut $0$.
    - $\mu(\text{ad}_s)$ s'applique à des endomorphismes, donc je veux dois montrer que pour tout $f$, $\mu(\text{ad}_s)(f)=0$.
    - $\mu(\text{ad}_s)(f) = $ quoi ? C'est une combinaison linéaire de $\text{ad}_s^k(f)$, avec $k$ qui varie. Donc j'ai besoin de savoir quelle tronche a un $\text{ad}_s^k(f)$.
    - $\text{ad}_s(f) = [s,f] =  s \circ f - f \circ s$. Donc $\text{ad}_s^2(f) =  [s, s \circ f - f \circ s]  = s \circ (s \circ f - f \circ s) - (s \circ f - f \circ s) \circ s$ $= s^2 \circ f -2 s \circ f \circ s + f \circ s^2$. Ce truc-là devient déjà inutilisable, donc je ne peux pas continuer et calculer explicitement $\mu(\text{ad}_s)(f)$ sans une hypothèse supplémentaire qui m'aide.
    À partir de là, je commençais à être perdu. Parce que : si $s$ et $f$ commutent (pour tout $f$ !!!), alors on aura directement $\text{ad}_s=0$... ça a l'air "trop fort" pour être correct. Mais si $s$ et $f$ ne commutent pas, $\mu(\text{ad}_s)(f)$ reste incalculable et je me retrouvais bloqué.
    Ce que tu dis m'avait l'air en premier lieu d'être exactement la même chose, c'est pour ça que je ne comprenais pas. Tu introduis deux applications, que je vais nommer $G_s : f \longmapsto s \circ f$ et $D_s : f \longmapsto f \circ s$ (pour composition à gauche/droite par $s$). Elles commutent SSI pour tout $f$, on a $G_s(D_s(f)) = D_s(G_s(f))$, c'est-à-dire $s \circ (f \circ s) = (s \circ f) \circ s$. La composée des applications est toujours associative, donc c'est toujours vrai. En admettant que $G_s$ et $D_s$ sont diagonalisables, alors on peut en conclure que $G_s - D_s$ est diagonalisable, et ça, c'est $\text{ad}_s$. D'accord, j'ai compris.
    Reste donc à montrer que ces deux applications $G_s$ et $D_s$ sont effectivement diagonalisables. Je vais y réfléchir. Ne pas souffler la réponse.
  • Extrême coïncidence, j'ai également regardé la diagonalisabilité de $G_s$ et $D_s$ cet après-midi  :)

    Je ne connais pas ce domaine des algèbres de Lie. En gros, c'est la next step après l'algèbre linéaire de licence ?
  • Je dirais que le pas suivant l'algèbre linéaire de licence, c'est les représentations sur $\mathbf{C}$ des groupes finis. 
  • Si on oublie que je ne suis pas forcément sur $\C$.
  • Homo Topi
    Modifié (July 2022)
    C'était simple, et MC avait donné la réponse en gros.
    Bon, donc si $x=s+n$ est la décomposition de JC de $x$, alors $\text{ad}_x = \text{ad}_s + \text{ad}_n$ est la décomposition de JC de $\text{ad}_x$. Je n'ai pas encore compris la fin de leur preuve, c'est vraiment super mal rédigé... je vais voir.
  • Homo Topi a dit :
    Reste donc à montrer que ces deux applications $G_s$ et $D_s$ sont effectivement diagonalisables. Je vais y réfléchir. Ne pas souffler la réponse.
    Ta méthode infructueuse pour montrer que $ad_s$ est diagonalisable marche mieux pour montrer que $G_s$ et $D_s$ sont diagonalisables.
  • Oui, j'ai vu ça.
  • Je me demandais pourquoi personne ne répond à mon dernier message, maintenant je sais pourquoi : il n'apparait pas ! Il a soit disparu depuis que je l'ai posté, soit ça a (encore) bugué quand je l'ai posté. Bref, réécrivons tout ça.

    La fin de leur preuve me dérange sur plein de points différents. D'abord, je ne comprends pas pourquoi ils notent $\text{ad}_{\mathfrak{g}'}(x)$ au lieu de $\text{ad}(x)$. $D\mathfrak{g}:=[\mathfrak{g},\mathfrak{g}]$ est une sous-algèbre de $\mathfrak{g}$, qui est ici une sous-algèbre de $\mathfrak{g}':= \mathfrak{gl}(V)$. Donc le crochet de Lie de $\mathfrak{g}'$ est de toute façon le seul dont il est question : $[u,v] = u \circ v - v \circ u$.
    Ensuite, ils semblent préciser que $\text{ad}_{\mathfrak{g}'}(x)$ est définie de $\mathfrak{g}$ dans $D\mathfrak{g}$, ce que je ne comprends pas non plus. Alors, comme $x$ est un élément de $D\mathfrak{g}$ et que $D\mathfrak{g} \subseteq \mathfrak{g}$, on peut effectivement se demander s'il vaut mieux considérer $\text{ad}_{\mathfrak{g}'}(x)$ comme un endomorphisme de $D\mathfrak{g}$ ou comme un endomorphisme de $\mathfrak{g}$, mais comme la définition même de $\text{ad}_{\mathfrak{g}'}(x)$ est $y \longmapsto [x,y]$, il devrait être complètement évident que $\text{ad}_{\mathfrak{g}'}(x)$ est toujours à valeurs dans $D\mathfrak{g}$... donc il n'y a rien à "remarquer" (ni démontrer) ici, je trouve. ???
    En admettant que leur argument sur les polynômes soit valable (je n'ai pas encore vérifié, à cause de tout le reste qui ne va pas). Visiblement ils insistent sur le fait que $\text{ad}_{\mathfrak{g}'}(s)$ est aussi à valeurs dans $D\mathfrak{g}$, c'est la même chose, je ne vois pas l'intérêt. Le fait que $[\varphi(s),\mathfrak{g}] \subseteq D\mathfrak{g}$ est, encore une fois, exactement la même évidence par la définition même de $D\mathfrak{g}$, mais là encore, pour moi ça ne prouve rien du tout : d'accord, ça peut nous donner que $\text{Tr}([y_i,\varphi(s)])=0$ pour tout $i$, mais ça ne nous renseigne pas sur $\text{Tr}(x_i \circ [y_i,\varphi(s)])$.

    Donc, en bref, je n'y comprends rien. Soit ils ont écrit n'importe quoi, soit j'ai tout faux. Un peu d'aide serait la bienvenue.














  • J'ai vraiment besoin d'un coup de main :/
  • N'y a-t-il pas un @GaBuZoMeu ou un @Math Coss charitable pour m'expliquer ce que je comprends de travers ici ? Merci...
  • HT : rapidement, l'intérêt d'écrire $ad_{\mathfrak g'} $ et non pas $ad_\mathfrak g$ ou juste $ad$ est que tu vas ensuite l'appliquer à $s$ ou $\varphi(s)$, qui n'est plus dans $\mathfrak g$ a priori. De même, l'énoncé trivial que $ad(x)$ est à valeurs dans $D\mathfrak g$ n'est plus trivial quand tu l'appliques à $s$, et c'est l'intérêt de la phrase qui suit cette "remarque", si je comprends bien (j'avoue ne pas avoir lu en détails, c'est très mal écrit). 

    Finalement, comment conclure quand tu sais que $[\varphi(s), \mathfrak g]\subset D\mathfrak g$ ? Pour ça il faut regarder l'hypothèse du critère de nilpotence ! On te dit que si $x\in \mathfrak g, y\in D\mathfrak g$, $tr(xy) = 0$, par hypothèse. Donc en particulier $tr(x_i[\varphi(s), y_i]) = 0$ si tu sais que $ad(\varphi(s))$  est à valeurs dans $D\mathfrak g$ 
  • Homo Topi
    Modifié (July 2022)
    Je n'avais pas vu la subtilité, en effet, $\varphi(s)$ est un autre type de bestiole. Bon, avec ça, je vais probablement réussir à terminer ce bazar.
    Pour la petite histoire, ce fil a tellement été ignoré pendant une semaine, malgré mes relances, par tous ceux qui y avaient participé, que j'ai envoyé un message à @AD pensant qu'un bug du forum avait rendu le fil invisible ou quelque chose comme ça :D
  • Maxtimax
    Modifié (July 2022)
    Je t'avoue que j'avais vu ta relance, mais j'étais très occupé et j'imaginais qu'on te répondrait, donc je n'ai pas fait gaffe. Désolé pour ça, j'espère que ça ira mieux maintenant :-D 
  • Oh, je n'en veux à personne, je m'amuse juste de la situation.
  • Homo Topi
    Modifié (July 2022)
    Je m'embrouille vite dans ce bazar. Je réécris tout. A priori, ce message est juste pour moi, pour ma mémoire, mais si j'y raconte des bêtises, j'accepte volontiers les corrections.
    Je pars de la situation suivante. $k$ est un corps de caractéristique $0$, $V$ est un  $k$-espace vectoriel de dimension finie, et $\mathfrak{g}$ est une sous-algèbre de Lie de $\mathfrak{gl}(V)$. Je suppose que tout $b \in D\mathfrak{g}:= [\mathfrak{g},\mathfrak{g}]$ vérifie : pour tout $a \in \mathfrak{g}$, $\text{Tr}(a \circ b)=0$. Dans ce scénario, je prends $b$ quelconque (qui vérifie le truc précédent) et je veux montrer qu'il est nilpotent. En effet, si c'est le cas, alors $\text{ad}_b$ est un endomorphisme nilpotent de $D\mathfrak{g}$, ce qui (théorème de Engel) implique que $D\mathfrak{g}$ est nilpotente, donc que $\mathfrak{g}$ est résoluble.
    Je veux donc montrer que $b$ est un élément nilpotent de $D\mathfrak{g}$. Mais $D\mathfrak{g}$ est une sous-algèbre de Lie de $\mathfrak{g}$, qui est une sous-algèbre de Lie de $\mathfrak{gl}(V):= \mathscr{L}_k(V)$, donc $b$ est, en fin de compte, un endomorphisme de $V$ : $b \in \mathscr{L}_k(V)$.
    Problème : $k$ n'est pas algébriquement clos, donc, je ne peux pas appliquer le critère de nilpotence. $k$ admet une clôture algébrique $K$, et je peux définir $W:= V \otimes_k K$, qui est un $K$-espace vectoriel de dimension finie, avec $K$ algébriquement clos et de caractéristique $0$. Je peux donc appliquer le critère de nilpotence aux endomorphismes de $W$. Il faut donc que je regarde bien qui est l'endomorphisme $\tilde{b} \in \mathscr{L}_K(W)$ "induit par $b$" par mon extension des scalaires. Les autres hypothèses du critère de nilpotence, c'est bon. Alors, voilà ce que donne un gentil recopiage : si $N$ est un $K$-espace vectoriel, alors $\mathscr{L}_k(V,N) \simeq \mathscr{L}_K(W,N)$, l'isomorphisme faisant correspondre $L : V \longrightarrow N$ et $\tilde{L} : W \longrightarrow N$ définie sur les tenseurs purs par $v\otimes \lambda \longmapsto \lambda \cdot L(v)$. Le cas qui m'intéresse est évidemment $N=W$. Il me faut une application "naturelle" $j : V \longrightarrow W$, je n'en vois qu'une : $j : v \in V \longmapsto v \otimes 1_K$. Donc $\tilde{b}(v \otimes \lambda) =\lambda \cdot b(v) \otimes 1$.
    Donc $\tilde{b}$ est un endomorphisme de $W$, dont je peux vérifier s'il est nilpotent ou non avec le critère de nilpotence. Sur Wikipédia, ils balancent "sans perte de généralité" et ils font comme si $b$ et $\tilde{b}$ c'est la même chose, mais moi je fais les choses proprement, donc c'est plus compliqué. Leur $x$, du coup, c'est mon $\tilde{b}$ et pas $b$ comme je croyais jusque-là, mais en admettant que je comprenne leur démonstration, j'aurai démontré que $\tilde{b}$ est un élément nilpotent de $\mathfrak{gl}(W):= \mathscr{L}_K(W)$.
    La grande question : est-ce que ça impliquerait que $b$ est un élément nilpotent de $\mathfrak{gl}(V):=\mathscr{L}_k(V)$ ? Je suppose qu'il existe $m$ tel que pour tout $w \in W$, $\tilde{b}^m(w)=0$. Donc pour tout $v \in V$ et tout $\lambda \in K$, $\tilde{b}^m(v \otimes \lambda)=0$. En calculant, je trouve que $\tilde{b}^m(v \otimes \lambda)= \lambda^m \cdot b^m(v) \otimes 1$. Effectivement, en caractéristique $0$, j'en conclus que $b$ est bien un endomorphisme nilpotent de $V$. Ouf.

    Donc je sais où j'en suis. Problème : $\tilde{b}$, ce n'est justement pas $b$. Si je veux profiter de $\text{Tr}(a \circ b)=0$, il faut que je réécrive ça dans $\mathfrak{h}:=\mathfrak{gl}(W)$ : pour tout $\alpha \in \mathfrak{h}$ et tout $\beta  \in  D\mathfrak{h}$, $\text{Tr}(\alpha \circ  \beta)=0$. Et il faut que je vérifie que $\tilde{b} \in D\mathfrak{h}$ pour que ça serve à quelque chose. Et que si $a \in \mathfrak{g}$, alors $\tilde{a} \in \mathfrak{h}$. Et que si $\text{Tr}(a \circ b)=0$, alors $\text{Tr}(\tilde{a} \circ \tilde{b})=0$. Là, on aura quelque chose.
    J'ai des vérifications à faire, et j'essaierai de voir leur démonstration après.
  • De manière générale, les gens se fichent d'étendre les scalaires dans ces cas pour les raisons suivantes: 
    1- Comme tu l'as remarqué on a un morphisme canonique d'algèbres (et donc d'algèbres de Lie) $L_k(V)\to L_K(K\otimes_k V)$
    2- Ce morphisme canonique a le bon goût d'être injectif, donc si tu obtiens une équation particulière après l'avoir appliqué, tu peux remonter et l'obtenir avant. 
    3- Ce morphime est "presque" surjectif si $V$ est de dimension finie, au sens où le morphisme induit $L_k(V)\otimes_k K\to L_K(K\otimes_k V)$ est surjectif (en fait, un isomorphisme), donc tout ce qui se passe à l'arrivée est une combinaison $K$-linéaire de trucs qui se passe au départ. 

    En particulier ça devrait résoudre tes complications sur la fin
  • J'avance doucement sur mon document $\LaTeX$ parce qu'il contient des trous, qu'il contient parce que les explications Wiki sont mal foutues. Peut-être que je me complique effectivement la vie pour rien, mais pour l'instant, je préfère être trop prudent. Je verrai.
  • Homo Topi
    Modifié (July 2022)
    J'arrive à comprendre pourquoi $\text{ad}_{\mathfrak{g}'}(s)$ est à valeurs dans $D\mathfrak{g}$ mais je ne comprends pas le passage à $\text{ad}_{\mathfrak{g}'}(\varphi(s))$.
    Je ne vois aucune raison que ça ait une expression polynôme en $\text{ad}_{\mathfrak{g}'}(x)$ sans terme constant, donc ce n'est peut-être pas ça l'argument. J'ai aussi essayé, pour $y \in  \mathfrak{g}$ et $v \in V$ donnés, d'exprimer $\big(\varphi(s)\circ y - y \circ \varphi(s)\big)(v)$ mais je n'obtiens rien que je sache exploiter.
  • Homo Topi
    Modifié (July 2022)
    Je reprends.
    Je suis donc pour l'instant dans le cas où $k$ est algébriquement clos (et de caractéristique nulle), $V$ est de dimension finie sur $k$, et $\mathfrak{g} \subseteq \mathfrak{gl}(V):= \mathfrak{g}'$. $\text{ad}_{\mathfrak{g}'}(\varphi(s))$ est donc un endomorphisme de $\mathfrak{g}'$. Et la question est : si $y \in \mathfrak{g}$, a-t-on $\text{ad}_{\mathfrak{g}'}(\varphi(s))(y) \in D\mathfrak{g}$.
    $\text{ad}_{\mathfrak{g}'}(\varphi(s))(y)=[\varphi(s),y]=\varphi(s)\circ y - y \circ \varphi(s)$. Du coup, comment prouve-t-on que ce truc-là est dans $D\mathfrak{g}$. Hmmm...
    Je réfléchis.




  • Homo Topi
    Modifié (August 2022)
    J'ai commencé un calcul, mais je ne suis pas encore convaincu qu'il sert à grand-chose. Mon idée était de calculer $(\varphi(s) \circ y  -  y  \circ  \varphi(s))(v)$ en espérant trouver une écriture de la forme $\displaystyle \sum_i [\alpha_i,\beta_i](v)$, pour déterminer un élément de $D\mathfrak{g}$ qui serait égal à $[\varphi(s),y]$ sur $V$. Je décompose $V$ en $\displaystyle \bigoplus_i V_i$ selon les espaces propres de $s$, $v \in V$ s'écrit alors $v  = \displaystyle \sum_i v_i$ où les $v_i$ sont des vecteurs propres de $s$ de valeur propre $\lambda_i$, et je note $y(v_i)=\displaystyle \sum_j \alpha_{i,j}v_j$.
    $\displaystyle (\varphi(s) \circ y - y \circ \varphi(s))(v) = \varphi(s)\big(y(v)\big) - y\big(\varphi(s)(v)\big) = \varphi(s)\bigg(y\Big( \sum_i v_i\Big)\bigg)  -  y\bigg(\varphi(s)\Big( \sum_i v_i\Big)\bigg)$
    $=\displaystyle \varphi(s)\bigg( \sum_i y(v_i)\bigg) - y\bigg( \sum_i\varphi(s)(v_i)\bigg) = \sum_i\varphi(s)\big( y(v_i)\big) - y\big( \varphi(s)(v_i)\big) = \sum_i\varphi(s)\Big( \sum_j \alpha_{i,j}v_j\Big) - y\big( \varphi(\lambda_i)v_i\big)$
    $=\displaystyle \sum_i \bigg(\sum_j \alpha_{i,j}\varphi(s)(v_j)\bigg) - \varphi(\lambda_i)y(v_i) = \sum_i \bigg(\sum_j \alpha_{i,j}\varphi(\lambda_j)v_j\bigg) - \varphi(\lambda_i)y(v_i) = \sum_i \bigg(\sum_j \alpha_{i,j}\varphi(\lambda_j)v_j\bigg) - \varphi(\lambda_i)\bigg(\sum_j \alpha_{i,j}v_j\bigg)$$=\displaystyle  \sum_j \bigg(\sum_i\alpha_{i,j}\varphi(\lambda_j) - \alpha_{i,j}\varphi(\lambda_i)\bigg)v_j$. 
    Peut-être que ça peut marcher. Je réfléchis.
  • Je doute de l'utilité de mon calcul, mais je ne vois pas trop comment procéder autrement.
  • Je recevrais volontiers un coup de main !
  • Voilà 3 semaines que je n'ai pas redemandé d'aide sur ça. Je n'y arrive vraiment pas, mais je ne veux pas abandonner.
Connectez-vous ou Inscrivez-vous pour répondre.