Module des différentielles de SL$_n$

$\def\SL{\text{SL}}\def\Tr{\text{Tr}}\def\bfX{\mathbf X}$Hello
Il est classique que $\SL_n$ est lisse. Cela peut signifier plusieurs choses équivalentes. Par exemple, sur un anneau quelconque $R$ , qu'étant donnée une congruence $\det(X) \equiv 1 \mod I$, on peut la relever modulo $I^2$ i.e. il existe $X' \equiv X \bmod I$ tel que $\det(X') \equiv 1 \bmod I^2$. Bien entendu, $X,X'$ sont des matrices $n \times n$ à coefficients dans l'anneau et $I$ un idéal de l'anneau en question. On peut aussi le voir que l'hypersurface $\{ \det(X) = 1\}$ est lisse à l'aide de la jacobienne, cf le point 1.

On pose alors $A = R[\SL_n] =_{\rm def} R[(X_{ij})_{1 \le i,j \le n}]/\langle \det(X)-1\rangle$ où ici $X$ est la matrice générique $n \times n$. Et on dit alors que $R \mapsto R[\SL_n]$ est lisse. Ceci fait que le $A$-module des différentielles $\Omega_{A/R}$ est un module projectif de rang constant $n^2 - 1$. Cf les points 1. et 2. pour plus de détails.

Ci-dessous, je vais montrer, de manière algébrique, qu'en fait $\Omega_{A/R}$ est libre et même mieux : il est ``élémentairement libre''. Question : est ce qu'il a une raison géométrique profonde sans le calcul (élémentaire) qui vient ?

$\bullet$ 1. De manière plus générale, soit en dimension $N$, une hypersurface lisse $\{F = 0\}$. Pour l'algébriste que je suis, c'est la donnée d'un polynôme en $N$ variables $F \in R[X_1, \cdots, X_N]$ tel que
$$
1 \in \langle F,\ F'_{X_1}, \ \cdots, \ F'_{X_N} \} \qquad\qquad\qquad
A = R[x_1, \cdots, x_N] = R[\bfX] /\langle F\rangle \qquad
\Omega_{A/R} = Adx_1 + \cdots + Adx_N \qquad \sum_i F'_{X_i} dx_i = 0
$$A droite, pour gagner de la place, j'ai défini l'anneau $A$ de $\{F = 0\}$ et une présentation finie du $A$-module des différentielles $\Omega_{A/R}$ par $N$ générateurs $dx_i$ soumis à une seule relation.

On peut voir $\Omega_{A/R}$ comme le quotient de $A^N$ par le vecteur $(F'_{X_1}, \cdots, F'_{X_N})$, qui est unimodulaire lorsqu'on le voit sur $A$ (unimodulaire : 1 est combinaison linéaire de ses composantes). On peut oublier le contexte et retenir le problème suivant : un vecteur unimodulaire $v$ dans $A^N$, quand est ce que le quotient $A^N /A.v$ est libre ? C'est un problème extrêmement compliqué qui n'a pas de réponse générale. Dans le cas de l'hypersurface $\{F = 0\}$, cela dépend de $F$ (of course) et de l'anneau de base $R$. Penser par exemple à $F(X,Y,Z) = X^2 + Y^2 + Z^2 - 1$ et au tangent à la sphère réelle qui n'est pas libre. Cf un petit post http://www.les-mathematiques.net/phorum/read.php?3,1925434,1930596#msg-1930596 écrit pour Goleon.

$\bullet$ 2 On revient à $\SL_n$. La différentielle de $F(X) = \det(X) - 1$ au point $X$ est la forme linéaire $M_n(A) \ni H \mapsto \Tr(\widetilde X H) \in A$ où $\widetilde X$ est la matrice cotransposée de $X$, ``celle'' qui vérifie $X \widetilde X = \widetilde X X = \det(X)\text{Id}_n$. Les composantes de cette forme linéaire sont les $\Tr(\widetilde X E_{ij}) = \widetilde X_{ji}$ où $(E_{ij})_{1 \le i,j \le n}$ est la base des matrices élémentaires (des 0 partout sauf un 1 en position $i,j$).

C'est facile de voir que le $n^2$-vecteur $v$ des composantes de cette différentielle est unimodulaire (sur $A$) grâce aux relations déduites de $X \widetilde X = 1$. Par exemple, le coefficient $(1,1)$ de $X \widetilde X$ :
$$
\sum_{j=1}^n X_{1j} \widetilde X_{j1} = 1
$$Ce $n^2$-vecteur $v$ est même vachement unimodulaire au sens où il contient des sous-vecteurs unimodulaires. C'est cela qui va permettre d'obtenir l'aspect élémentairement libre de $\Omega_{A/R}$.

$\bullet$ 4. Je prends l'exemple $n=2$.
$$
X = \left[ \matrix {a & b\cr c & d\cr} \right], \qquad ad - bc = 1, \qquad
\widetilde X = \left[ \matrix {d & -b\cr -c &a\cr} \right], \qquad
v = (d, -c, -b, a)
$$Le vecteur $v$ consiste en les composantes de la différentielle, rangées via ``row-order'' (11, 12, 21, 22). Ce vecteur $v$ est vachement unimodulaire car le sous-vecteur sur les 2 premières composantes est unimodulaire vu que $a \times d + b \times (-c) =1$. Et il y a d'autres sous-vecteurs unimodulaires.

$\bullet$ 5. Je vais raconter pourquoi le quotient de $A^n$ par un vecteur $v$ vachement unimodulaire est libre. De manière précise soit $v = (a_1, a_2, a_3, \cdots, a_n)$ avec $n \ge 2$ et une relation $u_2 a_2 + s = 1$ avec $s = \sum_{i \ge 3} u_i a_i$ témoignant du fait que le sous-vecteur $(a_2, \cdots, a_n)$ est unimodulaire. Ce qui suit est classique : c'est le B.A.BA autour des histoires de Quillen/Suslin (cf Lam, Swan ...etc..). Il n'y a pas de bricolage. On va montrer l'existence d'une matrice $M$ appartenant au groupe élémentaire $E_n(A)$, i.e. produit de matrices élémentaires $B_{ij}(\lambda)$, telle qu'en ligne :
$$
v. M = e_1 =_{\rm def} (1, 0, \cdots, 0)
$$Comme le quotient de $A^n$ par $e_1$ est libre, il en est de même de celui de $A^n$ par $v$. Comme je travaille avec des vecteurs lignes, il va y avoir les combinaisons élémentaires de colonnes du type
$$
C_2 \leftarrow C_2 + \lambda C_1 \quad : \quad (\alpha, \beta) \to (\alpha, \beta + \lambda \alpha) = (\alpha, \beta). \left[ \matrix {1 & \lambda\cr 0 & 1\cr} \right] \qquad
B_{1,2}(\lambda) =_{\rm def} \left[ \matrix {1 & \lambda\cr 0 & 1\cr} \right]
$$Je vais raisonner modulo $s$ d'une part et d'autre part faire semblant de raisonner modulo $s$ i.e. faire comme si on avait $s = 0$. Modulo $s=0$, on a $u_2a_2 = 1$, $a_2$ est inversible d'inverse $u_2$. Et je vais chercher $\lambda$ tel que $C_1 \leftarrow C_1 + \lambda C_2$ fournisse 1 (modulo $s$) en position 1 i.e.
$$
1 = a_1 + \lambda a_2 \quad \text{i.e.} \quad \lambda = a_2^{-1}(1 - a_1) = u_2(1- a_1) \qquad \text{MODULO } s = 0
$$Maintenant, avec $\lambda = u_2(1-a_1)$, je fais cette opération $C_1 \leftarrow C_1 + \lambda C_2$ POUR DE VRAI. Elle conduit à $v' = (a'_1, a_2, \cdots, a_n)$ avec $a'_1 = 1 \bmod s$. Très exactement :
$$
a'_1 = a_1 + u_2a_2 (1-a_1) = a_1 + (1-s)(1 - a_1) = 1 - s(1-a_1)
$$Comme $s$ est combinaison linéaire de $a_3, \cdots, a_n$, on va pouvoir faire une autre opération pour mettre à 1 le coefficient en position 1. Très exactement :
$$
C_1 \leftarrow C_1 + (1-a_1)u_3 C_3 + \cdots + (1-a_1)u_n C_n \quad : \quad v' \mapsto v'' = (1, a_2, \cdots, a_n)
$$C'est gagné car sur $v''$, il suffit de réaliser la suite d'opérations suivantes qui amène $v''$ sur $e_1 = (1, 0, \cdots, 0)$
$$
C_2 \leftarrow C_2 - a_2 C_1, \quad C_3 \leftarrow C_3 - a_3 C_1, \quad \dots \quad C_n \leftarrow C_n - a_n C_1
$$
$\bullet$ 6. Au lieu de dire y'a qu'à, je l'ai vraiment fait avec le vecteur $v = (d, -c, -b, a)$ sous le couvert de $ad - bc = 1$. J'ai trouvé 5 matrices élémentaires en posant $\lambda = d(1-d)$, $q = c(1-d)$:
$$
B_0 : C_1 \leftarrow C_1 + \lambda C_4, \qquad
B_1 : C_1 \leftarrow C_1 + q C_3, \qquad
B_2 : C_2 \leftarrow C_2 + c C_1, \qquad
B_3 : C_3 \leftarrow C_3 + b C_1, \qquad
B_4 : C_4 \leftarrow C_4 - a C_1
$$Ci-dessous la matrice $M$ de déterminant 1, produit des 5 matrices élémentaires $B_0, B_1, \cdots, B_4$ (dans cet ordre), a fortiori de déterminant 1, telle que $v. M = (1, 0,0,0)$.
[color=#000000][               1                c                b               -a]
[               0                1                0                0]
[        -c*d + c     -c^2*d + c^2 -b*c*d + b*c + 1      a*c*d - a*c]
[        -d^2 + d     -c*d^2 + c*d     -b*d^2 + b*d  a*d^2 - a*d + 1]
[/color]
Donc la matrice $M^{-1}$ a pour première ligne le vecteur $v$ et comme elle est de déterminant 1, cela implique que $v$ fait partie d'une base de $A^4$ à savoir les 4 lignes de la matrice. Ce qui fait que $A^4 / A.v$ est libre.
[color=#000000][a*d^2 - a*d - b*c*d + b*c + 1             -c               -b                a]
[                            0              1                0                0]
[                      c*d - c              0                1                0]
[                      d^2 - d              0                0                1]
[/color]
En position $(1,1)$ il y a bien $d$, première composante du vecteur $v$ via la clause $ad - bc= 1$. A noter que le déterminant est 1 sans cette clause.

$\bullet$ 7. Je repose ma question autrement : est ce qu'il y a un théorème (moins explicite, moins calculatoire) du fait que $\Omega_{A/R}$ est libre pour $A = R[\SL_n]$ ?

Réponses

  • $\def\Tr{\text{Tr}}\def\SL{\text{SL}}$$\bullet$ 1. Comme d'habitude, je n'avais pas assez réfléchi quand j'ai posté. Lorsque l'on dispose d'un vecteur $v = (a_1, \cdots, a_n)$ tel que le sous vecteur $(a_2, \cdots, a_n)$ est unimodulaire, donc avec des $u_i$ tels que $1 = \sum_{i=2}^n u_i a_i$, inutile de faire tout le patacaisse du point 5. de mon post précédent. Il suffit en effet de réaliser :
    $$
    C_1 \leftarrow C_1 + (1-a_1)u_2C_2 + \cdots + (1-a_1)u_nC_n, \qquad v \mapsto v' = (a'_1, a_2, \cdots, a_n) \quad \text{avec}\quad
    \left\{\begin {array} {lll}
    a'_1 &=& a_1 + (1-a_1)(u_2a_2 + \cdots + u_na_n) \\
    &=& a_1 + (1-a_1) \times 1 \\
    &=& 1 \quad \text{(c'est fait pour)} \\
    \end {array}\right.
    $$Une fois que l'on a 1 dans un vecteur unimodulaire, c'est terminé.

    $\bullet$ 2. Il y a plus simple pour montrer la liberté de $\Omega_{A/R}$ où $A = R[\SL_n]$. De manière générale, lorsque l'on dispose de $n$ scalaires $a_1, \cdots, a_n \in A$, on peut d'une part fabriquer le vecteur $a = (a_1, \cdots, a_n) \in A^n$ et le module quotient $A^n/A.a$ et d'autre part la forme linéaire $\alpha = [a_1, \cdots, a_n] : A^n \to A$ et le sous-module $\ker \alpha \subset A^n$.

    Et $\ker \alpha$ est le dual de $A^n/A.a$ : $\fbox {$\ker\alpha = (A^n/A.a)^*$}$. En effet, une forme linéaire sur $A^n/A.a$ est une forme linéaire sur $A^n$ qui est nulle sur le vecteur $a$ i.e. une forme linéaire $[b_1, \cdots, b_n]$ avec $\sum_i a_i b_i = 0$ si bien que $(b_1, \cdots, b_n) \in \ker\alpha$.

    $\bullet$ 3. Lorsque la suite $(a_1, \cdots, a_n)$ est unimodulaire i.e. $1 \in \langle a_1, \cdots, a_n\rangle$, alors les deux modules $A^n/A.a$ et $\ker\alpha$ sont dits stablement libres de type 1 car on peut les ``boucher'' avec un libre de rang 1 en obtenant un libre. De manière précise si $\sum_i a_i b_i = 1$, en notant $b = (b_1, \cdots, b_n)$ et $\beta = [b_1, \cdots, b_n] :A^n \to A$, on a des sommes directes :
    $$
    A^n = A.a \oplus \ker \beta \quad \text{donc}\quad A^n/A.a \simeq \ker \beta, \qquad\qquad\qquad
    A^n = \ker\alpha \oplus A.b
    $$Ces deux sommes directes montrent que l'on peut boucher $A^n/A.a$ d'une part et $\ker\alpha$ d'autre part avec un libre de rang 1 pour obtenir un module isomorphe à $A^n$. En passant : ce qu'il faut éviter de croire, c'est que $A^n = A.a \oplus \ker\alpha$ ; on peut même avoir $a \in \ker\alpha$, c'est le cas si et seulement si $\sum_i a_i^2 = 0$.

    Les deux modules en question $A^n/A.a$ et $\ker\alpha$ sont des modules projectifs de rang constant $n-1$, très particuliers/spéciaux, et qu'il faut éviter de confondre. Ils ne sont pas isomorphes mais duaux l'un de l'autre. Mais s'il s'agit de montrer la liberté de l'un, on peut faire avec l'autre.

    $\bullet$ 4. Une banalité : si $\alpha, \beta : A^n \to A$ sont deux formes linéaires et $u$ un automorphisme de $A^n$ qui les acoquine i.e. $\alpha = \beta \circ u$
    $$
    \xymatrix {
    A^n \ar[rr]^u\ar[dr]_\alpha && A^n \ar[dl]^\beta \\
    & A \\
    }
    $$alors $u(\ker \alpha) = \ker \beta$, a fortiori $\ker \alpha \simeq \ker \beta$. Mieux : les paires sont isomorphes $(A^n, \ker\alpha) \simeq (A^n, \ker \beta)$.

    $\bullet$ 5. Retour à $\Omega_{A/R}$ avec $A = R[\SL_n]$ et conservation des notations de mon post précédent. Le module $\Omega_{A/R}$ est le dual de $\ker\Tr(\widetilde X \bullet)$. Pour montrer que $\Omega_{A/R}$ est libre, il suffit de montrer que $\ker\Tr(\widetilde X \bullet)$ l'est. Or on a un triangle commutatif avec en horizontale un isomorphisme puisque $\widetilde X X = 1$ :
    $$
    \xymatrix {
    M_n(A) \ar[rr]^{\widetilde X \times \bullet} \ar[dr]_{\Tr(\widetilde X \bullet)} && M_n(A) \ar[dl]^{\Tr(\bullet)} \\
    & A \\
    }
    $$Il suffit donc de voir que $\ker\Tr$ est libre. Ce qui est une évidence puisque les $E_{ij} - E_{11}$ pour $(i,j) \ne (1,1)$ forment une base de ce noyau.

    En résumé, je n'ai raconté que des trivialités.
  • Tout groupe algébrique est parallélisable !
  • Salut Pea
    J'ai bien vu ton post ce matin. En ce qui concerne les groupes algébriques, je suis ignare.

    Bon, mais je suppose qu'il y a un contexte du genre : soit $K$ un corps de caractéristique 0 et $G$ un groupe algébrique défini sur $K$. Je crois me souvenir que $G$ est lisse et que le tangent $T$ au neutre de $G$ joue un rôle fondamental. Je suppose qu'une $K[G]$-base de $\Omega_{K[G]/K}$ va être obtenue à partir d'une $K$-base de $T$. C'est possible d'en savoir plus ? Merci. Une personne ne connaissant pas les groupes algébriques (je parle de mézigue) peut comprendre ?
  • Claude: je vais essayer de te donner ci-dessous plus de détails "techniques" mais le sens de mon intervention c'était surtout de souligner l'intuition géométrique que l'on pourrait avoir d'un tel résultat. Je rappelle l'argument (tout à fait standard) pour les groupes de Lie: l'espace tangent $T_g G$ en un point $g\in G$ s'identifie naturellement avec l'espace tangent en l'élément neutre $T_eG$ par $v\mapsto dm_g(v)$ où $m_g:G\to G$ est la multiplication à gauche par $g$ (on peut bien entendu choisir aussi la droite; c'est une question de goût) et ces isomorphismes "naturels" se mettent alors facilement en famille. Plus précisément, on a un isomorphisme entre l'espace tangent total $TG$ et $G\times T_e G$ donné par $(g,v)\mapsto (g,dm_g(v))$. Cet argument doit d'ailleurs plus ou moins s'adapter verbatim au cas des groupes algébriques sur un corps algébriquement clos de caractéristique zéro.

    Cette preuve s'applique en fait, modulo quelques détails techniques, à tous les "schémas en groupes" c'est-à-dire dans un cadre très général incluant notamment les "groupes algébriques". Je m'explique. Soit $S$ un schéma (par exemple le spectre d'un corps de caractéristique quelconque) et $G/S$ un schéma en groupes. Cela signifie que $G$ est un schéma muni d'un morphisme $\pi:G\to S$ (le "morphisme structural") ainsi que d'un morphisme "multiplication" $m:G\times_S G\to G$, d'un morphisme "d'inversion" $\iota: G\to G$ et d'une section "neutre" $e:S\to G$ vérifiant les axiomes habituels d'un groupe reformulés en termes catégoriques (tous les morphismes sont au dessus de la base $S$). De façon équivalente cela revient à munir pour tout schéma $R/S$ l'ensemble des $R$-points $G(R):=Hom_S(R,G)$ d'une structure de groupe qui est fonctorielle c'est-à-dire que pour tout morphisme de schémas $R\to R'$ sur $S$ l'application induite $G(R')\to G(R)$ est un morphisme de groupes. J'utiliserai ces deux points de vue de façon interchangeable. Soit $\Omega_{G/S}$ le faisceau des différentielles de $G$ sur $S$ (si $S=Spec(A)$ et $G=Spec(B)$ sont tous deux affines c'est le faisceau quasi-cohérent associé au $B$-module $\Omega_{B/A}$ des différentielles de Kähler). Pour tout morphisme de schémas $f:X\to Y$, je note $f^*$ l'opération de "tirer en arrière": cela transforme un faisceau quasi-cohérent sur $Y$ en un faisceau quasi-cohérent sur $X$ (pour des schémas affines c'est juste le changement de base, i.e. le produit tensoriel). Soit $i=e\pi: G\to G$ (i.e. l'application qui envoie tout le monde sur le neutre). Maintenant, voici le résultat général que l'on obtient dans ce cadre: il existe un isomorphisme "canonique"

    $$(\star)\;\;\; \Omega_{G/S}\simeq i^*\Omega_{G/S}$$

    Explicitons un peu ce qu'il se passe lorsque $S=Spec(k)$ où $k$ est un corps et $G$ est de type fini sur $k$ (i.e. ce qu'on appelle plus communément un "groupe algébrique" sur $k$). Puisque $i=e\pi$, on a alors $i^*\Omega_{G/S}=\pi^*e^*\Omega_{G/S}=\mathcal{O}_G\otimes_k \Omega_{G/S,e}$ où $\mathcal{O}_G$ est le faisceau structural de $G$ et $\Omega_{G/S,e}$ est la "fibre" de $\Omega_{G/S}$ en $e$. Ce dernier est un $k$-espace vectoriel de dimension finie et on en déduit que $\Omega_{G/S}$ est un $\mathcal{O}_G$-module libre de rang fini. Si on spécialise encore au cas où $G=Spec(R)$ est affine on obtient que $\Omega_{R/k}$ est un $R$-module libre de rang fini. Ce rang est de plus la dimension de la fibre $\Omega_{R/k,e}=\Omega_{R/k}/\mathfrak{m}\Omega_{R/k}$ comme $k$-espace vectoriel, où $\mathfrak{m}\subset R$ est l'idéal maximal correspondant au morphisme $e:R\to k$, parfois appelé "idéal d'augmentation". Lorsque $G$ est lisse (ce qui est automatiquement le cas lorsque $car(k)=0$), cette dimension est aussi celle de $G$ (au sens des schémas). Par contre en général on peut avoir $rg_R(\Omega_{R/k})>dim(G)$ par exemple lorsque $G=\mu_p$ est le groupe des racines $p$-ième de l'unité sur $k=\mathbb{F}_p$ on a $R=\mathbb{F}_p[X]/(X^p)$, $rg_R(\Omega_{R/k})=1$ mais $dim(\mu_p)=0$.

    Maintenant le preuve de $(\star)$ est essentiellement la même que pour les groupes de Lie dans un contexte plus "fancy". Pour être plus précis, on peut procéder comme suit. On écrit l'identité $Id:G\to G$ comme la composition $G\overset{i\times Id}{\to} G\times G \overset{m}{\to} G$ et $i$ comme la composition $G\overset{i\times Id}{\to} G\times G \overset{pr_1}{\to} G$ où $pr_1$ désigne la première projection (ces identités se vérifient aisément en passant aux $R$-points pour un $S$-schéma $R$ quelconque). On a donc $\Omega_{G/S}=(i\times Id)^* m^*\Omega_{G/S}$ et $i^*\Omega_{G/S}=(i\times Id)^* pr_1^* \Omega_{G/S}$ et il suffit de construire un isomorphisme $m^*\Omega_{G/S}\simeq pr_1^* \Omega_{G/S}$. Pour cela on va montrer que $\Omega_{G\times_S G/S}=pr_1^* \Omega_{G/S}\oplus pr_2^*\Omega_{G/S}=m^*\Omega_{G/S}\oplus pr_2^*\Omega_{G/S}$ où $pr_2:G\times_S G\to G$ est la deuxième projection. La première égalité est vérifiée pour tout produit fibré et découle de l'isomorphisme $\Omega_{B\otimes_A C/A}\simeq \Omega_{B/A}\otimes_A C\oplus B\otimes_A \Omega_{C/A}$ pour $B$ et $C$ deux $A$-algèbres. Pour la deuxième égalité, il faut remarquer que l'isomorphisme $(m,pr_2):G\times_S G\simeq G\times_S G$ échange la multiplication $m$ avec la première projection $pr_1$ tout en préservant la deuxième projection $pr_2$ c'est-à-dire que $pr_1\circ (m,pr_2)=m$ et $pr_2\circ (m,pr_2)=pr_2$. On a donc $\Omega_{G\times_S G/S}=(m,pr_2)^*pr_1^*\Omega_{G/S}\oplus (m,pr_2)^*pr_2^*\Omega_{G/S}=m^*\Omega_{G/S}\oplus pr_2^*\Omega_{G/S}$.
  • $\def\Spec{\text{Spec}}\def\SL{\text{SL}}\def\anneau{\text{anneau}}\def\Id{\text{Id}}$Pea
    D'abord merci car je vois que tu t'es donné du mal. J'ai tiré ton post (par principe, je ne lis pas à l'écran les posts qui disent quelque chose) et je vais essayer de digérer en prenant mon temps.

    Comme tu t'en doutes, pour commencer, je vais faire $S = \Spec(k)$, $G = \Spec(R)$ et essayer de comprendre ``ton'' $\Omega_{R/k,e}$.

    Par ailleurs, j'ai l'impression dans mon premier post, que ma notation $\anneau[\SL_n]$ était pourrie et dangereuse. J'ai d'ailleurs récidivé en écrivant $K[G]$ dans mon dernier post.

    Je reprends l'exemple de $\SL_n$, je mets $k$ à la base comme toi, si bien que ton $R$ de $G = \Spec(R)$ c'est $R = k[\SL_n]$ en gardant provisoirement ma notation pourrie. Donc le morphisme $e : R \to k$ qui est important c'est celui qui correspond à la spécialisation $X \to \Id_n$ (dans mes affaires, $X$ était la matrice générique $n \times n$) et qui par noyau donne ``l'idéal d'augmentation''. C'est dingue car dans mon approche d'algébriste la tête dans le guidon, ce $e : R \to k$ et son noyau, je ne le vois pas.

    Bref, j'ai de quoi cogité pour plusieurs jours. Au bout de ces quelques jours, histoire de me convaincre que j'ai un peu compris (j'espère) dans un domaine qui n'est pas le lien, peut-être que je traiterais un exemple.

    Encore merci.
  • Hello,

    Juste un petit truc sur $G \times \mathcal{T}_eG \simeq \mathcal{T}G$ en passant. Je ne vois pas le lien avec le module des différentielles est libre, y'a peut être pas de lien.

    Soit $k$ un anneau de base. Soit $G$ un $k$-foncteur en groupe (pas d'hypothèse de géométrie algébrique donc ce que je racconte est complétement trivial), on note $\mathcal{T}G := \left[ R \mapsto G(R[\epsilon]) \right]$. Notons $\iota : R \to R[\epsilon]$ et $\pi : R[\epsilon] \to R$. (je n'indexe pas $R$ sur les deux morphismes pour éviter la lourdeur). Bien entendu, $\mathcal{T}G$ est un (foncteur en) groupe !

    Notons $\mathcal{T}_eG := \left[ R \mapsto \{ v \in \mathcal{T}G(R) \mid G(\pi)(v) = e_R \} \right]$. Alors $\mathcal{T}_e(G)$ est un sous-foncteur de $\mathcal{T}G$. On a un isomophisme : $G \times \mathcal{T}_eG \to \mathcal{T}G$. La construction est :
    $$
    (g,v) \mapsto G(\iota)(g) \times_{G,R\varepsilon]} v \qquad \qquad \qquad \mathbf{g} \mapsto \left(G(\pi)(v), G(\iota \circ \pi)(\mathbf{g})^{-1} \times_{G,R[\varepsilon]} \mathbf{g} \right)
    $$

    Là j'ai ultra typé, si j'enlève le typage, on peut écrire :
    $$
    (g,v) \mapsto \mathbf{g} := g v \qquad \qquad \mathbf{g} \mapsto ( \mathbf{g}_0, \mathbf{g}_0^{-1} \mathbf{g}) \qquad \text{Avec $\mathbf{g}_0 := G(\pi)(\mathbf{g})$}
    $$

    Donc à un couple $(g,v)$ où $g$ est un $R$-élément du groupe et $v$ est un vecteur tangent en $e \in G(R)$, j'associe $g v$ (où $g$ est vu à coefficient dans $R[\varepsilon]$. Dans l'autre sens, à $\mathbf{g} \in G(R[\varepsilon])$, donc un "vecteur tangent ", j'associe son point d'attache $\mathbf{g}_0$ et ensuite je divise $\mathbf{g}$ par $\mathbf{g}_0$ (vu à coefficient dans $R[\varepsilon]$) ce qui fournit un vecteur tangent attaché en l'identité du groupe.

    Remarque : mon $R$ est un $k$-algèbre, qui ne correspond pas a vos $R$. Le $R$ du premier message de Claude correspond a mon $k$ donc au lieu de vie des équations. Le $R$ qu'utilise Péa correspond à faire l'hypothèse supplémentaire que $G := \text{Spec}(R)$.

    Je fais l'exemple de $\text{SL}_2$ donc ici à la base je prends $k = \Z$. C'est un foncteur représentable par : $$\Z[a,b,c,d] := \Z[A,B,C,D] / \langle AD - BC-1 \rangle \qquad \qquad \text{ et la matrice} \qquad \begin{bmatrix} a & b \\ c & d \end{bmatrix}$$

    La je traduit les choses en terme d'anneau, l'idée c'est de capté les deux isomorphismes réciproques $G \times \mathcal{T}_eG \simeq \mathcal{T}G$ en terme d'isomorphisme d'anneaux. L'dée c'est juste de faire du Yoneda, ce qui va être ultra chiant niveau variables !

    $\bullet_{1,\star}$ La loi de groupe, je duplique les variables en $\bullet_1$ et $\bullet_2$.
    $$\begin{array}{l|rcll}
    \times^{\text{op}} : & \Z[a,b,c,d] & \longmapsto & \Z[a_1,b_1,c_1,d_1, a_2,b_2,c_2,d_2] \\
    &\begin{bmatrix} a & b \\ c & d \end{bmatrix} & \longmapsto &\begin{bmatrix} a_1 & b_1 \\ c_1 & d_1 \end{bmatrix} \times \begin{bmatrix} a_2 & b_2 \\ c_2 & d_2 \end{bmatrix}
    \end{array}$$
    Je n'écris pas les choses mais par exemple $a \mapsto a_1 a_2 + b_1c_2$.

    $\bullet_1$ Représentabilité du foncteur $\mathcal{T}G$ (c'est général). On trouve
    $$
    \Z[a,b,c,d,h_a,h_b,h_c,h_d] := \frac{\Z[A,B,C,D,H_A,H_B,H_C,H_D]}{\langle AD-BC-1, DH_A+AH_D -CH_B-BH_C \rangle} \qquad \qquad \begin{bmatrix}a+\varepsilon h_a & b+\varepsilon h_b\\ c+\varepsilon h_c &d+\varepsilon h_d\end{bmatrix}
    $$
    $\bullet_2$ Identification de $\mathcal{T}G_e$, ici c'est un sous-foncteur fermée (ICI, ce n'est pas général il faut une hypothèse du style diagonale fermée mais ici aucun problème je pense).

    $$
    \Z[h_a,h_b,h_c,h_d] := \frac{\Z[H_A,H_B,H_C,H_D]}{\langle H_A+H_D \rangle} \qquad \qquad \begin{bmatrix}1+\varepsilon h_a & \varepsilon h_b\\ \varepsilon h_c &1+\varepsilon h_d\end{bmatrix}
    $$

    $\bullet$ Le produit $G \times \mathcal{T}_eG$ est représenté par :
    $$
    \Z[\mathfrak{a,b,c,d,h_a,h_b,h_c,h_d}] = \Z[A,B,C,D,H_A,H_B,H_C,H_D] / \langle AD - BC-1, H_A+H_D \rangle \qquad \qquad \left( \begin{bmatrix} \mathfrak a & \mathfrak b \\ \mathfrak c & \mathfrak d \end{bmatrix} ,\begin{bmatrix}1+\varepsilon \mathfrak{ h}_a & \varepsilon \mathfrak{h}_b\\ \varepsilon \mathfrak{h}_c &1+\varepsilon \mathfrak{h}_d\end{bmatrix} \right)
    $$

    Le truc c'est que $\Z[\mathfrak{a,b,c,d,h_a,h_b,h_c,h_d}]$ et $\Z[a,b,c,d,h_a,h_b,h_c,h_d]$ sont isomorphes, on le voit pas a l'oeil nu je pense :-D

    Comment on construit les deux isomorphismes réciproques ? Je fais un truc pour moi !

    $$\begin{array}{l|rcll}
    \phi : &\Z[a,b,c,d,h_a,h_b,h_c,h_d] & \longmapsto & \Z[\mathfrak{a,b,c,d,h_a,h_b,h_c,h_d}] \\
    &\begin{bmatrix}a+\varepsilon h_a & b+\varepsilon h_b\\ c+\varepsilon h_c &d+\varepsilon h_d\end{bmatrix} & \longmapsto &\begin{bmatrix} \mathfrak a & \mathfrak b \\ \mathfrak c & \mathfrak d \end{bmatrix} \times \begin{bmatrix}1+\varepsilon \mathfrak{ h}_a & \varepsilon \mathfrak{h}_b\\ \varepsilon \mathfrak{h}_c &1+\varepsilon \mathfrak{h}_d\end{bmatrix}
    \end{array}$$
    $$\begin{array}{l|rcll}
    \phi^{-1} : &\Z[\mathfrak{a,b,c,d,h_a,h_b,h_c,h_d}] & \longmapsto & \Z[a,b,c,d,h_a,h_b,h_c,h_d] \\
    & \left( \begin{bmatrix} \mathfrak a & \mathfrak b \\ \mathfrak c & \mathfrak d \end{bmatrix} ,\begin{bmatrix}1+\varepsilon \mathfrak{ h}_a & \varepsilon \mathfrak{h}_b\\ \varepsilon \mathfrak{h}_c &1+\varepsilon \mathfrak{h}_d\end{bmatrix} \right) & \longmapsto & \left(\begin{bmatrix} a & b \\ c & d \end{bmatrix} , \begin{bmatrix} a & b \\ c & d \end{bmatrix} ^{-1} \begin{bmatrix}a+\varepsilon h_a & b+\varepsilon h_b\\ c+\varepsilon h_c &d+\varepsilon h_d\end{bmatrix} \right)
    \end{array}
    $$

    Au propre :
    $$
    \begin{array}{l|rcll}
    \phi : &\Z[a,b,c,d,h_a,h_b,h_c,h_d] & \longmapsto & \Z[\mathfrak{a,b,c,d,h_a,h_b,h_c,h_d}] \\
    & a & \longmapsto & \mathfrak{a}\\
    & b & \longmapsto & \mathfrak{b} \\
    & c & \longmapsto & \mathfrak{c} \\
    & d & \longmapsto & \mathfrak{d} \\
    & h_a & \longmapsto & \mathfrak{a h_a + b h_c} \\
    & h_b & \longmapsto &\mathfrak{a h_b + b h_d}\\
    & h_c& \longmapsto & \mathfrak{c h_a + d h_c } \\
    & h_d & \longmapsto & \mathfrak{c h_b + d h_d }
    \end{array}
    $$
    et
    $$
    \begin{array}{l|rcll}
    \phi^{-1} : &\Z[\mathfrak{a,b,c,d,h_a,h_b,h_c,h_d}] & \longmapsto & \Z[a,b,c,d,h_a,h_b,h_c,h_d] \\
    & \mathfrak{a} & \longmapsto &a\\
    & \mathfrak{b} & \longmapsto & b\\
    &\mathfrak{c} & \longmapsto & c \\
    & \mathfrak{d} & \longmapsto &d \\
    & \mathfrak{ h_a} & \longmapsto & c h_b - a h_d \\
    & \mathfrak{h_b} & \longmapsto & d h_b - b h_d\\
    & \mathfrak{h_c}& \longmapsto & -ch_a + ah_c\\
    & \mathfrak{h_d} & \longmapsto & -ch_b + ah_d
    \end{array}
    $$

    Je n'ai pas le courage de le faire informatiquement. Juste une vérification, on a :
    $$
    dh_a+ah_d -ch_b-bh_c = 0 \qquad \text{Donc} \qquad c h_b - a h_d = dh_a -bh_c
    $$
    $$
    h_a \mapsto \mathfrak{a h_a + b h_c} \mapsto a (c h_b - a h_d) + b (-ch_a + ah_c ) = a (dh_a -bh_c) + b (-ch_a + ah_c ) = (ad-bc)h_a = h_a \qquad \text{because $ad-bc = 1$}
    $$

    Bref : L'anneau de $\mathcal{T}G$ i.e $\Z[a,b,c,d,h_a,h_b,h_c,h_d]$ est isomorphe entant que $\Z[a,b,c,d]$-algèbre à :
    $$
    \left( \Z[a,b,c,d] \right)[\mathfrak{h_a,h_b,h_c}]
    $$
    Donc un anneau de polynôme ... c'est rigolo ! Si j'ai bien compris $\text{Sym}$ et le lien entre $\Omega$ et le fibré tangent, on dirai que ca donne que $\Omega$ est libre !
Connectez-vous ou Inscrivez-vous pour répondre.