Homographies et petits groupes de Galois - Page 2 — Les-mathematiques.net The most powerful custom community solution in the world

Homographies et petits groupes de Galois

2456764

Réponses

  • claude quitté a écrit:
    Ce polynôme à deux paramètres $t,u$ est justement obtenu en considérant la réalisation linéaire en dimension $2$ de $C_4$ via la matrice $\pmatrix {0 & 1\cr -1 & 0\cr}$. Elle est pas belle la vie ?

    Même si j'y comprends rien, la vie est belle. :-)
  • Désolé pour mon post concernant cette histoire de polynômes génériques (qui, de plus, pouvait laisser croire que j'étais clair sur ces notions). Comme jusqu'à maintenant, nous utilisions ``polynôme générique'' dans un sens vague, mon intention était d'indiquer qu'il y a des définitions précises. Et subtiles ; j'ai ainsi appris que le polynôme $F_t(X) = X^3 - tX^2 - (t+3)X - 1$, qui est <<universellement>> générique de groupe de Galois $C_3$ c.a.d. que pour toute extension galoisienne $L/K$ de groupe de Galois $C_3$, il existe un élément primitif de $L/K$ dont le polynôme minimal sur $K$ est de la forme $F_{t_0}(X)$ pour un certain $t_0$ de $K$, et bien, n'est pas ``descent generic'' (au sens de De Meyer). On quitte ici la théorie de Galois élémentaire puisqu'intervient par exemple la théorie de Galois sur les anneaux commutatifs.

    Et pour insister sur la subtilité du binz, une notion qui n'est pas totalement étrangère à ce fil : un corps $K$ est dire rationnel sur $k$ ($k$ sous-corps de $K$) si $K$ est un corps de fractions rationnelles sur $k$ à un nombre fini d'indéterminées i.e. $K = k(x_1, \ldots, x_n)$ où $x_1, \ldots, x_n$ sont algébriquement indépendants sur $k$. On dit qu'il est stablement rationnel sur $k$, s'il existe des indéterminées $Y_1, \ldots, Y_r$ sur $K$ telles que $K(Y_1,\ldots,Y_r)$ soit rationnel sur $k$. Et bien, Formanek, dit en 1982, dans son article ``Rational function fields, Noether's problem and related questions'' : ``Although the notion of stable rationality has proved useful, it is not even know if non-rationality stably fields exist's''. C'est quand même étonnnat d'utiliser une notion dont le statut n'est pas totalement clair. Il faudra attendre 1985 pour avoir un exemple d'extension stablement rationnelle non rationnelle (cf l'introduction de Jensen, Ledet, Yui, ``Generic Polynomials, Constructive Aspects of the Inverse Galois Problem'' dont j'ai déja parlé). Il faut savoir qu'il y a des livres entiers consacrés à ce sujet (par exemple The rationality Problem in Invariant Theory).

    Et nous dans tout cela, que veut-on ? D'abord, se faire plaisir (si j'ai bien compris) et faire des petites choses élémentaires propres. Si par exemple, je t'ai parlé de la réalisation linéaire de $C_4$ en dimension $2$, c'est que je suis persuadé que les enfants que nous sommes peuvent comprendre que $\mathbb Q(X,Y)^{C_4}$ est rationnel sur $\mathbb Q$ de manière explicite en suivant par exemple Kemper et/ou en utilisant un résultat de Miyata (accessible car nous l'avions donné en épreuve il y a une vingtaine d'années).

    Bref, se faire plaisir et faire des choses simples de manière modeste. En ce qui concerne ``modestie'' , j'en ai profité pour attacher dans http://www.les-mathematiques.net/phorum/read.php?3,1263771,1271965#msg-1271965, un pdf concernant le cercle de Carlyle de $X^2 - sX + p$. Et oui, le degré 2, cela rend modeste. A un tel point, concernant le passage de $F(X)$ à $F(X^2)$ que j'ai évoqué imprudemment dans un post, j'ai constaté qu'il n'était pas inutile de se faire de la ``théorie de Kummer pour les bébés'', en réglant (partiellement) le statut de l'extension $K(\sqrt {a_1}, \ldots, \sqrt {a_n})/K$. Et d'ailleurs, ce coup de théorie de Kummer pour les bébés fournit encore un exemple en théorie de Galois sur lequel on a la main.
  • Précision. Pour la représentation linéaire en dimension $2$ de $C_4$ que j'ai donnée i.e. via $\pmatrix {0 &1\cr -1& 0\cr}$, on a $\mathbb Q(X,Y)^{C_4} = \mathbb Q({X^2-Y^2 \over XY}, X^2+Y^2)$. Soit. Mais ce qui nous intéresse (je pense), ce sont les moyens d'obtenir un tel résultat. Et de plus, étant donnée une fraction rationnelle $\in \mathbb Q(X,Y)$ qui est $C_4$-invariante, d'être capable de l'écrire comme une fraction rationnelle en $({X^2-Y^2 \over XY}, X^2+Y^2)$. Ce n'est pas une coquetterie : on en a besoin dans la suite ! Puis ensuite, à partir de cela, obtenir un polynôme réputé générique (en un sens à préciser, cf les diverses définitions de généricité) de groupe de Galois $C_4$, par exemple
    $$
    (\star) \qquad\qquad\qquad
    X^4 + 2t(1+u^2) X^2 + t^2(1+u^2)
    $$
    Et ``bien sûr'', étudier en quoi il est générique en évitant si possible le fameux ``par théorème'' (par exemple, ``par théorème'' qui figure dans les livres ou papiers, on a $\mathbb Q(X,Y)^{C_4} = \mathbb Q({X^2-Y^2 \over XY}, X^2+Y^2)$, mais il s'agit d'être plus exigeant quand on veut réinventer la roue). Comparer (en un sens à préciser) par exemple $(\star)$ au polynôme $F_t(X) = X^4 - tX^3 -6X^2 + tX + 1$ déja trouvé pour $C_4$ ne va pas se faire tout seul (à mon grand regret). Aller jusqu'au bout de la chose demande du boulot. Faut-il toujours réinventer la roue ? J'en sais rien, enfin ça dépend.

    A propos de ``avoir la main''. Dans http://www.les-mathematiques.net/phorum/read.php?3,1258683,1266093#msg-1266093, il est question d'un polynôme bi-carré $X^4 - \ell X^2 + v \in k[X]$ avec $v$ non-carré dans $k$ et $(l^2 - 4v)/v$ carré dans $k$. Et il est question de faire quelque chose, peu importe ce quelque chose. Pour moi (mais j'insiste que c'est pour moi), j'ai intérêt à avoir des exemples, beaucoup d'exemples de tels polynômes et si je peux, essayer de les paramétrer. Pourquoi ? Imaginons un instant que je ne comprenne pas un certain truc à propos de ce qu'il faut faire avec ce polynôme. Et bien, peut-être que cela va être utile de voir ce que cela donne sur un exemple. Si j'ai jamais pris le soin d'expliciter des exemples pertinents, ça va faire mal à ce moment-là. Et il y a une petite justice : en paramètrant ce type de polynômes $X^4 - \ell X^2 + v$, je suis tombé sur le polynôme $(\star)$ (cela ne peut pas être une coïncidence). Bien sûr, j'exagère. Ici avoir la main n'est pas nécessairement essentiel quand on connaît un peu le domaine. Car, grosso-modo, on a la main sur les domaines que l'on connait. Mais sur les domaines que l'on ne connaît pas, qu'en est-il ? Et que l'on veut comprendre, bien entendu. Of course ce ``avoir la main'' est une attitude personnelle et il n'y a aucune raison qu'elle s'applique à quelqu'un d'autre : il y a tant de façons de pratiquer/comprendre les mathématiques, et c'est tant mieux.
  • Je comprends mieux pourquoi j'étais perdu.
    Ce polynôme à deux paramètres $t,u$ est justement obtenu en considérant la réalisation linéaire en dimension $2$ de $C_4$ via la matrice $\pmatrix {0 & 1\cr -1 & 0\cr}$.
    Précision. Pour la représentation linéaire en dimension $2$ de $C_4$ que j'ai donnée i.e. via $\pmatrix {0 & 1\cr -1 & 0\cr}$,

    Etant un peu moins à la rue sur les représentations linéaires, j'y vois un peu plus clair.
  • Pour le reste, on a beaucoup travaillé sur les polynômes à un paramètre donc il serait effectivement très instructif de savoir comment obtenir le polynôme $(\star)$ à deux paramètres.

    Question naïve : par quoi a-t-on le droit de remplacer $t$ et $u$ (toujours dans l'idée de conserver le bon groupe de Galois) ?
  • Pour l'instant, je réponds pas à ta question naïve (pour la bonne raison que je ne sais pas y répondre). Mais je réponds à la question que tu n'as pas vraiment posée : j'ai pris $z \in \mathbb Q(X,Y)$, pas trop n'importe comment, et j'ai calculé $\prod_{i=0}^3 (T - \sigma^ i(z))$ où $\sigma$ est l'automorphisme de $\mathbb Q(X,Y)$ associée à la matrice $\pmatrix {0 & 1\cr -1 &0\cr}$. Attention à la gauche et la droite (gros blocage chez moi, mais j'essaie de me soigner constamment). Cela veut dire quoi ``pas n'importe comment" ? Ce qui est sûr, c'est que j'ai PAS pris $z=0$. J'ai un peu suivi le livre de Derksen et Kemper (je peux donner la page). Il faut faire en sorte de trouver un polynôme séparable (de degré $4$) i.e. les $\sigma^i(z)$ pour $0 \le i \le 3$ sont deux à deux distincts. Les coefficients de ce polynômes sont invariants par $\sigma$ donc dans $\mathbb Q(t,u)$ avec $t = (X^2-Y^2)/XY$ et $u = X^2+Y^2$. Il faut les exprimer (les coefficients) comme des fractions rationnelles en $t,u$. Puis bricoler $z$, de façon à obtenir un joli polynôme sans dénominateur par exemple. Attention à ne pas vouloir aller trop vite, si je peux me permettre. J'ai encore des histoires à raconter avec notre ``vieux $C_4$'' (avant qu'on ne l'enterre).

    En fait, j'ai pas suivi complètement les auteurs car en maths, il faut toujours pouvoir apporter sa petite contribution aussi minime soit-elle, histoire de dire que l'on subit pas complètement le truc, mais que l'on agit un peu. Un étudiant m'avait dit une fois la chose suivante (et cela m'a marqué) ; c'était à propos de l'un de ses programmes, pas très beau, que j'avais repris et que j'avais complètement ré-écrit ``en mieux''. Il m'avait alors dit ``oui, votre programme est beaucoup, beaucoup mieux écrit que le mien, aucun doute là-dessus. Mais il y a quelque chose qui fait que je suis attaché à mon programme". Et à ma demande ``quoi ?", il m'avait répondu tout simplement ``c'est le mien''.

    Gauche versus droite, plafond versus rez-de-chaussée, $\sigma$ versus $\sigma^{-1}$ ...etc... Comment fais tu agir $\mathrm {GL}_n(A)$ sur $A[X_1,\ldots,X_n]$ ?
  • Tu me mets à l'épreuve !

    $M.P(X_1,\ldots,X_n)=P((X_1,\ldots,X_n)^t M)$ ???
  • Te mettre à l'épreuve ? Bien sûr que non ! Juste se coordonner, se mettre d'accord. Pourquoi est ce que tu notes ton action comme une action à gauche ?
  • Bonne question.

    J'écris toujours $g\cdot x$ dans cet ordre-là puisque c'est la même chose que $\rho(g)(x)$ pour un certain morphisme $\rho$.

    Mais bon. Je ne serais pas plus surpris que ça par l'écriture $x\cdot g$.

    Ceci me fait penser à une vidéo de Vincent Lafforque où il semble quotienter un groupe à gauche et à droite en même temps. Un truc du style $H/G\backslash K$...
    J'ai fini par regarder une série...
  • Le côté utilisé n'est jamais innocent. Si on note $M.P$, il est tentant de penser que $M'.(M.P) = (M'M).P$, n'est ce pas ? Cela serait vraiment dommage que $M'(M.P) = (MM').P$ car bonjour pour les calculs. Et qu'en est-il de ``ton action'' i.e. vérifie-t-elle la première égalité ci-dessus ou bien la seconde ?
  • La première mais par chance...
    Et ça marche aussi en remplaçant $^t M$ par $M^{-1}$.
  • Vraiment sûr ?
  • $M'.(M.P)=M'.(P((X_1,\ldots,X_n)^t M)=P((X_1,\ldots,X_n)^t M^t M')=P((X_1,\ldots,X_n)^t (M'M))=(M'M).P$.

    Du grand n'importe quoi, cf plus bas.
  • Cela donne l'impression de coller mais ... Faisons $n=2$, $M = \pmatrix {a & b\cr c &d\cr}$, $M' = \pmatrix {a' & b'\cr c' &d'\cr}$. Désolé d'être directif. Faire le calcul de $Q(X,Y) = M.P(X,Y)$. Puis, le plus doucement possible, celui de $M' . Q(X,Y)$, en faisant bien sûr ``agir $M'$ sur $X,Y$ dans $Q$''. J'insiste (sorry again) sur le ``doucement'' . Et oublier (pour l'instant) le calcul général que tu as fait.
  • Je n'aime pas faire du tout ce que je vais faire. Mais je le fais

    ===
    > M1 ;
    [a1 b1]
    [c1 d1]
    > M2 ;
    [a2 b2]
    [c2 d2]
    > Action(M1, X) ;
    a1*X + b1*Y
    > Action(M2, Action(M1, X)) ;
    (a1*a2 + b1*c2)*X + (a1*b2 + b1*d2)*Y
    > Action(M2*M1, X) ;
    (a1*a2 + c1*b2)*X + (b1*a2 + d1*b2)*Y
    ===

    Es tu d'accord ?

    Tandis que :
    ===
    > Action(M1*M2, X) ;
    (a1*a2 + b1*c2)*X + (a1*b2 + b1*d2)*Y
    ===

    C'est, de ma part, totalement nul de procéder ainsi. Il faudra bien sûr, en temps utile, faire du structurel.
  • $Q(X,Y)=P(aX+bY,cX+dY)$ donc
    $M'.Q(X,Y)=Q(a'X+b'Y,c'X+d'Y)=P((aa'+bc')X+(ab'+bd')Y,(a'c+c'd)X+(b'c+dd')Y)$.
  • Et effectivement, c'est $(MM').P$. (td)

    J'aurais mieux fait de choisir $M.P=P((X_1,\ldots ,X_n)^t (M^{-1}))$, ou d'aller regarder une série. ;-)
  • Je refais le cas général.

    Notons $M.P=Q(X_1,\ldots ,X_n)$.

    Alors $M'.(M.P)=Q((X_1,\ldots ,X_n)^t M')=P((X_1,\ldots ,X_n)^t M' \ ^t M)=P((X_1,\ldots ,X_n)^t (MM'))=(MM').P$.

    Qui a dit que ce n'était pas une épreuve :-S
  • Bienvenue au club (des gens devenus prudents avec la gauche et la droite). Désolé pour ta série. Suggestions : ne rien faire à chaud du genre $^t(M^{-1})$, prendre le temps d'analyser le calcul général qui semblait bon. Et puis la bonne solution c'est certainement de noter ton action (celle que tu as proposée au début) $P.M$ car c'est une action à droite. Et au fait, le groupe symétrique $S_n$ agit de quel côté sur $A[X_1, \ldots, X_n]$ ? Comment concilier les deux ? Quelles sont tes conventions pour la matrice de permutation $P_\sigma$ ? Ensuite, plus tard, élever le débat et se rendre compte d'une ``certaine contravariance entre l'algèbre et la géométrie'' (mal dit). Tout cela est vachement important sinon on ne peut faire aucun calcul. Plus tard, je te montrerais ce qui peut arriver lorsque l'on détermine les invariants pour un sous-groupe $G$ de $\mathrm {GL}_n(K)$ et ceux pour le groupe $^t G$ (i.e. l'ensemble des $^t M$ pour $M \in G$ qui est aussi un sous-groupe de $\mathrm {GL}_n(K)$). Y'a trop de gens qui pensent que tout cela c'est sans importance. J'espère que tu comprends mieux pourquoi j'avoue avoir des blocages (mais que je me soigne, enfin j'essaie).
  • Bon, on peut envisager de faire agir $C_4$ sur $\mathbb Q[X,Y]$ puis sur $\mathbb Q(X,Y)$ via $\pmatrix {0 &1\cr -1&0\cr}$.
  • Un virage à gauche avec $\sigma.P=P(X_{\sigma^{-1}(1)},\ldots , X_{\sigma^{-1}(n)})$ ?

    $P_{\sigma}=(\delta_{i,\sigma(j)})_{i,j}$.
  • Si on est d'accord avec les notations (?), l'orbite de $X$ par l'action de $C_4$ à gauche sur $\mathbb{Q}[X,Y]$ via $\pmatrix {0 &1\cr -1&0\cr}$ est $\{X,Y,-X,-Y\}$.
  • Gauche, droite et tout le binz. Je couche une suite de faits, en apparence hétéroclite : à chacun d'y trouver une explication. D'abord, en ce qui concerne la matrice de permutation $P_\sigma$, il faut faire un choix. J'ai fait le mien (ce n'est pas celui de tout le monde) en imposant $P_\sigma P_{\sigma'} = P_{\sigma \circ \sigma'}$, égalité qui doit se voir sans aucun calcul puisqu'en désignant par $(e_i)$ la base canonique :
    $$
    P_\sigma(e_j) = e_{\sigma(j)} \qquad\qquad \hbox {but} \qquad\quad
    P_\sigma \pmatrix {x_1\cr \vdots \cr x_n} = \pmatrix {?\cr\vdots\cr ?}
    $$
    Avec le symbole de Kronecker, j'y vois rien (peut-être ma mauvaise foi, mais peu importe). Le ``but'' à droite dit que l'on ne peut pas faire plaisir à tout le monde en même temps (base versus coordonnées) : moi je fais plaisir à la base pour voir (et avoir) $P_\sigma P_{\sigma'} = P_{\sigma\circ\sigma'}$, auquel je tiens (car c'est simple).Tout cela doit conduire au fait que la définition habituelle à gauche $\sigma.P(X_1, \ldots, X_n) = P(X_{\sigma(1)}, \ldots, X_{\sigma(n)})$ est compatible avec l'action à droite de $\mathrm {GL}_n(A)$ sur $A[X_1,\ldots, X_n]$. Si, si.

    Agitons le truc. Si $X$ est un ensemble quelconque, cela veut dire quoi faire agir le groupe symétrique $S_n$ sur $X^n$ par permutation des coordonnées ? Comment ? A droite ou à gauche (c'est selon) ?

    Et les homographies : $K$ étant un corps commutatif, trois groupes se présentent à nous : $\mathrm {PGL}_2(K)$, $\mathrm {Aut}_K K(X)$, et celui des homographies des petites classes $x \mapsto {ax+b \over cx+d}$ avec $ad-bc \ne 0$, convenablement prolongées à $\mathbb P^1(K) = K \cup \{\infty\}$ en n'oubliant pas que $\mathbb P^1(K)$, c'est quand même $(K^2 \setminus \{0\})/K^*$. Quels sont les isomorphismes ou anti-isomorphismes (naturels) entre ces groupes ?

    J'ai même vu des auteurs, au lieu d'avouer franchement anti-isomorphisme, glisser quelque part (sans rien dire) une transposée de matrice, pour redresser artificiellement quelque chose. Un peu comme si on mettrait $^t(M^{-1})$ quelque part pour avoir à tout prix une action d'un certain côté (en forçant un peu la nature).

    Soient $F, G \in k[X,Y,Z]$ ($k$ anneau commutatif quelconque) 2 polynômes à 3 indéterminées (2, 3 sont des entiers quelconques). Cela détermine un objet algébrique, un $k$-morphisme $k[U,V] \to k[X,Y,Z]$ via $U \mapsto F$ et $V \mapsto G$. Mais aussi, un objet géométrique dans l'autre sens $k^3_{x,y,z} \to k^2_{u,v}$ (les indices pour indiquer les coordonnées), à savoir $(x,y,z) \mapsto \big(u=F(x,y,z), v=G(x,y,z)\big)$. Il s'agit là du B.A.BA de la géométrie algébrique élémentaire entre variétés affines ultra-simples (des espaces affines) : une flèche en géométrie est le co-morphisme de l'autre fléche en algèbre, à moins que cela ne soit le contraire. Y'a truc qui va dans un sens et machin dans l'autre sens. Faudra faire un petit peu attention en composant.

    Beaucoup d'auteurs manient des anneaux de polynômes sans utiliser d'indéterminées. Supposons pour 2 minutes que $k$ soit un corps. Alors tel auteur considère un $k$-espace vectoriel $V$ de dimension finie et parle de $k[V]$ ou de $k[V^*]$, cela dépend des jours de la semaine. Qu'est ce que cela signifie ? Si $k$ n'est qu'un anneau commutatif, il faudra dire $V$ est un ``$k$-module libre de rang fini'' au lieu de ``$V$ est un $k$-espace vectoriel de dimension finie''. En quoi, c'est lié au binz courant ? Si on a $V$ et $W$ (on se doute que $W$ c'est ..), et une application linéaire $u : V \to W$, cela va probablement aider à trouver ce que $u$ induit d'une part entre $k[V]$ et $k[W]$ et d'autre part entre $k[V^*]$ et $k[W^*]$. Une façon de dire qu'il n'y a pas que des matrices carrées (inversibles) dans la vie et que peut-être cela peut aider à faire agir $\mathrm{GL}_n(k)$ sur $k[X_1,\ldots, X_n]$. Et qu'il faut, certes user des matrices, sans toutefois en abuser. On n'a pas toujours intérêt à mettre des bases partout et à remplacer application linéaire par matrice. Des fois, si, des fois, non.

    ... Etc... Mais c'est tout pour l'instant.
  • @gai requin A propos de $C_4$ agissant sur $k[X,Y]$ via $A = \pmatrix {0 & 1\cr -1 & 0\cr}$. Je trouve que cela sera encore plus net que le coup de l'orbite de dire : soit $\sigma$ le $k$-automorphisme de $k[X,Y]$ correspondant au générateur $A$. Alors $\sigma$ réalise $X \mapsto Y$ et $Y \mapsto -X$. Il faut juste ne pas confondre $A$ et $^t A$, ce qui ne serait pas grave ici (sauf pour communiquer) mais qui pourrait l'être plus (vraiment plus) dans d'autres circonstances. Avec le coup de l'orbite, on risque de ne pas voir la différence entre $A$ et $^t A$.

    Attention : j'ai avoué mes blocages et que je fais un effort (exemple : je m'arrête au feu rouge et je passe au feu vert). Il ne faut surtout pas que pour autrui, cela ne devienne une contrainte. Chacun fait comme il veut (pour le coup des feux, il est quand même préférable de se mettre d'accord).
  • On est d'accord pour $P_{\sigma}$.

    Notons $P_\sigma P_{\sigma'}=(a_{ij})$.
    Alors $a_{ij}=\sum \limits_{k=1}^n {\delta_{\sigma^{-1}(i),k}\delta_{k,\sigma'(j)}}$.
    Ainsi, $a_{ij}=0$ ou $1$ avec $a_{ij}=1 \Leftrightarrow \sigma^{-1}(i)=\sigma'(j) \Leftrightarrow i=\sigma \circ \sigma'(j)$.
    En particulier, $P_\sigma P_{\sigma'}=P_{\sigma \circ \sigma'}$.

    Je vérifierai plus tard que $\sigma \cdot P=P((X_1,\ldots,X_n) ^t P_\sigma)$.
  • Ok en ce qui concerne le fait que l'on a la même définition de $P_\sigma$. D'ailleurs, histoire que cela soit plus joli, je viens d'utiliser l'indice $j$ pour écrire $P_\sigma(e_j) = e_{\sigma(j)}$ (au lieu de $i$ dans le passé). Tu dois trouver que je suis de mauvaise foi concernant ta définition avec le symbole de Kronecker ? En ce qui concerne ton ``Je vérifierai plus tard", on verra plus tard.
  • C'est mieux avec $j$ pour trouver la bonne matrice.

    Je ne suis pas grand fan non plus du symbole de Kronecker.
    Mais en ce moment je lis un truc où il est pas mal utilisé donc je voulais m'entraîner et l'occasion était belle.

    Pour ladite vérification, je pense qu'il suffit de traiter le cas des transpositions.
  • $P_\sigma \pmatrix {x_1\cr \vdots \cr x_n} = \pmatrix {?\cr\vdots\cr ?}$

    Je trouve $\pmatrix {x_{\sigma^{-1}(1)}\cr\vdots\cr x_{\sigma^{-1}(n)}}$.

    Mais ça ne colle pas avec :
    Tout cela doit conduire au fait que la définition habituelle à gauche $\sigma.P(X_1,\ldots ,X_n)=P(X_{\sigma(1)},\ldots ,X_{\sigma(n)})$ est compatible avec l'action à droite de $\rm{GL}_n(A)$ sur $A[X_1,\ldots ,X_n]$. Si, si.
  • Hum : et SI la soi-disant vérification à faire était erronée ? J'ai bien dit ``SI' (tu vas probablement penser que je suis frileux). A ce propos, as tu vu, à droite de $P_\sigma(e_j) = e_{\sigma(j)}$, le ``but'' (en anglais, cela veut dire mais) avec des points d'interrogation à remplacer par ce qu'il faut ?
  • J'ai remplacé ces points d'interrogation dans mon message précédent.

    Si on pose $\sigma\cdot P=P(X_{\sigma^{-1}(1)},\ldots , X_{\sigma^{-1}(n)})$ et $P\bullet M=P((X_1,\ldots,X_n) ^t M)$, on obtient $\sigma\cdot P=P\bullet P_{\sigma}$.
  • Ok pour les points d'interrogation. Et ça COLLE ! Je veux dire par là, qu'AVANT, on a toujours noté l'action de $S_n$ sur $A[X_1,\ldots, X_n]$ à GAUCHE i.e. $\sigma . F$. Et toujours AVANT, on avait que $\sigma . F(X_1, \ldots, X_n) = F(X_{\tau(1)}, \ldots, X_{\tau(n)})$ avec $\tau = \sigma \hbox { ou } \sigma^{-1}$ : Au fait, combien ? Il ne faut surtout RIEN CHANGER par rapport au passé i.e. à AVANT. Avant quoi ? que C.Q. ne s'en mêle avec ses histoires de gauche et de droite. Sauf que MAINTENANT (depuis hier soir), on sait qu'il faut noter à droite l'action de $\hbox {GL}_n(A)$ sur $A[X_1,\ldots, X_n]$. Et comme tout doit être cohérent, c'est que l'on doit avoir $\sigma . F = F . P_\sigma$ ou bien $\sigma . F = F . P_{\sigma^{-1}}$. Mais comment pourrait-on avoir $\sigma . F = F . P_\sigma$ tout en assurant le bon fonctionnement de la gauche et la droite ? Et c'est donc que l'on doit avoir ....

    Of course, cela semble un véritable patacaisse car il suffirait que je dise la vérité i.e. que j'écrive $\mathrm {truc} = \mathrm {machin}$ et qu'on n'en parle plus. Mais pourquoi serais je le seul à avoir des problèmes avec ma gauche et ma droite ? Enfin, une dernière indication c'est que $^t(P_\sigma) = (P_\sigma)^{-1} = P_{\sigma^{-1}}$.

    Content d'être entré au club ?
  • Du pur bonheur !

    J'y vais avec $\sigma\cdot F=F(X_{\sigma(1)},\ldots , X_{\sigma(n)})$ et $F\bullet M=F((X_1,\ldots,X_n)M)$.

    Si c'est juste, ça a le mérite d'être facilement mémorisable.
  • On va y arriver mais surtout ne rien changer à ce qui marche ! AVANT, on avait $\sigma . F = F(X_{\sigma(1)}, \ldots, X_{\sigma(n)})$ et c'est bien une action à GAUCHE. Hier soir, on a dit que $F.M = F((X_1, \ldots, X_n)^t M)$ et que c'était une action A DROITE. Pas le droit de changer d'avis après 24h (ou alors remettre en cause le passé récent).

    Et au fait, si on prend la transposée de :
    $$
    P_{\sigma^{-1}} \pmatrix {x_1\cr \vdots\cr x_n} = \pmatrix {x_{\sigma(1)} \cr \vdots \cr x_{\sigma(n)}}
    \qquad\hbox {on obtient} \qquad
    (x_1, \ldots, x_n) P_\sigma = (x_{\sigma(1)}, \ldots, x_{\sigma(n)})
    $$
    Maintenant, jouons les grands (ou soyons fous) en faisant SEMBLANT de poser $\sigma . F = F . P_{\sigma^{-1}}$. Alors, on vérifie (il faut le faire) que c'est bien une action à GAUCHE. Et cela fait dans les combien ?
    $$
    F(X_1, \ldots, X_n) . P_{\sigma^{-1}} = F((X_1, \ldots, X_n) ^t(P_{\sigma^{-1}})) = F((X_1, \ldots, X_n) P_\sigma) = (X_{\sigma(1)}, \ldots, X_{\sigma(n)})
    $$
    Ca y est : on a retrouvé la (bonne) définition du passé de l'action à gauche du groupe symétrique $S_n$ via l'action à droite de $\mathrm {GL}_n$.

    Hum, j'ose à peine dire : on se fait agir $S_n$ sur $X^n$ ($X$ ensemble quelconque) par permutation des coordonnées ?
  • @gai requin : Dis moi que tu penses qu'avant, c'était bien plus peinard, hein ? Que tu n'avais aucun problème avec ta gauche et ta droite. Avoue.
  • J'avoue. :-)

    Pour faire agir $S_n$ sur $X^n$, on peut pas faire ce qu'on a déjà fait précédemment ?
  • Non, on peut pas faire comme avant, car avant c'était autre chose ! Bon, mais je pense qu'il est préférable de remettre cela à plus tard, car les histoires de gauche et de droite, cela pourrait finir par agacer. J'ai souvent entendu ce discours ``avant, c'était bien plus peinard, je n'avais pas de souci'' ; mais je t'assure qu'en fait, je n'y suis pour rien.
  • Donc tu me dis qu'on peut pas poser, pour tous $\sigma \in S_n$ et $(x_i) \in X^n$, $\sigma\cdot (x_i)=(x_{\sigma(i)})$ ???
  • Soit $x: i\mapsto x_i$. Alors l'application $i\mapsto x_{\sigma(i)}$ est $x\circ \sigma$. Ca agit à droite, indubitablement
  • Sans définitions, nul recours.
    Merci GBZM.
  • La même chose que GBZM : un habitant $x$ de $X^n$, c'est une application $x : \{1..n\} \to X$ ; il n'y qu'un moyen naturel de faire agir $\sigma \in S_n$, c'est de composer à la source $x \circ \sigma$.

    Autre chose : voici un groupe $G \subset \mathrm {GL}_7(\mathbb F_2)$ ; il est abélien, isomorphe à $C_2 \times C_2 \times C_2 \times C_2$. Les générateurs (sorry for the raw text) :
        [color=#66CC33][ [color=#000000]1[/color] 0 0 0 [color=#000000]1[/color] 0 0 ]    [ [color=#000000]1[/color] 0 0 0 0 0 0 ]    [ [color=#000000]1[/color] 0 0 0 0 0 0 ]    [ [color=#000000]1[/color] 0 0 0 0 0 0 ]
        [ 0 [color=#000000]1[/color] 0 0 0 0 0 ]    [ 0 [color=#000000]1[/color] 0 0 0 [color=#000000]1[/color] 0 ]    [ 0 [color=#000000]1[/color] 0 0 0 0 0 ]    [ 0 [color=#000000]1[/color] 0 0 0 0 0 ]
        [ 0 0 [color=#000000]1[/color] 0 0 0 0 ]    [ 0 0 [color=#000000]1[/color] 0 0 0 0 ]    [ 0 0 [color=#000000]1[/color] 0 0 0 [color=#000000]1[/color] ]    [ 0 0 [color=#000000]1[/color] 0 0 0 0 ]
        [ 0 0 0 [color=#000000]1[/color] 0 0 0 ]    [ 0 0 0 [color=#000000]1[/color] 0 0 0 ]    [ 0 0 0 [color=#000000]1[/color] 0 0 0 ]    [ 0 0 0 [color=#000000]1 1 1 1[/color] ]
        [ 0 0 0 0 [color=#000000]1[/color] 0 0 ]    [ 0 0 0 0 [color=#000000]1[/color] 0 0 ]    [ 0 0 0 0 [color=#000000]1[/color] 0 0 ]    [ 0 0 0 0 [color=#000000]1[/color] 0 0 ]
        [ 0 0 0 0 0 [color=#000000]1[/color] 0 ]    [ 0 0 0 0 0 [color=#000000]1[/color] 0 ]    [ 0 0 0 0 0 [color=#000000]1[/color] 0 ]    [ 0 0 0 0 0 [color=#000000]1[/color] 0 ]
        [ 0 0 0 0 0 0 [color=#000000]1[/color] ]    [ 0 0 0 0 0 0 [color=#000000]1[/color] ]    [ 0 0 0 0 0 0 [color=#000000]1[/color] ]    [ 0 0 0 0 0 0 [color=#000000]1[/color] ][/color]
    
    On le fait agir sur $\mathbb F_2[x_1, \ldots, x_7]$ comme on a dit. Alors le sous-anneau des invariants $\mathbb F_2[\underline x]^G$ est un anneau de polynômes. En voici un système de (sept) générateurs:
    $$
    x_5, \quad x_6,\quad x_7,\quad x_1^2 + x_1x_5,\quad x_2^2 + x_2x_6,\quad x_3^2 + x_3x_7,\quad x_4^2 + x_4x_5 + x_4x_6 + x_4x_7
    $$
    Maintenant, je note $^t G$ le sous-groupe des $^t M$, $M \in G$; c'est un sous-groupe de $\mathrm {GL}_7(\mathbb F_2)$ (toujours vrai, ce n'est pas lié à $G$ commutatif), qui est anti-isomorphe, donc isomorphe à $G$ (idem toujours vrai). Et bien l'anneau des invariants par $^t G$ n'est plus un anneau de polynômes. On peut le voir avec des outils permettant de calculer la série d'Hilbert-Poincaré de l'algèbre des invariants
    $$
    {t^5 - t^4 + 3t^3 + 1 \over (1-t^4)^3 \, (1-t)^4}
    $$
    série qui ne peut pas être celle d'un anneau de polynômes. Je ne sais plus à qui est dû cet exemple. Bilan : la gauche et la droite, c'est parfois pénible certes mais c'est la vie ; et il ne faut pas badiner avec cela.
  • Tiens la visite de GBZM me fait penser à mettre une petite coloration géométrique qui va nous changer de la gauche et la droite. Je reprends (encore une fois !) la fraction rationnelle $t = (x^4 - 6x^2 + 1)/x(x-1)(x+1)$, invariant par notre $C_4$ et dont on a déja parlé dans http://www.les-mathematiques.net/phorum/read.php?3,1263771,1263771#msg-1263771. On a une inclusion $K = \mathbb Q(t) \subset L = \mathbb Q(x)$, qui donne naissance à une application (revêtement) dans l'autre sens $\pi : \mathbb P^1_x \to \mathbb P^1_t$, $x \mapsto t(x)$. Je note $A = \mathbb Q[t]$ et $B$ la fermeture intégrale de $A$ dans $L$. Et bien, $B$ est un bel anneau de Dedekind ; en fait un anneau principal car coincé entre $\mathbb Q[x]$ et $\mathbb Q(x)$. Et c'est l'anneau d'une courbe lisse à savoir la droite projective $\mathbb P^1_x$ privé des 4 points $\{x = 0,\ x=1,\ x=\infty, \ x=-1\}$. Cerner $B$ algébriquement (comme $A$-module libre, comme localisé de $\mathbb Q[x]$, ...etc..). Et en bas, $A$ c'est l'anneau de la droite affine ($\mathbb P^1_t$ privé du point $t = \infty$). Et $C_4$ opère sur $B$ ...etc...
  • Je note $A = \mathbb Q[t]$ et $B$ la fermeture intégrale de $A$ dans $L$. Et bien, $B$ est un bel anneau de Dedekind ; en fait un anneau principal car coincé entre $\mathbb Q[x]$ et $\mathbb Q(x)$.

    Cette partie m'intéresse.
    Par construction, $B$ est intégralement clos.
    Donc, s'il est principal, il est de Dedekind.
    Soit alors $I\neq\{0\}$ un idéal de $B$.
    $I\cap A$ est un idéal de $A$ qui est principal donc il existe $a\in A$ tel que $I\cap A=aA$.
    Peut-être que $I=aB$...
  • @AD Merci pour la mise en page du sous-groupe $G$ de $\mathrm{GL}_7(\mathbb F_2)$. Je suppose que ce que tu as fait, je dois être capable de le faire avec les outils de composition offerts par le forum ? Comment ?

    @gai requin : Oui, j'ai pensé à toi pour cette histoire de fermeture intégrale. Et surtout pour le lien à faire avec la géométrie. J'ai dit ``$B$ de Dedekind'' par réflexe car dans ce contexte là, on sait que $B$ est un anneau de Dedekind. Mais dans ce cas particulier, on a plus : par exemple $x$ est entier sur $A = \mathbb Q[t]$ (utiliser le polynôme $F_t(X)$), donc $B$ est coincé entre $\mathbb Q[x]$ et son corps des fractions $L = \mathbb Q(x)$. Donc c'est un localisé de $\mathbb Q[x]$, cf le fil http://www.les-mathematiques.net/phorum/read.php?3,1249251,1252797#msg-1252797 que j'ai eu beaucoup de mal à retrouver. De plus, ici, cela vaut le coup de tout expliciter i.e. cerner vraiment ce localisé : $B$ doit être le localisé élémentaire de $\mathbb Q[x]$ en l'élément $x^3-x = x(x-1)(x+1)$ (c'est le dénominateur de la fraction rationnelle $t$). Ensuite, la théorie dit que $B$ est un $A$-module libre de rang $4$ ; c'est le moment de vraiment y croire et d'expliciter une base de $B$ sur $A$ (pour l'instant, je ne sais pas faire). Et ensuite, comme $C_4$ opère sur $B$, on obtiendra une représentation linéaire de $C_4$ en dimension $4$. Comment ? Tu connais mon point de vue : profiter d'un petit exemple pour en faire le maximum.
  • @gai requin Toujours en liaison avec l'homographie $\sigma = {x+1 \over -x+1}$ d'ordre $4$ et le polynôme $F_t(X) = X^4 - tX^3 - 6X^2 + tX + 1$. Oui, je sais, cela fait le gars qui s'accroche à un truc minuscule et qui n'est pas capable d'en sortir. Et bien, en prenant $y = x - \sigma^2(x)$, tu obtiens un élément anti-invariant par $\sigma^2$ i.e. $\sigma^2(y) = -y$. Donc $y^2$ est dans le sous-corps quadratique (sous-corps des invariants de $\sigma^2$). Ce qui fait, en ayant vérifié auparavant que $y$ est un élément primitif de $L/K$ (notations devenues habituelles), que le polynôme minimal de $y$ sur $K$ est bicarré : c'est très exactement le polynôme $X^4 - (t^2+16)X^2 + 4(t^2+16)$. Et ce dernier polynôme a autant de mérite (puisque c'est le polynôme minimal d'un élément primitif de $L/K$) que le polynôme $F_t(X)$. N'oublie pas que je ne suis pas clair sur la prétendue généricité de $F_t(X)$.
  • J'ai essayé de montrer que $B$ est un anneau principal mais je ne suis pas arrivé au bout.
    A-t-on vraiment $I=aB$ ?

    Pour une base de $B$ sur $A$, je crois avoir vu ceci quelque part.
    Soit $(e_1,\ldots,e_4)$ une base du $K$-espace vectoriel $L$ telle que les $e_i$ sont dans $B$.
    Alors une base de $B$ sur $A$ est $(f_1,\ldots,f_4)$ telle que, pour tous $i,j$, $\mathrm{Tr}_{L/K}(e_if_j)=\delta_{ij}$.
    A vérifier...
  • Non, on ne peut pas avoir $I = aB$ avec tes notations. Tu prends l'idéal $xB$ par exemple ($x$ est bien dans $B$) ; je ne vois pas comment on peut avoir $xB = aB$ avec $a \in A$. En passant, quels sont les inversibles de $B$ ? Quant à ton histoire de base, on ne peut pas y croire car le calcul de la fermeture intégrale, en général, ce n'est pas facile. Sauf qu'ici, on n'est pas dans le cas général, on est dans un cas particulier. Mon logicial me dit que $(1, x, x^2, x^3)$ est une base de $B/A$. Autre chose : il n'est pas difficile de voir que $1/x, 1/(x-1), 1/(x+1)$ sont entiers sur $A$ i.e. sont dans $B$. Affronter un cas particulier peut être, au début, déstabillisant.

    Damned : $x$ est inversible dans $B$ car $1/x$ est dans $B$ ! Donc on a $xB = B$ ! Et du coup mon commentaire ``je ne vois pas comment on peut avoir'' est stupide. Mais je préfère le laisser par honnêteté.

    Rappel : $B$ est principal car c'est un localisé (élémentaire) de l'anneau principal $\mathbb Q[x]$ : tout localisé d'un anneau principal est principal. Bien sûr, il faut concrétiser, rendre compte de ...etc.., du fait que $B$ est un localisé de $\mathbb Q[x]$.

    Vrai exemple : $I = (x+2)B$. Mon logiciel me dit que $I \cap A = aA$ avec $a = t-7/6$ sans que je n'ai eu le temps de vraiment réfléchir d'où cela sort. Sauf que $7/6$ c'est $\pi(-2)$ où $\pi$ c'est $x \mapsto t(x)$. Et bien ce n'est pas vrai que $I = (t-7/6)B$. En prime, $I$ est un idéal maximal (l'idéal du point $x = -2$ de la courbe attachée à $B$ que j'ai déja évoquée). Je dois réfléchir à tout cela.
  • Donc c'est pas facile d'expliciter $b\in B$ tel que $I=bB$.

    Comment écrire $B=S^{-1}A$ pour une certaine partie multiplicative de $A$ ?
  • Rien n'est facile dans la vrai vie. Localisation : j'ai dit $B$ est le localisé de $\mathbb Q[x]$ pas de $A = \mathbb Q[t]$. Je vais vérifier que je n'ai pas écrit de coquille. On va dire que ce n'est pas possible que $B$ soit un localisé de $A$ car $B$ est un $A$-module libre de rang 4. Et pour expliciter $S$ tel que $B = S^{-1} \mathbb Q[x]$, voir mon post http://www.les-mathematiques.net/phorum/read.php?3,1249251,1252797#msg-1252797. Ici on va avoir un localisé élémentaire $B = \mathbb Q[x][1/s]$ avec $s = x(x-1)(x+1)$.
    La vrai vie (pour moi), c'est quand on affronte un exemple, aussi petit soit-il. AVANT (air connu), tout allait bien (un peu comme on assiste aux cours magistraux et qu'ensuite on va en TD).

    Géométriquement : la contrepartie géométrique de $\mathbb Q[x]$, c'est la droite affine obtenue en supprimant le point $x = \infty$ de $\mathbb P^1_x$. Et la contrepartie géométrique du localisé $B$, c'est la suppression de 4 points $x = \infty, 0, 1, -1$ de $\mathbb P^1_x$. On pourrait croire qu'il faut attendre un vrai cours de géométrie algébrique pour comprendre tout cela, mais je n'en suis pas convaincu. Pour moi, il est préférable d'affronter un petit exemple à condition de ne pas s'y perdre. Et bien sûr, ici le mieux est de cerner $B$ le plus possible de manière algébrique (tout en louchant vers la géométrie pour colorer l'algèbre). Mais bien sûr, à un moment donné, il est capital de regarder des ouvrages de géométrie algébrique. A quel moment : je n'en sais rien. Quels ouvrages : je n'en sais rien. Rappel : je ne suis pas géomètre.
  • Bonjour Claude. http://www.les-mathematiques.net/phorum/read.php?3,1263771,1273551#msg-1273551
    Pas de miracles. Tu commences par écrire tes matrices dans un éditeur à police de taille fixe (emacs pour moi) pour pouvoir cadrer correctement, puis tu importes le texte sur le forum, tu commences par encadrer avec la balise couleur vert pâle, puis tu reprends en couleur noire tous les 1, en commençant par la fin pour que cela ne désorganise pas la lecture du texte en cours de modification.
    Alain
  • @AD Merci. Je pense avoir compris (et je pense que j'utilise parfois comme un pied les outils du forum, mais ça c'est une autre histoire). Je vois que cela demande un peu de travail mais on n'a rien sans rien. Y'a pas de doute, cela met les objets en valeur.
        [1 0 0 0 0 0 0]
        [0 1 0 0 0 0 0]
        [0 0 1 0 0 0 0]
        [0 0 0 1 1 1 1]
        [0 0 0 0 [color=#000000]1[/color] 0 0]
        [0 0 0 0 0 [color=#FF0000]1[/color] 0]
        [0 0 0 0 0 0 [color=#000000]1[/color]]
    


    @gai requin Je fais court (si, si). J'ai perdu les réflexes. Soit $t \in k(x)$ où $k$ est un corps commutatif quelconque et $t$ une fraction rationnelle non constante. Je suppose (pour l'instant) que $t = u/v$ avec $u, v \in k[x]$, $u \wedge v = 1$, $\deg(u) > \deg(v)$ (c'est cela le cas particulier provisoire). Et même que $u$ est unitaire : $t = {x^h + \cdots \over \lambda x^d + \cdots}$ avec $h > d$. Bien sûr, $h$ c'est la hauteur de $t$. Alors $x$ est entier sur $k[t]$ car racine en $X$ de $u(X) - tV(X)$, polynôme unitaire en $X$ (de degré $h$), polynôme que l'on a vu si souvent depuis un certain temps. Donc $k[t,x]$ est contenu dans la fermeture intégrale $B$ de $A := k[t]$ dans $L := k(x)$. Mais $k[t,x]$ est un localisé de $k[x]$ à savoir $k[t,x] = k[x][1/v]$ (utiliser une relation de Bezout entre les polynômes $u$ et $v$). En conséquence, $k[x,t]$ est un anneau principal donc intégralement clos. C'est donc lui la fermeture intégrale $B$ convoitée.

    Quand on joue algébriquement avec l'inclusion $k(t) \subset k(x)$, la géométrie pointe nécessairement le bout de son nez car $k(t)$ est le corps des fonctions de la droite projective $\mathbb P^1_t$ et $k(x)$ celui la droite projective $\mathbb P^1_x$.
Connectez-vous ou Inscrivez-vous pour répondre.
Success message!