Déterminant
Hello
J'ai un peu la tête dans le guidon (et surtout je n'y connais rien aux modules et aux déterminants).
Est-ce que quelqu'un peut me dé / confirmer :
Soit $R$ un anneau (commutatif unitaire). Soit $n$ un entier. Soit $A$ un matrice $n \times n$.
Je suppose que $\det A = 0$. Est-ce que je peux en déduire l'existence d'une colonne $V$ non nulle ($n \times 1$) telle que $A V = 0$ ?
J'ai l'impression que c'est un peu fort ? (ou alors je loupe un truc).
Au départ, je me suis dit c'est évident :-D après, je me suis dit hum faut peut-être que je vérifie et maintenant je commence à douter :-D
Le seul moyen que je vois pour produire quelque chose c'est d'utiliser la relation $A \times \text{Adj}(A) = (\det A) * A $ et de considérer les colonnes de la matrice adjointe, mais rien de garanti qu'elle n'est pas nulle ?)
J'ai un peu la tête dans le guidon (et surtout je n'y connais rien aux modules et aux déterminants).
Est-ce que quelqu'un peut me dé / confirmer :
Soit $R$ un anneau (commutatif unitaire). Soit $n$ un entier. Soit $A$ un matrice $n \times n$.
Je suppose que $\det A = 0$. Est-ce que je peux en déduire l'existence d'une colonne $V$ non nulle ($n \times 1$) telle que $A V = 0$ ?
J'ai l'impression que c'est un peu fort ? (ou alors je loupe un truc).
Au départ, je me suis dit c'est évident :-D après, je me suis dit hum faut peut-être que je vérifie et maintenant je commence à douter :-D
Le seul moyen que je vois pour produire quelque chose c'est d'utiliser la relation $A \times \text{Adj}(A) = (\det A) * A $ et de considérer les colonnes de la matrice adjointe, mais rien de garanti qu'elle n'est pas nulle ?)
Réponses
-
Salut flipflop,
C'était fait sur MathOverflow je crois. Tu peux effectivement utilsier ta relation : ou bien l'un des termes de $Adj(A)$ est non nul, auquel cas tu as gagné, ou bien ils sont tous nuls, auquel cas tous tes mineurs vérifient ton hypothèse, par exemple disons celui du coin en haut à gauche. Tu conclus via une récurrence (le cas $n=1$ étant facile ;-) )
Euh. La solution sur MathOverflow était plus compliquée, je manque peut-être quelque chose... -
Max
Si je comprends. On suppose que le mineur (le déterminant extrait je veux dire) en haut à gauche est nul. $$
\begin{pmatrix} * & * & * \\ * & a_{22} & a_{23} \\ * & a_{32} & a_{33} \end{pmatrix} ,
$$ là j'applique l'hypothèse de récurrence à la matrice extraite pour produire une colonne $(v_2, v_3)$ telle que : $$
\begin{pmatrix} * & * & * \\ * & a_{22} & a_{23} \\ * & a_{32} & a_{33} \end{pmatrix} \times \begin{pmatrix} * \\ v_2 \\ v_3 \end{pmatrix} .
$$ Faut mettre quelque chose dans l'étoile de $( * , v_2, v_3)$, beh on dit $0$, sinon on ne contrôle plus rien. Mais le vecteur produit est de la forme $( \text{Truc}, 0,0)$.
Est-ce que je loupe quelque chose ?
@Math coss : Merci, je vais essayé de déchiffrer ce que Claude et Christophe racontent ! -
Salut flipflop,
Comment va ?
Claude m'avait posé une question approchante, et j'avais galéré plusieurs jours pour faire un truc propre (enfin j'espère) que je mets en pièce jointe. -
Salut Gai requin,
Ca roule ! Merci je vais regarder ça ! -
Ah oui tu as raison (bon tu as inversé "en haut à gauche " et "en bas à droite" ;-) ), c'est pour ça que la solution MO était plus compliquée :-D
Mais il y a une manière de s'en sortir tout de même, faut juste que je la retrouve.
C'est peut-être quelque chose comme ce que gai requin propose, je ne sais plus -
$\def\Gr{\text{Gr}}\def\Ann{\text{Ann}}\def\cD{\mathcal D}$
Salut Flip-Flop. Te voilà de retour. C'est quoi cet énoncé avec une négation vecteur non nul ??
Le ``bon'' énoncé est le théorème de MacCoy fourni par Gai-Requin $M : A^m \to A^n$ est injective si et seulement si l'idéal déterminantiel $\cD_m(M)$ est fidèle. $\cD_m(M)$ : sur les colonnes : pense à $m=1$.
0. N'hésitons pas à faire un rappel après ta longue absence : dire qu'un idéal $I$ est fidèle signifie que $\Ann(I) = 0$ i.e. $aI = 0 \Rightarrow a = 0$.
1. Sais tu que l'on a un petit principe local-global pour la fidélité. I.e. soient $s, t \in A$ tel que $\langle s,t \rangle$ soit fidèle. Si $I$ est fidèle sur les localisés $A_s$ et $A_t$, alors $I$ est fidèle sur $A$.
Note : on écrit parfois $\Gr(s,t) \ge 1$. La profondeur $\ge 1$, c'est vraiment le minimum syndical, la profondeur des pauvres. Faudra faire avec : peut-être que l'on t'a trop gâté avec la profondeur infinie : $\Gr(s,t) \ge \infty$ cela signifie $s,t$ co-maxiamux. C'est pour les riches.
2. Du coup ``maintenant'' on fait McCoy (l'implication difficile) les mains dans les poches, sans papier, sans algèbre extérieure. Par récurrence sur le nombre $m$ de colonnes quand même. Comme $M$ est injective, les coefficients de la première colonne engendrent un idéal fidèle. Parce que la première colonne de $M$, c'est $M(e_1)$, n'est ce pas ? Pour monter que $\cD_m(M)$ est fidèle, il suffit donc de localiser en chacun des coefficients de la première colonne.
Concentre toi maintenant sur une matrice $M$ avec le premier coefficient $m_{11}$ inversible. Disons $m_{11} = 1$. Bien facile de montrer que $M$ est équivalente à une matrice $\left[ \matrix {1 & 0\cr 0 & N\cr} \right]$. Tu vas penser que je suis tombé bien bas avec une élimination à la Gauss qui pue l'Analyse Numérique.
Bref, je te laisse terminer la récurrence (la pelouse attend). Rappel : les mains dans les poches.
3. ``Maintenant'', cela veut dire quoi ? En fait, il y a pas mal de temps. Depuis l'étude des résolutions libres finie, la théorie de la profondeur et tout le toin-toin. -
Salut Claude,
Haa mais c'est marrant je me souviens maintenant du théorème de Mac Koy, je l'avais vu entre les définitions de profondeur supérieurs a $1$ et supérieur à $2$ page 913 :-D Juste vu pas lu, mais je me souviens m'être demandé mais c'est quoi une "matrice injective" (j'ai compris la définition tout à l'heure en lisant Gai requin) :-D
Du coup, je vais relire merci !! -
Resalut Flip-Flop
On peut rester avec une matrice carrée $A$ comme dans ton premier post. Et l'énoncé est donc : $\det(A)$ est régulier si et seulement si $A$ est injective. Et, dans le sens difficile i.e. $A$ injective entraîne $\det(A)$ régulier, cela se démontre par récurrence sur la taille via des localisations en les coefficients de la première colonne.
C'est à Thierry Coquand que l'on doit ce trick de localisation en des éléments engendrant un idéal fidèle. C'est en fait très puissant car c'est valide en tout niveau de profondeur. -
Claude,
C'est bon j'ai compris ton avant dernier post, je dois refaire mais je pense que c'est bon. Merci -
$\def\cont{\text{c}}\def\uX{\underline X}$Salut FlipFlop
Cela me fait penser à un truc que je n'ai jamais réussi à résoudre de manière algorithmique malgré le fait d'avoir une ``preuve propre'' (la mienne !) sous la main.
Il s'agit d'un résultat d'algèbre commutative (pardi) : la norme d'un polynôme primitif est un polynôme primitif.
Le contexte est le suivant : $A \subset B$ deux anneaux commutatifs tels que $B$ soit libre sur $A$, disons de rang $r$. On considère un jeu quelconque d'indéterminées $\uX = (X_1, \cdots, X_n)$ de sorte que $B[\uX]$ est libre sur $A[\uX]$ de rang $r$ (toute base de $B$ sur $A$ est une base de $B[\uX]$ sur $A[\uX]$).
Pour $Q \in B[\uX]$, on peut considérer sa norme sur $A[\uX]$ que je note $P = N(B) \in A[\uX]$ : c'est simplement le déterminant de la multiplication par $Q$. Eh bien, il s'agit de démontrer que si $Q$ est primitif i.e. dans $B$, 1 est dans l'idéal des coefficients de $Q$, alors $P$ est primitif (dans $A$, 1 est dans l'idéal des coefficients de $P$). De démontrer puis d'en fournir une méthode algorithmique : à partir d'un certificat du fait que $Q$ est primitif, exhiber un certificat du fait que $P$ est primitif.
Je t'assure que cela utilise à fond le fait qu'une matrice carrée injective est de déterminant régulier. Je peux d'abord te montrer la preuve. Ce qui risque de nous entraîner dans un peu (?) d'algèbre commutative. Et ensuite c'est là où je cale. -
Salut Claude,
Oui je veux bien voir ta preuve. Si je comprends la situation, on prends $A = \Z$ et $B = \Z[\sqrt{2}]$.
En gros, si $Q = \sqrt{2} X+(1+\sqrt{2})$, la matrice de la multiplication par $Q$ dans la base $(1,\sqrt{2})$ est simplement :
$$\begin{pmatrix} 1 & 2(X+1) \\ X+1 & 1 \end{pmatrix} $$
Et donc la norme c'est $-(2X^2+4X+1)$ ! J'ai bon :-D -
$\def\cont{\text{c}}$J'attache la preuve. De mon côté, j'ai fait un petit exemple comme le tien avec une extension quadratique mais avec des ingrédients plus généraux. Mais je n'en suis pas content de cet exemple donc je le repousse à plus tard.
Ce qui compte dans le truc attaché ce sont les deux points marqués avec $\bullet$.
1. Le premier point dit que la rétraction de l'extension d'un idéal $I$ de $A$, c'est $I$ i.e. $A \cap IB = I$. Pour nous simplifier la vie, on va dire que $B$ est libre sur $A$ AVEC une base de $B/A$ contenant 1. Cela fera que $A = A.1$ admet un supplémentaire dans $B$ (en tant que $A$-module) et va donc simplifier la preuve du premier point. J'espère que c'est clair ce que je raconte concernant le premier point $\bullet$.
2. Le coeur du truc se situe dans le deuxième point $\bullet$. On va finir par utiliser, via un quotient, l'anneau nul. A méditer. -
$\def\Zi{\Z[i\rbrack}\def\Tr{\text{Tr}}\def\N{\text{N}}$Flip Flop
Je donne un petit exemple (on devrait toujours commencer par cela) : $A = \Z$, $B = \Zi$, $z_1, z_2\in \Zi$
$$
Q = z_1X_1 + z_2 X_2, \qquad P = N(Q) = (z_1X_1 + z_2 X_2)( \overline {z_1}X_1 + \overline {z_2} X_2)
= \N(z_1)X_1^2 + \Tr(z_1\overline {z_2}) X_1X_2 + \N(z_2) X_2^2
$$Et $Q$ primitif entraîne $P$ primitif c'est l'implication :
$$
1 \in \langle z_1, z_2\rangle_{\Zi} \quad \Rightarrow \quad 1 \in \langle N(z_1),\ \Tr(z_1\overline {z_2}),\ \N(z_2)\rangle_\Z
$$$\bullet$ Il ne faut pas croire que les normes suffisent. Par exemple
$$
z_1 = 1 + 2i, \qquad z_2 = 1-2i, \qquad \N(z_1) = \N(z_2) = 5
$$On a bien $1 \in \langle z_1, z_2\rangle_{\Zi}$ parce ce que $z_1 + z_2 = 2$ est dans l'idéal donc $1 = z_1 - 2i$ aussi. Et pourtant les normes $N(z_1), N(z_2)$ ne sont pas étrangères entre elles. -
Hello Claude,
Je n'ai pas encore regardé. Mais je vais en montagne demain ( il faut trop chaud :-D) donc je regarde samedi ! -
$\def\OK{\mathcal O_K}$Flip-Flop
En fait, je crois que le problème posé n'est pas très intéressant, disons la manière dont je l'ai posé. Et ne pas oublier que des problèmes d'Algèbre Commutative, cela peut parfois être ch.ant.
Par contre, cette notion de norme polynomiale s'inscrit dans une histoire qui elle me semble intéressante. Peux-tu regarder la réponse de K. Conrad (qui n'est pas un charlot) à la question Mathoverflow, Is there much difference between Kronecker's and Dedekind's methods in algebraic number theory and commutative algebra? Je ne peux pas pointer (déficience de mon navigateur).
De quoi est-il question dans la réponse de K. Conrad ? Tu considères un corps de nombres $K$ et $\alpha, \beta \in K$ entiers sur $\Z$, disons non tous les deux nuls. Tu n'as pas déterminé l'anneau des entiers de $K$ et tu sais à peine ce que c'est. Mais non, je n'ai pas bu. Tu décrètes que le pgcd de $(\alpha, \beta)$ c'est $\alpha X + \beta Y$ où $X,Y$ sont deux indéterminées. Et non pas comme Dedekind l'idéal $\langle \alpha, \beta \rangle_{\OK}$.
Tu calcules la norme $P(X,Y)$ de $Q(X,Y) := \alpha X + \beta Y$ étant entendu que l'anneau de base est $A = \Q$ et $B = K$. Rappel : on ne connait pas l'anneau des entiers $\OK$. De sorte que $P(X,Y) \in \Q[X,Y]$. Mais si tu réfléchis un peu, sachant ce que tu sais sur $\Z \subset \Q$, tu vas t'apercevoir que $P(X,Y) \in \Z[X,Y]$. Tu peux donc considérer son contenu qui est l'idéal de $\Z$ engendré par les coefficients de $P(X,Y)$. Tu trouves un nombre entier. C'est la norme du pgcd de $\alpha, \beta$ version Kronecker.
Et le rapport avec les idéaux de Dedekind ? C'est que cette norme c'est la norme de l'idéal $\langle \alpha, \beta \rangle_{\OK}$ dans $\OK$. Mais tu n'as pas eu besoin de déterminer $\OK$ !! Je résume :
$$
\text{pgcd des coefficients du polynôme } P(X,Y) = \#\big(\OK / \langle \alpha, \beta \rangle_{\OK} \big)
$$Il faudrait développer des exemples dans la réponse de K.Conrad.
Tu prends par exemple un entier $d \in \Z$ non carré. Rien de plus. Et $K = \Q(\sqrt d)$, $\alpha = 1 + \sqrt d$, $\beta = 1 - \sqrt d$. Tu vas trouver que la norme est, quelque soit $d$
$$
\gcd(d-1, 2(d+1))
$$Par exemple, si $d \equiv 1 \bmod 4$, on trouve $\gcd(d-1, 2(d+1)) = 4$. C'est la norme de $\langle 1 + \sqrt d, 1 - \sqrt d\rangle$ dans l'anneau des entiers de $K$. Le BON terrain. Et pas dans l'anneau (le mauvais) $\Z[\sqrt d]$ : la norme $\langle 1 + \sqrt d, 1 - \sqrt d\rangle$ dans $\Z[\sqrt d]$ est 2.
Je suis en train de causer de quoi à ma manière ? De la théorie de la divisibilité. Des DIVISEURS. -
Un pointeur vers la réponse MO mentionnée par Claude: https://mathoverflow.net/a/26628/142177, ça facilitera la lecture :-D
-
Salut Claude,
Comment traduire en termes de diviseurs $\gcd(\alpha,\beta):=\alpha X+\beta Y$ ? -
Hello Claude
Je n'ai pas compris grand chose. Mais si je comprends ton dernier message, tes histoires permettent de calculer des normes dans les anneaux d'entiers sans trop connaître à l'avance l'anneau des entiers ? C'est amusant !
Donc ton exemple à la fin.
Donc : $\alpha = 1 + \sqrt{ d}$ $\beta = 1- \sqrt d$ et $P = \alpha X + \beta Y = X+Y + \sqrt{d} \times ( X-Y)$. La matrice $$
\begin{pmatrix} X+Y & d (X-Y) \\ X-Y & X+Y \end{pmatrix},
$$ dont le déterminant est $ (X+Y)^2 - d (X-Y)^2 = (1-d) (X^2 + Y^2)+ 2(1+d) XY $ et on retrouve le $\gcd(d-1, 2(d+1))$. -
$\def\OK{\mathcal O_K}$Hello,
Ce qui est moins amusant, c'est que mes affaires sont tellement bien rangées que je n'arrive plus à retrouver une preuve la plus directe possible du résultat : la norme de l'idéal $\langle \alpha, \beta\rangle_{\OK}$ dans $\OK$ est le contenu du polynôme normique de $\alpha X + \beta Y$.
$\bullet$ Si je comprends bien ce que dit K. Conrad (merci à Chat-Maths d'avoir pointé la discussion Mathoverflow), c'est qu'il avait été ``scotché'' (I personnally was blown away when I saw this method work; since pratically no books on algebraic number theory discuss Kronecker point of view ....etc..). Et il a l'air de dire que ce n'est pas si difficile de trouver la démo une fois que l'on dispose de la formule.
Bref, il conviendrait donc de trouver une preuve directe sans être obligés de se payer x pages sur les diviseurs et tout le truc. Il conviendrait également que je range mon m.rdier, mais ça c'est une autre histoire.
$\bullet$ Mais ce n'est pas tout. En dimension 1, disons en théorie algébrique des nombres, la théorie de Dedekind colle à celle de Kronecker et réciproquement. Peu importe ce qu'est $\gcd(\alpha, \beta)$ pour $\alpha, \beta \in K$ entiers sur $\Z$. Ce qu'il faut vaguement comprendre de manière informelle, c'est que l'on introduit des nouveaux objets, les diviseurs, comme par exemple $\gcd(\alpha, \beta)$. Qui n'habite pas dans le terrain dans lequel sont $\alpha, \beta$. J'ai mentionné ``de manière informelle'' car les traités formels ne manquent pas : Diviseurs de Bourbaki, ah, ah !
$\bullet$ Et il faut décrire de manière précise les nouvelles règles de divisibilité concernant les nouveaux venus. Par exemple $\gcd(\alpha, \beta) \mid \alpha$ et $\gcd(\alpha, \beta) \mid \beta$ ce qui est la moindre des choses. Chez Dedekind, cela s'écrit $\alpha, \beta \in \langle \alpha, \beta\rangle_{\OK}$, ce qui est tautologique.
Si un autre habitant $\gamma \in \OK$ débarque, il convient de préciser ce que signifie $\gamma \mid \gcd(\alpha, \beta)$. Pardi cela signifie $\gamma \mid \alpha$ et $\gamma \mid \beta$.
Mais le plus dur c'est de dire ce que signifie $\gcd(\alpha, \beta) \mid \gamma$. Dedekind dit $\gamma \in \langle \alpha, \beta\rangle_{\OK}$. Et Kronecker dit
$$
\text{la fraction rationnelle } \quad {\gamma \over \alpha X + \beta Y} \quad \text{ est entière ``quelque part''}
$$De manière plus (?) précise, en utilisant le co-transposé $\widetilde {\alpha X + \beta Y}$, qui vérifie $(\alpha X + \beta Y) \times \widetilde {\alpha X + \beta Y}$ est le polynôme normique de $\alpha X + \beta Y$
$$
{\gamma \over \alpha X + \beta Y} = {\gamma \times \widetilde {\alpha X + \beta Y} \over N(\alpha X + \beta Y) } =
{\text{polynôme de } \OK[X,Y] \over \text{polynôme de } \Z[X,Y]} \qquad\qquad (\star)
$$Et entière quelque part signifie, à droite de $(\star)$, que le numérateur est divisible par le CONTENU du dénominateur qui est un brave entier de chez $\Z$. Et divisible par un entier, tout le monde sait ce que cela veut dire. Pour les puristes : entier quelque part signifie ici entier sur le localisé de Nagata de $\Z[X,Y]$.
Et comme ces deux théories sont les mêmes : dire que $\gamma \in \langle \alpha, \beta\rangle_{\OK}$, c'est pareil que de dire, à droite dans $(\star)$, que le polynôme au numérateur est divisible par l'entier, contenu du dénominateur, ce qui est IMMEDIATEMENT testable.
Et en ce qui concerne mon m.rdier, pareil : impossible de retrouver rapidement les preuves du pourquoi, en dimension 1, les deux théories coïncident.
$\bullet$ Pour faire croire que je reste dans l'esprit du fil ``Déterminant'', la matrice co-transposée d'une matrice carrée $M$, c'est la matrice carrée de même taille notée $\widetilde M$, qui vérifie $M \widetilde M = \widetilde M M = \det(M)\, {\rm I}$. Et si $B/A$ est libre de rang fini, pour tout $b \in B$, il y a $\widetilde b \in B$ (sorte de produit des conjugués de $b$ autres que $b$) tel que $b \widetilde b = \widetilde b b = \text{N}_{B/A}(b)$.
Flip-Flop. Comme tu n'as pas prévenu la modération du fait que je détournais un peu le fil du droit chemin ``Déterminant'' que tu t'étais fixé, je fais le guignol en prenant $K = \Q(\sqrt d)$ avec $d \equiv 1\bmod 4$ et $d = p_1^2 p_2$, deux premiers $p_i \equiv 1 \bmod 4$, $\alpha = 1 + \sqrt d$, $\beta = 1 - \sqrt d$ (conjugués l'un de l'autre) de sorte que la norme de $\langle \alpha,\beta\rangle_{\OK}$ dans $\OK$ est 4. Versus 2 dans $R = \Z[\sqrt d]$.[color=#000000]> load "AlgNumberTheory.magma" ; Loading "AlgNumberTheory.magma" > Z := IntegerRing() ; > ZT<T> := PolynomialRing(Z) ; > p1 := 4*Random(10^20,10^25) + 1 ; time while not IsPrime(p1) do p1 := p1 + 4 ; end while ; Time: 0.050 > p2 := 4*Random(10^20,10^25) + 1 ; time while not IsPrime(p2) do p2 := p2 + 4 ; end while ; Time: 0.070 > d := p1^2 * p2 ; > d ; 3647398427981070776195860976044075755251980164660930412251788706240598271353 [/color]
J'ai pris $p_i$ assez gros pour voir des temps de calcul. Le fait que $X^2 -d$ soit irréductible (NumberField en a besoin) est immédiat : pas besoin de factoriser $d$, n'est ce pas ?[color=#000000]> time K<r> := NumberField(T^2 - d) ; Time: 0.000 > r^2 eq d ; true > alpha := 1+r ; beta := 1-r ; > R := Order([r]) ; > I := ideal < R | alpha,beta> ; > time Norm(I) ; 2 [/color]
Comme prévu la norme dans l'anneau pourri $\Z[\sqrt d]$ est 2. Maintenant la norme 4 dans l'anneau des entiers via le machin normique de Kronecker.[color=#000000]> KXY<X,Y> := PolynomialRing(K,2) ; > time Norme(alpha*X + beta*Y) eq Norm(alpha)*X^2 + Trace(alpha^2)*X*Y + Norm(beta)*Y^2 ; true Time: 0.000 > time Gcd([Z| Norm(alpha), Trace(alpha^2)]) ; 4 Time: 0.000 [/color]
Quid en passant par $\OK$ ? Pas de miracle : il va falloir factoriser $d$ pour virer le facteur parasite $p_1^2$. Cela prend un peu de temps.[color=#000000]> time OK := MaximalOrder(K) ; Time: 96.600 [color=#FF0000]<--- LOOK[/color] > J := ideal < OK | alpha, beta> ; > time Norm(J) ; 4 Time: 0.000 [/color]
-
Punaise !
J'ai regardé l'exemple $d\equiv 1\bmod 4$, $\alpha=1+\sqrt d$, $\beta=1-\sqrt d$. On a :$$\frac{\alpha}{\alpha X+\beta Y}=\frac{(1-d)X+(1+\sqrt d)^2Y}{(X+Y)^2-d(X-Y)^2}.$$Le contenu du dénominateur est $4$ qui divise $1-d$ et $(1+\sqrt d)^2$ dans $\mathcal O_K$.
Donc $\alpha X+\beta Y$ divise $\alpha$ au sens de Kronecker ! -
claude quitté a écrit:Peu importe ce qu'est $\gcd(\alpha, \beta)$ pour $\alpha, \beta \in K$ entiers sur $\Z$. Ce qu'il faut vaguement comprendre de manière informelle, c'est que l'on introduit des nouveaux objets, les diviseurs, comme par exemple $\gcd(\alpha, \beta)$. Qui n'habite pas dans le terrain dans lequel sont $\alpha, \beta$.
[...] Et il faut décrire de manière précise les nouvelles règles de divisibilité concernant les nouveaux venus. Par exemple $\gcd(\alpha, \beta) \mid \alpha$ et $\gcd(\alpha, \beta) \mid \beta$ ce qui est la moindre des choses.
[...] Si un autre habitant $\gamma \in \mathcal O_K$ débarque, il convient de préciser ce que signifie $\gamma \mid \gcd(\alpha, \beta)$. Pardi cela signifie $\gamma \mid \alpha$ et $\gamma \mid \beta$.
Mais le plus dur c'est de dire ce que signifie $\gcd(\alpha, \beta) \mid \gamma$.
J'avais découvert ce point de vue récemment dans From Number Theory to Physics, Chapitre 6, Galois Theory, Algebraic Number Theory, and Zeta Functions écrit par Harold Stark lui-même, lecture que je recommande. Ça change du point de vue austère auquel on est habitué lorsqu'on apprend la théorie algébrique des nombres, qui fait qu'on apprend plein de théorèmes sans savoir vraiment manipuler les objets les plus simples. -
$\def\GL{\text {GL}}$Poirot
Merci du rappel. Et dire que je dispose de cet ouvrage ! Que peut-on en déduire ? Que mon bureau est vachement bien rangé.
Bien d'accord avec toi pour dire que cet article de Stark est remarquable. Sans oublier celui de Cartier, celui de Don Zagier ...etc.. C'est dans cet ouvrage (article de Senechal) que j'avais appris, pour un sous-groupe FINI $G \subset \GL_n(\Z)$, et un premier $p \ne 2$, que la réduction modulo $p$ $\GL_n(\Z) \to \GL_n(\Z/p\Z)$ restreinte à $G$, est injective (th de Minkowski). Bon coinceur parfois de sous-groupes finis de $\GL_n(\Z)$.
Flip Flop : une matrice $M$ carrée $n \times n$ à coefficients entiers est dans $\GL_n(\Z)$ i.e. est inversible, si et seulement si $\det(M) = \pm 1$. Donc, puisque je viens de placer le déterminnat, je colle bien au sujet du fil, non ? -
Je crois qu'il voulait bien dire injective.
Je me souviens avoir eu un cas de bébé (le cas $n = 2$, pour majorer l'ordre des sous-groupes finis de $\mathrm{GL}_2(\mathbb{Z})$) à un oral. -
Poirot
Je veux bien dire injective. La vache, je viens de remonter $x$ années en arrière (95-96) et j'ai réussi à retrouver une note adressée aux collègues à l'époque, suite au premier devoir que l'on avait donné en Licence. Je crois me souvenir qu'il y avait 3 groupes en TD dans ce certificat de Licence. -
J'avais lancé une discussion il y a longtemps dans laquelle nous avions déterminé à isomorphisme près tous les sous-groupes finis de $GL_2(\Z)$ en utilisant le résultat cité par Claude ci-dessus.
-
Oui bien sûr c'est injective, j'avais zappé l'histoire du groupe fini ! Je crois que la première fois que j'ai entendu parler de ce résultat, c'est soit dans un document de Jean-Pierre Serre dont j'ai perdu la trace, soit dans ce joli mémoire de maîtrise.
-
Je réponds au tout premier post, fil que je découvre, et jeme mettrai un lien pointant vers les derniers posts d'ici vers mes préoccupations déterminantales.
@flipFlop: j'ai enquêté des dizaines d'heures (peut-être des centaines) sur très précisément tes demandes. Je suis intarrissable sur le sujet et en tant que dyscalculique totalement boétien initialement, j'ai collecté pas mal d'arguments "sans backgournd" sur ce sujet.
Bon, il t'a probablement été répondu en détails, dans la suite du fil, mais je te redonne, ça mange pas de pain, les "gros joyaux" de l'histoire de l'humanité (avant spécialisation) qu'on permis la "fantastique" découverte du déterminant.
Anneau unitaire commutatif quelconque dans la suite, et surtout, remarque, le fait que $(A,+)$ soit un groupe ne joue pas, seule la commutativité et la distributivité comptent, mais l'histoire ne semble pas avoir voulu décortiquer cette (légère/pas légère?) généralisation.
1/ Une matrice qui a plus de lignes que de colonnes a ses lignes liées
2/ Une matrice carrée dont les lignes sont liées a aussi ses colonnes liées
3/ Une matrice a ses lignes liées ssi son déterminant $d:=det(M)$ n'est pas régulier. Autrement dit, $M$ étant la matrice:
$$ (M\ injective ) \iff ([x\mapsto dx] \ injective)$$
4/ $M$ est surjective ssi $M$ est bijective
5/ Plutôt que le taper, je te mets un lien à l'édit sur "l'absoluité" du déterminant
6/ Plutôt que le taper, je te mets un lien à l'édit sur "la façon" (pas la mienne justement) de prouver ces choses quand on sait déjà ce qu'il se passe en interne (personne ne pourrait trouver une telle preuve "ad hoc", vue l'alternance des + et des -)
7/ Lien avec la croissance de $n\mapsto 2^n$. Le "seul" résultat facile dans ces histoires c'est de prouver que tout matrice dont le nombre de lignes dépasse 2 à la puissance le nombre de colonnes a ses lignes liées, et on est renvoyé à nouveau aux mystères fondamentaux de l'infini et de sa contribution aux maths du fini. Le déterminant est un des seuls outils à ma connaissance qui réussit un ZIPPAGE OSTENTATOIRE des fichiers "image" de taille $2^n$ en fichier de taille $n$ avec bonne résolution.
8/ L'axiome du choix trivialise un epartie des choses dites au dessus (mais ça fait bizarre aux gens de l'utiliser ici).Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi -
Lien pour le (5) de mon post précédent : http://www.les-mathematiques.net/phorum/read.php?3,1995582,1996408#msg-1996408
Lien pour le (6) de mon post précédent:
Annonce: http://www.les-mathematiques.net/phorum/read.php?3,1995582,1997746#msg-1997746
Correction: http://www.les-mathematiques.net/phorum/read.php?3,1995582,1998060#msg-1998060
Je te laisse chercher, si tu veux le (7), et si tu veux une correction, demande.
(Et pardon pour les éventuels doublons, je lirai le fil entièrement!)Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi -
J'ai oublié un point (9) pour te convertir définitivement à la grande valeur du déterminant. Je ne sais pas quelle est ta sensibilité "logique", mais sache que ce que je vais dire est très rare, seul à ma connaissance*** le déterminant et la détermination des jeux à information parfaite exhibe une conquête aussi totale.
Cette conquête s'exprime comme suit:
9.1/ tu vois tout le monde se décarcasser à tenter de prouver un $\forall x\exists y: R(x,y)$
9.2/ Un glanpin arrive et te prouve $\exists y\forall xR(x,y)$
9.3/ Les maths c'est ça. Comme il y a beaucoup d'utilisation de récurrence en tout genre dans les maths, la plupart du temps les gens font des hypothèses trop faibles et la récurrence ne passe pas.
9.4/ Je vais maintenant et volontairement te donner un énoncé simple et faux, mais vrai à epsilon près (c'est le cas de le dire, il est vrai "presque partout)
9.5/ On dispose d'une matrice à 15 lignes et 14 colonnes. Lea doit jouer des coefficients qui lient les lignes de LA FUTURE MATRICE carrée obtenue quand Bob aura complété avec une quinzième colonne (Bob n'a pas le droit de tricher en proposant une colonne qui rend la matrice injective).
Et bien à ce jeu LEA GAGNE!!!
Je te le répète c'est vrai "à epsilon près". C'est ça la "vraie conquête" du déterminant. Evidemment ce genre de truc a été inventé anonymement probablement, il n'y a pas "un auteur" ayant eu cette idée géniale dans l'antiquité. Mais ça illsutre "où se nichent" les phénomènes mathématiques.
*** en même temps mes connaissances...Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi -
Salut
Merci Christophe ! Ma question était très pragmatique, je devais programmer un truc et je voulais juste savoir si j'allais faire les choses sur un anneau ou sur un corps, j'ai fait au plus simple donc sur un corps, les histoires de régularité prendraient un peu trop de temps à faire en détails. J'ai abandonné l'idée de comprendre le déterminant y a bien longtemps, c'est vraiment pour les pros et pas pour moi !
Mais merci, ton message servira peut-être à quelqu'un d'autre ;-) -
je devais programmer un truc et je voulais juste savoir si j'allais faire les choses sur un anneau ou sur un corps, j'ai fait au plus simple donc sur un corps, les histoires de régularité prendraient un peu trop de temps à faire en détails. J'ai abandonné l'idée de comprendre le déterminant y a bien longtemps
C'est vraiment dommage, le déterminant dans les corps n'a que très peu d'intérêt et se calcule vite (ce qui est un signe de sa pauvreté corporelle). Le déterminant c'est un truc qui te dit "regardez, on va jouer à réussir le truc sans faire de division", il est, en ce sens, fascinant. Mais perd son intérêt, tel, dans les corps.
Justement, "ces histoires" comme tu dis, je les ai explorées en béotien et éclaireur en étant comme toi, donc tu n'avais pas à refaire mes erreurs.
Mais bon, comme tu veux :-D Divise-bien tes objets par d'autres objets en tout cas.Aide les autres comme toi-même car ils sont toi, ils sont vraiment toi -
$\def\OK{{\mathcal O_K}}$@Gai-Requin
J'ai essayé de répondre directement à ton MP de la manière la plus mieux que je pouvais.
Et comme je suis là, j'en profite pour donner encore un petit exemple. Je peux t'assurer que le plus dur dans l'histoire c'est de générer des exemples pertinents. Bien plus difficile que d'écrire un programme (j'exagère un tantinet).
En tout cas, tu ne vas pas me dire que la fonction suivante, qui calcule le polynôme normique de $\alpha X - \beta$, permettant d'obtenir la norme de $\langle \alpha, \beta\rangle_\OK$ dans $\OK$, est compliquée. Compte le nombre de lignes.
Note : ici, j'ai fait $Y := 1$ et utilisé le fait que $\langle \alpha, \beta\rangle_\OK = \langle \alpha, -\beta\rangle_\OK$ (cette dernière égalité d'idéaux via un raisonnement complexe sur lequel je zappe).[color=#000000]NormicPolynomial := function(alpha, beta) // alpha, beta entiers d'un corps de nombres // Retourne Norm(alpha*X - beta) = Norm(<alpha, beta>_OK) // N(X - beta/alpha) = Chi_beta/alpha(X) ==> N(alpha*X - beta) = N(alpha) * Chi_beta/alpha(X) K := Parent(beta) ; alpha := K!alpha ; return ZT! (Norm(alpha) * CharacteristicPolynomial(beta/alpha)) ; end function ; [/color]
L'exemple (pas généré au hasard) où l'on voit que la norme dans $\Z[x]$, ce n'est pas la même que celle dans $\OK$[color=#000000]> F ; T^15 + 4*T^13 + T^12 + 3*T^11 + 3*T^10 - 3*T^9 - T^8 + 5*T^7 - 2*T^6 - 4*T^5 - 3*T^4 - T^3 + 5 > K<x> := NumberField(F) ; > alpha := 41 ; beta := x-21 ; > A := Order([x]) ; > Norm(alpha*A + beta*A) ; 41 > N := NormicPolynomial(alpha, beta) ; > Content(N) ; 1681 [/color]
Calcul de la fermeture intégrale dont je n'ai pas eu besoin. Bien sûr, le dernier élément de la base, il ne s'invente pas. Faut mouiller un peu la chemise.[color=#000000]> OK := MaximalOrder(K) ; > Basis(OK, K) ; [ 1, x, x^2, x^3, x^4, x^5, x^6, x^7, x^8, x^9, x^10, x^11, x^12, x^13, 1/41*(x^14 + 21*x^13 + 35*x^12 + 39*x^11 + 2*x^10 + 4*x^9 + 40*x^8 + 19*x^7 + 35*x^6 + 36*x^5 + 14*x^4 + 4*x^3 + x^2 + 21*x + 31) ] > Norm(alpha*OK + beta*OK) ; 1681 [/color]
Tout ceci mérite d'être cogité. Et figure toi qu'en fait (par dessous) la détermination du polynôme normique de $\alpha X - \beta$ FABRIQUE des entiers de $\OK \setminus \Z[x]$. Si, si. -
Merci Claude !
Tu as très bien répondu à mon MP, dans le sens où il faut d'abord se rendre compte de la difficulté du truc.
La toute fin de ton dernier message sur $\mathcal O_K \setminus \Z[ x]$ me fait saliver parce que je me disais pas plus tard qu'hier : "Ok le coup de la norme, c'est super mais il reste quand même du beau monde à découvrir dans $\mathcal O_K$..." -
$\def\OK{{\mathcal O_K}}$Gai-Requin (suite). Attention, cela va être chaud. D'abord un petit mot pour Flip Flop : dans mon dernier post, j'ai utilisé deux fois le DETERMINANT : une fois pour calculer la norme de $\alpha$ et une autre fois pour calculer le polynôme caractéristique $\chi_{\beta/\alpha}(X)$. Et donc, je suis bien dans le sujet, non ?
$\bullet$ Gai Requin, again. Je commence par ce que j'appelle une remarque de type ``bon sens paysan''. Attention, ce n'est pas péjoratif : je ne traite pas Kronecker de pecquenot. Et moi-même, je suis fils de ...
La voici cette remarque dans le contexe de la théorie des nombres $K = \Q(x)$ avec $x$ entier sur $\Z$. Et $\alpha, \beta \in \Z[x]$. SI la norme de $\langle \alpha, \beta\rangle_\OK$ dans $\OK$ n'est pas la même que la norme de $\langle \alpha, \beta\rangle_{\Z[x]}$ dans $\Z[x]$, c'est que $\OK$ est DISTINCT de $\Z[x]$.
I.e. que $\Z[x]$ est strictement contenu dans $\OK$. Qu'en penses tu ?
Et donc qu'il y a un élément dans $\OK \setminus \Z[x]$, n'est ce pas ? Et inutile de rêver c'est probablement que cet élément entier ``nouveau'' ne sort pas d'un chapeau de magicien mais au contraire peut-être construit à partir de $\alpha, \beta$. La réponse est OUI via le polynôme normique de Kronecker CONVENABLEMENT analysé.
$\bullet$ On va construire des éléments $\alpha', \beta' \in K$, entiers sur $\Z$, et un entier $d \in \Z$ non nul vérifiant
$$
\langle \alpha, \beta\rangle\ \langle \alpha', \beta'\rangle\ = \langle d\rangle \qquad \qquad \text{AU SENS FORT} \qquad\qquad (\star)
$$Au sens fort cela signifie que $d = \alpha\alpha' + \beta\beta'$ prouvant que le membre de droite est contenu dans celui de gauche. Et bien sûr les 4 produits du membre de gauche sont multiples de $d$. Multiples au sens $\OK$. Car tout cela se passe dans $\OK$ sans avoir besoin d'avoir déterminé $\OK$.
Cette égalité $(\star)$ est un certificat du fait que l'idéal $\langle \alpha,\beta\rangle$ est inversible.
$\bullet$ Là, je suspend la construction de $\alpha', \beta'$ en reprenant les données d'hier[color=#000000]> Z := IntegerRing() ; > ZT<T> := PolynomialRing(Z) ; > F := T^15 + 4*T^13 + T^12 + 3*T^11 + 3*T^10 - 3*T^9 - T^8 + 5*T^7 - 2*T^6 - 4*T^5 - 3*T^4 - T^3 + 5 ; > K<x> := NumberField(F) ; > alpha := 41 ; beta := x - 21 ; [/color]
$\bullet$ Et toujours sans explication pour l'instant (on ne peut pas tout expliquer d'un coup), le truc nouveau, en APPARENCE, c'est la matrice de Kronecker $M$ ci-dessous qui est $2 \times 2$. On laisse tomber $M_{\rm red}$ qui est une version optimisée de $M$.[color=#000000]> M, Mred, d := KroneckerMatrix([alpha, beta]) ; > d ; 1681 > 41^2 ; 1681 > M[1,1] ; 1/41*(13*x^14 + 478*x^13 + 27843*x^12 + 69100*x^11 - 24344216*x^10 - 1281085743*x^9 - 138559958639*x^8 - 14756505721207*x^7 - 969973419530344*x^6 - 41402662317355526*x^5 - 1147676400711089110*x^4 - 16660523576707307112*x^3 + 90838233703599833610*x^2 + 6556130749246452009839*x + 484931523403362141046031) > IsIntegral(M[1,1]) ; true > [IsIntegral(mij) : mij in Eltseq(M)] ; [ true, true, true, true ] [/color]
Que voit-on ? Que les 4 coefficients de $M$ sont entiers sur $\Z$ : IsIntegral, c'est bien ce que l'on pense.
Et $m_{11}$ on voit avec NOS YEUX qu'il n'est pas dans $\Z[x]$ because le dénominateur 41. Il en est de même des 3 autres coefficients de $M$.
On voit aussi $d = 41^2$ : c'est le contenu du polynôme normique de $\alpha X + \beta Y$. Ou de $\alpha X - \beta Y$ ou de $\alpha X - \beta$ ou de $\alpha + \beta Y$ ou de ...etc... La norme de $\langle \alpha, \beta\rangle_\OK$ quand tout sera au point.
Et le lien entre $M$ et $\alpha', \beta'$, c'est l'égalité ci-dessous : $M$ est le produit d'un vecteur colonne par un vecteur ligne. Donc de déterminant 0. Et de trace 1 car $d = \alpha\alpha' + \beta\beta'$.
$$
M = {1 \over d} \left[ \matrix {\alpha'\\ \beta'} \right] \ [\alpha, \beta] =
{1\over d} \left[ \matrix {\alpha'\alpha & \alpha'\beta \cr \beta'\alpha & \beta' \beta} \right]
$$Nous autres, on aime bien les matrices $2 \times 2$ de déterminant 0 et de trace 1 car cela fournit un projecteur de rang 1. Et encode, par image, des modules projectifs de rang 1. Je sais que Flip Flop, il aime bien aussi.[color=#000000]> Determinant(M) ; 0 > Trace(M) ; 1 [/color]
$\bullet$ Et le rapport avec la choucroute ? I.e. entre $M, \alpha', \beta$' et le polynôme normique ? C'est que $M$ est ancrée dans l'égalité polynomiale
$$
(\alpha + \beta Y) \times \widetilde {\alpha + \beta Y} = \text{N}_{K[Y]/\Q[Y]}(\alpha + \beta Y)
$$C'est une égalité entre un produit de polynômes à gauche et un polynôme à droite. Donc une égalité d'un certain nombre de coefficients. Qui se traduit MATRICIELLEMENT et qui donne $M$ ...etc.. Là, je zappe sur les détails. Qui pourraient paraître sordides mais c'est simplement de la petite algèbre linéaire (je l'ai implémentée). Polynômes et matrices, même combat.
$\bullet$ Résumé/bilan. Le trick de Kronecker fait bien plus que de calculer la norme de $\langle \alpha, \beta\rangle_\OK$ dans $\OK$ . C'est ce que je voulais faire passer. -
Salut Claude,
Faut effectivement s'accrocher !
Voilà comment je vois les choses en mode utilisateur :
1) On calcule $\widetilde {\alpha + \beta Y}$, $\text{N}_{K[Y]/\Q[Y]}(\alpha + \beta Y)$ et $d=\text{N}_{\Z[x]}(\langle\alpha,\beta\rangle)$.
2) A partir de l'égalité polynomiale $(\alpha + \beta Y) \times \widetilde {\alpha + \beta Y} = \text{N}_{K[Y]/\Q[Y]}(\alpha + \beta Y)$, on tire $M$ (je n'ai pas réfléchi aux détails).
3) On peut alors calculer $\alpha',\beta'$ entiers sur $\Z$ tels que $M=\dfrac 1 d \left[ \matrix {\alpha'\\ \beta'} \right] \ [\alpha, \beta]$.
A prendre avec de très grosses pincettes ! :-S -
$\def\OK\{{\mathcal O_K}}$Gai-Requin
Oui, je me doute que ce n'est pas facile à comprendre mais ce n'est pas si facile à expliquer non plus. Oui pour ce que tu as écrit sauf que tu as mis un indice $\Z[x]$ à la norme : dans l'égalité $d = \text{N}_{\Z[x]}$, alors que c'est la norme dans $\OK$.
Je n'ai pas tout dit car cela prend du temps et de l'énergie. Avant de produire $M$, il faut mettre une égalité polynomiale de type $g h = n$ en une égalité $GH= N$ de MATRICES via le schéma suivant
$$
(\alpha + \beta Y) (a_0 + a_1 Y + a_2Y^2 a_3 Y^3 + a_4Y^4) = b_0 + b_1Y + b_2Y^2 + b_3Y^3 + b_4Y^4 + b_5 Y^5 \qquad\qquad (\star)
$$PAREIL QUE (bien faire attention aux formats des matrices)
$$
[\alpha, \beta] \ \left[\matrix {a_0 & a_1 & a_2 & a_3 & a_4 & 0 \cr 0 & a_0 & a_1 & a_2 & a_3 & a_4 \cr}\right] =
\left[ \matrix{b_0 & b_1 & b_2 & b_3 & b_4 & b_5 }\right] \qquad\qquad\qquad (\star')
$$Est ce que tu avais remarqué que $(\star)$ c'est pareil que $(\star')$ ?
Une fois que $(\star) = (\star')$ est bien ancré dans la tête, le reste viendra tout seul. Il n'y aura pas à pré-calculer les quantités comme tu as écrit. -
Merci et OK pour $d$, je me suis fait avoir par le facteur $1/41$ dans $M[1,1]$ de ton exemple.
Résultat des courses : On inverse explicitement $\langle\alpha,\beta\rangle$ dans $\mathcal O_K$ sans calculer $\mathcal O_K$.
Un bon petit tour de magie ! -
$\def\OK{{\mathcal O_K}}$Bon je termine. Mais ce qui fait un peu ch.er, c'est que l'on risque de croire que c'est de l'Analyse Numérique. Donc d'une part ce n'est pas au niveau de ce noble forum. Et d'autre part ce n'est pas sympa pour Flip-Flop le fait que son fil soit déplacé dans la rubrique Analyse Numérique. Sorry Flip Flop.
On a donc notre égalité matricielle $GH = N$ traduction d'une égalité polynomiale normique. Les matrices $G, H$ sont à coefficients dans $K$ et même dans $\OK$. Tandis que la matrice $N$, qui est un vecteur-ligne, est à coefficients entiers, des braves entiers de chez $\Z$ (pardi $N$ est la manifestation vectorielle/matricielle des coefficients du polynôme normique).
Je note $d$ le pgcd des coefficients de $N$ i.e. le contenu du polynôme normique. Et j'utilise Bezout dans $\Z$ i.e. que $d$ est $\Z$-combinaison linéaire des coefficients de $N$. Ce que j'écris matriciellement via un vecteur colonne $U$ :
$$
NU = d
$$En enfin, on pose
$$
\left[\matrix{ \alpha' \cr \beta' \cr} \right] = HU, \qquad \qquad
M = {1 \over d} HU . [\alpha \ \beta] = {1 \over d} \left[\matrix{ \alpha' \cr \beta' \cr} \right] [\alpha \ \beta]
$$Et c'est fini. Je zappe sur les vérifications. I.e. $M$ est un projecteur de rang 1, à coefficients dans $\OK$, qui témoigne du fait que l'idéal $\langle\alpha, \beta\rangle$ est inversible. Et que peut-être, cela a nécessité d'agrandir l'anneau de base en lui ajoutant des éléments de $K$ entiers sur $\Z$.
Note : j'ai fait un gros effort pour ne pas me gourer. Pas si simple en programmation car le logiciel comprend lignes quand je cause colonnes, et réciproquement. -
En effet, $GHU=[\alpha \ \beta]\left[\matrix{ \alpha' \cr \beta' \cr} \right]=NU=d$ donc $d=\alpha\alpha'+\beta\beta'$.
Joli ! (tu) -
Je n'y suis pour rien. Il y a deux gars, Dedekind (1831-1916) et Kronecker (1823-1891), qui ont pas mal planché sur la question, si j'ai bien compris.
Je pense quand même certaines choses ont été ``oubliées'' : dans un cours de théorie algébrique des nombres, je crois par exemple que l'on ne parle pas du critère de Dedekind en $p$ (on réserve cela pour Computer Algebra). Mais bien sûr que Cohen en parle.
Je vais le pointer pour la $x$-ème fois : le texte d'Avigad https://www.andrew.cmu.edu/user/avigad/Papers/dedekind.pdf
Et redire que cela m'a toujours impressionné le nombre d'années qu'a mis Dedekind pour obtenir une version des idéaux en théorie des nombres qu'il estimait satisfaisante (surtout l'inversiblité des idéaux).
Quant à Kronecker, j'ai essayé de raconter deux ou trois trucs à ma manière. J'aimerais bien montrer quelques exercices de Diviseurs de Bourbaki ainsi que sa notice historique sur la question. Mais j'ai pas envie de recopier des choses à la main. -
Je n'ai pas trouvé les Diviseurs de Bourbaki dans mes affaires.
C'est dans quel livre ? -
Diviseurs = Algèbre Commutative, Chapitre 7
-
OK, j'ai trouvé en libre accès sur internet à une adresse honnête. :-D
Je peux essayer de découper ce qui t'intéresse si tu veux. -
claude quitté a écrit:on ne parle pas du critère de Dedekind en $p$
Tu fais référence à quoi ?
Personnellement je ressens toujours une gêne vis-à-vis de la théorie des corps de nombres. J'ai suivi de très bons cours sur le sujet, et lu de très bons livres également, mais je n'ai pas l'impression d'être capable de faire de vrais calculs dedans ! Si tu me demandais de donner explicitement la décomposition d'un certain premier dans une certaine extension, je me sentirais bien bête ! -
@Poirot : C'est le théorème de Ore qu'il te faut (cf pièce jointe).
En guise d'introduction, tu peux regarder les polygones de Newton dans le Petit Compagnon des Nombres de Boyer. -
$\def\fp{\mathfrak p}\def\OK{{\mathcal O_K}}$Poirot,
Je fournis ici un tout petit bout de l'énoncé du critère de Dedekind. Il faut le compléter avec un certain nombre de résultats très précis. Tu trouveras cela partout une fois que tu disposes d'un embryon.
Contexte : $F \in \Z[X]$ un polynôme unitaire irréductible, $K = \Q(x)$ où $x$ est une racine de $F$ et $p$ un premier. On factorise $F$ modulo $p$ en facteurs irréductibles (modulo $p$) et on remonte la factorisation n'importe comment dans $\Z[X]$ en laissant quand même les facteurs unitaires. On a donc :
$$
F = F_1^{e_1} \cdots F_r^{e_r} + pG , \qquad F_i \text{ unitaire, irréductible modulo } p, \qquad F_i \bmod p \ne F_j \bmod p \quad i \ne j
$$$\bullet$ Tout ce qui vient se passe dans $\Z[x]$. C'est facile de vérifier que les idéaux premiers de $\Z[x]$ au dessus de $p$ sont les $\fp_i = \langle p, F_i(x)\rangle$. Facile également de voir que
$$
\langle p\rangle = \langle p, F_1(x)^{e_1}\rangle \cdots \langle p, F_r(x)^{e_r}\rangle
$$$\bullet$ SI tout allait bien, on aurait la chose suivante. Ou encore cela SERAIT le pied de l'avoir
$$
\langle p\rangle = \langle p, F_1(x)\rangle^{e_1} \cdots \langle p, F_r(x)\rangle^{e_r} \qquad\text{i.e.} \qquad
\langle p\rangle = \fp_1^{e_1} \cdots \fp_r^{e_r} \qquad\qquad (\star)
$$On tiendrait alors la factorisation de $p$ dans $\Z[x]$, chaque $\fp_i$ serait inversible dans $\Z[x]$. De manière imagée, $\Z[x]$ ``serait intégralement clos en $p$''.
Of course, ça marche si tous les $e_i$ sont égaux à $1$ (on appelle cela petit Kummer, je crois).
$\bullet$ Malheureusement, ce n'est pas toujours le cas. Dedekind a produit un exemple célèbre en degré $3$ à savoir $X^3 + X^2 - 2X + 8$ avec $p = 2$.
$\bullet$ Et il a fourni un critère permettant d'assurer $(\star)$ : c'est le cas si et seulement si, en notant avec une barre la réduction modulo $p$, on a $\overline {F_i}$ ne divise pas $\overline G$ pour les $i$ tels que $e_i \ge 2$ (les $e_i$ égaux à 1 n'interviennent pas). Ce qui est facile à tester.
$\bullet$ De manière plus abstraite, $(\star)$ a lieu si et seulement si $\Z_{(p)}[x]$ est intégralement clos. Ici $\Z_{(p)}$ c'est le localisé en $p$, pas l'anneau des entiers $p$-adiques. Et donc $\Z[x]$ est intégralement clos si et seulement si $F$ vérifie le critère de Dedekind en chaque premier $p$ divisant le discriminant de $F$. C'est la PREMIERE chose que vérifie un logiciel de calcul de fermetures intégrales.
$\bullet$ Comme déjà dit au début, il faut absolument compléter ce résultat qui n'est que partiel. J'ai essayé de donner un bout de l'idée.
$\bullet$ Quand tu veux produire des exemples, illustrer ...etc... le minimum syndical est de connaître le critère de Dedekind. C'est grâce à ce critère (et à d'autres trucs) que je peux produire des exemples. Parmi lesquels celui que j'ai utilisé !![color=#000000]> Z := IntegerRing() ; > ZT<T> := PolynomialRing(Z) ; > F := T^15 + 4*T^13 + T^12 + 3*T^11 + 3*T^10 - 3*T^9 - T^8 + 5*T^7 - 2*T^6 - 4*T^5 - 3*T^4 - T^3 + 5 ; > p := 41 ; > DedekindTest(F,p) ; false > Roots(F, GF(p)) ; [ <21, 2> ] [/color]
Il fallait absolument que $F$ ne vérifie pas le critère de Dedekind en un premier, histoire de sortir de $\Z[x]$ et d'aller dans $\OK \setminus \Z[x]$, histoire d'illustrer les apports de Kronecker. -
Merci Claude. Je connaissais ce critère, sous l'hypothèse que $\mathcal O_K = \mathbb Z[x]$. En pratique, les gens qui décomposent des premiers utilisent ce résultat on est d'accord ? J'ai l'impression que les cours que j'ai lus n'insistent pas beaucoup sur celui-ci.
Un truc qui m'avait un peu traumatisé : en M2, cours de théorie algébrique des nombres, on commence à mettre les mains dans le cambouis en TD, et on cherche la décomposition d'un nombre premier dans une certaine extension cubique. On invoque la célèbre relation "somme des $ef$ = degré" si tu vois de quoi je parle. On décompose notre polynôme de degré $3$ sur $\mathbb F_p$ (un facteur linéaire, un facteur quadratique) et le prof en déduit DONC $\langle p \rangle = \mathfrak p_1 \mathfrak p_2^2$. Sauf qu'on avait jamais parlé du critère de Dedekind, on avait simplement étudié abstraitement les prolongements de valuations dans les extensions séparables, via les complétés. -
$\def\OK{{\mathcal O_K}}$Flip Flop
Je reconnais que j'ai fait un peu dévier ton fil ``Déterminant''. Et là, cela va être encore le cas car je dois répondre à Poirot, Administrateur, faut pas rigoler avec cela.
Poirot
En fait, je ne sais pas si ton post appelle vraiment une réponse. Mais je réponds quand même, peut-être de manière décousue. Car en dehors des maths tu mentionnes ``enseignement, mains dans le cambouis, traumatisé ...etc''. Peut-être que cela mérite réflexion. Je commence par les maths c'est plus facile.
$\bullet$ Of course que la relation $\sum e_if_i = n$, je vois ce dont tu parles. Mais quand on dit sous l'hypothèse $\OK = \Z[x]$, cela veut dire quoi ? Certes, on a pu prouver (de quelles manières ?) que $\OK = \Z[x]$, mais il faut savoir qu'une telle affirmation cache plein de résultats sous le tapis. En particulier le critère de Dedekind ! Pour moi, mais chacun fait comme il veut, c'est quasiment indispensable de connaître les dessous. Ou en tout cas de savoir qu'il y a des dessous.
Voici deux polynômes de degré 3 ($p$ est un premier), irréductibles sur $\Z$ et qui ont même réduction modulo $p$, à savoir $X^2(X+1)$. Celui de gauche vérifie le critère de Dedekind en $p$, donc on tient la factorisation de $p$ dans $\Z[x]$, qui ne BOUGERA PAS de $\Z[x]$ à $\OK$.
$$
X^3 + X^2 + p = X^2(X+1) + p \equiv X^2(X+1) \bmod p \qquad\qquad\qquad
X^3 + X^2 + p^2 = X^2(X+1) + p^2 \equiv X^2(X+1) \bmod p
$$Tandis que celui de droite ne vérifie PAS le critère de Dedekind en $p$. Ceci prouve d'une part que $\Z[x]$ est strictement contenu dans $\OK$. Et en fait, la négation du critère de Dedekind fournit un habitant de $\OK \setminus \Z[x]$, baptisé tout simplement ``entier de Dedekind''.
Je veux dire qu'une égalité $\OK = \Z[x]$ où son contraire $\OK \ne \Z[x]$ s'accompagne d'une tapée de résultats invisibles. Je ne sais pas si je suis bien clair.
$\bullet$ Enseignement. Doit-on mettre les mains dans le cambouis ? Je n'en sais rien. Mais en tout cas, je trouve totalement anormal de le faire en TD et pas en cours, cela devrait être équilibré.
Aucune obligation évidemment de connaître le critère de Dedekind. Et tous ces résultats que les anciens connaissaient. Le ``petit'' Samuel gris (Théorie algébrique des nombres), que j'apprécie, n'en parle pas (du critère de Dedekind). Les exercices sont choisis de manière à ne pas mettre les mains dans le cambouis et il y a vraiment de quoi s'occuper. Mais il faut bien avoir conscience que dans la vraie vie, cela ne se passera pas toujours comme dans les exercices de Samuel.
Une anecdote que j'ai déjà mentionnée. Notre enseignant en D.E.A à l'époque avait attendu le dernier cours, après la totale, pour nous parler de manière un peu près explicite de la factorisation d'un premier dans un corps quadratique. Comme dans Zariski-Samuel !
J'attache un extrait de Lang qui met les mains dans le cambouis pour $X^3 - 2$. Totalement ahurissante la manière dont il s'y prend pour montrer que $\Z[x] = \OK$. Alors que le critère de Dedekind en 2 et 3 fait le job. Et même que $X^3 - 2$ pourrait servir d'introduction au critère de Dedekind.
Enfin, une dernière remarque. Depuis les idéaux de Dedekind, nous enseignants, on est peinards. Il n'y a plus qu'a donner les définitions d'un anneau, d'un idéal, de l'anneau des entiers ...etc.. et vogue la galère. Inutile de trop motiver des définitions (par exemple la notion d'entier sur un anneau en général). Et surtout inutile de remonter dans le temps et d'essayer de comprendre ce qui s'est passé à l'époque de Gauss, Dedekind, Kronecker ...etc... Il y a belle lurette que l'on ne s'éclaire plus à la bougie.
Gai-Requin : une adresse honnête ?
Connectez-vous ou Inscrivez-vous pour répondre.
Bonjour!
Catégories
- 165.6K Toutes les catégories
- 65 Collège/Lycée
- 22.2K Algèbre
- 37.7K Analyse
- 6.3K Arithmétique
- 61 Catégories et structures
- 1.1K Combinatoire et Graphes
- 13 Sciences des données
- 5.1K Concours et Examens
- 26 CultureMath
- 51 Enseignement à distance
- 2.9K Fondements et Logique
- 10.8K Géométrie
- 86 Géométrie différentielle
- 1.1K Histoire des Mathématiques
- 79 Informatique théorique
- 3.9K LaTeX
- 39K Les-mathématiques
- 3.5K Livres, articles, revues, (...)
- 2.7K Logiciels pour les mathématiques
- 29 Mathématiques et finance
- 344 Mathématiques et Physique
- 5K Mathématiques et Société
- 3.4K Pédagogie, enseignement, orientation
- 10.1K Probabilités, théorie de la mesure
- 805 Shtam
- 4.2K Statistiques
- 3.8K Topologie
- 1.4K Vie du Forum et de ses membres