Relation de commutation — Les-mathematiques.net The most powerful custom community solution in the world

Relation de commutation

Bonjour,
je propose à la communauté l'exercice qui suit.

Soit deux matrices complexes carrées $A$ et $B$ telles que $BA=\omega AB$, où $\omega$ est une racine primitive $n$--ième de l'unité. Montrer que $(A+B)^n=A^n+B^n$. Remarque : il y a un exercice qui consiste à calculer plus généralement $(a+b)^n$ lorsque $ba=\lambda ab$ dans une algèbre, mais, ici, le calcul direct se révèle plus simple.

j__j
«1

Réponses

  • Bonjour
    C'est pour qui l'exercice?
    Parce que vraiment il est trivial...
  • bd2017 : c'est quoi l'intérêt de ce commentaire....
    déjà l'exo n'est pas "trivial", il faut bien écrire quelques trucs, ensuite même si l'exo est facile, il peut être plus compliqué pour d'autres personnes (pour quoi voir "trivial" ne va pas être motivant si elles n'y arrivent pas directement), ou encore intéressant même pour les personnes pour qui c'est simple. Bref, un commentaire avec peu d'intérêt.
  • Peut être, je n'ai pas été assez clair. Sur le forum je vois mal qui ne sait pas faire l'exercice. Pour être plus précis je me demande si l'exercice est pour John-John.?
  • @bd2017 : Quelle est cette solution triviale ?
  • ??

    Pour tout $n$ et tout $w$ vérifiant la relation

    $(A+B) ^n =A^ n + (1+ w+...+w^{n-1}) XXX+B^n $

    XXX en attente

    mais si w racine n ième de l'unité...

    P.S peut être que je n'ai pas compris le sens ou le but de l'exo..
    Ne voyez rien de mal à ma remarque SVP
  • D'où vient cette égalité bd ?
  • Je pressens une utilisation illicite du binôme de Newton.
  • Bonjour,
    bd2017 a écrit:
    Pour être plus précis je me demande si l'exercice est pour John-John.?
    On voit que tu ne sais pas qui est John-John :-D

    Cordialement,

    Rescassol
  • Je sais faire lorsque $n=1$ et $n=2$... mais après, je bloque (:P)
  • J'imagine que l'idée est de calculer le coefficient devant $A^kB^{n-k}$, obtenu après toutes les utilisations de la relation $BA=\omega AB$, et qu'à chaque fois, ce coefficient est un polynôme symétrique en les puissances de $\omega$, qui sera alors nul.
  • bd2017 : tu dis pour tout w mais ta relation n'est même pas vraie pour w = 1....
    Bref c'est trivial mais tu fais des erreurs en chemin.

    La solution est "évidemment" celle que Poirot suggère, mais il y a des choses à ècrire
  • D'autant qu'il faut que la racine soit primitive, pas juste non égale à $1$.
  • Bonjour,

    $B^nA=B^{n-1}BA=\omega B^{n-1}AB=\omega B^{n-2}BAB=\omega^2B^{n-2}AB^2=...=\omega^kB^{n-k}AB^k=\omega^n AB^n$.
    Donc je suppose qu'il y a une erreur d'énoncé et que $\omega$ est en réalité une racine n-ième de $-1$.
    Ensuite la récurrence roule.

    Cordialement,

    Rescassol
  • J'en suis arrivé à la même conclusion que Rescassol.
  • Rescassol il faut regrouper les termes.

    Par exemple avec $n=4$ : $B^3A+B^2AB+BAB^2+AB^3= (\omega^3 + \omega^2+\omega+1) AB^3=0$
  • Bonjour,

    Non Raoul, mon erreur est plus conceptuelle que ça.
    Je suis parti sur l'idée de montrer que $(A+B)^n=A^n+B^n$ par récurrence, donc en voulant montrer que c'était vrai pour tout $n$, mais bien sûr, $\omega$ ne peut pas être racine $n$-ième de l'unité pour tout $n$.

    Cordialement,

    Rescassol
  • J'en suis arrivé à la même conclusion que Rescassol, moi...

    Je procède par récurrence. Cas $n=1$ : $A+B=A+B$, ouf, ça marche.

    Supposons que $\omega$ est une racine d'ordre $n$ et que $(A+B)^n = A^n + B^n$. Alors :

    $(A+B)^{n+1} = (A+B)^n(A+B) = (A^n+B^n)(A+B) = A^{n+1} + B^{n+1} + A^nB + B^nA$.

    Donc pour que ça marche, il faut que $A^nB + B^nA = 0$ pour tout $n$.

    Donc ça aussi, je veux le montrer par récurrence.

    Cas $n=1$ : $AB + BA = (1+\omega)AB$. Donc pour que ça vale $0$, il faut bien que $\omega$ soit une racine de $-1$, non ?
  • Au risque d'enfoncer le clou sur quelqu'un, ce dont je n'ai pas du tout envie, le peu de maths que j'ai fait dans ma vie avait trait à ce sujet précisément, et je n'ai pas du tout trouvé ça trivial, mais au contraire totalement fascinant. L'analogie avec une identité similaire dans un corps de caractéristique finie est bluffante; sauf qu'ici, $n$ est un entier quelconque, la caractéristique est $0$, et l'algèbre n'est pas commutative.
    Après je bloque.
  • C'est mon très mauvais jour...
  • Homo Topi tu fais la même erreur dont parle Rescassol au-dessus.
  • Je ne crois pas, non. Je considère juste un $\omega$ différent pour chaque valeur de $n$. Je ne l'ai juste pas noté $\omega_n$ ou quelque chose comme ça.
  • Si $\omega$ est différent à chaque $n$, tu auras beaucoup de mal à faire une récurrence.
    Après je bloque.
  • Heu, non ? Dans "pour tout $n$, si $\omega$ est une racine $n$-ième, [propriété]", l'ordre de la racine change à chaque indice.
  • Même avec la solution proposée par Poirot ici http://www.les-mathematiques.net/phorum/read.php?3,2311406,2311484#msg-2311484 on tombe sur des cas où l'on obtient pas l'expression $1+w....+w^{n-1}$ dont parle bd2017 et même pas un polynôme symétrique en les puissances de $\omega$.

    Par exemple avec $n=4$ si on prend les monômes avec deux A et deux B on a : $B^2A^2+BA^2B+BABA+A^2B^2 +AB^2A+ABAB$ qui donne $(2+\omega + 2\omega^2+\omega^3)A^2B^2$ qui donne bien $0$ mais ce n'est plus si évident...

    Homo Topi lorsque tu veux démontrer le cas $n+1$ dans ta récurrence, tu supposes que $\omega$ est une racine primitive $n+1$-ième de l'unité. Or tu écris $(A+B)^n(A+B) = (A^n+B^n)(A+B)$ et ça c'est faux car pour pouvoir dire que $(A+B)^n=A^n+B^n$ tu supposes que $\omega$ est une racine primitive $n$-ième de l'unité.
  • Présenté comme ça, d'accord. Mais du coup, il faut démontrer le truc "pas si évident" et personne ne l'a encore rédigé.
  • Je connaissais a priori le résultat à obtenir, puisqu'il ressortit à une formule plus générale (exercice posé à l'oral de la rue d'Ulm) mais, ici, puisque $n$ est fixé, une récurrence est impossible. Ma première idée fut de regrouper tous les termes du développement de $(a+b)^n$ contenant un nombre fixé de $a$ et d'utiliser la relation de commutation mais je n'ai pas réellement vu pourquoi il y a annulation, sauf pour les termes extrêmes $a^n$ et $b^n$.
    En fait, j'y parviens en effectuant de plus petits regroupements ; pour ceux qui connaissent l'exercice $tr(A^p)=tr(A)$ modulo $p$ (lorsque $A$ est une matrice carrée à coefficients entiers et $p$ premier), eh bien, c'est ici analogue... mais $n$ n'est pas supposé premier.
  • Si j'avais un peu de temps, je tenterais de regrouper les termes par nombre d'alternances entre $A$ et $B$, en séparant les termes commençant par $A$ de ceux commençant par $B$. On sait dénombrer tout cela : c'est le nombre de partitions d'un entier en $k$ parties.
    Il ne reste qu'à faire le calcul mais j'ai des copies à corriger (td)
  • Frédéric Bosio : oui, sans l'hypothèse de primitivité, le résultat peut-être faux : si $BA=-AB$, alors $(A+B)^4=A^4+2A^2B^2+B^4$ (car, entre autres, $A^2$ et $B^2$ commutent) et cela met en général le résultat en défaut.
  • Bonjour,

    Pour $n=1$ ça marche.
    Pour $n=2$, $(A+B)^2=A^2+B^2+AB+BA.$
    On sait que $BA=wAB$ avec $w^2=1.$
    Il faut donc $(1+w)AB=0.$
    C’est faux : il suffit de choisir $w=1$, $A=B=Id.$

    L’énoncé est faux.
  • @YvesM : Sais-tu ce qu'est une racine primitive $n$-ième de l'unité ?
  • @Yves: l'énoncé précise bien que $\omega$ doit être une racine primitive, ce n'est pas le cas dans ton exemple (le fait que la propriété n'est pas vérifiée sans cette hypothèse a déjà été remarqué dans le fil).
  • Traitons le cas où $A$ et $B$ sont inversible.
    De $AB=w BA$, on déduit $AB^k = w^k B^k A$ pour tout $k$ donc $AP(B)=P(wB)A$ pour tout polynôme $P\in \C[X]$.
    En prenant pour $P$ le polynôme minimal de $B$ que l'on suppose unitaire de degré $d$, on obtient $P(wB)=0$ donc $P(wX) = w^d P(X)$.

    Ainsi, en choisissant $\lambda\in \C^*$ une valeur propre de $B$, $w^k \lambda$ est une valeur propre de $B$ pour tout $k$ entre $0$ et $n-1$, ce qui fournit donc $n$ valeurs propres distinctes de $B$ (les racines $n$-ièmes de $\lambda^n$).

    Par diagonalisabilité de $B$, similitude et simplification, on peut se ramener au cas où $B=diag(1,w,\ldots,w^{n-1})$ et, vu la relation $AB=wBA$, à $\displaystyle A=\sum_{j=1}^n \alpha_j E_{j-1,j}$ (avec $E_{0,1}=E_{n,1}$).
    Par choix d'une bonne matrice de passage diagonale inversible, on se ramène au cas où $\displaystyle A=a\Big(E_{n,1} +\sum_{j=2}^n E_{j-1,j}\Big)$ pour un certain $a\in \C^*$ ($B$ ne change pas).

    Ensuite, en voyant les calculs sur Maple, une sorte de motif semble se dégager sur la forme des puissances $k$-ièmes de $A+B$, permettant de justifier $(A+B)^n=A^n+B^n$ mais je n'ai vraiment pas envie de mettre les mains dedans...
  • L'hypothèse implique l'identité $(\lambda A+B)(A+B)=(\omega A+B)(\omega^{-1}\lambda A+B)$ pour tout scalaire $\lambda$. On en déduit par récurrence (sur $k$) que $(A+B)^k=(\omega A+B)^{k-1}(\omega^{1-k} A+B)$ d'où (pour $k=n$) $(A+B)^n=(\omega A+B)^n$. De plus, les matrices $\lambda A$ et $B$ vérifient aussi l'hypothèse, on en déduit donc (de proche en proche) $(A+B)^n=(\omega A+B)^n=(\omega^2 A+B)^n=...$. Finalement, $n(A+B)^n=\sum_{k=0}^{n-1}(\omega^k A+B)^n=n(A^n+B^n)$ (cette dernière égalité est valable dans tout anneau non commutatif et résulte des identités $\sum_{k=0}^{n-1} \omega^{kl}=0$ pour tout $1\leqslant l\leqslant n-1$).
  • Bravo Pea. Je ne suis pas sûr de comprendre la dernière égalité, malgré ton explication.
  • Très joli, Pea ! Voici ma méthode, plus combinatoire :

    Le développement de $(a+b)^n$ est la somme de $2^n$ mots de la forme $U=u_1u_2\cdots u_n$ sur l'alphabet $\{a,\,b\}$. Vérifions que, mis à part les extrêmes $a^n$ et $b^n$, un groupement bien choisi des $2^n-2$ autres donne une somme nulle.

    Si $U=u_1u_2\cdots u_n$, je pose $\sigma(U)=u_2\cdots u_nu_1$ (permutation circulaire) et je vérifie que, si $k\geqslant2$ est le plus petit entier tel que $\sigma^k(U)=U$, alors $U+\sigma(U)+\cdots+\sigma^{k-1}(U)=0$. En effet, si $U$ contient $p\geqslant1$ fois la lettre $a$ et $q\geqslant1$ fois la lettre $b$, avec $p+q=n$, alors, si $u_1=a$, on a $\sigma(U)=\omega^qU$ et, sinon, $\sigma(U)=\omega^{-p}U=\omega^qU$.

    Donc, dans tous les cas, la contribution de $U+\sigma(U)+\cdots+\sigma^{k-1}(U)$ est $(1+\omega^q+\omega^{{2q}}+\cdots+\omega^{(k-1)q})=0$ (en effet, $\omega^q\neq1$ car $0<q<n$ et $\omega^{kq}=1$ car $n$ divise $kq$).

    Rien ne vaut un petit exemple : $n=6$, $k=3$, $p=2$ et $q=4$ lorsque $U=abb'abb'$ (je distingue les deux occurrences de $b$ dans les sous-périodes ; on a
    $U=abb'abb'$, $\sigma(U)=bb'abb'a$ et $\sigma^2(U)=b'abb'ab$ ; chacune des lettres $a,b,b'$ parcourt les six positions possibles et l'on a donc effectivement $n|kq=6+6$.

    Remarque : je pense que cette méthode est celle à laquelle beaucoup avaient pensé, mais il ne fallait pas avoir des copies sur le feu et ne pas s'y prendre à 23 heures non plus.

    J'avais des références sur internet, mais n'en ai retrouvé qu'une : http://mate.dm.uba.ar/~qvivas/algebra2/practica-4.pdf (exercice 5)
  • Je faisais allusion à une congruence sur la trace, avec $n$ premier, pour suggérer le recours à des permutations circulaires ; là, cela s'arrange un peu mieux car, sauf pour les termes extrêmes, on a toujours $k=n$ et les mots $U,...$ ont tous même trace.

    En outre, si vous cherchez "Suites réalisables" avec l'option "Toutes les dates" dans ce forum, vous verrez que Noix de Totos a évoqué une très jolie méthode pour vérifier cette congruence.
  • Plus simple : le $q$-binôme de Newton. Si $yx=qxy$, où $q$ commute avec $x$ et $y$, alors pour tout $n$, \[
    (x+y)^n=\sum_{k=0}^n\begin{bmatrix}n\\k\end{bmatrix}_qx^ky^{n-k},\]où, pour tous entiers $0\le k\le n$, \[[n]_q=\frac{q^n-1}{q-1},\quad[n]_q!=[1]_q\cdots[n]_q\quad\text{et}\quad\begin{bmatrix}n\\k\end{bmatrix}_q=\frac{[n]_q!}{[k]_q![n-k]_q!}
    .\]Malgré les apparences, le $q$-coefficient binomial est un polynôme en $q$. Le $n$-ième polynôme cyclotomique qui apparaît dans le facteur $q^n-1$ du numérateur ne peut pas être simplifié par les facteurs de $[k]_q![n-k]_q!$ si $1\le k\le n-1$, si bien que quand $q$ est spécialisé en une racine primitive de l'unité $\omega$, le $q$-coefficient binomial s'annule.
  • Oui, Math Coss, et c'est même de là que je suis parti pour "deviner" le résultat lorsque $\omega$ est une racine primitive $n$--ième, mais j'avoue humblement (si, si !) que je suis loin d'avoir imaginé qu'une telle formule existait (avant d'avoir vu cet exo d'oral).
  • J'ai des amis dont la relation favorite est $yx=qxy$, ça déforme...

    Pour ce genre de formule et des tas d'autres fascinantes, cf. Quantum Calculus de Victor Kac et Pokman Cheung (qu'on trouve piraté en ligne si on ne veut pas l'acheter).
  • À noter que $yx=qxy$ fait partie à présent des "classiques" taupinaux (un de plus !) ; on le trouve dûment corrigé par exemple dans l'excellent ExoMaths MP (Gozard-Leguil, chez Ellipses)
  • Merci pour les références (je n'avais jamais entendu parler du Quantum Calculus...).
  • Bonjour john_john,

    J'ai essayé de prouver la formule de la trace puisque tu disais qu'une idée pourrait en émerger pour résoudre l'exercice qui a initié ce fil.
    Voilà ma solution de laquelle rien n'émergea !

    Soit $A\in M_n(\mathbb Z)$ et $\overline A$ sa réduction modulo un premier $p$.
    Soit $x_1,\ldots,x_n$ les valeurs propres de $\overline A$ dans une certaine extension $L$ de $\mathbb F_p$.
    Par utilisation intensive du Frobenius sur $L$ et d'après le petit théorème de Fermat, on a :$$\overline{\mathrm{Tr}(A^p)}=\mathrm{Tr}\big(\overline A^p\big)=x_1^p+\cdots+x_n^p=(x_1+\cdots +x_n)^p=\big(\mathrm{Tr}(\overline A)\big)^p=\overline{\mathrm{Tr}(A)}^p=\overline{\mathrm{Tr}(A)}.$$
  • Effectivement, gai requin, cela marche parfaitement avec la notion d'extension de corps. On peut le faire avec une économie de moyens puisque, dans $\Z/p\Z$, la trace est linéaire ; il suffit de montrer que l'application au membre de gauche l'est aussi, c'est-à-dire essentiellement que $(A+B)^p$ et $A^p+B^p$ ont toujours même trace modulo $p$ (cela étant fait, ces deux formes coïncident sur la base canonique).

    De la même façon, on groupe les termes non extrêmes $p$ par $p$, par permutation circulaire, sachant qu'une permutation circulaire conserve la trace.

    Ainsi, pour $p=5$, seront regroupés par exemple $ABAAB$, $BAABA$, $AABAB$, $ABABA$ et $BABAA$ ; comme le stabilisateur d'un mot donné est un sous-groupe d'un groupe cyclique de cardinal premier, ce stabilisateur est toujours trivial pour les termes non extrêmes, de sorte que chaque paquet contient exactement $p$ matrices de même trace.

    Cela dit, la méthode de Noix de Totos, juste ici, généralise l'expression en interprétant la trace de $A^m$, où $m$ est un entier naturel, comme le nombre de cycles de longueur $m$ dans un graphe orienté lié à $A$.
  • Joli !
    Faire agir le groupe engendré par une seule permutation circulaire sur l'ensemble des $p$-mots contenant les lettres $A$ et $B$, fallait quand même y penser (comme souvent en combinatoire).
    Remarque nulle : Comme chaque orbite contient exactement $p$ mots (de même trace ce qui fait marcher le truc), cela prouve aussi que $p$ divise $2^p-2$ :-D
  • gai requin: oui, c'est un classique en combinatoire. Voir par exemple Metropolis et Rota, Witt Vectors and the Algebra of Necklaces (au tout début). Ils attribuent le dénombrement du nombre de des mots apériodiques de longueur $n$ dans un alphabet de taille $\alpha$ à un certain Charles Moreau, officier d'artillerie de l'armée française (fin XIXe). Ils font aussi cette remarque, que lorsque $n$ est premier, ce dénombrement implique que $n$ divise $\alpha^n-\alpha$.
    Après je bloque.
  • Oui ! Et, si l'on se limite aux mots contenant un nombre donné de $A$, cela montre même que $p$ divise tous les coefficients binomiaux $p\choose q$ (sauf les extrêmes).
  • Je connaissais l'exercice sur la trace mais j'étais loin de réussir celui-ci (les puissances de $\omega$ ne m'incitaient pas à compter les regroupements, enfin je ne voyais pas pourquoi on aurait eu une somme nulle à chaque fois).

    Le lien de Math-Coss est vraiment très intéressant. Encore une belle formule pour généraliser le bon vieux binôme de manière inattendue.
  • Remarque, pour JLapin,

    supposer $A$ et $B$ inversibles est souvent une bonne idée, mais c'est trop réducteur ici : si $(N,N)$ est le format de ces matrices, il n'en existe d'inversibles que ssi $n$ divise $N$.
  • Merci pour la remarque.
    De toute façon, même avec cette simplification, ma méthode n'aboutit pas (et ne traite effectivement que le cas où $n$ est aussi la taille de la matrice...) mais ça m'a forcé à faire un peu de réduction à la main :)
Connectez-vous ou Inscrivez-vous pour répondre.
Success message!