Puissances négatives de matrice

Bonjour.

Je viens de faire un exercice visant à calculer les puissances positives d'une matrice $A$ de type (3,3) par diverses méthodes (changement de base et diagonalisation, utilisation d'une relation liant $A²$, $A$ et $I_3$ et des suites récurrentes, et enfin formule du binôme de Newton).
Bref je trouve une formule donnant $A^n$.

Pour achever les survivants, on demande si cette formule est valable pour $n$ négatif. Et elle est valable (vérifié en caclulant un produit de matrices).

Ma question : pourquoi cette formule reste-t-elle valable ?
Est-ce que ça arrive souvent ?
Y a-t-il de bonnes raisons pour que ça marche ?

Merci de vos avis.

PS : $A=\frac{1}{3}\(\begin{matrix} 5&-1&-1\\-1&5&-1\\-1&-1&5 \end{matrix}\)$ et $A^n=(2^n-1)A+(2-2^n)I_3$ sauf erreur.
«1

Réponses

  • Bonjour,

    Je ne suis pas sûr d'avoir compris ce que vous demandiez : ce qui vous surprend, c'est que la formule que vous établissez soit valable pour n négatif, ou bien que $A^n$ soit défini pour n négatif ?

    Dans le premier cas, c'est tout bête : $2^n$ est clairement défini pour tout entier n (même pour des réels).

    Dans le second cas, il faut se rappeler la définition de l'itéré dans un groupe ou un anneau : $a^n = a*a^{n-1}$ (on vérifie que ca fonctionne alors à gauche). Et on pose en général $a^{-n} = (a^{-1})^{n}$. Puis on vérifie que cela est égal à $(a^{n})^{-1}$. Bref, la puissance négative d'un élément est définie dés qu'il est inversible. Donc il est normal que A^{n}$ soit définie pour n entier relatif : $Mn(\K)$ est un anneau donc...

    Ais-je répondu à ta question ?

    Cordialement
  • Bonjour,

    Je ne suis pas sûr d'avoir compris ce que vous demandiez : ce qui vous surprend, c'est que la formule que vous établissez soit valable pour n négatif, ou bien que $A^n$ soit défini pour $n$ négatif ?

    Dans le premier cas, c'est tout bête : $2^n$ est clairement défini pour tout entier $n$ (même pour des réels).

    Dans le second cas, il faut se rappeler la définition de l'itéré dans un groupe ou un anneau : $a^n = a*a^{n-1}$ (on vérifie que ça fonctionne alors à gauche). Et on pose en général $a^{-n} = (a^{-1})^{n}$. Puis on vérifie que cela est égal à $(a^{n})^{-1}$. Bref, la puissance négative d'un élément est définie dès qu'il est inversible. Donc il est normal que $A^{n}$ soit définie pour $n$ entier relatif : $M_n(\mathbb{K})$ est un anneau donc...

    Ais-je répondu à ta question ?
    Cordialement
  • bonjour

    je n'ai pas vérifié ton résultat de A^n mais s'il est vrai pour n entier il est aussi valable pour un exposant fractionnaire (et donc pour le calcul de racine de A) et pour un exposant entier négatif (et donc pour le calcul de A inverse)

    tout simplement parce que l'identité matricielle A^t=P.D^t.P^(-1)

    avec A élevée à la puissance t est valable pour t exposant réel

    mais il faut que A soit régulière (inversible) sinon les exposants entiers négatifs dans les puissances de A ne sont pas admissibles

    cordialement
  • Merci, Jean.
    Je comprends cet argument, utilisable si $A$ est diagonalisable (et inversible si on parle des exposants entiers négatifs).
    Y a-t-il une extension si $A$ n'est pas diagonalisable ?
  • naos :
    si je comprends bien, il suffit de vérifier que la formule donnant $A^n$ pour $n$ positif est valable aussi pour $n = -1$, cela fonctionnera alors pour toute valeur négative de $n$.
    Mais pourquoi est-il fatal que cela fonctionne pour $n=-1$ ? (évidemment, je suis convaincu par l'argument de Jean).
  • bonsoir

    si A est inversible et non diagonalisable le mieux est d'utiliser les suites numériques de matrices et les théorèmes des équations récurrentes linéaires

    si A est de dimension 3x3 avec par exemple une valeur propre double r1 et une valeur propre simple r2 (non nulles car A est supposée inversible)

    alors la puissance t ième de A (t exposant réel) est de la forme:

    A^t=(at+b)(r1)^t + c.(r2)^t

    a, b et c sont des constantes matricielles de dimension 3x3 (calculées par la détermination de I, A et A² c'est-à-dire en faisant t=0, 1 et 2 dans ce résultat)

    cordialement
  • Toujours la même forme, qu'il s'agisse de suites récurrentes linéaires, d'équations différentielles ou ici de puissances de matrices, dès qu'une racine est double.
    Un jour je comprendrai pourquoi.
    Merci.
  • On a $A^2 = 3 A - 2 I_3$ donc $A (3 I_3 - A) = 2 I_3$ et par suite
    $A^{-1} = \frac{1}{2} (- A + 3 I_3)$. Que demande le peuple (de plus)?
  • comment calcule t on une matrice A exposant n
  • Sourire, Bonjour, Au revoir, Merci ?
    Pour quelle matrice ?
    Algebraic symbols are used when you do not know what you are talking about.
            -- Schnoebelen, Philippe
  • Il me semble que jp a posé une question très intéressante qui n'a pas reçu de réponse totalement convaincante, peut être parce qu'elle est un peu compliquée à formaliser dans un cadre général.
    En gros, c'est "pourquoi la formule dans $\N$ est encore vraie dans $\Z$ ?"

    Ici, la question peut se reformuler en

    Soit $p\ge 1$, $ A$ une matrice $ p\times p$ avec
    $ \forall n\in\mathbb{N}\quad A^n=(2^n-1)A+(2-2^n)I_p$.

    Montrer (avec le moins de calculs possible) que $ \forall n\in\mathbb{Z}\quad A^n=(2^n-1)A+(2-2^n)I_p$.

    Malheureusement, ici, on peut diagonaliser, ce qui cache une partie des choses.
    J'esquisse une réponse dans le cas général.


    D'après le théorème de Cailey-Hamilton, si $A$ est inversible, $A^{-1}$ est un polynôme en $A$,
    ainsi, si le polynôme minimal de $A$ est de degré $p$, il existe des suites $u^k_n$, avec

    $\forall n\in\Z\quad A^n=\sum_{k=0}^{p-1}u^k_n A^k$.
    A l'aide de techniques classiques, on montre que, à $k$ fixé, la suite $(u^k_n)$ vérifie une récurrence linéaire d'ordre $p$. La théorie générale nous dit donc qu'il existe des polynômes $P_{k,i}$ avec
    $\forall n\in\Z \quad u^k_n=\sum_i \lambda_i^n P_{k,i}(n)$.
    La connaissance des valeurs aux points dans $\N$ est suffisante pour identifier les $\lambda_i$ et les $P_{k,i}$, ce qui fait que la validité de la formule dans $\N$ entraîne sa validité dans $\Z$.
  • Bonsoir

    La démonstration donnée par aléa est trop vague et elle est même fausse.

    Soit A une matrice quelconque et posons An=A(n) pour tout n\in N. Alors on a bien une suite de matrices, d'après la définition
    de la multiplication des matrices, la suite A(-n) est bien définie.

    M. Mouçouf a montré récemment que si A est inversible alors
    A-1(n)=A(-n).

    Parmi les applications de ce résultat, on peut citer les suivantes :

    1) Si A est une matrice involutive alors la suite A(n) est paire.

    2) Supposons qu'on a déterminé la suite A(n) associée à une matrice A, alors on peut facilement voir si A est inversible ou non et ceci en calculant le produit
    A A(-1).

    3) Si A est inversible alors A-1=A(-1).

    Pour plus de détails, tu peux te reporter à l'article
    M. Moucouf. The relationship between the powers of an invertible matrix and those of its inversible. Journal of
    the Chungcheong Mathematical Society. Volume 25 , 2012, no. 4, 609-615.

    cordialement
  • Il est possible d'avoir une idée de la démonstration de ces résultats très intrigants (surtout le 3) ?

    e.v.
    Personne n'a raison contre un enfant qui pleure.


  • Visiblement, c'est là

    http://www.ccms.or.kr/data/pdfpaper/jcms25_4/25_4_609.pdf

    J'ai essayé de regarder pour me coucher moins bête, je ne sais pas si c'est le froid qui m'a gelé les neurones (passé une bonne partie de la journée à casser de la glace), mais je n'ai même pas compris l'énoncé.
  • C'est moins ridicule que ça en a l'air. La rédaction de l'intro, n'aide pas, bien sûr, ni le message plus haut. En gros, il prend la forme de Jordan, l'élève à la puissance $n$ avec un coup de binôme, remplace $n$ par $-n$ dans les expressions obtenues et prétend vérifier que ça donne bien $A^{-n}$ (je suppose quand $A$ est inversible). Pour la fin, je ne sais pas si même raisonnable et n'ai certainement pas l'intention de regarder de plus près.

    Puisque l'article est en téléchargement libre :
  • Ce qui est bien, c'est que c'est un journal qui a foi dans l'avenir :
    26840
  • Si j'ai bien compris, il faut se cogner six pages de calculs pour inverser une pauvre matrice diagonale par blocs.

    Par ailleurs - les mêmes causes produisant les mêmes effets - je n'ai pas pigé l'énoncé. Je vois bien comment calculer les $a_{i,j}(n)$ pour $n\in\N$ mais comment sont définis les $a_{i,j}(-n)$ pour $n\in\N^*$ je n'entrave pas.

    Quelqu'un du midi - qui n'aurait pas écopé comme un damné - pourrait-il m'éclairer ?

    amicalement,

    e.v.
    Personne n'a raison contre un enfant qui pleure.


  • ev a écrit:
    mais comment sont définis les $a_{i,j}(-n)$ pour $n\in\N^*$

    Bah, ya des formules bourrines avec des coefficients combinatoires, alors yaka remplacer $n$ par $-n$ dans ces formules. C'est pas le bout de monde (la Corée).
  • Mouais. Je dois rater quelque chose. Je vois bien comment sont calculés les $ a_{i,j}(-n)$ pour $ n\in\mathbb{N}^*$ et une matrice de Jordan, mais pour une matrice générique, disons $\begin{pmatrix}
    a_{1,1} & a_{1,2} & a_{1,3} \\ a_{2,1} & a_{2,2} & a_{2,3} \\ a_{3,1} & a_{3,2} & a_{3,3}
    \end{pmatrix}$. Faut-il passer par une forme de Jordan pour y avoir accès ?

    La Corée ? Encore une vanne que je ne comprendrais pas avant le dégel ?

    amicalement,

    e.v.
    Personne n'a raison contre un enfant qui pleure.


  • Ben oui, il faut passer par Jordan. J'ai dit que ça n'était pas aussi ridicule que ça en avait l'air a priori, je n'ai pas dit que ça pouvait servir à quelque chose d'utile ! Et non, pas de vanne intentionnelle sur la Corée, si ce n'est que le journal est coréen.
  • Je vois que vous aussi ce cas de Corée vous turlupine.
  • Déjà faite par Aleg. (avec la référence)

    amicalement,

    e.v.
    Personne n'a raison contre un enfant qui pleure.


  • Eh oui, on pouvait difficilement y échapper...
  • Sinon, le résultat semble probablement correct, vu qu'il est plus ou moins trivial pour les matrices $2\times 2$. Si on prend un bloc de Jordan $2\times 2$, on obtient
    $$A(n)=\begin{pmatrix}\lambda&1\\0&\lambda\end{pmatrix}^n=\begin{pmatrix}\lambda^n&n\lambda^{n-1}\\0&\lambda^n\end{pmatrix}$$
    d'où
    $$A(-n)=\begin{pmatrix}\lambda^{-n}&-n\lambda^{-n-1}\\0&\lambda^{-n}\end{pmatrix}=A^{-n}.$$

    En particulier, pour satisfaire la curiosité d'ev, on a bien
    $$\begin{pmatrix}\lambda^{-1}&-\lambda^{-2}\\0&\lambda^{-1}\end{pmatrix}=\begin{pmatrix}\lambda&1\\0&\lambda\end{pmatrix}^{-1}.$$
  • Le résultat est trivial pour une matrice diagonale.

    Ce que je ne trouve pas clair, c'est l'exemple 2.3. page 6. Outre le fait que le calcul de l'inverse est trivial et celui des puissances n'est pas bien difficile, ici la matrice n'est pas sous une forme de Jordan. Je ne vois pas la justification du truc, à part le Grand Théorème de Prolongement des Phénomènes Mathématiques.

    amicalement,

    e.v.
    Personne n'a raison contre un enfant qui pleure.


  • En effet, ça ressemble à un tour de magie sans rapport direct avec ce qui précède. Le théorème ne s'applique pas. De toutes façons, le truc est tellement élémentaire que j'ai les plus grands doutes sur son originalité.
  • bonjour,

    Il faut remplacer $n$ par $-n$ là où il y a $n$.
    Considérer l'exemple proposé par jp : on a $A=\dfrac{1}{3} \left( \begin{matrix} 5&-1&-1\\-1&5&-1\\-1&-1&5 \end{matrix} \right)$ et
    $A(n)=A^n=(2^n-1)A+(2-2^n)I_3$.
    Si on remplace $n$ par $-1$, on obtient $A(-1)=\dfrac{1}{2}(-A+3I_3)$. On vérifie facilement que $A A(-1)=I_3$. Donc $A$ est inversible et on a
    $A^{-n}=A(-n)=(2^{-n}-1)A+(2-2^{-n})I_3$.
    Un autre exemple : on considère la matrice $B=\left( \begin{matrix} -1& -2 \\ 0& 1 \end{matrix} \right) $.
    On trouve facilement que $B^n= \dfrac{1-(-1)^n}{2} B+ \dfrac{1+(-1)^n}{2} I_2$. On remarque $B(-n)=B(n)$ et cela est dû au fait que $B$ est involutive.

    PS : le résultat est démontré dans le cas général et ce n'est donc pas la peine de passer chaque fois par la forme de Jordan.

    cordialement
  • Mouais, pas très bien énoncé ce résultat : Dire que si $A(n)$ est défini pour tout entier naturel $n$, alors $A(-n)$ est clairement défini, cela me laisse de marbre.D'ailleurs, qu'est-ce que $A(-n)$ si $A$ n'est pas inversible ?
    L'auteur s'en sort avec un : "Of course, if Ai;j(n) = c is a constant sequence for a given i; j then Ai;j(-n) = c.", qui n'explique pas grand chose et qui est très approximatif. La démonstration du théorème 2.1 semble un peu mieux rédigée.

    Quant à la vieille explication d'Aléa, même si c'est une ébauche, elle me paraît beaucoup plus sérieuse dès le départ (bien que plus technique). J'avoue ne pas avoir fait cela en détail pour voir s'il n'y avait pas de points délicats, mais cela me paraît bien en première lecture.
  • Si je pose $$F(z) = -ze^{-\gamma z}\prod_{n=1}^{+\infty} \left(1 - \frac{z}{n}\right)^{-1} e^{z/n}$$
    soit $F(z) = \dfrac{1}{\Gamma(-z)}$, je peux écrire avec l'exemple de jp
    $$ A(n)=A^n=(2^n-1+ F(n))A+(2-2^n)I_3$$
    Dois-je en conclure que
    $A^{-n}=A(-n) = (2^{-n}-1+F(-n))A+(2-2^{-n})I_3$, sachant que $F(-n) = \dfrac{1}{\Gamma(n)} = \dfrac{1}{(n-1)!}$ ?

    e.v.
    Personne n'a raison contre un enfant qui pleure.


  • Henripas a écrit:
    PS : le résultat est démontré dans le cas général et ce n'est donc pas la peine de passer chaque fois par la forme de Jordan.

    C'est faux. Le résultat est montré sur la forme de Jordan (en supposant qu'il soit exact). Si tu penses qu'il s'applique à une autre formule $A(n)$ sortie du chapeau, c'est une grosse erreur de logique. Apparemment commise par l'auteur de l'article d'ailleurs.
  • En ce qui concerne la phrase "Of course, if Ai;j(n) = c is a constant sequence for a given i; j then Ai;j(-n) = c.",
    je crois que l'auteur veut éclaircir ce point au lecteurs qui posent la question : si l'un des coefficients de $A^n$ est constant
    où je doit mettre le $-n$? question que j'ai moi-même posée.
    Pour la question c'est quoi $A(-n)$ dans le cas où $A$ n'est pas inversible? voici un exemple simple
    $A=\left( \begin{matrix} 2& 0 \\ 0& 0 \end{matrix} \right) $, on a $A(n)=.\left( \begin{matrix} 2^n& 0 \\ 0& 0 \end{matrix} \right) $ et
    $A(-n)=\left( \begin{matrix} 2^{-n}& 0 \\ 0& 0 \end{matrix} \right) $. Où est le problème?
    L'auteur a montré qu'on peut remplacer $A$ par sa forme de Jordan. Si j'ai bien compris, l'auteur a utilisé le fait que l'on peut remplacer $A$ par $J$ puisque les matrices $T$ et $T^{-1}$ qui vérifient $A=T^{-1}JT$ ne dépendent pas de $n$.
  • Le problème, c'est qu'une fonction définie sur $\mathbb{N}$ ne se prolonge pas de manière unique en une fonction sur $\mathbb{Z}$. Pour avoir l'unicité, il faut une hypothèse supplémentaire, par exemple que la fonction appartient à l'algèbre des fonctions de la forme $n\mapsto \sum_i \lambda_i^n P_{i}(n)$, avec $P_i$ fonction polynôme.
  • Bonsoir Henripas
    Je reprends ton exemple :
    $ A=\begin{pmatrix}2& 0 \\ 0& 0 \end{pmatrix} $, on a $ A(n)= \begin{pmatrix}2^n& 0 \\ 0& 0 \end{pmatrix} $
    J'ai plutôt envie de l'écrire $ A(n)= \begin{pmatrix}2^{|n|}& 0 \\ 0& 0 \end{pmatrix} $ }, ce qui est parfaitement licite puisque $n = |n|$ quand $n\in \N$.
    Il manque donc des hypothèses sur le type d'expression que peut avoir $A(n)$ pour que $A(-n)=A^{-n}$ !
    Alain
  • Bonsoir,

    Je dois avouer que je ne comprends pas bien les objections faites à l'article.

    Si le théorème est vérifié pour un bloc de Jordan $J_p(\lambda)$ inversible alors il l'est aussi pour la matrice $J(n)$ de l'article et ainsi pour toute matrice $A=T^{-1}J(n)T$ inversible, non?

    Je ne vois pas où est la faute de logique.

    Seb
  • @seb78 : AD en a donné un exemple. L'article montre que la formule que l'on obtient pour $A^n$ en utilisant la forme de Jordan donne bien $A^{-n}$ quand on remplace $n$ par $-n$. Ca semble probablement vrai, et très certainement anodin. Maintenant, ça ne veut pas dire que n'importe quelle autre formule $A'(n)$ prise au hasard qui marche pour $n\ge 0$ va aussi marcher pour $n\le 0$. C'est quand même une faute très, très grossière. Elle est faite par l'auteur dans son exemple 2.3 et par Henripas plus haut.
  • @AD Ahem, oui, effectivement ta fonction est un poil plus simple que la mienne...

    amicalement,

    e.v.
    Personne n'a raison contre un enfant qui pleure.


  • Pour coller à l'article, soit $A(n)$ la formule obtenue pour $n\ge 0$ par forme de Jordan + formule du binôme. Rien de bien renversant. Admettons, car nous sommes braves, que la formule $A(-n)$ obtenue par substitution typographique de $n$ par $-n$ dans la formule en question se trouve donner $A^{-n}$ pour tout $n$. Why not. Maintenant, je regarde $B(n)=A(n)+n_-.I$. Elle marche pour $n$ positif : $A^n=B(n)$ pour tout $n\in\N$. J'applique le Grand Théorème de Prolongement des Phénomènes Mathématiques d'ev, qui me plaît bien, et j'en déduis que $A^{-n}=B(-n)=A(-n)+nI$. C'est du même acabit dans l'article.
  • bonjour

    L'exemple de AD me gêne parce que formellement la fonction valeur absolue signifie $max(n,-n)$, or ici on a supposé : $n \in \N$, et parler de valeur absolue n'a pas vraiment de sens à ce stade.

    D'après ce que je comprends, l'auteur affirme seulement que si il existe une formule $A(n)$ qui décrit $A^n$ alors le théorème s'applique, ce qui semble être la situation de l'exemple 2.3.

    Cordialement,
    Seb
  • Bonjour remarque.

    Le Grand Théorème de Continuité des Phénomènes Mathématiques est une invention de Jacques Lubczanski (aka tonton Lulu). Il faut rendre à César ce qu'il a vraisemblablement piqué ailleurs. Je l'avais évoqué dans ce fil d'algèbre. Si tu veux je te fais un mot d'excuse.

    amicalement,

    e.v.
    Personne n'a raison contre un enfant qui pleure.


  • seb a écrit:
    D'après ce que je comprends, l'auteur affirme seulement que si il existe une formule $A(n)$ qui décrit $A^n$ alors le théorème s'applique, ce qui semble être la situation de l'exemple 2.3.

    Tout à fait, ce qui est grossièrement faux, comme les exemples plus haut le montrent. Je ne comprends pas ce que tu ne comprends pas.

    @ev : je ne connaissais pas ce Grand Théorème et j'ai donc été légitimement ébloui par sa puissance (négative). Dont acte.
  • Bonsoir remarque,

    Je ne suis pas d'accord avec toi, on doit pas remplacer $n$ par $|n|$ comme on doit pas remplacer $f(x)=x$ définit pour $x>0$ par
    $f(x)=\exp(\ln(x))$, par exemple lorsqu'on cherche un prolongement canonique de $f(x)=x$ à $\mathbb{R}$ ou à $\mathbb{C}$.
    De toute façon, dans la démonstration du théorème... on voit bien que les coefficients $a_{ij}(n)$ sont de la forme
    $$\sum \alpha_{t,s} \dbinom{n}{k_s} \lambda_t^{n+s}$$
    où les $\lambda_t$ sont les valeurs propres non nulles de $A$ (il suffit d'utiliser les matrices $T$ et $T^{-1}$). Il est maintenant clair que
    $$a_{ij}(-n)=\sum \alpha_{t,s} \dbinom{-n}{k_s} \lambda_t^{-n+s}.$$
  • Ah ! donc il y avait des règles du jeu ! On doit ceci, on ne doit pas cela...

    Parce que vois-tu, cher Henri, ces règles n'étaient pas écrites dans le théorème. Finalement, tu en reviens à l'énoncé d'alea dont tu écrivais que "la démonstration donnée [était] trop vague et [...] même fausse.

    Quand l'énoncé sera écrit précisément, quand le "prolongement canonique" sera défini peut-être y verrai-je plus "clair".

    e.v.
    Personne n'a raison contre un enfant qui pleure.


  • Henripas a écrit:
    De toute façon, dans la démonstration du théorème[...]

    Je ne dis pas le contraire, si tu me lis avec attention. Tout au plus indiqué-je que ce calcul me semble anodin, et très certainement connu depuis belle lurette, mais c'est une autre affaire. Par contre, le théorème en question ne s'applique pas à d'autres formules tout aussi correctes qui ne sont pas de cette forme pour deux raisons : 1. il n'est pas démontré pour des formules qui ne sont pas de cette forme, 2. il y a des exemples de formules qui ne sont pas de cette forme pour lesquels il est faux. On pourrait même considérer que la deuxième raison l'emporte sur la première.

    Dans l'exemple 2.3, la matrice n'est pas sous forme de Jordan et les formules ne sont pas celles pour lesquelles le théorème est montré (encore une fois je n'ai pas vérifié au delà du cas $2\times 2$ que ce théorème est vrai). C'est rédhibitoire.

    Maintenant, il est peut-être facile de voir que les formules de l'exemple 2.3 sont un simple déguisement de celles obtenues via la forme de Jordan, mais ce n'est pas écrit dans l'article et tout porte à croire dans la rédaction que la question n'a même pas effleuré l'esprit de l'auteur. Lequel peut se féliciter que je n'aie pas eu à référer cet article, car je l'aurais refusé avec un rapport plus ou moins du même tonneau que ce que je viens d'écrire. :-(
  • Bonsoir,

    Après avoir bien lu, je reste partagé. L'auteur n'a pas fait le calcul explicite des $a_i_j(n)$ dans le cas général mais le texte précise quand même:

    "A(n) = T¡1J(n)T [...] for all positive integers n, then we may assume without any loss of
    generality that A = Jp(¸) is a Jordan block.".


    L'existence de la forme de Jordan pour une matrice à coefficients complexes permet d'affirmer que toute matrice $A^n$ peut s'écrire sous une forme $a_i_j(n)$ tel que le théorème s'applique et l'exemple 2.3 rentre dans cette catégorie.

    Il est vrai que l'auteur n'a probablement pas vu la question de la valeur absolue mais ça ne paraît pas une objection fondamentale à la preuve mais plus une amélioration de la clarté de celle-ci.

    Seb
  • seb78 a écrit:
    L'existence de la forme de Jordan pour une matrice à coefficients complexes permet d'affirmer que toute matrice peut s'écrire sous une forme tel que le théorème s'applique...

    Oui.
    ...et l'exemple 2.3 rentre dans cette catégorie.

    Non jusqu'à preuve du contraire, preuve qui est à la charge de l'auteur, pas du lecteur. Mais si ça te fait plaisir... pour ma part, j'ai un peu épuisé mes réserves d'intérêt pour la chose.
  • bonsoir remarque

    Je suis tout a fait d'accord avec seb.
    N'es-tu pas d'accord avec moi que les coefficients $a_{ij}(n)$ sont des combinaisons linéaires des éléments de la forme
    $\dbinom{n}{k_s} \lambda_t^{n+s}$ ?
    Est-ce qu'il y a un exemple montrant qu'en général, le théorème est faux? parce que dans ce cas on peut l'envoyer à l'auteur est aussi au journal.
  • @ Henripas : j'ai déjà dit tout ce que j'avais à dire sur la question plusieurs fois, à quoi bon continuer à radoter ? Si vraiment tout ça te perturbe, je te suggère d'envoyer les nombreux contre-exemples donnés plus haut à l'auteur, mais bon... il n'est pas le premier à publier un papier contenant des erreurs, et pas le dernier non plus. De plus, l'enjeu scientifique est particulièrement mince dans son cas.
  • Henripas a écrit:
    Est-ce qu'il y a un exemple montrant qu'en général, le théorème est faux?

    Je précise quand même, puisque apparemment ce n'est pas clair dans ce que j'ai écrit. Je n'ai pas dit que le théorème est faux : j'ai dit que je l'ai vérifié dans le cas $2\times 2$, qu'il est donc probablement vrai en général mais que je n'ai aucune intention de le vérifier, qu'il est anodin et manifestement connu depuis très longtemps, sans que j'aie non plus l'intention de faire une recherche bibliographique pour prouver cette dernière assertion. Bref, l'auteur n'a pas inventé le fil à couper le beurre. Ce qui est faux, c'est son application sans autre forme de procès à l'exemple 2.3. Le résultat de l'exemple peut être faux ou juste, ce n'est pas mon problème, mais le raisonnement utilisé tel qu'il est écrit noir sur blanc dans le papier ne peut pas être accepté tel quel. C'est tout, et j'espère ne pas avoir à revenir encore une fois là-dessus. Je commence à me mordre les doigts d'avoir participé à ce fil... :)
  • @Henripas : Elle est où l'erreur dans la démonstration d'aléa ?
  • Bonsoir,
    En ce qui concerne la démonstration d'aléa, j'avoue que c'est une bonne idée d'utiliser les sutes récurrentes.
    Pour la question posée par Sirius : ''Elle est où l'erreur dans la démonstration d'aléa ?''
    Si $A$ est inversible, $A^{-1}$ est un polynôme en $A$,
    ainsi, si le polynôme minimal de $A$ est de degré $p$, il existe des suites $u^k_n$ et $v^k_n$, avec

    $\forall n\in\N\quad A^n=\sum_{k=0}^{p-1}u^k_n A^k$ et $\forall n\in\N\quad A^{-n}=\sum_{k=0}^{p-1}v^k_n A^k$.\\
    Si on pose
    $w^k_n=\left\{
    \begin{array}{lll}
    u^k_n & \quad \text{si} \quad& n\in \N\\
    v^k_{-n}& \quad \text{si} \quad & n\in \Z
    \end{array} \right.
    $\\
    Dans ce cas on a $\forall n\in\Z\quad A^n=\sum_{k=0}^{p-1}w^k_n A^k$. Jusqu'ici je suis entièrement d'accord avec aléa.\\
    On doit montrer alors que $v^k_n=u^k_{-n}$ (sans remplacer $n$ par une autre forme $f(n)$).\\
    Les suite $(u^k_n)$ et $(v^k_n)$ vérifient une récurrence linéaire d'ordre $p$. Par suite il existe des polynômes $P_{k,i}$ $Q_{k,i}$ avec
    $\forall n\in\N \quad u^k_n=\sum_i \lambda_i^n P_{k,i}(n)$ et $\forall n\in\N \quad v^k_n=\sum_i \mu_i^n Q_{k,i}(n)$.\\
    La connaissance des valeurs aux points dans $\N$ est suffisante pour identifier les $\lambda_i$, $\mu_i$, $P_{k,i}$ et les $Q_{k,i}$.
    Mais
    \begin{center}'' ce qui fait que la validité de la formule dans $\N$ entraîne sa validité dans $\Z$.''\end{center}
    n'entraîne pas que $v^k_n=u^k_{-n}$.
    \\
    Pour moi la démonstration offerte par l'auteur est convaincante.....
    Cher remarque, Moi aussi j'ai épuisé mes réserves d'intérêt pour la chose.\\

    Amicalement
Connectez-vous ou Inscrivez-vous pour répondre.