Des applications de Cesàro et/ou Abel et/ou Silverman–Toeplitz
Réponses
-
Pour continuer dans cette idée d'utiliser Kloosterman pour la 26 sans liminf et limsup j'en arrive à devoir montrer un truc comme ça.Soit $a_{n}$ une suite positive décroissante telle que $a_{n}=O\left(n^{-\alpha}\right)$ avec $0<\alpha<1$ telle que
$\lim_{n\rightarrow\infty}\frac{1-\alpha}{n^{1-\alpha}}\sum_{k=1}^{n}a_{k}=\ell$Alors a-t-on sous ces seules conditions
$\lim_{n\rightarrow\infty}\frac{1}{n^{\alpha}}\sum_{n\leq k\leq n+n^{\alpha}}a_{k}k^{\alpha}=\ell$ ? -
Bon ces détours m'ont ramené à l'idée de départ pour la 26 qui était d'utiliser 12 dont Calli a fourni déjà une preuve. Nouvelle tentative de démonstration de la 26 dans le sens pas facile.Lemme : La suite $w_{n}:=n^{a}a_{n}$ vérifie $w_{n}-w_{n-1}=O(n^{-1})$.
Preuve du lemme
Comme $a_{n}$ décroit et que $\sum_{k=1}^{n}a_{k}\sim n^{1-\alpha}\ \left(n\rightarrow\infty\right)$ alors on a $a_{n}\leq\frac{1}{n}\sum_{k=1}^{n}a_{k}\sim n^{-\alpha}$ et donc $$\left|w_{n}-w_{n-1}\right|=\left|n^{\alpha}a_{n}-(n-1)^{\alpha}a_{n-1}\right|\leq a_{n}\left|n^{\alpha}-(n-1)^{\alpha}\right|\sim \alpha a_n n^{\alpha-1}$$ comme $a_{n}=O\left(n^{-a}\right)$ on obtient$$w_{n}-w_{n-1}=O(n^{-1})$$cqfdSoit $A(x)=\sum_{k\leq x}a_{k}$ alors on a par la formule sommatoire d'Abel$$\sum_{k=1}^{n}a_{k}k^{\alpha}=A(n)n^{\alpha}-1-\alpha\int_{1}^{n}A(t)t^{\alpha-1}dt$$ soit $$\frac{1}{n}\sum_{k=1}^{n}w_{k}=A(n)n^{\alpha-1}-\frac{1}{n}-\frac{\alpha}{n}\int_{1}^{n}A(t)t^{\alpha-1}dt$$ On a $A(x)x^{\alpha-1}\sim\frac{\ell}{1-\alpha}$ d'où $\int_{1}^{n}A(t)t^{\alpha-1}dt\sim\frac{\ell n}{1-\alpha}$ et donc $$\lim_{n\rightarrow\infty}\frac{1}{n}\sum_{k=1}^{n}w_{k}=\frac{\ell}{1-\alpha}-0-\alpha\frac{\ell}{1-\alpha}=\ell$$Maintenant comme on a $w_{n}-w_{n-1}=O\left(n^{-1}\right)$ on peut utiliser l'énigme 12 et $w_{n}\rightarrow\ell$. -
Non je ne peux pas! Encore une boulette je vais faire une pause.
-
Vu les cochonnades que j'ai faites voici où j'en suis sur cette question.Par la formule sommatoire d'Abel en notant $A(x)=\sum_{k\leq x}a_{k}$ on a
$\sum_{1\leq k\leq n}a_{k}k^{\alpha}=A\left(n\right)n^{\alpha}-1-\alpha\int_{1}^{n}A(t)t^{\alpha-1}dt$
donc comme $A(t)t^{\alpha-1}=\frac{\ell}{1-\alpha}+o(1)$ il vient
$\frac{1}{n}\sum_{1\leq k\leq n}a_{k}k^{\alpha}=A\left(n\right)n^{\alpha-1}-\frac{1}{n}-\frac{\alpha}{n}\left(\frac{\ell n}{1-\alpha}+o(n)\right)$
$\Rightarrow\frac{1}{n}\sum_{1\leq k\leq n}a_{k}k^{\alpha}=\frac{\ell}{1-\alpha}+o(1)-\frac{1}{n}-\frac{\alpha\ell}{1-\alpha}+o(1)$
$\Rightarrow\frac{1}{n}\sum_{k=1}^{n}a_{k}k^{\alpha}\rightarrow\ell $ (1)
Les conditions de décroissance et la positivité de $a_{k}$ donnent $a_{n}\ll n^{{-\alpha}}$. Peuvent-elles aussi simplement à partir de (1) donner $a_{n}n^{\alpha}\rightarrow\ell$ auquel cas c'est plié ou $a_{n}n^{\alpha}-a_{n-1}(n-1)^{\alpha}=O(n^{-1})$ et alors on peut utiliser la 12. -
Mes deux centimes pour la réciproque de la 26.
En fait on peut la généraliser comme ceci : soit $f:\R^{+}\to \R^{+}$ décroissante telle que $\lim\limits_{x\to +\infty}x^{a-1}\int_0^x f(t) dt=\dfrac{\ell}{1-a}$ avec $0\leq a <1$. Alors $\lim\limits_{x\to +\infty}x^af(x)=\ell$.
La preuve est la même. On peut la faire sans les liminf/sup mais avec des $\varepsilon$ ça ne change pas grand chose...
En résumé, je me base à 99% sur la preuve de Boécien, en notant $A(x):=\int_0^x f(t) dt$ et en prenant un $0<\lambda<1$ , on a : $f(x)x(1-\lambda)\leq A(x)-A(\lambda x)\leq f(\lambda x)x(1-\lambda)$. De là, $$\dfrac{\lambda x^{a-1}}{1-\lambda}\left(A(x/\lambda)-A(x)\right)\leq x^a f(x)\leq \dfrac{x^{a-1}}{1-\lambda}\left(A(x)-A(\lambda x)\right).$$
Si on fait tendre $x\to +\infty$ puis $\lambda \to 1^{-}$ dans les deux expressions aux extrémités on obtient $\ell$ comme limite. Par conséquent pour tout $\varepsilon >0$ dès que $x$ est assez grand, on a $$\ell-\varepsilon\leq x^a f(x)\leq \ell+\varepsilon.$$
PS. On retrouve l'énoncé avec les suites en considérant la fonction $f:x\to \sum_{k\geq 1} \mathrm a_k 1_{]k-1,k]} $. -
19. Soient $(a_n)$ une suite de réels et $\alpha \in \left]-1,1\right[$.1) Si $a_n \xrightarrow[n\to+\infty]{} 0$, on a directement $a_{n+1} - \alpha a_n \xrightarrow[n\to+\infty]{} 0$ par opérations sur les limites.2) Réciproquement, supposons que la suite définie par $b_n = a_{n+1} - \alpha a_n$ tende vers $0$.En supposant $\alpha \neq 0$ (sinon c'est trivial),$$\frac{a_n}{\alpha^{n}} - a_0 = \sum_{k=0}^{n-1} \frac{b_k}{\alpha^{k+1}} $$Puisque $b_n = o(1)$, on obtient par sommation des $o()$ :$$\frac{a_n}{\alpha^n} \underset{n\to+\infty}{=} a_0 + o\left(\sum_{k=0}^{n-1} \frac1{|\alpha|^k}\right) = a_0 + o\left(\frac1{|\alpha|^n} \right) = o\left(\frac1{|\alpha|^n} \right),$$d'où $a_n = o(1)$.On peut remplacer la sommation des $o$ par Silverman-Toeplitz si on y tient
-
Pour la 19. La sommation des o et O jouant parfois des tours aux étourdis (dont je fais partie), on peut aussi rester dans l'esprit "Cesàro" et partir de $a_{n+1}=\alpha^{n}a_{0}+\alpha^{n}\sum_{k=0}^{n}\alpha^{-k}b_{k}$.
Par Cesàro généralisé comme $\sum_{k=0}^{n}\left|\alpha\right|^{-k}\rightarrow\infty$ on a $$\frac{1}{\sum_{k=0}^{n}\left|\alpha\right|^{-k}}\sum_{k=0}^{n}\left|\alpha\right|^{-k}\left|b_{k}\right|\rightarrow0\Rightarrow\left(\frac{1-\left|\alpha\right|}{1-\left|\alpha\right|^{n+1}}\right)\left|\alpha\right|^{n}\sum_{k=0}^{n}\left|\alpha\right|^{-k}\left|b_{k}\right|\rightarrow0\Rightarrow\left|\alpha\right|^{n}\sum_{k=0}^{n}\left|\alpha\right|^{-k}\left|b_{k}\right|\rightarrow0$$Donc $$\left|a_{n+1}\right| \leq \left|\alpha^{n}a_{0}\right|+\left|\alpha\right|^{n}\sum_{k=0}^{n}\left|\alpha\right|^{-k}\left|b_{k}\right|\rightarrow0$$ -
@Boécien très belle application de Cesàro généralisé. Je suis aussi d'accord qu'il faut justifier la somme des petit o dans la méthode de @Pomme de terre.Le 😄 Farceur
-
Tiens je m'aperçois qu'on utilise souvent Cesàro généralisé mais qu'il n'y pas de solution postée à l'échauffement 4. En voici donc une.Soit $a_{n}\rightarrow\ell$ et $\lambda_{n}>0$ avec $\sum_{k=1}^{n}\lambda_{k}\rightarrow\infty$ alors $\frac{1}{\sum_{k=1}^{n}\lambda_{k}}\sum_{k=1}^{n}\lambda_{k}a_{k}\rightarrow\ell$.
Preuve :$\forall\varepsilon>0$ il existe $n_{\varepsilon}$ tel que $n\geq n_{\varepsilon}\Rightarrow\left|a_{n}-\ell\right|<\varepsilon/2$ et alors
$$\frac{1}{\sum_{k=1}^{n}\lambda_{k}}\left|\sum_{k=1}^{n}\lambda_{k}\left(a_{k}-\ell\right)\right|\leq\frac{\left|\sum_{k=1}^{n_{\varepsilon}-1}\lambda_{k}\left(a_{k}-\ell\right)\right|}{\sum_{k=1}^{n}\lambda_{k}}+\varepsilon/2\frac{\left|\sum_{k=n_{\varepsilon}}^{n}\lambda_{k}\right|}{\sum_{k=1}^{n}\lambda_{k}}\leq\frac{\left|\sum_{k=1}^{n_{\varepsilon}-1}\lambda_{k}\left(a_{k}-\ell\right)\right|}{\sum_{k=1}^{n}\lambda_{k}}+\varepsilon/2$$
Comme $\frac{\left|\sum_{k=1}^{n_{\varepsilon}-1}\lambda_{k}\left(a_{k}-\ell\right)\right|}{\sum_{k=1}^{n}\lambda_{k}}\rightarrow0$ il existe $n'_{\varepsilon}$ tel que $n\geq\max(n_{\varepsilon},n'_{\varepsilon})\Rightarrow\frac{\left|\sum_{k=1}^{n_{\varepsilon}-1}\lambda_{k}\left(a_{k}-\ell\right)\right|}{\sum_{k=1}^{n}\lambda_{k}}<\varepsilon/2$, il s'ensuit que pour $n\geq\max(n_{\varepsilon},n'_{\varepsilon})$ on a
$$\frac{1}{\sum_{k=1}^{n}\lambda_{k}}\left|\sum_{k=1}^{n}\lambda_{k}\left(a_{k}-\ell\right)\right|\leq\varepsilon$$et donc $\frac{1}{\sum_{k=1}^{n}\lambda_{k}}\sum_{k=1}^{n}\lambda_{k}a_{k}\rightarrow\ell$. -
.Le 😄 Farceur
-
gebrane a dit :Je suis aussi d'accord qu'il faut justifier la somme des petit o dans la méthode de @Pomme de terre.
------------------------------------------
Hier, j'ai donné en colle l'énigme 12 à l'un des meilleurs élèves d'une classe de LLG et il s'en est bien sorti. J'avais aussi prévu les énigmes sœurs 16 et 22 pour un autre excellent élève, mais il a été retenu par un calcul d'équa diff finalement. -
@Calli , Voila comment je traite la 19 en connaissance de cause de la preuve du lemme de Cesàro ( découpage et exploitation d'une somme géométrique)La suite $(b_n)$ étant convergente vers 0 donc bornée ( par M>0) et $|b_n|\le \epsilon$ à partir d'un rang N. De $\frac{a_n}{\alpha^{n}} =a_0+ \sum_{k=0}^{n-1} \frac{b_k}{\alpha^{k+1}}$, on déduit que$|\frac{a_n}{\alpha^{n}}| \leq |a_0|+ \sum_{k=0}^{n-1} \frac{|b_k|}{|\alpha|^{k+1}}\leq |a_0|+ \sum_{k=0}^{N-1} \frac{M}{|\alpha|^{k+1}}+\sum_{k=N}^{n-1} \frac{\epsilon }{|\alpha|^{k+1}}$ On obtient des sommes géométriques , d'où$$|\frac{a_n}{\alpha^{n}}| \leq |a_0|+\frac M{(1-|\alpha|)|\alpha|^N}+\frac \epsilon {(1-|\alpha|)|\alpha|^n}\quad (*)$$Personnellement, je termine le raisonnement en disant que$$|{a_n}| \leq |a_0| |\alpha|^n+\frac {M|\alpha|^n}{(1-|\alpha|)|\alpha|^N}+\frac \epsilon {(1-|\alpha|)}$$d'où $\limsup |a_n|\leq \frac \epsilon {(1-|\alpha|)},\quad \forall \epsilon>0$ , d'où $a_n\to 0$Maintenant, si je reviens à l'explication de Pomme de terre qui affirme que $\frac{a_n}{\alpha^n} \underset{n\to+\infty}{=} o\left(\frac1{|\alpha|^n} \right),$ d'apres (*), je vois que$|\frac{a_n}{\alpha^{n}}| \leq \frac 1{|\alpha|^n}( |a_0||\alpha^{n}|+|\alpha^{n}|\frac M{(1-|\alpha|)|\alpha|^N}+\frac \epsilon {(1-|\alpha|)|})$ qui ne me donne pas gratuitement que $\frac{a_n}{\alpha^n} \underset{n\to+\infty}{=} \frac1{|\alpha|^n}o\left( 1\right)$Donc @Calli explique moi cette histoire de sommation des petits o
Le 😄 Farceur -
@gebrane, je peux essayer de te répondre directement. Le théorème de sommation des $o$ nous dit la chose suivante.Soient $(u_n)$ et $(v_n)$ deux suites de réels telles que :1) $(v_n)$ est à termes positifs et la série $\sum_n v_n$ est divergente,2) $u_n = o(v_n)$ lorsque $n \to +\infty$.Alors, $\sum_{k\leq n} u_k \underset{n\to\infty}= o\left(\sum_{k\leq n} v_k\right)$.
J'applique ce théorème avec $u_n = \frac{b_n}{\alpha^{n+1}}$ et $v_n = \frac1{|\alpha|^n}$.
La condition 1 est bien satisfaite car $0 < |\alpha| < 1$ donne : $$\sum_{k=0}^n \frac{1}{|\alpha|^k} = \frac{\frac1{|\alpha|^{n+1}}-1}{\frac1{|\alpha|}-1} \underset{n\to\infty}\sim \frac{1}{1-|\alpha|} \cdot \frac1{|\alpha|^n}.$$
-
Remarque sur l'énigme 12.Il me semble que la preuve de Calli donne en fait un résultat plus général :(c'est une sorte de critère de Cauchy)Soit $(u_n)$ une suite Cesàro-convergente dans un espace vectoriel normé $(E,\|\cdot\|)$.Alors $(u_n)$ est convergente dans $E$ si et seulement si :$$\forall \epsilon > 0,\exists \alpha > 0,\exists N \in \N,\forall (n,p)\in \N^2,\quad (N \leq n \text{ et } p \leq \alpha n) \implies \|u_{n+p} - u_n\| \leq \epsilon.$$
-
Merci @Pomme de terre pour le théorème, il restait en ma mémoire seulement le théorème de la sommation des équivalents, je ne sais pas si j'avais connu ce théorème. Stp peux-tu corriger la coquille que tu as laissée et qui a eu un impact néfaste sur ma compréhension (le $a_0$ avait disparu subitement) $\frac{a_n}{\alpha^n} \underset{n\to+\infty}{=} a_0 + o\left(\sum_{k=0}^{n-1} \frac1{|\alpha|^k}\right) = o\left(\frac1{|\alpha|^n} \right)$en $\frac{a_n}{\alpha^n} \underset{n\to+\infty}{=} a_0 + o\left(\sum_{k=0}^{n-1} \frac1{|\alpha|^k}\right) =a_0+ o\left(\frac1{|\alpha|^n} \right)$ qui ne change rien à ta preuve.Le 😄 Farceur
-
si tu donnes la 26 au top de tes brillants étudiants ?Pas facile, mais il aurait été posé aux oraux des ENS dans sa version intégrale. Pareil d'ailleurs pour le 17, aux oraux de l'X.Source : FRANCINOU, Serge, GIANELLA, Hervé, et NICOLAS, Serge. Exercices de mathématiques des oraux de l’École polytechnique et des Écoles normales supérieures: Analyse. Tome I. Cassini, 2003.
-
@Pomme de terre je n'ai pas le livre que tu cites mais le 17 est très accessible si on sait dans quelle direction on cherche. Ce fil est une application de Cesàro et ....donc on peut réduire la question Si $s_n=\sum_{k=1}^n a_k^{\alpha}$ par hypothese $a_n\sim\frac 1{s_n}$ donc il suffit de prouver que $s_n\sim (n(\alpha +1))^{\frac 1{\alpha +1}}$, autrement dit $s_n^{\alpha +1}\sim n(\alpha +1)$ par Cesàro ( lemme de l'escalier),il suffit donc de prouver que $s_n^{\alpha +1}-s_{n-1}^{\alpha +1}\sim (1+\alpha)$Le 😄 Farceur
-
gebrane a dit :Calli , et si tu donnes la 26 au top de tes brillants étudiants ?
@Pomme de terre je n'ai pas compris ta remarque sur l'énigme 12. Je ne vois pas le rapport avec ma preuve. -
Non ! Ce que je dis c'est que la classe de sup' dans laquelle je colle a fini le chapitre sur les suites, donc il ne sera plus au programme des colles dans les prochaines semaines.
-
@Calli, tu m'as démasqué, j'avais lu ta preuve en diagonale mais pas dans les détails. Tu as probablement fait un peu plus compliqué que nécessaire. Mais il me semble bien que la propriété que j'ai indiquée est au cœur de l'argument.EDIT : Pour simplifier, disons que l'énigme 12 se généralise à toute suite de réels $(a_n)$ Cesàro-convergente pour laquelle il existe une fonction $\varepsilon$ de limite nulle en $0$ et telle que :$$\forall (n,p) \in (\N^*)^2,\quad \left|a_{n+p} - a_n \right| \leq \varepsilon(\tfrac{p}{n})$$Dans ton cas $\varepsilon$ est la fonction $x \mapsto C\, \ln(1+x)$, que tu majores par $x \mapsto Cx$.La condition que j'ai donnée en style Cauchy--Weierstrass est un peu plus générale.
-
Pour la 12 j'ai essayé de la démontrer avec le lemme de Kloosterman mais j'y arrive directement sans passer par un encadrement des deux côtés juste avec la valeur absolue. Edit: j'ai compris l'encadrement est nécessaire, je reviendrais quand ce sera propre.
-
Pour l'énigme 7 bis prélude à la preuve de Georges pour le cas général je propose cette approche directe qui permet de "voir" ce qui se passe dans le cas général (on procède par récurrence).Grâce à l'énigme 7 on sait que $w_{n}:=\frac{1}{n}\sum_{i+j=n}a_{i}b_{j}=ab+\varepsilon(n)$ où $\varepsilon(n)\rightarrow0$ donc
$$\sum_{i+j+k=n}a_{i}b_{j}c_{k}=\sum_{k=0}^{n}c_{k}(n-k)w_{n-k}=\sum_{k=0}^{n}c_{k}(n-k)\left(ab+\varepsilon(n-k)\right)$$
$=nab\sum_{k=0}^{n}c_{k}-ab\sum_{k=0}^{n}kc_{k}+\sum_{k=0}^{n}c_{k}(n-k)\varepsilon(n-k)=nab\sum_{k=0}^{n}c_{k}-ab\sum_{k=0}^{n}kc_{k}+\sum_{k=0}^{n}c_{n-k}k\varepsilon(k)$
Et donc
$$\frac{1}{n^{2}}\sum_{i+j+k=n}a_{i}b_{j}c_{k}=\frac{ab}{n}\sum_{k=0}^{n}c_{k}-\frac{ab}{n^{2}}\sum_{k=0}^{n}kc_{k}+\frac{1}{n^{2}}\sum_{k=0}^{n}c_{n-k}k\varepsilon(k)$$
Par Cesàro $\frac{1}{n}\sum_{k=0}^{n}c_{k}\rightarrow c$
Par Cesàro généralisé $\frac{2}{n^{2}}\sum_{k=0}^{n}kc_{k}\rightarrow c$
Comme $c_{i}$ est bornée $\left|\frac{1}{n^{2}}\sum_{k=0}^{n}c_{n-k}k\varepsilon\left(k\right)\right|\leq\frac{C}{n^{2}}\sum_{0=1}^{n}k\left|\varepsilon\left(k\right)\right|\rightarrow0$ par Cesàro généralisé
Donc finalement
$$\frac{1}{n^{2}}\sum_{i+j+k=n}a_{i}b_{j}c_{k}\rightarrow abc-\frac{abc}{2}+0=\frac{abc}{2}.$$ -
Je viens de commencer à refleurir à une proposition de généralisation de l'énigme 11, mais je ne suis pas certain si ça tient.Edit je n'arrive pas à le prouver donc sûrement faux (en regardant du plus près, j'ai remarqué que @Calli a rallongé sa preuve pour la 11).Le 😄 Farceur
-
gebrane a dit :Très belle méthode @Boécien
$$\sum_{i+j+k=n}a_{i}b_{j}c_{k}=\sum_{k=0}^{n}c_{k}\sum_{i+j=n-k}a_{i}b_{j}=ab\sum_{k=0}^{n}c_{k}(n-k)+\sum_{k=0}^{n}c_{n-k}k\varepsilon(k)$$
Soit $C(n,k)=\frac{n-k}{\sum_{j=0}^{n}n-j}=\frac{n-k}{\frac{n(n+1)}{2}}$ on a par Sylvester-Toeplitz $\sum_{k=0}^{n}c_{k}C(n,k)\rightarrow c\Rightarrow\sum_{k=0}^{n}c_{k}(n-k)\sim c\frac{n^{2}}{2}$ et donc
$$\frac{2}{n^{2}}\sum_{i+j+k=n}a_{i}b_{j}c_{k}=abc+o(1)+\frac{2}{n^{2}}\sum_{k=0}^{n}c_{n-k}k\varepsilon(k)$$puis comme $c_{n}$ est borné on a$$\left|\frac{2}{n^{2}}\sum_{k=0}^{n}c_{n-k}k\varepsilon(k)\right|\leq\frac{C}{n^{2}}\sum_{k=0}^{n}k\left|\varepsilon(k)\right|\rightarrow0$$par Cesàro généralisé. Finalement$$\frac{2}{n^{2}}\sum_{i+j+k=n}a_{i}b_{j}c_{k}\rightarrow abc.$$
-
Bonjour,
Gebrane: "Je viens de commencer à refleurir"
C'est bientôt le printemps ?
Cordialement,
Rescassol
-
Et si il y avait une réciproque à la 7?
Quelles conditions (les plus générales possibles) peut-on mettre sur deux suites $a_{n},b_{n}$ pour que
$$\frac{1}{n}\sum_{k=0}^{n}a_{k}b_{n-k}\rightarrow\ell\Rightarrow a_{n}b_{n}\rightarrow\ell$$ -
@gebrane EDIT: nouvelle version corrigeant une petite erreur d'indices.Je propose d'adapter ma preuve du 7bis à la généralisation à l'ordre $p$ ce qui fait une alternative à la preuve de Georges.En reprenant la notation de Georges où $\Delta_{p}(n)$ désigne l'ensemble des p-uplets d'entiers naturels non nuls dont la somme vaut $n$ et $D_{p}(n)$ leur nombre dont on peut voir facilement qu'il vérifie la relation $\sum_{j=0}^{n}D_{p}(j)=D_{p+1}(n)$.
Soit $a_{1}(n),...,a_{p}(n)$ des suites qui convergent respectivement vers $\ell_{1},\ell_{2},...,\ell_{p}$.
Soit $L_{p}=\ell_{1}\ell_{2}...\ell_{p}$.
Hypothèse de récurrence sur $p$
$$\frac{1}{D_{p}(n)}\sum_{i_{1}+...+i_{p}=n}a_{1}(i_{1})...a_{p}(i_{p})=L_{p}+\varepsilon(n)$$
où $\varepsilon(n)\rightarrow0$ (on a vu que c'est vrai pour $p=2$ et $3$).
Preuve de l'hypothèse au rang $p+1$
Soit $a_{p+1}(n)$ une autre suite convergeant vers $\ell_{p+1}$ . Alors on a $$\sum_{i_{1}+...+i_{p}+k=n}a_{1}(i_{1})...a_{p}(i_{p})a_{p+1}(k)=\sum_{k=0}^{n}a_{p+1}(k)D_{p}(n-k)\left(L_{p}+\varepsilon(n-k)\right)$$$$=L_{p}\sum_{k=0}^{n}a_{p+1}(k)D_{p}(n-k)+\sum_{k=0}^{n}a_{p+1}(n-k)D_{p}(k)\varepsilon(k)$$Soit $C(n,k)=\frac{D_{p}(n-k)}{\sum_{j=0}^{n}D_{p}(n-j)}=\frac{D_{p}(n-k)}{D_{p+1}(n)}$ alors ceci devient$$\frac{1}{D_{p+1}(n)}\sum_{i_{1}+...+i_{p}+i_{p+1}=n}a_{1}(i_{1})...a_{p}(i_{p})a_{p+1}(i_{p+1})=L_{p}\sum_{k=0}^{n}a_{p+1}(k)C(n,k)+\sum_{k=0}^{n}a_{p+1}(n-k)C(n-k,k)\varepsilon(k)$$
On voit que $C(n,k)$ et $C(n-k,k)$ sont des coefficients qui satisfont à Sylvester-Toeplitz et donc comme $a_{p+1}(n)\rightarrow\ell_{p+1}$ on a
$$\sum_{k=0}^{n}a_{p+1}(k)C(n,k)\rightarrow\ell_{p+1}$$de même comme $a_{p+1}(n-k)$ est borné par disons $K>0$ et que $\left|\varepsilon(n)\right|\rightarrow0$ on obtient$$\left|\sum_{k=0}^{n}a_{p+1}(n-k)C(n-k,k)\varepsilon(k)\right|\leq K\sum_{k=0}^{n}C(n-k,k)\left|\varepsilon(k)\right|\rightarrow0$$et finalement$$\frac{1}{D_{p+1}(n)}\sum_{i_{1}+...+i_{p}+i_{p+1}=n}a_{1}(i_{1})...a_{p}(i_{p})a_{p+1}(i_{p+1})\rightarrow L_{p+1}$$cqfd -
Je vais aussi réfléchir à réciproque de la 7. Pour ta derniee preuve,il me faut tout ce dimanche pour comprendre. Bravo tu progresses tres vite.Le 😄 Farceur
-
Pour faire le pendant avec la Cesàro généralisée que dites vous d'une p-Cesàro généralisée comme celle-ci :Si $\left\{ \lambda_{j}(n)\right\} _{j=1,2,...,p}$ est un ensemble de $p$ suites strictement positives telles que$$D_{p}(n):=\sum_{i_{1}+...+i_{p}=n}\lambda_{1}(i_{1})...\lambda_{p}(i_{p})\rightarrow\infty $$
Si $a_{1}(n),...,a_{p}(n)$ sont des suites qui convergent respectivement vers $\ell_{1},\ell_{2},...,\ell_{p}$.
Alors on a
$$\frac{1}{D_{p}(n)}\left(\sum_{i_{1}+...+i_{p}=n}\lambda_{1}(i_{1})...\lambda_{p}(i_{p})a_{1}(i_{1})...a_{p}(i_{p})\right)\rightarrow\ell_{1}\ell_{2}...\ell_{p}\ \left(n\rightarrow\infty\right)$$ -
waw ça devient chaud
Le 😄 Farceur -
La démo du cas $\lambda_i(n)=1$ s'adapte facilement à ce cas général. Je vais regarder ta généralisation de la 11.
-
Pour ta généralisation de la 11 c'est pas $a_{k}-a_{k-1}=o\left(\frac{1}{\sum_{j=1}^{k}\lambda_{j}}\right)$ la condition? et O en optimal?
-
Ah, je crois que tu as raison
Le 😄 Farceur -
Pour la 11 je dois ajouter une condition (je pense que $O$ à la place de $o$ et ces 2 conditions sont optimales pour la généralisation de la 12...)Si $\frac{n}{\sum_{k=1}^{n}\lambda_{k}}=O(1)$ et $a_{n}-a_{n-1}=o\left(\frac{1}{\sum_{j=1}^{n}\lambda_{j}}\right)$ alors on a$$\frac{1}{\sum_{k=1}^{n}\lambda_{k}}\sum_{k=1}^{n-1}\lambda_{k}a_{k}\rightarrow\ell\Rightarrow a_{n}\rightarrow\ell$$En effet par Abel
$$\sum_{k=1}^{n}\left(\sum_{j=1}^{k}\lambda_{j}\right)\left(a_{k}-a_{k-1}\right)=\left(\sum_{k=1}^{n}\lambda_{k}\right)a_{n}-\sum_{k=1}^{n-1}\lambda_{k}a_{k}$$et donc $$\left|a_{n}-\frac{1}{\sum_{k=1}^{n}\lambda_{k}}\sum_{k=1}^{n-1}\lambda_{k}a_{k}\right|\leq\frac{1}{\sum_{k=1}^{n}\lambda_{k}}\sum_{k=1}^{n}\left(\sum_{j=1}^{k}\lambda_{j}\right)\left(a_{k}-a_{k-1}\right)$$Comme $\frac{n}{\sum_{k=1}^{n}\lambda_{k}}=O(1)$ il existe $K>0$ tel que $\frac{n}{\sum_{k=1}^{n}\lambda_{k}}<K$
Comme $a_{n}-a_{n-1}=o\left(\frac{1}{\sum_{j=1}^{n}\lambda_{j}}\right)$ pour tout $\varepsilon>0$ il existe $n_{\varepsilon}$ tel que $n\geq n_{\varepsilon}\Rightarrow\left|a_{n}-a_{n-1}\right|\leq\frac{\varepsilon/2/K}{\sum_{j=1}^{n}\lambda_{j}}$ et donc
$$\left|a_{n}-\frac{1}{\sum_{k=1}^{n}\lambda_{k}}\sum_{k=1}^{n-1}\lambda_{k}a_{k}\right|\leq\frac{1}{\sum_{k=1}^{n}\lambda_{k}}\sum_{k=1}^{n_{\varepsilon}}\left(\sum_{j=1}^{k}\lambda_{j}\right)\left|a_{k}-a_{k-1}\right|+\frac{1}{\sum_{k=1}^{n}\lambda_{k}}\sum_{k=n_{\varepsilon+1}}^{n}\left(\sum_{j=1}^{k}\lambda_{j}\right)\frac{\varepsilon/2/K}{\sum_{j=1}^{n}\lambda_{j}}$$
$$\leq\frac{1}{\sum_{k=1}^{n}\lambda_{k}}\sum_{k=1}^{n_{\varepsilon}}\left(\sum_{j=1}^{k}\lambda_{j}\right)\left|a_{k}-a_{k-1}\right|+\frac{n}{\sum_{k=1}^{n}\lambda_{k}}\varepsilon/2/K<\frac{1}{\sum_{k=1}^{n}\lambda_{k}}\sum_{k=1}^{n_{\varepsilon}}\left(\sum_{j=1}^{k}\lambda_{j}\right)\left|a_{k}-a_{k-1}\right|+\varepsilon/2$$comme $\frac{1}{\sum_{k=1}^{n}\lambda_{k}}\sum_{k=1}^{n_{\varepsilon}}\left(\sum_{j=1}^{k}\lambda_{j}\right)\left|a_{k}-a_{k-1}\right|$ tend vers zéro pour $n$ assez grand on a alors$$\left|a_{n}-\frac{1}{\sum_{k=1}^{n}\lambda_{k}}\sum_{k=1}^{n-1}\lambda_{k}a_{k}\right|\leq\varepsilon/2+\varepsilon/2=\varepsilon$$cqfd -
Excellent. Tu as démontré un résultat inconnu et original.
Le 😄 Farceur -
Note que les conditions $\frac{n}{\sum_{k=1}^{n}\lambda_{k}}=O(1)$ et $a_{n}-a_{n-1}=o\left(\frac{1}{\sum_{j=1}^{n}\lambda_{j}}\right)$ sont équivalentes à
$\frac{n}{\sum_{k=1}^{n}\lambda_{k}}=O(1)$ et $a_{n}-a_{n-1}=o\left(n^{-1}\right)$ ce qui est plus dans ton idée de départ.
Et je pense donc que la forme généralisée de la 12 c'est
Si $\frac{n}{\sum_{k=1}^{n}\lambda_{k}}=O(1)$ et $a_{n}-a_{n-1}=O\left(n^{-1}\right)$ alors$$\frac{1}{\sum_{k=1}^{n}\lambda_{k}}\sum_{k=1}^{n-1}\lambda_{k}a_{k}\rightarrow\ell\Rightarrow a_{n}\rightarrow\ell$$@calli on t'attend ! -
Il faut faire gaffe à bien orthographier le pseudo du membre du forum qu'on veut notifier autrement ça ne marche pas. Je le dis car souvent on m'interpelle avec un @raoul.s qui ne fonctionnera pas... bref tout ça pour dire que Calli s'écrit avec une majuscule : donc @Calli es-tu là ? @Boécien t'appelle
PS. j'ai l'impression d'invoquer le génie de la lampe... 🤣 -
Pour dire que le truc est optimale il faut démontrer que ça ne marche pas pour $\lambda_k=\frac 1k$
Le 😄 Farceur -
Dans le cas où $|a_n - a_{n-1}| = O(n^{-1})$, j'arrive à montrer cela. Est-ce que vous prenez ?Démonstration.Notons $L_n = \sum_{k=1}^n \lambda_k$ et supposons qu'il existe $c > 0$ tel que $\frac{L_{n+1}}{L_n} \geq 1 + \frac{c}n$ à partir d'un certain rang. Alors pour tout $\ell \in \R$,$$\frac1{L_n}\sum_{k=1}^n \lambda_k a_k \xrightarrow[n\to+\infty]{} \ell \ \implies\ a_n \xrightarrow[n\to+\infty]{} \ell.$$Pour tout $n \in \mathbb N^*$, notons $C_n = \frac1{L_n} \sum_{k=1}^n \lambda_k a_k$.
Quitte à translater par $\ell$, on peut supposer que $(C_n)$ tend vers $0$.
Le point de départ est l'inégalité de la moyenne suivante, valide pour tous $n,p$ dans $\mathbb N^*$ :
$$ \left|
a_n -
\frac{\sum_{k = n + 1}^{n + p} \lambda_k a_k}{\sum_{k = n+1}^{n + p} \lambda_k}
\right|
\leq \max_{n + 1 \leq k \leq n + p} |a_n - a_k|. $$
En notant $M_n(p)$ ce maximum, on en déduit par inégalité triangulaire :
$$ |a_n| \leq
\frac{L_{n+p}}{L_{n+p}-L_n} |C_{n+p}|
+ \frac{L_n}{L_{n+p} - L_n} |C_n|
+ M_n(p). $$
En notant $R_n(p) = \frac{L_{n+p}}{L_n}$, on obtient alors la majoration :
$$ \boxed{|a_n| \leq \frac{R_n(p)+1}{R_n(p)-1}\, \sup_{k \geq n} |C_k| + M_n(p)}. $$
Comme dans la preuve de Calli, l'hypothèse $a_n - a_{n-1} = O(n^{-1})$ donne, à partir d'un certain rang, pour une certaine constante $K \geq 0$ :
$$ M_n(p) \leq K \ln\left(1+\frac pn\right) \leq K\,\frac{p}n. $$
Soit $\alpha > 0$. La suite définie par $p_n = \lfloor n\alpha \rfloor$ donne alors $M_n(p_n) \leq K\alpha$.
En outre, l'hypothèse $\frac{L_{n+1}}{L_n} \geq 1 + \frac cn$ donne par récurrence :
$$ R_n(p_n)
\geq \prod_{k=0}^{p_n - 1}\left(1 + \frac{c}{n+k}\right)
\geq \left(1 + \frac c{(1+\alpha)n}\right)^{\lfloor n\alpha\rfloor}. $$
Ce minorant tend vers $\exp(\frac{\alpha c}{1+\alpha}) > 1$ donc il existe $\delta > 0$ tel que $R_n(p_n) \geq 1 + \delta$ à partir d'un certain rang.
Finalement, on obtient donc que pour tout $\alpha > 0$, il existe $\delta > 0$ tel que pour tout $n$ assez grand :
$$ |a_n| \leq \left(1+\frac2\delta\right)\, \sup_{k\geq n}|C_k| + K\alpha. $$
Puisque $(C_n)$ tend vers $0$, on en déduit alors facilement la convergence de $(a_n)$. -
Pas mal! On peut voir? Cela me fait penser au théorème de Hardy des "high indices" que j'ai découvert hier (en fait aucun rapport).EDIT: la condition de pomme de terre n'est-elle pas équivalente à $L_n<<n^\epsilon$ ?
-
@Pomme de terre Oui c'est intéressant, il faut que je regarde Ta condition et celle de @BoécienTa condition est $\lambda_{n+1}\frac n{L_n}\geq c$ APCR avec c>0 ( puisque $\frac{L_{n+1}}{L_n}=1+\frac{\lambda_{n+1}}{L_n}$Celle de Boécien $\frac n{L_n}\leq c$ APCR avec c>0
Le 😄 Farceur -
Voilà ! j'ai ajouté une démonstration à la suite de l'énoncé. Désolé si les notations sont un peu lourdes... et les calculs passés sous silence.C'est pour bien montrer qu'en fait tout se joue sur un équilibre à trouver entre la majoration de $M_n(p)$ et la minoration de $R_n(p)$.
-
Le 😄 Farceur
Connectez-vous ou Inscrivez-vous pour répondre.
Bonjour!
Catégories
- 163.1K Toutes les catégories
- 7 Collège/Lycée
- 21.9K Algèbre
- 37.1K Analyse
- 6.2K Arithmétique
- 53 Catégories et structures
- 1K Combinatoire et Graphes
- 11 Sciences des données
- 5K Concours et Examens
- 11 CultureMath
- 47 Enseignement à distance
- 2.9K Fondements et Logique
- 10.3K Géométrie
- 62 Géométrie différentielle
- 1.1K Histoire des Mathématiques
- 68 Informatique théorique
- 3.8K LaTeX
- 39K Les-mathématiques
- 3.5K Livres, articles, revues, (...)
- 2.7K Logiciels pour les mathématiques
- 24 Mathématiques et finance
- 312 Mathématiques et Physique
- 4.9K Mathématiques et Société
- 3.3K Pédagogie, enseignement, orientation
- 10K Probabilités, théorie de la mesure
- 772 Shtam
- 4.2K Statistiques
- 3.7K Topologie
- 1.4K Vie du Forum et de ses membres