Peut-on démontrer de façon simple/élémentaire, que si \( g \) est une fonction convexe sur \( ]a,b[ \),
\[ \forall (x,y) \in\, ]a,b[^2, \qquad \int_x^y g^\prime_d(t) \, \mathrm dt = \int_x^y g^\prime_g(t) \, \mathrm dt = g(y) - g(x) \quad?
\] Il va de soi que \( g^\prime_d \) et \( g^\prime_g \) sont croissantes donc intégrables et qu'elles diffèrent sur un ensemble au plus dénombrable, ce qui assure l'égalité des deux intégrales.
Que le paraclet soit profitable aux personnes concernées.
e.v.
Je cherche des exemples où K et H font mieux de Riemann. (Normal, à deux contre un).
Le mieux : des exemples comme le premier que j'ai proposé (bon, le tuyau était un pneu crevé) où l'intégrale n'apparait pas dans l'énoncé.
Têtu, moi ?
Dans l'excellent "Une année de colles en Math Sup MPSI" de l'excellent Eric on trouve l'exercice 23.7 page 575 (24.9 page 577 de la première édition).
Soit \( f \in \mathcal C_{[0,1]}^1 \). Montrer que
\[ \lim _{n \rightarrow+\infty} n\Big(\frac{1}{n} \sum_{i=1}^{n} f\big(\frac{i}{n}\big)-\int_{0}^{1} f(x) d x\Big)=\frac{f(1)-f(0)}{2}.
\] Peut-on affaiblir l'hypothèse avec \( f \) dérivable sur \( [0,1] \) ?
Amicalement,
e.v.
[ C'est pas d'la pub, ça ? (...) Un lien, tu veux un lien ??? ]
Comme le remarque Masayoshi Hata (Problems and solutions in real analysis, 1st ed., ex 5.7), on ne peut pas se contenter de la seule continuité (la fonction de Takagi donne un contre-exemple). De plus, la solution qu'il donne de l'exercice utilise l'uniforme continuité de $f'$ sur $[0,1]$, d'où l'hypothèse $C^1$ sur $f$. Peut-on ne pas utiliser l'uniforme continuité de $f'$ ?
Bonsoir Eric.
Ah, ça y est, je l'ai !
Avec tes notations :
\[ m_{i} :=\inf \left\{f^{\prime}(x): x \in\left[\frac{i-1}{n}, \frac{i}{n}\right]\right\}
\] et
\[ M_{i} :=\sup \left\{f^{\prime}(x): x \in\left[\frac{i-1}{n}, \frac{i}{n}\right]\right\}.
\] La fonction \( f^{\prime} \) est KH-intégrable sur \( [0,1] \), donc les
\[ \frac1{2n}\sum_{i=1}^{n} m_{i} \; \text{ et } \; \frac1{2n}\sum_{i=1}^{n} M_{i}
\] sont bien des sommes de Riemann qui convergent vers \( \displaystyle \frac{1}{2} \int_{0}^{1} f^{\prime}(x) d x
=\frac{f(1)-f(0)}{2} \), ...
Sauf qu'au départ, l'existence des \( m_{i} \) et \( M_{i} \) n'est pas assurée pour une fonction banalement dérivable.
Je considère une fonction \( g \) définie sur \( ]0,1] \) par \( g(x) = x^7\sin\left( \dfrac\pi{x^4} \right) \) et \( g(0) = 0 \).
La fonction \( g \) est dérivable sur \( [0,1] \) et
\( f(x) := g'(x) = 7x^6\sin\left( \dfrac\pi{x^4} \right) - 4\pi x^2 \cos\left( \dfrac\pi{x^4} \right) \).
On a donc \( f \) dérivable sur \( [0,1] \) mais \( f' \) n'est pas continue en zéro.
De plus \( \displaystyle\int_0^1 f(t) \, \mathrm dt = \int_0^1 g'(t) \, \mathrm dt = g(1) - g(0) = 0 \).
Montrer que
\[ \lim_{n \rightarrow+\infty} n\Big(\frac{1}{n} \sum_{i=1}^{n} f\big(\frac{i}{n}\big)-\int_{0}^{1} f(x) d x\Big)=\frac{f(1)-f(0)}{2} \] c'est montrer que
\[ \lim_{n \rightarrow+\infty} \sum_{i=1}^{n} f\big(\frac{i}{n}\big) =\frac{f(1)-f(0)}{2} = 2\pi. \]
Je programme le calcul de la somme \( \displaystyle\sum_{k=1}^{2^n} f\big(\frac{k}{2^n}\big) \) :
La question se pose de savoir si la suite est erratique ou si c'est le programme qui n'est pas assez robuste.
Le même programme avec \(\quad g(x) = x^5\sin\left( \dfrac\pi{x} \right) \) et \( g(0) = 0 \).
La fonction \( g \) est dérivable sur \( [0,1] \) et
\( f(x) := g'(x) = 5x^4\sin\left( \dfrac\pi{x} \right) - \pi x^3 \cos\left( \dfrac\pi{x} \right) \).
On a donc \( f \) dérivable sur \( [0,1] \) et \( f' \) est continue en zéro cette fois.
On est dans les clous de l'exercice d'Eric.
On a toujours \(\quad \displaystyle\int_0^1 f(t) \, \mathrm dt = \int_0^1 g'(t) \, \mathrm dt = g(1) - g(0) = 0 \).
Montrer que \[ \lim_{n \rightarrow+\infty} n\Big(\frac{1}{n} \sum_{i=1}^{n} f\big(\frac{i}{n}\big)-\int_{0}^{1}
f(x) d x\Big)=\frac{f(1)-f(0)}{2} \] c'est montrer que
\[ \lim_{n \rightarrow+\infty} \sum_{i=1}^{n} f\big(\frac{i}{n}\big) =\frac{f(1)-f(0)}{2} = \frac \pi2.
\] Le programme de calcul de la somme \(\quad \displaystyle\sum_{k=1}^{2^n} f\big(\frac{k}{2^n}\big) \) donne :
L'exercice est bien classique (il est récurrent en taupe sauf erreur). Pour les inégalités (lorsque on a une fonction dérivable, même si l'intégration de Lebesgue ne s'applique plus), l'intégrale de HK n'apporte pas plus que l'inégalité des accroissements finis (même si elle guide les calculs). La difficulté de cet exercice est surtout de penser à la bonne fonction auxiliaire.
Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
Je passe par l'édude de la fonction $x\mapsto e^{-x} g'(x)$ où $g(x)=e^xf(x)$ pour tout $x\in \R$. Je me demande s'il est possible d'éviter cette astuce.
Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
@ev je viens de vérifier dans mes archives. On suppose que f est C^1; donc ce n'est pas un classique de colle, je suis désolé pour ma réponse hâtive. Je suis vraiment nul de répondre sans faire attention aux hypothèses.
Je vais essayer de montrer que la fonction auxiliaire apparaît naturellement.
On commence par supposer que \( \ell = 0 \). On pose \( \varepsilon(x) := f'(x)+f(x) \). La fonction \( f \) est solution de l'équation différentielle \[ y' + y = \varepsilon(x). \] On résout l'équation homogène : \( y(x) = k \mathrm e^{-x} \). On résout l'équation par la méthode de la variation de la constante : \[ \begin{array}{lrcl} &y'(x) &=& k'(x)\mathrm e^{-x} - k(x)\mathrm e^{-x}\\ \text{donc} & k'(x)\mathrm e^{-x}&=& \varepsilon(x)\\ \text{soit} & k'(x)&=& \varepsilon(x)\mathrm e^{x}. \end{array} \] Or on a \[ \forall x \in \R, \; \varepsilon(x)\mathrm e^{x} = \left( f'(x)+f(x) \right)\mathrm e^{x} = \dfrac{d}{dx} \left( f(x) \mathrm e^{x}\right). \] La fonction \( k' : x \longmapsto \varepsilon(x)\mathrm e^{x} \) est une dérivée, elle est donc intégrable (KH) sur tout segment \( [x_0~,~x] \) et on a \[ k(x) - k(x_0) = \int_{x_0}^x \varepsilon(t)\mathrm e^{t} \, \mathrm dt. \] Il est temps de se souvenir que \( \lim\limits_{x\to+\infty} \varepsilon(x) = 0 \). Soit \( \varepsilon > 0 \). Il existe \( A \in \R \) tel que \( \forall x \geqslant A \), on a \( \left \vert \varepsilon(x) \right\vert \leqslant \varepsilon \). On en déduit qu'en prenant \( x \geqslant A \), \[ \left \vert k(x) - k(A) \right\vert \leqslant \int_{x_0}^x \mathrm e^t \varepsilon \, \mathrm dt \leqslant \varepsilon \left( \mathrm e^x - \mathrm e^A \right) \leqslant\varepsilon \mathrm e^x. \] On en déduit que \( \lim\limits_{x\to+\infty} \left( k(x) - k(A) \right)\mathrm e^{-x} = 0 \). Comme \( \lim\limits_{x\to+\infty} k(A)\mathrm e^{-x} = 0 \), on en déduit que \( \lim\limits_{x\to+\infty} k(x)\mathrm e^{-x} = 0 \), ce qui permet de conclure puisque \( k(x)\mathrm e^{-x} = f(x) \).
Dans le cas général, on considère la fonction \( \tilde f := f - \ell \) et on applique la méthode du jaguar casqué.
@ev On peut simplifier ta méthode. Soit $f+f'=g$, puisque que $g$ est KH intégrable, on peut appliquer la méthode de la variation des constantes qui dit que $$\forall x\in\R,\quad f(x)=f(0)e^{-x}+e^{-x}\int_0^x e^t g(t) dt,$$
$ g-l$ tend vers $0$ en $+ \infty$, donc $\forall \epsilon >0$, il existe $A>0$, $\forall x\geq A,\ |g(x)-l|<\epsilon$. On veut démontrer que $$\lim_{x\to +\infty}e^{-x}\int_0^x e^t g(t) dt=l,$$ on a $\displaystyle e^{-x}\int_0^x e^t g(t) dt= e^{-x}\int_0^x e^t (g(t)-l) dt +l(1-e^{-x})=e^{-x}\int_A^x e^t (g(t)-l) dt +e^{-x}\int_0^A e^t (g(t)-l) dt+l(1-e^{-x}).$ Il suffit de démontrer que $$\lim_{x\to +\infty}e^{-x}\int_A^x e^t (g(t)-l) dt=0.$$
$\forall x>A$ on a $|e^{-x}\int_A^x e^t (g(t)-l) dt|\leq e^{-x}\int_A^x e^t \epsilon dt=(1-e^{-(x-A)})\epsilon$, donc $$\limsup_{x\to+\infty} |e^{-x}\int_A^x e^t (g(t)-l) dt| \leq \epsilon.\quad CQFD$$
J'ai une preuve utilisant la deuxième formule des accroissements finis, si cela intéresse quelqu'un, je peux la rédiger pour voir si c'est juste.
Dans mon raisonnement j'ai utilisé sans le prouver que si g est KH intégrable alors $e^x g$ est aussi KH intégrable. peut être j'ai commis une bêtise car je me rappelle que @Math Coss avait donné un contre de la non intégrabilité KH du produit $hg$ si $h$ est continue et $g$ KH.
1/ On démontre par récurrence sur \( n \in \N \) la proposition \( \mathcal P_n \) : pour toute fonction \( f \) , \( \; n \) fois dérivable sur \( R \), pour tout \( a_1, \ldots, a_n) \in \R_+^* \), \( \; \lim\limits_{x\to+\infty} \left( f(x) + a_1f'(x) + \ldots + a_nf^{(n)}(x) \right) = \ell \Longrightarrow \lim\limits_{x\to+\infty} f(x) = \ell \).
2/ Pour démontrer \( \mathcal P_n \Longrightarrow \mathcal P_{n+1} \), on commence par étudier le cas des suites \( 1 < a_1 < \ldots < a_{n+1} \).
Réponses
Je profite de la présence des balaises de l'intégration pour poser ma question.
J'ai une fonction $f$ dérivable à droite sur un intervalle $[a,b[$. Est-ce que $f^\prime_d$ est KH-intégrable sur $[a,c]$ avec $a<c<b$ ?
e.v.
Peut-on démontrer de façon simple/élémentaire, que si \( g \) est une fonction convexe sur \( ]a,b[ \),
\[ \forall (x,y) \in\, ]a,b[^2, \qquad \int_x^y g^\prime_d(t) \, \mathrm dt = \int_x^y g^\prime_g(t) \, \mathrm dt = g(y) - g(x) \quad?
\] Il va de soi que \( g^\prime_d \) et \( g^\prime_g \) sont croissantes donc intégrables et qu'elles diffèrent sur un ensemble au plus dénombrable, ce qui assure l'égalité des deux intégrales.
Que le paraclet soit profitable aux personnes concernées.
e.v.
[ Chez moi il apporte la flotte. ]
Je cherche des exemples où K et H font mieux de Riemann. (Normal, à deux contre un).
Le mieux : des exemples comme le premier que j'ai proposé (bon, le tuyau était un pneu crevé) où l'intégrale n'apparait pas dans l'énoncé.
Amicalement,
e.v.
Dans l'excellent "Une année de colles en Math Sup MPSI" de l'excellent Eric on trouve l'exercice 23.7 page 575 (24.9 page 577 de la première édition).
Soit \( f \in \mathcal C_{[0,1]}^1 \). Montrer que
\[ \lim _{n \rightarrow+\infty} n\Big(\frac{1}{n} \sum_{i=1}^{n} f\big(\frac{i}{n}\big)-\int_{0}^{1} f(x) d x\Big)=\frac{f(1)-f(0)}{2}.
\] Peut-on affaiblir l'hypothèse avec \( f \) dérivable sur \( [0,1] \) ?
Amicalement,
e.v.
[ C'est pas d'la pub, ça ? (...) Un lien, tu veux un lien ??? ]
Comme le remarque Masayoshi Hata (Problems and solutions in real analysis, 1st ed., ex 5.7), on ne peut pas se contenter de la seule continuité (la fonction de Takagi donne un contre-exemple). De plus, la solution qu'il donne de l'exercice utilise l'uniforme continuité de $f'$ sur $[0,1]$, d'où l'hypothèse $C^1$ sur $f$. Peut-on ne pas utiliser l'uniforme continuité de $f'$ ?
Ah, ça y est, je l'ai !
Avec tes notations :
\[ m_{i} :=\inf \left\{f^{\prime}(x): x \in\left[\frac{i-1}{n}, \frac{i}{n}\right]\right\}
\] et
\[ M_{i} :=\sup \left\{f^{\prime}(x): x \in\left[\frac{i-1}{n}, \frac{i}{n}\right]\right\}.
\] La fonction \( f^{\prime} \) est KH-intégrable sur \( [0,1] \), donc les
\[ \frac1{2n}\sum_{i=1}^{n} m_{i} \; \text{ et } \; \frac1{2n}\sum_{i=1}^{n} M_{i}
\] sont bien des sommes de Riemann qui convergent vers \( \displaystyle \frac{1}{2} \int_{0}^{1} f^{\prime}(x) d x
=\frac{f(1)-f(0)}{2} \), ...
Sauf qu'au départ, l'existence des \( m_{i} \) et \( M_{i} \) n'est pas assurée pour une fonction banalement dérivable.
Encorre rraté.
Bonne nuit,
Général Alcazar.
Je considère une fonction \( g \) définie sur \( ]0,1] \) par \( g(x) = x^7\sin\left( \dfrac\pi{x^4} \right) \) et \( g(0) = 0 \).
La fonction \( g \) est dérivable sur \( [0,1] \) et
\( f(x) := g'(x) = 7x^6\sin\left( \dfrac\pi{x^4} \right) - 4\pi x^2 \cos\left( \dfrac\pi{x^4} \right) \).
On a donc \( f \) dérivable sur \( [0,1] \) mais \( f' \) n'est pas continue en zéro.
De plus \( \displaystyle\int_0^1 f(t) \, \mathrm dt = \int_0^1 g'(t) \, \mathrm dt = g(1) - g(0) = 0 \).
Montrer que
\[ \lim_{n \rightarrow+\infty} n\Big(\frac{1}{n} \sum_{i=1}^{n} f\big(\frac{i}{n}\big)-\int_{0}^{1} f(x) d x\Big)=\frac{f(1)-f(0)}{2} \] c'est montrer que
\[ \lim_{n \rightarrow+\infty} \sum_{i=1}^{n} f\big(\frac{i}{n}\big) =\frac{f(1)-f(0)}{2} = 2\pi. \]
Je programme le calcul de la somme \( \displaystyle\sum_{k=1}^{2^n} f\big(\frac{k}{2^n}\big) \) : On voit que ce n'est pas un algorithme performant pour calculer \( 2\pi \).
Amicalement,
e.v.
Le même programme avec \(\quad g(x) = x^5\sin\left( \dfrac\pi{x} \right) \) et \( g(0) = 0 \).
La fonction \( g \) est dérivable sur \( [0,1] \) et
\( f(x) := g'(x) = 5x^4\sin\left( \dfrac\pi{x} \right) - \pi x^3 \cos\left( \dfrac\pi{x} \right) \).
On a donc \( f \) dérivable sur \( [0,1] \) et \( f' \) est continue en zéro cette fois.
On est dans les clous de l'exercice d'Eric.
On a toujours \(\quad \displaystyle\int_0^1 f(t) \, \mathrm dt = \int_0^1 g'(t) \, \mathrm dt = g(1) - g(0) = 0 \).
Montrer que \[ \lim_{n \rightarrow+\infty} n\Big(\frac{1}{n} \sum_{i=1}^{n} f\big(\frac{i}{n}\big)-\int_{0}^{1}
f(x) d x\Big)=\frac{f(1)-f(0)}{2} \] c'est montrer que
\[ \lim_{n \rightarrow+\infty} \sum_{i=1}^{n} f\big(\frac{i}{n}\big) =\frac{f(1)-f(0)}{2} = \frac \pi2.
\] Le programme de calcul de la somme \(\quad \displaystyle\sum_{k=1}^{2^n} f\big(\frac{k}{2^n}\big) \) donne :
Ce n'est pas flamboyant comme convergence, mais on retrouve \( \frac \pi2 \).
Amicalement,
e.v.
La fonction \( f \) est solution de l'équation différentielle
\[ y' + y = \varepsilon(x). \]
On résout l'équation homogène : \( y(x) = k \mathrm e^{-x} \).
On résout l'équation par la méthode de la variation de la constante :
\[ \begin{array}{lrcl}
&y'(x) &=& k'(x)\mathrm e^{-x} - k(x)\mathrm e^{-x}\\
\text{donc} & k'(x)\mathrm e^{-x}&=& \varepsilon(x)\\
\text{soit} & k'(x)&=& \varepsilon(x)\mathrm e^{x}.
\end{array} \]
Or on a \[ \forall x \in \R, \; \varepsilon(x)\mathrm e^{x} = \left( f'(x)+f(x) \right)\mathrm e^{x} = \dfrac{d}{dx} \left( f(x) \mathrm e^{x}\right). \]
La fonction \( k' : x \longmapsto \varepsilon(x)\mathrm e^{x} \) est une dérivée, elle est donc intégrable (KH) sur tout segment \( [x_0~,~x] \) et on a
\[ k(x) - k(x_0) = \int_{x_0}^x \varepsilon(t)\mathrm e^{t} \, \mathrm dt. \]
Il est temps de se souvenir que \( \lim\limits_{x\to+\infty} \varepsilon(x) = 0 \).
Soit \( \varepsilon > 0 \). Il existe \( A \in \R \) tel que \( \forall x \geqslant A \), on a \( \left \vert \varepsilon(x) \right\vert \leqslant \varepsilon \). On en déduit qu'en prenant \( x \geqslant A \),
\[ \left \vert k(x) - k(A) \right\vert \leqslant \int_{x_0}^x \mathrm e^t \varepsilon \, \mathrm dt \leqslant \varepsilon \left( \mathrm e^x - \mathrm e^A \right) \leqslant\varepsilon \mathrm e^x. \]
On en déduit que \( \lim\limits_{x\to+\infty} \left( k(x) - k(A) \right)\mathrm e^{-x} = 0 \).
Comme \( \lim\limits_{x\to+\infty} k(A)\mathrm e^{-x} = 0 \), on en déduit que \( \lim\limits_{x\to+\infty} k(x)\mathrm e^{-x} = 0 \), ce qui permet de conclure puisque \( k(x)\mathrm e^{-x} = f(x) \).