Théorème fondamental ?
dans Les-mathématiques
$$\int_0^1 \frac{d}{du} f(uy^1,...,uy^n)\, du = \int_0^1 \sum_{i=1}^n \frac{\partial f}{\partial y^i}(uy^1,...,uy^n)\, y^i\, du$$
Je ne comprends pas comment on obtient la 2e égalité, si qqn pouvait éclaircir mon chemin ... (c'est peut-être tout bête, ceci dit).
Je ne comprends pas comment on obtient la 2e égalité, si qqn pouvait éclaircir mon chemin ... (c'est peut-être tout bête, ceci dit).
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses
ici tu as à établir le calcul d'une dérivée comme composée d'applications différentiables, tu as juste à appliquer la formule de la différentielle de composés d'applications différentiable:
$u \longrightarrow (u,y_1,uy_2,\cdots, uy_n)$ et $(y_1, \cdots,y_n) \longrightarrow f(y_1,y_2,\cdots,y_n)$
$$\frac{\partial f}{\partial y^i}(uy^1,...,uy^n)$$
Le $\partial y^i$ signifie "dérivée par rapport à la i-ème variable de $f$ (qui est ici $uy^i$)" ? C'est une notation ou y a un truc que j'ai manqué ?
le $\partial y_i$ désigne la dérivée partielle de $f$ mais elle est au point $(uy_1,\cdots, uy_n)$
Il vais détailler:
On a $\frac{d}{du}f(uy_1, \cdots,uy_n)=d(foh)(u).1$ (différentielle au point $1$ en $u$) où:
$h:u \longrightarrow (uy_1,uy_2,\cdots, uy_n)$ et
$f:$(y_1, \cdots,y_n) \longrightarrow f(y_1,y_2,\cdots,y_n)$
On a $d(foh)\cdot 1=df(h(u))\cdot dh(1)$
Or $dh(1)=(y_1, \cdots,y_n)$ et
$df(h(u)\cdot dh(1)=df((uy_1,uy_2,\cdots, uy_n))))\cdot(y_1, \cdots,y_n)= \sum_{i=1}^n \frac{\partial f}{\partial y^i}(uy^1,...,uy^n) y^i\, du$
\\\\
le $\\partial y_i$ désigne la dérivée partielle de $f$ mais elle est au point $(uy_1,\\cdots, uy_n)$\\\\
\\\\
Il vais détailler:\\\\
\\\\
On a $\\frac{d}{du}f(uy_1, \\cdots,uy_n)=d(foh)(u)\\cdots 1$ (différentielle au point $1$ en $u$) où:\\\\
\\\\
$h:u \\longrightarrow (uy_1,uy_2,\\cdots, uy_n)$ et\\\\
\\\\
$f:(y_1, \\cdots,y_n) \\longrightarrow f(y_1,y_2,\\cdots,y_n)$\\\\
\\\\
\\\\
On a $d(foh)\\cdot 1=df(h(u))\\cdot dh(1)$\\\\
\\\\
Or $dh(1)=(y_1, \\cdots,y_n)$ et \\\\
\\\\
$df(h(u)\\cdot dh(1)=df((uy_1,uy_2,\\cdots, uy_n))))\\cdot(y_1, \\cdots,y_n)= \\sum_{i=1}^n \\frac{\\partial f}{\\partial y^i}(uy^1,...,uy^n) y^i\\, du$
le $\partial y_i$ désigne la dérivée partielle de $f$ mais elle est au point $(uy_1,\cdots, uy_n)$
Il vais détailler:
On a $\frac{d}{du}f(uy_1, \cdots,uy_n)=d(foh)(u).1$ (différentielle au point $1$ en $u$) où:\\
$h:u \longrightarrow (uy_1,uy_2,\cdots, uy_n)$ et
$f:$(y_1, \cdots,y_n) \longrightarrow f(y_1,y_2,\cdots,y_n)$
On a $d(foh)\cdot 1=df(h(u))\cdot dh(1)$
Or $dh(1)=(y_1, \cdots,y_n)$ et
$df(h(u)\cdot dh(1)=df((uy_1,uy_2,\cdots, uy_n))))\cdot (y_1, \cdots,y_n)= \sum_{i=1}^n \frac{\partial f}{\partial y^i}(uy^1,...,uy^n) y^i$
le $\partial y_i$ désigne la dérivée partielle de $f$ mais elle est au point $(uy_1,\cdots, uy_n)$
Il vais détailler:
On a $\frac{d}{du}f(uy_1, \cdots,uy_n)=d(foh)(u).1$ (différentielle au point $1$ en $u$) où:
$h:u \longrightarrow (uy_1,uy_2,\cdots, uy_n)$ et
$f:(y_1, \cdots,y_n) \longrightarrow f(y_1,y_2,\cdots,y_n)$
On a $d(foh)\cdot 1=df(h(u))\cdot dh(1)$
Or $dh(1)=(y_1, \cdots,y_n)$ et
$df(h(u)\cdot dh(1)=df((uy_1,uy_2,\cdots, uy_n))\cdot(y_1, \cdots,y_n)= \sum_{i=1}^n \frac{\partial f}{\partial y^i}(uy^1,...,uy^n) y^i\, du$
Juste pour ton info, comme tu sembles t'interesser
au theoreme qui dit qu'une forme fermée sur un ouvert
étoilé est exacte, alors on peut generaliser un peu.
La propriété est vraie sur n'importe
quel ouvert simplement connexe, c'est a dire que n'importe
quelle courbe fermée peut y etre continuement contractée
en 1 seul point en restant constamment dans l'ouvert.
Par exemple un ouvert du plan avec un trou au centre n'est pas simplement connexe car tu ne peux pas contracter une courbe
qui fait le tour de ce trou. En dimension 3 ca serait simplement connexe.
Pour faire cette généralisation, au lieu de considerer la fonction $u,\vec{y}\mapsto u\vec{y}$
tu prends n'importe quelle fonction $\vec{X}(u,\vec{y})$ dérivable
telle que $\vec{X}(0,\vec{y})=\vec{y}_0$ avec $\vec{y}_0$
point quelconque fixé de ton ouvert, et
$\vec{X}(1,\vec{y})=\vec{y}$
C'est le coeur de ce qu'on appelle la cohomologie de de-Rahm.
(si la derivée extérieure d'une forme p-lineaire alternée est nulle
alors cette forme est la dérivée extérieure (dérivée antisymmétrisée
sur les différentes variables) d'une (p-1) forme.
a+
eric
La proposition affirme que l'espace tangent $T_xX$à une variété différentiable $X$ en un point $x$ est de dimension $n=\mathrm{dim}\ X$ et de base
$$\{\frac{\partial}{\partial x^1}, \dots, \frac{\partial}{\partial x^n}\}$$
Pour cela, on utilise un
$\mathrm{\underline{Lemme}}$
Soit $f\in C^\infty(\mathbb{R}^n,\mathbb{R})$ avec $f(0)=0$.
Alors $\exists g_1, \dots, g_n\in C^\infty(\mathbb{R}^m,\mathbb{R})$ tels que :
$$f(x)=\sum_{i=1}^n x^i g_i(x)$$
$\mathrm{\underline{Démonstration}}$
On paramétrise le segment droite allant de $0$ à $x$ à l'aide d'un chemin, disons $\gamma:[0,1]\longrightarrow X:t\longrightarrow tx$. Remarquer que $x\in\mathbb{R}^n$.
\begin{eqnarray*}
f(x) = \int_0^1 \frac{d}{dt} f(tx)\,dt &=& \int_0^1 \sum_i \frac{\partial f}{\partial x^i}(tx) x^i\,dt \qquad\mathrm{d'où\ vient\ cette\ égalité\ ?}\\
&=& \sum_i x^i \int_0^1 \frac{\partial f}{\partial x^i}(tx)\,dt \\
&=& \sum_i x^i g_i(x)
\end{eqnarray*}
Tu utilises ce Lemme pour démontrer que $T_xM$ est un espace vectoriel de base etc. Tiens curieux, cela se fait directement en utilisant la définition d'une variété...
Revenons à ce Lemme, ---dit Lemme d'Hadamard, très pratique pour démontrer le Lemme de Morse, et aussi pour caractériser les dérivées aux champs de vecteurs sur les variétés et aussi pour ce qu'a expliquer RAJ (j'ai beaucoup aimé)).
D'où vient ton égalité? tu as $\frac{d}{dt} f(tx)\,dt =\frac{d}{dt} (fo\gamma(t)) $,
A partir de là il faut utiliser la proposition qui te dit:
Si $g$ est différentiable en $a$ et $f$ est différentiable en $g(a)$, alors $fog$ est différentiable en $a$ et pour tout $h$ dans l'espace vectoriel sur lequel $g$ est défini dans un ouvert de celui-ci, on a:
$D(fog)(a)\cdot h=D(f)(g(a)\cdot (Dg(a)\cdot h)$ ...Revois peut-être cette partie dans un de tes cours de calcul différentiel éventuellement...
Ici, tu as la situation où $g= \gamma$ et $a=t$ et tu prends la différentielle en le vecteur $1$ de $\R$.
Ainsi,
$\frac{d}{dt} f(tx) =D(f)(\gamma(t))\cdot( D(\gamma)(t)\cdot 1)=D(f)(tx)\cdot x$ puisque $D(\gamma)(t)\cdot 1=x$ et $\gamma)(t)=tx$