Démêlage de plein de trucs en calcul diff/géo diff

J'évoquais récemment que certains concepts en calcul diff me font m'arracher les cheveux à cause des notations. Je sais faire les choses à peu près mais en gros j'obtiens des résultats sans grande conviction de savoir exactement ce que j'écris derrière. Je vais mettre dans ce fil les choses comme elles me viennent.
La première question que j'aimerais poser, c'est : qu'est-ce qu'on appelle *exactement* un "système de coordonnées" ? Pour moi c'est exactement la même chose qu'un paramétrage : si j'ai une variété topologique $V$ de dimension $n$ alors il me faut une bijection $P : I_1 \times \dots \times I_n \longrightarrow V$, comme ça pour tout $a \in V$, il existe un unique $n$-uplet de coordonnées $(x_1,\dots ,x_n) \in I_1 \times \dots \times I_n$ tel que $a=P(x_1,\dots ,x_n)$. C'est plus pratique si les $I_k$ sont des intervalles de $\R$ mais je suppose que ce n'est pas nécessaire. Donc un "système de coordonnées" dans $V$ en fait c'est un choix de paramétrage $(P,I_1,\dots ,I_n)$.
Avec ça, dans le plan $V:=\R^2$, les coordonnées cartésiennes c'est $(\text{id}_{\R^2}, \R, \R)$, et les coordonnées polaires c'est par exemple $(P, [0~;+\infty[ ~;~ ]-\pi, \pi])$ où $P(x_1,x_2)=(x_1\cos(x_2),x_1\sin(x_2))$. Et oui, je fais complètement exprès de ne pas utiliser $r$ et $\theta$ ici, ça aura son importance plus tard (j'essaie d'éviter les variables autant que possible).
Si j'ai deux paramétrages $(P,I_1,\dots ,I_n)$ et $(\overline{P},J_1,\dots ,J_n)$, un "changement de coordonnées" ça va être une bijection $c : I_1 \times \dots \times I_n \longrightarrow J_1  \times \dots \times J_n$ telle que $\overline{P} \circ c = P$.
Je suis un peu rouillé sur la technicité autour des cartes locales et changements de cartes en géo diff mais est-ce que pour l'instant ce que je raconte est au moins partiellement cohérent ? Je remarque que je n'ai parlé de continuité/régularité à aucun moment, il va sans doute falloir que ça intervienne quelque part.

Réponses

  • Barjovrille
    Modifié (1 Feb)

    Bonjour, oui c'est un paramétrage mais en général c'est un paramétrage "local". (Attention à ton $P$ il n'est pas bijectif). Bon après on ne paramètre pas pour le plaisir de paramétrer tu peux le faire si tu en as envie mais un des intérêts c'est de pouvoir transporter des propriétés topologiques entre un espace et un autre. Voici ce qu'il faut changer, le $P$ part d'un ouvert (pas besoin de te casser la tête avec des produit de $I_k$) et va dans un autre ouvert et $P$ est un homéomorphisme.

    Personnellement je préfère travailler dans l'autre sens (t'inverse le sens de la flèche) c'est à dire soit $U$ un ouvert de $V$, on regarde $P : U \subset V \to P(U) \subset \mathbb{R}^n$. (On peut croiser les deux sens dans la littérature).

    Je pense que c'est plus naturel (au moins pour moi) car on part d'un espace abstrait et on le traduit avec un espace "concret" $\mathbb{R}^n$ (ça ne veut rien dire). En gros je n'aime pas emprisonner les $(x_1,...,x_n)$ dans $P$ je préfère emprisonner le point abstrait $p \in V$ et laisser les $x_i$ à l'air libre avec le sens des flèches que j'ai dit tu as $P(p)=(x_1(p),...,x_n(p))$. Mais bon de toute façon tu joues souvent avec $P$ et $P^{-1}$ en même temps. Et quand tu manipules des exemples concrets il y a des cas où un sens est plus pratique que l'autre donc ça dépend mais quand c'est abstrait tu connais maintenant ma préférence.

    Tu peux relier ces histoires de coordonnées/cartes à un truc que tu connais déjà : soit $E$ un $R$ espace vectoriel de dimension $n$, $(e_i)$ une base, l'isomorphisme classique : $ \sum x_i e_i \mapsto (x_1,...,x_n)$ qui part de $E$ et qui va dans $\mathbb{R}^n$. C'est l'application qui à chaque vecteur de $E$ associe ses coordonnées (d'ailleurs dans le cadres des variétés un espace vectoriel topologique de dimension fini vient avec une carte globale c'est l'application que je viens d'écrire).

  • (pour le défaut d'injectivité de $P$ en $0$, je sais mais j'avais la grosse flemme de détailler)
    Je présentais les choses avec des produits cartésiens pour mieux séparer les variables (et parce que c'est ça qu'on trouve dans la pratique) mais pour l'aspect théorique c'est vrai qu'on s'en fiche.
    Je retrouve en effet certains éléments croisés dans ma littérature (mais je maintiens, je n'ai jamais vu une seule définition de "coordonnées"). Je pense que j'aime bien ta façon de présenter les choses sous la forme $x_k(p)$ où l'on voit bien que ce sont des fonctions $k$-ième coordonnée définies sur le machin. En principe, le sens dans lequel on définit les choses importe peu puisqu'on a des bijections partout. Cependant... il y a quand même un certain mérite à mettre l'espace "concret" au départ. Si je prends $V=$ la sphère usuelle en dimension $3$, comment puis-je identifier un point $p$ dessus sans ses coordonnées ? S'il n'a pas de propriétés particulières (intersection avec telle droite, ou je ne sais quoi) c'est compliqué, alors que "$p=(x_1,x_2,x_3)$" dans n'importe quel système de coordonnées c'est clair net et précis où il est.

  • En fait j'ai mal répondu à ta question, si tu définis $P : \mathbb{R}^n \to V$ c'est un paramétrage, et le $P^{-1} : V \to  \mathbb{R}^n$ c'est le système de coordonnée/carte locale. (Et on n'oublie pas homéomorphisme.... ça ça ne change pas).
  • Héhéhé
    Modifié (1 Feb)
    On en a déjà discuté en long, en large et en travers dans ton précédent post.
  • Homo Topi
    Modifié (2 Feb)
    Ben oui mais il n'empêche qu'il y a des choses qui restent pas forcément claires.
    @Barjovrille donc on est bien d'accord que paramétrage et coordonnées c'est la même chose : la donnée de l'application $P$.
  • Foys
    Modifié (2 Feb)
    Je n'ai pas tout lu mais attention à certaines choses.
    Par exemple il n'existe aucune fonction continue et injective de $S^2$ dans $\R^2$ (où $S^2=\{(x,y,z) \in \R^3 \mid x^2 + y^2 + z^2 = 1\}$). Cela peut être vu via le théorème de Jordan (comment s'en passer), qui garantit l'existence de deux ouverts connexes $A,B$ disjoints de $\R^3$ tels que $A$ est borné et $\R^3 \backslash (A \cup B ) = f(S^2) \times \{0\}$. $A$ étant ouvert, il ne peut être contenu dans $\R^2\times \{0 \}$ d'où l'existence de $(p,q,r) \in A$ tel que $r\neq 0$; or $D:= \{(p,q,tr) \mid t \in ]0,+\infty[\}$ est connexe et contenu dans $\R^2 \times \R^*$ qui est contenu lui-même dans $A \cup B$ donc (ouverts disjoints) $D$ est contenu dans $A$ ce qui est impossible puisque $A$ est borné mais pas $D$.
    Pour cette raison la variété topologique $S^2$ n'est pas en bijection continue avec un produit de deux intervalles (ni d'un nombre quelconque fini d'autres par invariance du domaine).
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • En calcul différentiel les notions sont locales (une variété topologique est un espace topologique tel que tout point de cet espace possède un voisinage homéomorphe à un produit d'intervalles).
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Homo Topi
    Modifié (2 Feb)
    L'histoire des notions locales VS globales, je sais. C'est du détail technique qui ne me pose aucun problème, je fais des raccourcis un peu partout à ce sujet ici.
    Un truc que je n'ai vraiment pas compris, et ce malgré l'autre fil parce qu'on n'est pas allés assez loin, c'est la chose suivante. Si j'arrive à l'exprimer correctement.
    Si j'ai une variété $V$, et que je veux définir une fonction $f$ sur $V$. Alors $f$ aura comme variable des points (potentiellement abstraits) d'une variété $V$ (potentiellement abstraite). Par exemple, la fonction "distance à l'origine" dans le plan $\R^2$ c'est $M \longmapsto \|\overrightarrow{OM}\|$, il n'y a aucun système de coordonnées ici pour l'instant. Cependant, je peux paramétrer ma variété $V$ (ici $\R^2$) par un certain paramétrage $p$, auquel cas j'aurai $M=p(a,b)$ pour un certain couple $(a,b)$ (un $n$-uplet pour une variété $V$ de dimension $n$, bien entendu). Par exemple, ma fonction "distance à l'origine" en coordonnées cartésiennes $K : (x,y) \longmapsto (x,y)$ c'est $f(K(x,y)) = \sqrt{x^2+y^2}$, et en coordonnées polaires $P : (r,\theta) \longmapsto (r\cos \theta, r\sin \theta)$ c'est $f(P(r,\theta))=r$. C'est bien la norme euclidienne du vecteur $(x,y)=(r\cos\theta,r\sin\theta)$ de $\R^2$.
    C'est vraiment tout bête, mais c'est fondamental pour moi ce truc-là. Exprimer une fonction en coordonnées cartésiennes/polaires, ce n'est pas choisir des noms de variables $x$, $y$, $r$, $\theta$, tout ce bazar c'est muet. Exprimer une fonction $f : V \longrightarrow$ machin dans un système de coordonnées, c'est écrire $M \in V$ comme $M=p($truc$)$ et remplacer la fonction $f$ "abstraite" par une fonction $\overline{f}$ définie sur $\R^n$ telle que $\overline{f} = f \circ p$. Donc en polaire je ne regarde pas des $(r,\theta)$ au départ mais des $(r \cos \theta, r \sin \theta)$. Ou des $(u \cos v, u \sin v)$ si je veux.
    Donc j'embrouillais les coordonnées $(r,\theta)$ du point $M=(r \cos \theta, r \sin \theta)$ avec le point lui-même au moment d'écrire une fonction.
    Parce que du coup, il existe une autre fonction qui fait non pas $(r\cos \theta, r\sin \theta) \longmapsto r$, mais $(r,\theta) \longmapsto r$. Donc la première, c'est ma fonction distance à l'origine, exprimée en coordonnées polaires, et la deuxième, c'est la fonction "première coordonnée" où j'ai choisi d'appeler mes variables muettes $r$ et $\theta$. Je n'ai pas précisé dans quel système de coordonnées j'ai exprimé la fonction "première coordonnée". Et je pense que c'est un autre point sur lequel je bloque, et qui me pose problème dès que je dois écrire des différentielles. Je vais mettre ça dans un prochain post, d'abord j'aimerais qu'on me confirme que ce que j'ai dit ici est bien correct.
  • Barjovrille
    Modifié (2 Feb)
    "Remplacer la fonction $f$ par une fonction $\overline{f}$ définie sur $\mathbb{R}^n$" oui c'est ça. C'est ce qu'on cherche à faire. Je n'ai pas compris, cette partie : "Donc en polaire je ne regarde pas des $(r, \theta)$ au départ mais des $(r \cos \theta, r \sin \theta)$". Et je n'ai pas non plus compris : "il existe une autre fonction qui fait non pas $(r \cos \theta, r \sin \theta) \mapsto r$ mais $(r,\theta) \mapsto r$".
    Précise les motivations de ton discours, je dirais que c'est ça qui manque.
  • Ben si je veux définir une fonction sur $\R^2$ "en coordonnées polaires", la définition de ma fonction s'écrira $(r\cos \theta, r \sin \theta) \longmapsto$ quelque chose, et pas $(r,\theta) \longmapsto$ quelque chose. C'est ça que j'ai voulu dire, je décris les éléments de l'ensemble de départ de la fonction comme des $(r\cos \theta, r \sin \theta)$ et pas comme des $(r,\theta)$.
    Mes motivations c'est de piger ce que c'est un système de coordonnées, pour l'instant. Donc "définir une fonction dans un système de coordonnées", c'est prendre comme entrées de cette fonction des coordonnées dans ce système.
    $(r \cos \theta, r \sin \theta) \longmapsto r$ est une fonction, qui a un point décrit en coordonnées polaires associe sa distance à l'origine. $(r,\theta) \longmapsto r$ est aussi une fonction mais elle n'a rien à voir, et elle n'exprime pas une distance à l'origine d'un truc. Alors que sa formule est la même, "$r$", exprimée avec des variables $r$ et $\theta$. 
    La différence, si on peut l'exprimer comme ça, c'est que quand je définis $(r \cos \theta, r \sin \theta) \longmapsto r$, je définis la fonction qui, a un point du plan dont les coordonnées polaires sont $(r,\theta)$, associe sa coordonnée $r$, alors que quand je définis $(r,\theta) \longmapsto r$, je définis la fonction qui à un point dans la bande dont les coordonnées cartésiennes sont $(r,\theta)$, associe sa coordonnée $r$.
  • Le couple $(r\cos\theta,r\sin\theta)$ n'est pas un couple de variables.
  • Qu'est-ce que tu veux dire avec cette remarque ?
  • Foys
    Modifié (3 Feb)
    Les variables n'existent pas en maths (mais dans le méta-discours où elles désignent des lettres): un objet mathématique n'est pas une "variable".
    En théorie des ensembles et étant données une expression $\mathcal E$ et une lettre $\mathbf t$, La notation $\mathbf t \mapsto \mathcal E$ est une abréviation de $\{\mathbf v \mid \exists \mathbf t, \exists \mathbf w, \mathbf v = (\mathbf t, \mathbf w) \wedge \mathbf w = \mathcal E \}$ avec des lettres $\mathbf v, \mathbf w$ distinctes, distinctes de $\mathbf t$ et n'apparaissant pas dans $\mathcal E$.
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Math Coss
    Modifié (3 Feb)
    Note que "lettre" et "symbole" sont aussi dans le discours métamathématique.
    Cela dit je suis prêt à remplacer variable par lettre dans ma phrase (pu plutôt j'aurais dû écrire "noms de variables") et je crois qu'il est incorrect d'écrire $\exists r\cos\theta\dots$
  • Barjovrille
    Modifié (3 Feb)
    @Homo Topi L'écriture de $f$ en coordonnée c'est la fonction $f\circ P$, c'est-à-dire $\overline{f}$, et $\overline{f}$ c'est la fonction $(r, \theta) \mapsto r$. Ce sont juste des définitions pourquoi tu te casses la tête, un système de coordonnées c'est un homéomorphisme $ P^{-1} : U \subset V \to P^{-1}(U) \subset R^n$. Et Le paramétrage associé à ce système de coordonnées c'est la réciproque $P$. L'important c'est plutôt comment va-t-on se servir de ces définitions ou pourquoi quelqu'un a été amené à définir ce genre de choses.
  • Homo Topi
    Modifié (3 Feb)
    Je crois que je commence à saisir mon problème de fond, en rapport avec les différentielles.
    Si $E$ est un EVN sur $\R$, et que $f : E \longrightarrow \R$ est une fonction, sa différentielle en un point $a$ va s'écrire traditionnellement $\text{d}f(a) = \displaystyle \sum \dfrac{\partial f}{\partial x_k}(a) \text{d}x_k$. Pour éliminer (temporairement au moins) les notations qui me dérangent, on avait réécrit ça $\text{d}f(a) = \displaystyle \sum \partial_k f(a) \text{d}_k$. Bon ben $\text{d}f(a)$ est une forme linéaire, et du coup là j'ai sa décomposition dans une base, la base des $\text{d}_k$ ou $\text{d}x_k$ qui sont les applications "$k$-ième coordonnée"... mais $k$-ième coordonnée dans quelle base ?
    Je pense que je fais mal le lien entre base de $E$, base de $E^*$, système de coordonnées, notations et variables muettes. Je vais y réfléchir pour poser des questions plus précises. Mais je démêle effectivement des choses, c'est déjà bien.
  • @Barjovrille plusieurs choses.
    Tu dis "c'est juste des définitions". Alors, oui, mais, il serait bien que j'aie des définitions fixées quelque part, or j'ai dit que je n'ai trouvé ça explicité proprement nulle part, tout est toujours sous-entendu ou bien "oh ça va on comprend à peu près" mais moi j'ai besoin d'un truc carré. Alors j'essaie de me le donner à moi-même, avec le forum qui m'aide pour ça. Et puis, qu'est-ce qui est une définition et qu'est-ce qui en découle, ben ça dépend. L'exemple classique de la définition de $\exp$, il y en a trois classiques (réciproque du logarithme, solution d'équa diff, série entière) et selon celle qu'on choisit, les deux autres deviennent des théorèmes qu'il faut démontrer. Là avec mon bazar de formes différentielles, j'ai l'impression que certaines définitions sont circulaires alors j'essaie de me faire un truc carré comme je peux.
    Je sais pourquoi on fait ça, pour pouvoir faire les calculs dans $\R^n$ et en déduire des choses sur des variétés plus compliquées/abstraites. Ce n'est pas avec ça que j'ai du mal, c'est avec les calculs et en particulier leur sens. J'écrirai les choses en détail.
  • Blueberry
    Modifié (3 Feb)
    3 bouquins où tout est traités sans rien laisser sous le tapis
    Cartan calcul différentiel
    Dieudonné éléments d'analyse T1
    RDO t3 Analyse
  • Je n'ai pas beaucoup d'accès à/de budget pour encore plus de bouquins, mais merci
  • Barjovrille
    Modifié (4 Feb)
    @Homo Topi  je ne sais pas quels textes tu lis mais si tu lis des poly de cours, il faut savoir que les profs ont des contraintes (sur la longueur et le contenu pour que ça soit assez accessible pour être digérer en un semestre (voir quelques semaines) quitte à omettre certaines parties), de là à parler de définitions circulaires tu pousses le bouchon un peu loin (je peux me tromper si c'est le cas tu peux me donner un exemple) . Tu peux trouver des textes bien explicites (peut-être encore plus que ce que tu souhaites) surtout si le sujet n'est pas nouveau.
    Concernant tes questions pour parler de différentielle, dans les cas les plus simples tu n'as pas besoin de système de coordonnées, formes différentielles...
    Quand je dis cas les cas le plus simple ce sont les EVN (le calcul diff sur les variétés consiste à se ramener sur un EVN, mais c'est plus compliqué par exemple on ne peut pas parler de différentielle seconde sans faire de nombreuses introductions/manipulations supplémentaires, en gros ce n'est pas le cadre idéal pour commencer le calcul diff).
    Pour ta question "$k$-ième coordonnée dans quel base ?" en fait quand tu écris $\dfrac{\partial f}{\partial x_k}$ tu as déjà choisis une base je détaille :
    Soit $E$,$F$ des EVN, tu peux définir la dérivée directionnelle : La dérivée d'une fonction $f : E \to F$ dans la direction $v$ au point $a$ est défini par : 
    $D_vf(a) = lim _{t \to 0} \dfrac{f(a +tv) -f(a)}{t}$. Si $E$ est un EVN de dimension fini soit $(e_i)$ une base, les dérivées de direction un vecteur de base ont une notation particulière : $D_{e_i}f(a)=    \dfrac{\partial f}{\partial x_i}(a)$, donc tu choisis une base (implicitement ou explicitement) et avec cette base tu peux utiliser la formule (qui dépend de la base) : ${d}f(a) = \displaystyle \sum \dfrac{\partial f}{\partial x_k}(a) \text{d}x_k$, les $d_{x_k}$ ce sont les vecteurs de la base duale canonique associé à la base que tu as choisi. (si la base c'est $(e_i)$, $d{x_i}=e_i^*$ où $e_i^*(e_k)=1$ si $k =i$ et $0$ sinon).
    Les livres conseillé par Blueberry ont la réputation d'être de solides références. Moi j'avais lu la partie calcul diff  de Foundation of modern analysis de Dieudonné (c'est peut-être la traduction anglaise du livre de Dieudonné mentionné plus haut), que je trouve très bien écrit  (dans ce livre les dérivées partielles sont définies sur des produits d'espace vectoriels, une dérivée partielle "c'est une différentielle par rapport à un facteur du produit", il se place dans le cadre général des espaces de Banach et il ne parle pas de base comme je l'ai fait) mais si tu manipules les définitions de Dieudonné (la manipe n'est pas longue) tu retombes sur tout ce que j'ai dit et ce livre est pour la plus grande partie ( en particulier la partie calcul différentiel) autosuffisant. Les livres conseillé par Blueberry je pense aussi donc tu as le choix.
    edit : Je n'avais pas vu ta réponse concernant le budget, tu peux trouver des bonnes ressources gratuites (ou si tu trouves un moyen gratuit d'avoir accès aux livres), malheureusement je n'ai pas en tête une référence gratuite mais je pense (quasiment sûr) que ça doit exister.
  • sa différentielle en un point a va s'écrire traditionnellement df(a)=∑∂f∂xk(a)dxk.


    "Traditionnellement" = "par définition" semble-t-il.

    Mais non, ce n'est pas la définition usuelle de la différentielle de $f$ en $a$.

    La définition standard est la suivante : 

    $df(a)$ est (sous réserve d'existence) l'unique forme linéaire $\varphi$ de $E$ vérifiant

    $$f(a+h)=f(a)+\varphi(h)+o(h)$$

    quand $h$ tend vers $0$.

    Ensuite, on démontre des choses, le lien avec les dérivées partielles (i.e. les dérivées directionnelles dans les directions fixées par les vecteurs d'une base de $E$), les formules opératoires, etc.


  • Homo Topi
    Modifié (4 Feb)
    Barjovrille a dit :
    une dérivée partielle "c'est une différentielle par rapport à un facteur du produit"
    C'est probablement la manière la plus pratique de définir les choses pour avoir un énoncé pas trop moche du théorème des fonctions implicites.
    Sinon oui pour te répondre et à @JLapin aussi, je sais dans quel sens on définit les choses, j'ai déjà vu tout ça. En fait là où je n'aime pas les notations habituelles (parce que c'est vraiment les notations qui me dérangent), typiquement la notation $\text{d}x_k$ pour la fonction $k$-ième coordonnée, c'est que... cette application dépend entièrement de la base qu'on se fixe (souvent c'est la base canonique, mais peu importe) mais la notation ne le reflète pas, et souvent on ne mentionne nulle part quelle base on s'est fixé. Alors que si on écrivait ça "proprement", on se fixe une base de $\R^n$, on lui donne explicitement un nom $(b_1,...,b_n)$ dans notre discours, et après en fait $\text{d}x_k$ c'est juste $b_k^*$, la forme linéaire associée à $b_k$ dans le dual.
    Typiquement déjà dans l'autre fil (et il faut que je revoie les choses plus en détail, encore) j'avais principalement des soucis de notation. Si j'ai une fonction de deux variables $f$, alors $\text{d}f(a)$ c'est un truc de la forme $\lambda \text{d}x + \mu \text{d}y$, par exemple si $r$ et $\theta$ sont mes fonctions classiques de changement en coordonnées polaires on va avoir $\text{d}r$ et $\text{d}\theta$ en fonction de $\text{d}x$ et $\text{d}y$ mais des fois je vais voir la différentielle $\text{d}f$ en fonction de $\text{d}r$ et $\text{d}\theta$ aussi, d'où la question de comment on formule quoi quand, est-ce que ça dépend du système de coordonnées choisi (qu'on voit par exemple au point $a$, est-ce que $a=(x,y)$ ou est-ce que $a=(r\cos \theta, r\sin \theta)$ par exemple) ou pas, etc. Ce n'est pas quelque chose que j'ai déjà vu clairement expliqué quelque part. Voilà : s'il y a un lien entre le système de coordonnées qu'on prend dans $\R^n$ et la manière dont on *écrit* la différentielle d'une fonction définie sur $\R^n$.
  • JLapin
    Modifié (4 Feb)
    Alors que si on écrivait ça "proprement", on se fixe une base de $\R^n$, on lui donne explicitement un nom $(b_1,\dots,b_n)$ dans notre discours, et après en fait dxk c'est juste b∗k, la forme linéaire associée à bk
    Ce n'est pas plus rigoureux en fait puisque le vecteur $b_k$ peut appartenir à plein de bases différentes et dans ce cas, $b_k^*$ ne sera pas la même fonction...
    Si j'ai une fonction de deux variables f, alors df(a) c'est un truc de la forme λdx+μdy,
    À nouveau, si $f$ est une fonction définie sur un ouvert de $\R^2$ à valeurs dans un evn de dimension finie $F$, $df(a)$ est un élément de $L(\R^2, F)$ (sous réserve d'existence).
    Ce n'est pas "un truc" de la forme que tu dis.
    Par contre, il existe un théorème qui permet d'exprimer $df(a)$ en fonction des dérivées partielles de $f$ en $a$ selon une base fixée à l'avance.
  • Mine de rien ce qu'il s'est passé dans l'autre fil m'a débloqué des choses.
    Si j'ai une forme différentielle (de degré $1$) $\omega$ sur $\R^n$, alors pour un point $(a_1,...,a_n) \in \R^n$, $\omega_{(a_1,...,a_n)}$ est une forme linéaire sur $\R^n$. Donc je l'évalue en un point $(b_1,...,b_n) \in \R^n$. Maintenant il faut que je relie ça à des bases et des coordonnées.
    Déjà un premier truc. Si je me donne une forme différentielle très simple $\text{d}f$ pour une fonction $f : \R^2 \longrightarrow \R$. Alors Dans la base $(\text{d}x,\text{d}y)$, $\text{d}f = \dfrac{\partial f}{\partial x}\text{d}x + \dfrac{\partial f}{\partial y} \text{d}y$. La notation est un peu ambigüe puisqu'on n'évalue pas tout le monde en même temps, par exemple $\text{d}f(a) = \dfrac{\partial f}{\partial x}(a)\text{d}x + \dfrac{\partial f}{\partial y}(a) \text{d}y$, on n'évalue pas $\text{d}x$ ou $\text{d}y$ en $a$ ici. Mais ensuite $\text{d}f(a)(h) = \dfrac{\partial f}{\partial x}(a)\text{d}x(h) + \dfrac{\partial f}{\partial y}(a) \text{d}y(h)$.
    Donc si comme dans l'autre fil, je veux calculer une intégrale curviligne $\displaystyle \int_{\gamma}\omega$, ici $\omega$ c'est une forme différentielle (donc un truc qui ressemble à $\text{d}f$) et pas une forme linéaire (un truc qui ressemblerait à $\text{d}f(a)$). Donc $\omega$ va par exemple s'écrire $u\text{d}x + v\text{d}y$ où $u$ et $v$ sont des fonctions.
    $\displaystyle \int_{\gamma}u\text{d}x + v \text{d}y$, dans ma tête, ce n'est pas du tout la même chose que $\displaystyle \int_{\gamma}u(x,y)\text{d}x + v(x,y) \text{d}y$, j'imagine que tout le monde fait l'amalgame des deux mentalement mais chez moi ça casse toute ma compréhension des choses (en tout cas pour le moment, surtout que là les symboles $x$ et $y$ jouent deux rôles distincts dans la même formule). C'est sûrement un des gros points sur lesquels je me perdais dans les notations. Pour moi $u(x,y)\text{d}x + v(x,y) \text{d}y$ c'est une forme linéaire $\omega(x,y)$, pas une forme différentielle $\omega$. Je ne veux pas faire l'amalgame des deux notations pour le moment.
    En tout cas $\displaystyle \int_{\gamma}u\text{d}x + v \text{d}y := \int_a^b \Big[u\big(\gamma(t)\big)\text{d}x\big(\gamma'(t)\big) + v\big(\gamma(t)\big)\text{d}y\big(\gamma'(t)\big)\Big]\text{d}t$ c'est parfaitement clair, au moins si $\text{d}x$ et $\text{d}y$ sont définis quelque part (idem si c'était $\text{d}r$ et $\text{d}\theta$). Ouf, on arrive à quelque chose.
    Donc maintenant je dépatouille les bases les coordonnées. Je reviens.

  • Barjovrille
    Modifié (15 Feb)
    Bonjour, il y a quelques trucs à corriger.
    "Si je me donne une forme différentielle très simple $df$..., Alors dans la base $(dx,dy)$, $\text{d}f = \dfrac{\partial f}{\partial x}\text{d}x + \dfrac{\partial f}{\partial y} \text{d}y$. La notation est un peu ambigüe...".

    Le problème ici c'est que si tu parles de base comme en algèbre linéaire tu ne peux pas écrire $\text{d}f = \dfrac{\partial f}{\partial x}\text{d}x + \dfrac{\partial f}{\partial y} \text{d}y$. Car la fonction $df$ n'est pas linéaire, donc tu ne peux pas dire "la fonction $df$ dans la base ... s'écrit ..." (ou alors précise ce que tu entends par là). 

    Par contre soit $a \in \mathbb{R}^2$, la fonction $df(a)$ est linéaire et là tu peux dire une phrase du type dans la base ...  Ça lève l'ambiguïté de l'évaluation non ? 

    Note que la formule $\text{d}f(a) = \dfrac{\partial f}{\partial x}(a)\text{d}x + \dfrac{\partial f}{\partial y}(a) \text{d}y$, c'est exactement l'application de la formule suivante. Soit $ E,F$ deux espaces vectoriels de dimension finie, soit $(e_i)$ une base de $E$,  et soit $u : E \to F$ une application linéaire alors, 
    $u= \sum_i u(e_i) e_i^*$ (avec ($e_i^*$) la base duale canonique associé à ... ).

    Ça c'est la version EVN. 

    Mais si tu tiens vraiment à parler de forme différentielle, on repart de cette formule : 
    $\text{d}f = \dfrac{\partial f}{\partial x}\text{d}x + \dfrac{\partial f}{\partial y} \text{d}y$, tu dis que $df$ c'est une forme différentielle de degré 1  (tu peux appeler ça champ de formes linéaires) donc $df$ si on lui donne un point $a \in \mathbb{R}^2$ ça sort une forme linéaire. les $dx$, $dy$ c'est pareil ce sont aussi des champs de forme linéaires donc il faut aussi leurs donner un point $a$ et tu obtiens des formes linéaires (il n'y a pas de problème d'évaluation). Plus précisément si tu es dans une variété $M$, soit $(U, \psi)$ une carte locale (c'est à dire $\psi :U \to \psi (U) \subset \mathbb{R}^n$ (où $U$ est un ouvert de $M$ et $\psi$ un homéomorphisme). on peut noter $\psi =(x^1,...,x^n)$ comme je l'ai fais dans les messages précédents). Tu vois qu'il y a des appli coordonnés $x^i : U \to \mathbb{R}$, les $dx^i$ (donc dans ton cas $dx$ , $dy$) ce sont les différentielle de ces applications (attention à la définition de différentielle / fonction différentiable quand les fonctions ont un espace de départ ou arrivé dans une variété).

    "$\displaystyle \int_{\gamma}u\text{d}x + v \text{d}y$ dans ma tête, ce n'est pas du tout la même chose que $ \displaystyle \int_{\gamma}u(x,y)\text{d}x + v(x,y) \text{d}y$  j'imagine que tout le monde fait l'amalgame des deux mentalement ..." Oui ce n'est pas la même chose et il n'y a pas d'amalgame à faire. Dans le contexte dans le quel tu as l'air de te placer j'aurai interpréter les $(u(x,y))$ $(v(x,y))$ comme des constantes qu'on peut sortir de l'intégrale (c'est un peu tordu d'écrire les choses comme ça). La première écriture est bien. Et tu peux avoir cette égalité : 

    $\displaystyle \int_{\gamma}u\text{d}x + v \text{d}y := \int_a^b \Big[u\big(\gamma(t)\big)\text{d}x_{\gamma(t)}\big(\gamma'(t)\big) + v\big(\gamma(t)\big)\text{d}y_{\gamma(t)}\big(\gamma'(t)\big)\Big]\text{d}t$

    Pourquoi j'aurai interprété le $u(x,y)$ comme une constante ? Sans rentrer dans les détails les champs de vecteurs et les champs de forme linéaire (ou forme différentielle de degré un) ont une relation spéciale. Les champs de vecteurs ont une structure de $C^{\infty}(M)$-module (où $C^{\infty}(M)$ est l'anneau des fonctions $ M \to \mathbb{R}$, indéfiniment dérivable. Les forme différentielles héritent aussi de cette structure de module.
    Concrètement ça veut  dire soit $\omega$ une forme différentielle, soit $f : M \to \mathbb{R}$ une fonction... alors $ \mu =f \omega$ est encore une forme différentielle et l'évaluation en un point se fait de la façon suivante  $\mu_p= f(p)\omega_p$ (la loi entre le $f$ et $\omega$ c'est la multiplication je précise au cas où). Dans l'écriture $ \displaystyle \int_{\gamma}u(x,y)\text{d}x + v(x,y) \text{d}y$ les fonctions a gauche des formes sont déjà "chargées" donc je considère que ce sont des constantes (elles ne sont pas évaluées en même temps que les formes).
  • Homo Topi
    Modifié (15 Feb)
    Barjovrille a dit :
    Le problème ici c'est que si tu parle de base comme en algèbre linéaire tu ne peux pas écrire $\text{d}f = \dfrac{\partial f}{\partial x}\text{d}x + \dfrac{\partial f}{\partial y} \text{d}y$. Car la fonction $df$ n'est pas linéaire, donc tu ne peux pas dire "la fonction $df$ dans la base ... s'écrit ..." (ou alors précise ce que tu entends par la). 

    Par contre soit $a \in \mathbb{R}^2$, la fonction $df(a)$ est linéaire et la tu peux dire une phrase du type dans la base ...  Ca lève l'ambiguïté de l'évaluation non ?
    Tu as raison, mais l'écriture $\text{d}f = \dfrac{\partial f}{\partial x}\text{d}x + \dfrac{\partial f}{\partial y} \text{d}y$ se rencontre quand même.
    Et pour ce que tu racontes après : ton fameux $\psi$ est donc un choix de coordonnées locales. Dans le "cas EVN", on n'a pas besoin de ça, on choisit des coordonnées globales. Donc par exemple, dans $\R^2$ l'application $\psi$ peut être le choix des coordonnées cartésiennes ou polaires. C'est ça ?
  • Barjovrille
    Modifié (15 Feb)
    Pour $\R^2$, par définition il est déjà décrit en "coordonnée" avec les (coordonnées cartésiennes), les coordonnées polaires, ça peut être utilisé en local, mais [en] global non.
  • GaBuZoMeu
    Modifié (15 Feb)
    Barjovrille a dit :
    Le problème ici c'est que si tu parle de base comme en algèbre linéaire tu ne peux pas écrire $\text{d}f = \dfrac{\partial f}{\partial x}\text{d}x + \dfrac{\partial f}{\partial y} \text{d}y$.
    $(\mathrm{d}x,\mathrm{d}y)$ n'est-elle pas une base (sur l'anneau des fonctions différentiables) du module des formes différentielles ?

  • Barjovrille
    Modifié (15 Feb)
    Oui  c'est bien ça GaBuZoMeu, je voulais dans un premier temps résoudre le problème de notation ambigüe/problème d'évaluation d'Homo Topi sans faire appel au module des formes différentielles, j'aurais peut-être dû mentionner ce que tu viens de dire au moment où j'ai parlé du module des formes. Merci pour la correction.
  • Homo Topi
    Modifié (3 Mar)
    J'ai eu besoin de faire une petite "pause santé mentale" mais je reviens ici. Je crois que j'ai mis le doigt sur un point clé qui me pose problème.
    Si l'on prend une intégrale curviligne générale, on va noter "$\displaystyle \int_{\Gamma}f \text{d}s$" l'intégrale d'une fonction $f$ le long d'un arc $\Gamma$, lui-même paramétré par une fonction $\gamma : [a,b] \longrightarrow \R^n$, avec le fameux $s$ qui m'avait déjà cassé la tête avant. Encore faut-il donner une définition à cette notation.
    La première manière de voir les choses, c'est de vraiment considérer $\displaystyle \int_{\Gamma}f \text{d}s$ comme une notation pour l'intégrale de Stieltjes $\displaystyle \int_a^b (f \circ \gamma)(x)\text{d}s(x)$, qui elle est définie clairement quand $\gamma$ a la bonne régularité. Ici $s$ est l'abscisse curviligne le long de $\Gamma$, et de par les propriétés des intégrales de Stieltjes, on a $\displaystyle \int_a^b (f \circ \gamma)(x)\text{d}s(x) = \int_a^b f(\gamma(t))s'(t)\text{d}t$. Bon, mais comme $s(t) = \displaystyle \int_a^t \|\gamma'(u)\|\text{d}u$ par définition, le premier théorème fondamental de l'analyse donne $s'(t) = \|\gamma'(t)\|$. Donc en recollant les morceaux : on trouve bien $\displaystyle \int_{\Gamma}f \text{d}s = \int_a^b f(\gamma(t))\|\gamma'(t)\|\text{d}t$.
    EDIT : j'ai corrigé des erreurs de recopiage ci-dessus.

    Jusque-là, ça va. MAIS.

    Techniquement, $\displaystyle \int_{\Gamma}f \text{d}s$ est aussi une intégrale d'une forme différentielle $\omega := f\text{d}s$. Il faut alors que ma définition ci-dessus soit cohérente avec cette deuxième définition. Et c'est là que ça commence à me poser problème.
    On avait dit que $\displaystyle \int_{\Gamma}\omega$ est définie par $\displaystyle \int_a^b \omega_{\gamma(t)}(\gamma'(t))\text{d}t$. Lorsque $\omega$ est de la forme $\displaystyle \sum_{k=1}^n a_k \text{d}x_k$, j'arrive à écrire les choses. $\gamma : [a,b] \longrightarrow \R^n$ est de la forme $t \longmapsto \begin{pmatrix} \gamma_1(t) \\ \vdots \\ \gamma_n(t) \end{pmatrix}$ donc $\text{d}x_k(\gamma'(t)) = \gamma_k'(t)$ et $\omega_{\gamma(t)}(\gamma'(t)) = \displaystyle \sum_{k=1}^n a_k(\gamma(t))\gamma_k'(t)$, donc $\displaystyle \int_a^b \omega_{\gamma(t)}(\gamma'(t))\text{d}t = \int_a^b \bigg[ a_1(\gamma(t))\gamma_1'(t)+...+ a_n(\gamma(t))\gamma_n'(t)\bigg] \text{d}t$. Je peux écrire tout ça parce que je connais la définition de $\text{d}x_k$ : c'est la fonction $(u_1,...,u_n) \longmapsto u_k$.
    Maintenant, si je veux appliquer ma définition $\displaystyle \int_{\Gamma}\omega := \displaystyle \int_a^b \omega_{\gamma(t)}(\gamma'(t))\text{d}t$ à $\omega := f\text{d}s$, je ne sais pas trop comment écrire mon intégrale. Voilà le point clé : que vaut, comment s'écrit $[f \text{d}s]_{\gamma(t)}(\gamma'(t))$ ?
    Pour que les définitions soient cohérentes, il faut que $[f \text{d}s]_{\gamma(t)}(\gamma'(t)) = f(\gamma(t))\|\gamma'(t)\|$. Si je ne me trompe pas (ce qui est fort possible, justement), $[f \text{d}s]_{\gamma(t)}(\gamma'(t))$ devrait s'écrire $f(\gamma(t))\text{d}s(\gamma'(t))$, auquel cas $\text{d}s$ ne peut qu'être la fonction $u \longmapsto \|u\|$. Mais comment je trouve ça ? J'ai lu que "$\text{d}s = \bigg\|\dfrac{\text{d}\gamma}{\text{d}t}\bigg\|\text{d}t$", ce qui donnerait $\text{d}s(u) = \|\gamma'(u)\|\text{d}t$, ça ne colle pas.
    Donc il y a quelque chose ici, une notation, une définition, que je ne comprends pas ou que j'utilise mal.

    EDIT : j'ajoute : est-ce qu'on est bien d'accord que $[f \text{d}s]_{\gamma(t)} = f(\gamma(t))\text{d}s$ et que donc $[f \text{d}s]_{\gamma(t)}(\gamma'(t)) = f(\gamma(t))\text{d}s(\gamma'(t))$ ?
  • Que désigne $f$ dans ton dernier message?
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Homo Topi
    Modifié (3 Mar)
    Une fonction définie sur $\R^n$ (au moins sur $\Gamma$) et à valeurs dans $\R$.
  • Foys
    Modifié (3 Mar)
    @Homo Topi
    Techniquement, ∫Γ𝑓d𝑠 est aussi une intégrale d'une forme différentielle 𝜔:=𝑓d𝑠. Il faut alors que ma définition ci-dessus soit cohérente avec cette deuxième définition. Et c'est là que ça commence à me poser problème.
    Non (ce "$s$" c'est quoi? il semble que l'expression n'ait aucun sens en dehors de l'image de $\gamma$ et encore).

    Tu devrais reprendre ces constructions depuis le début avec toutes les variables déclarées (et tout ce qui n'est pas libre explicitement lié, plus question de traiter $dx$ et autre comme des noms propres etc), toutes les définitions explicitées. Sinon tu vas enchaîner usines à gaz et sacs de noeuds l'un après l'autre sans arriver à terme à savoir qui est fautif.
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Homo Topi
    Modifié (3 Mar)
    Ben dans d'autres fils à l'époque, j'étais censé trouver que le $s$ est un truc parfaitement clair, le "paramétrage intrinsèque". $s$ est l'abscisse curviligne le long de $\Gamma$, ça je l'ai mentionné. Donc c'est une fonction, qui a une différentielle. Donc si $f$ est une fonction, $f\text{d}s$ est une forme différentielle de degré $1$ si je ne m'abuse.
    Foys a dit : Tu devrais reprendre ces constructions depuis le début
    Marrant, je ne fais que ça, et souvent quand j'essaie, on me dit d'arrêter de me prendre la tête à le faire.
    Foys a dit :
    @Homo Topi
    Techniquement, ∫Γ𝑓d𝑠 est aussi une intégrale d'une forme différentielle 𝜔:=𝑓d𝑠. Il faut alors que ma définition ci-dessus soit cohérente avec cette deuxième définition. Et c'est là que ça commence à me poser problème.
    Non.
    Comment ça non ? D'après la littérature que je trouve, les intégrales de 1-formes différentielles sont censées être la même chose que les intégrales curvilignes.
  • Une forme différentielle est définie sur un ouvert de $\R^2$ mais $\mathrm ds$ n'a pas de sens hors de (l'image de) $\gamma$$.
  • Renart
    Modifié (3 Mar)
    Ça ne colle pas parce que ça ne peut pas coller : il s'agit de deux objets différents.
    Tu as d'un côté l'intégrale d'une forme différentielle, il s'agit de ton $\int_a^b \omega_{\gamma(t)}(\gamma'(t) ) \mathrm d t$ qui prend forcément un scalaire comme valeur. Et de l'autre tu as l'intégrale selon une mesure, il s'agit de ton $\int_a^b f(\gamma(t)) \|\gamma'(t)\|\mathrm dt$, qui prend pour valeur un élément de l'espace d'arrivée de $f$, et qui peut être autre chose qu'un scalaire.
    D'ailleurs les propriétés d'invariance par reparamétrage ne sont pas les mêmes. Pour l'intégrale d'une forme différentielle il faut que le reparamétrage préserve l'orientation mais il n'a pas besoin d'être injectif. Pour l'intégrale selon une mesure il faut que le reparamétrage soit injectif mais l'orientation n'importe plus. 
    C'est le même genre de différence qu'entre l'intégrale de Riemann sur un segment et celle de Lebesgue sur un segment, les définitions ne sont pas les mêmes et le théorème de changement de variable n'est (généralement) pas équivalent puisque dans un cas on intègre une forme différentielle sur $\R$ sans le dire et dans l'autre on intègre selon une mesure. Avec Riemann $\int_a^b f(t) \mathrm dt =- \int_b^a f(t) \mathrm dt $ et avec Lebesgue on se fiche de savoir dans quel sens est parcouru l'intervalle. Cela se ressent sur le théorème de changement de variable, avec Lebesgue l'hypothèse d'injectivité apparait et on met une valeur absolue sur le $\varphi'(t)$. 
  • Homo Topi
    Modifié (3 Mar)
    Mon bouquin de géo diff définit les intégrales de formes différentielles.
    Si $\omega = \displaystyle \sum_{k=1}^n a_k(x)\text{d}x_k$ est une forme différentielle définie sur un ouvert $U \subseteq \R^n$, et que $\gamma : [a,b] \longrightarrow \R^n$ est un arc lisse d'image incluse dans $U$ :
    $\displaystyle \int_{\gamma}\omega = \int_a^b \bigg[\sum_{k=1}^n a_k(\gamma(t))\gamma_k'(t) \bigg]\text{d}t$.
    Je n'a pas le Rudin en version papier mais voilà. C'est mentionné là aussi que la dimension 1 est censée correspondre aux intégrales curvilignes, j'avais vu ça plusieurs fois.
  • C'est une assertion trop vague pour constituer un argument contre ce qu'a écrit @Renart...
  • @Homo Topi
    Ben dans d'autres fils à l'époque, j'étais censé trouver que le 𝑠
    est un truc parfaitement clair, le "paramétrage intrinsèque". 𝑠 est l'abscisse curviligne le long de Γ, ça je l'ai mentionné. Donc c'est une fonction, qui a une différentielle. Donc si 𝑓 est une fonction, 𝑓d𝑠 est une forme différentielle de degré 1 si je ne m'abuse.

    1°) Soient $E,F$ deux espaces vectoriels normés réels (en pratique $F$ est presque toujours $\R$ lui-même, parfois $\C$ pour des applications aux fonctions holomorphes). Soit $V$ un ouvert de $E$. Une forme différentielle de degré 1 sur $V$ et "à valeurs dans $F$" (noter les guillemets) est une fonction de $U$ dans $\mathcal L(E,F)$, où $L(E,F)$ désigne l'ensemble des applications linéaires continues de $E$ dans $F$.

    Comme $L(E,F)$ est lui-même un espace vectoriel normé (par $f \mapsto \sup \left \{\|f(x)\| \mid x \in E \wedge \|x\| \leq 1\right \}$), cela a un sens de parler de régularité pour une forme différentielle (qui pourra être continue , dérivable, $\mathcal C^1$ etc).

    On suppose maintenant que $F$ est un Banach (pour que l'intégrale suivante ait un sens; pour les gens qui veulent éviter au maximum les complications conceptuelles liées à l'intégration à valeurs vectorielles, l'intégration des fonctions réglées s'y développe en un quart d'heure en recopiant la construction faite pour les fonctions à valeurs réelles; c'est le seul type d'intégrale qui sera requis dans ce qui va suivre). Soit $\omega$ une forme différentielle continue sur $V$ et à valeurs dans $F$. Soient $a,b\in \R$ tels que $a < b$ et $\gamma: [a,b] \to V$ une fonction $\mathcal C^1$. Alors $t\in  I\mapsto \omega\left (\gamma(t) \right ) \left (\gamma'(t) \right )$ est continue (copier la preuve qui dit que le produit de deux fonctions à valeurs réelles continues est continue). Ainsi l'intégrale $\int_a^b \omega\left (\gamma(t) \right ) \left (\gamma'(t) \right ) dt$ a un sens et se note de façon abrégée $\int_{\gamma} \omega$: c'est "l'intégrale de la forme différentielle $\omega$" le long de $\gamma$, qui est un élément de $F$ $(\dagger)$

     2°) Soient à nouveau $a,b$ tels que $a<b$ et $s$ une fonction $\mathcal C^1$ de $[a,b]$ dans $V$. Pour tout $t\in [a,b]$ on pose $s(t):= \int_a^t \|\gamma'(u)\| du$ (la longueur de $\gamma$ de $a$ à $t$ pour la norme considérée). On pose $s(b):= \ell$. Alors $s$ est une fonction $\mathcal C^1$ et croissante de $[a,b]$ dans $[0,\ell]$, surjective (vu qu'en plus $0$ et $\ell$ sont dans son image) et de dérivée $t\mapsto \frac{1}{\|\gamma'(t)\|}$. Lorsque la dérivée de $\gamma$ ne s'annule jamais, $s$ est alors un difféomorphisme sur son image et si $f: V \to F$ est une fonction quelconque, en posant $g:= f \circ \gamma \circ s^{-1}$ on a $f \circ \gamma = g \circ s$ et lorsque $f$ est $\mathcal C^1$, $g$ l'est aussi et $\int_0^{\ell} s'(u) g' \circ s(u) du = \int_a^b df (\gamma(t))\left  (\gamma'(t) \right) dt$ $(\dagger \dagger)$


    3°) $(\dagger)$ et $(\dagger \dagger)$ n'ont rien à voir.
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Cyrano
    Modifié (4 Mar)
    A une époque, on parlait d'intégrale curviligne de première espèce pour désigner $$\int_{\gamma} f \, dL = \int_a^b f(\gamma(t)) |\gamma'(t)| dt$$ et d'intégrale curviligne de seconde espèce pour désigner $$\int_{\gamma} f(z) \, dz = \int_a^b f(\gamma(t)) \gamma'(t) dt.$$ Celle de première espèce est d'ailleurs parfois notée $\int_{\gamma} f(z) \,|dz|$ pour des raisons compréhensibles.

    Si on souhaite généraliser cette différence, alors on est amené à étudier la notion de densité (pour la version avec $|\cdot|$) et celle de forme différentielle (pour la version sans $|\cdot|$). Comme l'a expliqué Renart, c'est la notion "d'orientation" qui change tout. Je suppute qu'Homo Topi ne connait pas la notion de densité mais seulement celle de forme différentielle et que sa confusion vient de là.
  • @Math Coss quand j'ai écrit mon message, je n'avais pas encore vu celui de Renart.
    S'il n'y a pas de correspondance entre les intégrales curvilignes et les intégrales de 1-formes différentielles, entre les intégrales de surface et les intégrales de 2-formes différentielles, etc, j'aimerais bien savoir pourquoi j'ai trouvé cette remarque plusieurs fois.
    Si ce sont bien deux notions à définir, comprendre et étudier à part, et que j'essayais de comprendre le lien entre les deux parce que j'ai lu plusieurs fois qu'il y en a un, ça n'allait pas marcher très bien. En tout cas c'est plus clair maintenant.
    @Cyrano en effet, jamais entendu parler de densité. Mais depuis que je connais l'intégrale de Lebesgue, j'essaie de ramener les différentes notions d'intégrales que je rencontre à des intégrales au sens de Lebesgue, donc je cherche l'espace, la tribu, la mesure etc. Le lien que tu donnes parle de ça un peu, justement.
  • Renart
    Modifié (4 Mar)
    j'aimerais bien savoir pourquoi j'ai trouvé cette remarque plusieurs fois

    C'est une question qu'il faudrait poser aux auteurs des livres que tu as lu. Par ailleurs peut-être que tu as mal interprété leurs remarques. 

    En tout cas il y a bien un lien entre ces histoires de formes différentielles, forme volume, densité et de mesure. Soit $\Gamma$ une courbe paramétrée par une fonction $\gamma : [0;1] \to \R^n$ lisse et régulière et $\omega$ une $1$-forme définie sur, disons, un ouvert contenant $\Gamma$ telle que $\omega$ ne s'annule en aucun point. Alors on définit une mesure borélienne $\mu$ sur $\Gamma$ par $\mu(U)= \pm\int_U \omega $ pour tout ouvert $U$ de $\Gamma$. Le signe du $\pm$ est choisi de sorte à avoir une mesure positive et ne dépend pas de l'ouvert $U$. À une valeur absolue près on a donc bien une mesure. Si ta forme différentielle est donnée par $\omega_{\gamma(t)} : v \mapsto \langle \gamma'(t) , v \rangle$ sur $\Gamma$ alors la mesure associée par le procédé décrit plus haut sera la mesure correspondant à ton abscisse curviligne (ou la mesure $1$-dimensionnelle de Hausdorff sur $\Gamma$ si tu préfères éviter complètement de parler de paramétrisation).

    À noter que cela marche pour des objets de n'importe quelle dimension, ce n'est pas spécifique à la dimension $1$.  Si tu intègres sur une surface paramétrée alors une $2$-forme ne s'annulant pas permet de définir une mesure borélienne sur ta surface. Si tu intègres sur un objet de dimension $n$ alors une $n$-forme ne s'annulant pas permet de définir une mesure borélienne sur ton objet de dimension $n$.  Ces formes volume comme on les appelle s'écrivent comme $f (\mathrm dx_1 \wedge \ldots \wedge \mathrm dx_n )$ où $f$ est une fonction scalaire. Bref, à renormalisation près il s'agit d'un déterminant, et pour obtenir une mesure on met une valeur absolue à ce déterminant.

  • Un fait que je trouve intéressant, c'est que certaines des choses que tu racontes là sont des choses que j'ai déjà entendues, isolément. Il manquait des liens entre les choses. Mais les formes volume, je connais (le lien avec le déterminant, l'algèbre extérieure, etc). J'avais suivi un cours spécialisé sur les formes différentielles en Master, mais budget oblige on passait très vite sur beaucoup de choses et le prof qui faisait le cours voulait vraiment qu'on s'amuse plus avec les chaînes et la cohomologie de de Rham, le cours était très axé sur l'aspect algébrique du bazar et moins sur l'aspect calcul diff. C'est l'aspect calcul diff que j'ai besoin d'éclaircir.
    Je vais essayer de faire les constructions proprement avec toutes ces indications, merci en tout cas !
Connectez-vous ou Inscrivez-vous pour répondre.