Développements Connexité

Bonjour,

J'ai une leçon à préparer pour l'agreg : Connexité - Exemples et applications

Je ne vois pas quels développements faire ?

Avez-vous des idées ?

Merci

Réponses

  • Salut,
    J'avais eu du mal à trouver des idées de développements pour cette leçon aussi. Si j'étais tombé dessus à l'agreg, à l'époque, voici ce que j'aurais proposé (franchement, c'est pas terrible!):

    - Si $(E,d)$ est un espace métrique et $(u_n)$ une suite telle que $d(u_n,u_{n+1})\rightarrow 0$ alors l'ensemble des valeurs d'adhérence de $(u_n)$ est connexe. (Gourdon ( Analyse)

    - Exemple d'espace connexe mais non connexe par arcs. (Marle, Christol, Cot - Analyse)

    Bon courage, je suis preneur d'autres idées de développements!
  • Tiens, un autre yop !

    Il y a le dévoppement ultime. Mais je ne me souviens pas bien de l'énoncé ni des références ! Il s'agit de montrer que pour toute fonction $g$ (continue de $\R$ dans $\R$ ?) et toute fonction $p$ (de classe $C^1$ et périodique ?) il existe une fonction $y$ (de classe $C^1$) telle que $y'+p\circ y=g$.

    L'idée est d'étudier l'application qui à $y$ associe $y'+p\circ y$ (avec les bons espaces au départ et à l'arrivé) et de vérifier qu'elle est surjective (là c'est pas un scoop...). On le fait en montrant que l'image est ouverte (par le théorème d'inversion locale en dimension infinie) et fermée (par des arguments de compacité genre Ascoli) et est donc l'espace tout entier (par connexité).

    Une référence : Alinhac-Gérard (ainsi qu'un bouquin spécial agreg récent, de Gonnord et Tosel ??).

    Sinon il y a des choses plus basiques, genre le fait que $SO(3)$ ou un autre groupe dont je tairais le nom est simple (il est simple $SO(3)$ ?!). Mais je n'ai plus trop idée de la preuve. Ca se trouve dans un bouquin classique d'agreg (dont j'ai oublié le nom !).

    Comme quoi préparer l'agreg ça sert, après on a en tête pleins de souvenirs de références sans avoir les références elles-mêmes...
  • Bonjour Yop, je crois que pour le premier exemple, il faut également que l'espace métrique $(E,d)$ soit compact... Ça marche aussi si $E=\R$, mais pas si $E=\R^2$. Voir le fil \lien{http://www.les-mathematiques.net/phorum/read.php?4,353905} pour un contre-exemple évoqué.

    Côté "autres développements possibles", il y a de nombreux exemples d'espaces dont peut montrer la connexité ou non-connexité de manière plus ou moins simple (des sous-groupes de $GL_n(\R)$ par exemple), et des choses qui tournent autour de la simple connexité (par exemple, une partie connexe $A$ de $\C$ est simplement connexe si et seulement si $\C\setminus A$ est connexe dans la sphère de Riemann $\C\cup\{\infty\}$).
  • Sinon dans l'un des Pommerenke il y a une preuve du théorème de Jordan via le lemme de Janiszewski, lui-même prouvé par de l'analyse complexe (théorème de l'application conforme de Riemann). Comme application de Jordan on peut évoquer le théorème de Poincaré-Bendixon. Cela dit c'est un poil chaud... (techniquement on peut faire tenir Janiszewski en 15 minutes mais faut pas être em* par le Jury...). Bref quel est le niveau des développements que tu cherches Mic ?
  • Ce dont il est question dans ce fil
    http://www.les-mathematiques.net/phorum/read.php?4,60686,365558
    est pas mal, mais je n'ai toujours pas trouvé de référence.
  • Pour cette leçon il y a deux développement sympa :

    Simplicité de $S0_3(\R)$ grâce à sa connexité.
    Tu admets dans ce développement deux points :
    \begin{enumerate}
    \item Pour toute matrice $M$ de $SO_3(\R)$ il existe $\theta_$ tel que $M$ soit semblable à la matrice:
    $$I(\theta_M) = \begin{pmatrix}
    \cos(\theta) & -\sin(\theta) & 0 \\
    \sin(\theta) & \cos(\theta) & 0 \\
    0 & 0& 1
    \end{pmatrix}$$
    \item Le centre de $SO_3(\R)$ est réduit à $I_3$ (tu peux le voir comme une conséquence du point précédent).
    \end{enumerate}
    Schématiquement : tu commences par montrer que dans $S0_3(\R)$ deux matrices sont conjuguées si et seulement si elles ont la même trace. Ensuite tu considères un sous-groupe $H$ distingué non-réduit à l'élément neutre. Tu prends donc $R$ une matrice dans $H$ différente de l'identité et tu considères l'application :
    \begin{eqnarray*}
    \varphi: SO_3(\R) &\longrightarrow& [-1,3]\\
    M &\longmapsto& Tr([R,M])
    \end{eqnarray*}

    Où $[R,M]$ désigne le commutant de $R$ et $M$. Remarque que ce commutant est toujours dans $H$ car ce dernier est distingué et que $R$ lui appartient.\vspace{2mm}

    L'application est continue, son image est donc connexe et donc un intervalle. Cet intervalle ne peut pas être réduit à $3$ sinon toutes les matrices sont semblables à l'identité d'après le lemme préliminaire.
    Tu en déduis que si $\theta$ est suffisamment petit (disons plus petit qu'un certain $\epsilon >0$) la matrice $I(\theta)$ est dans $H$ (et donc tous ses conjugués aussi).
    Ben là tu as fini, pour une matrice $I(\alpha)$ donnée, tu prends $p$ assez grand pour que $I(\frac{\alpha}{p})$ soit dans $H$, mais alors $I(\alpha) = (I(\frac{\alpha}{p}))^p$ aussi.

    Seul souci : je n'ai pas de réf pour ce développement (je l'avais juste fait en spé). Par contre il se retient bien et moi il avait bien plu au jury.
    \vspace{3mm}

    Autre développement utilisant la connexité possible : toute matrice de $GL_n(\C)$ s'écrit comme l'exponentielle d'un polynôme en elle-même. Là par contre j'ai une référence : le bouquin d'Analyse Complexe d'Amar-Matheron ; évite par contre de te placer dans le cadre abstrait des algèbres de Banach : pour une matrice fixée $M$ tu te places dans $\C[M]$ qui vérifie bien les hypothèses voulues.

    Ces deux développements se recasent ailleurs, notamment le deuxième qui fait un truc original pour l'inversion locale (crucial dedans).

    Voilà !
    ++
    --
    Ayman
  • Je retire ce mauvais bricolage..
    désolé!
  • bonjour,

    Ayman parle du comutant de R et M ( qu'il note [R,M] ).

    De quoi s'agit-il ?
  • Je connais une application originale de la connexite : pour montrer que l'anneau forme des fractions rationnelles (a deux indeterminees) definies sur presque tout le plan reel (i.e. sauf un nombre fini de points) n'est pas un anneau euclidien. La connexite sert notamment a montrer que si un polynome ne s'annule qu'en un nombre fini de points du plan, alors il est de signe constant.
  • Moi j'aurais fait le comptage des composantes connexes de O(p,q) (le groupe orthogonal de la forme quadratique de signature (p,q)). Et aussi le théorème de Sarkovski (qui est, quand on y pense bien, un truc remarquable qui se démontre à coup de théorème des valeurs intermédiaires !).
    Pour la simplicité de SO3, à mon avis, c'est vu et revu à l'oral de l'agreg, mais mieux vaut faire un truc classique et bien qu'un truc original et brouillon.
  • J'ai présenté cette leçon pendant la préparation à l'agrég cette année : J'avais proposé un exemple d'ensemble pathologique (connexe non connexe par arc non localement connexe, en exo dans le Wagschal), invariance de l'indice par homotopie dont on déduit Brouwer en dimension $2$, et le théorème de représentation conforme.
    Le troisième développement, je l'ai proposé seulement parce qu'on n'était pas le jour J, car il faut utiliser beaucoup de choses classiques non triviales pour le faire en le temps imparti.

    Enfin bon, ce n'est pas terrible quand même. Ca doit être une bonne idée de prendre un théorème un peu dur au début du Mneimé Testard portant sur la connexité d'une partie de $M_n$ (pas d'exemple en tête).
  • Khaled: Je crois que j'ai dit une bêtise, on parle de commutateur dans ce cas là. Dans un groupe $G$ le commutateur de $a$ et $b$, c'est le produit:
    $$[a,b] = aba^{-1}b^{-1}$$
    Pourquoi le commutateur? Parce que la nullité de ce crochet équivaut à la commutativité de $a$ et $b$. On appelle groupe dérivé (noté $D(G)$) le groupe engendré par les commutateur, il est distingué et lorsque l'on quotiente $G$ par $D(G)$ on obtient un groupe commutatif: on a "commuté" $G$.

    Le commutant d'un élément c'est autre chose, c'est défini dans un anneau quelconque comme l'ensemble des éléments de l'anneau qui commutent avec l'élément en question (ouh qu'elle est moche cette phrase).

    J'espère ne pas avoir d'autres bêtises.

    ++

    --
    Ayman
  • Bonsoir

    Si $[R,M]=RMR^{-1}M^{-1}$ alors la fonction $\phi$ qu'Ayman a définie est la fonction constante égale à 3, non ?

    [La case LaTeX. AD]
  • Une remarque sur un autre commutateur traditionnel : dans un anneau c'est généralement $[x,y]=xy-yx$. Moralité, il faut faire attention à bien préciser de quelle notion on parle, en particulier dans un cas où les deux interprétations sont possibles et ne donnent pas vraiment le même résultat. :)
  • Kamel: Justement, non. Je réalise que je n'ai pas été très clair dans cette explication. Si l'application $\varphi$ était constante égale à $3$, alors tous les $[R,M]$ auraient pour trace $3$. Mais d'après la remarque que j'ai faite en début de démonstration, cela impliquerait que tous ces crochets soit semblables à la matrice $I_3$, et donc égaux à cette dernière. Donc $R$ serait dans le centre de $SO_{3}(\R)$ donc égale à $I_3$, exclu.

    Remarque: Oui tu as parfaitement raison.

    --
    Ayman
  • Merci Ayman de m'avoir répondu.

    En fait, si, tu avais déjà été suffisamment précis dans ta première expression, mais j'avais fait une erreur sur la trace que je n'ose pas avouer.

    Tout est parfaitement clair maintenant.
  • Bonsoir,
    Ben a écrit:
    Moi j'aurais fait le comptage des composantes connexes de O(p,q) (le groupe orthogonal de la forme quadratique de signature (p,q)). Et aussi le théorème de Sarkovski
    je ne vois pas comment faire ce comptage des composantes connexes de O(p,q). Quelqu'un pourrait-il m'éclairer ?
    PS: le théorème de Sarkovski a l'air en effet intéressant.
  • Bonjour,
    Pour le comptage des composantes connexes de $\mathcal{O}(p,q)$, j'ai un résultat qui permet de conclure:
    $$\mathcal{O}(p,q)\simeq \mathcal{O}(p)\times \mathcal{O}(q)\times \mathbb{R}^{d}$$
    où $d\in \mathbb{N}$ sans autre indication pour cet entier (dans le Mneimné-Testard).
    Par contre la preuve de cet homéomorphisme fait intervenir un théorème sur les sous-groupes pseudo-algébriques (?!).
    Je relance pour savoir si quelqu'un (Ben peut-être) a une preuve plus "élémentaire".
  • J'aime beaucoup le développement de Ayman, mais même s'il utilise la connexité de $SO_3(\R)$ de manière fondamentale, il m'apparaît plus comme un développment d'algèbre. Tu l'as présenté dans la leçon d'analyse sur la connexité ?
    Je me souviens avoir présenté les extremas liées en algèbre (sur la dimension) et on m'a clairement fait comprendre que ça n'était pas un développement d'algèbre...
  • Allez voir dans Les matrices, de Denis Serre, c'est fait de façon élémentaire. Et vous aurez une indication sur d.
  • [Pour Alban: Je l'ai présenté sur la leçon "Groupe Linéaire", je ne me souviens plus de l'intitulé exact de cette leçon, mais bon c'était bien une leçon d'algèbre. Maintenant c'est très possible que ce développement soit moins bien passé si j'avais eu un autre jury. Comme très souvent à l'agreg, c'est un peu une question de chance.

    ++

    --
    Ayman
  • Merci Ben.
  • Pour Kamel : t'es grillé ! Tu as du penser que Tr(AB) = Tr(A) Tr(B) non ?

    C le genre d'erreur que tout matheux fait au moins 2 fois dans sa vie ^^

    t-mouss
  • pour t-mouss : en fait, non. J'avais juste voulu généraliser la commutativité du produit à l'intérieur de la trace à un produit de plus de 2 matrices. Faute avouée...
  • jeroM a écit :

    "Pour le comptage des composantes connexes de $\mathcal{O}(p,q)$, j'ai un résultat qui permet de conclure:
    $$\mathcal{O}(p,q)\simeq \mathcal{O}(p)\times \mathcal{O}(q)\times \mathbb{R}^{d}$$
    où $d\in \mathbb{N}$ sans autre indication pour cet entier (dans le Mneimné-Testard)."

    Et j'ai vu dans "maths géné pour l'agreg" de Tauvel que $d=pq$.
Connectez-vous ou Inscrivez-vous pour répondre.