Montrer que $\lim\limits_{n\to\infty}\left(1+\frac{x}{n}\right)^n=e^x$ — Les-mathematiques.net The most powerful custom community solution in the world

Montrer que $\lim\limits_{n\to\infty}\left(1+\frac{x}{n}\right)^n=e^x$

Modifié (January 2023) dans Analyse
Bonjour tout le monde
Je n'arrive pas à démontrer ce résultat pour tout x dans R .. pour x positif c’est évident .. pouvez-vous m’aider, s'il vous plait ? 
Merci d’avance
Mots clés:

Réponses

  • Modifié (January 2023)
    Tout dépend de ce que tu sais sur la fonction exponentielle. Certains prennent cette limite comme sa définition !
    Sinon on peut écrire $$\left(1 + \frac{x}{n}\right)^n = \exp\left(n \ln\left(1+\frac{x}{n}\right)\right)$$ et il te reste à utiliser un résultat bien connu sur le logarithme.
  • Cela dépend de ce que tu as dans ta besace, mais en passant en log, pour n assez grand bien sûr, c'est tout aussi évident.
  • À x fixé, on peut prendre le log pour n assez grand.
  • Ceci pour les x positifs ! si l’on veut pour tout x dans R c’était ça ma question ..
  • Si $x$ est négatif, avec $n$ assez grand, tout va bien.
    Algebraic symbols are used when you do not know what you are talking about.
            -- Schnoebelen, Philippe
  • On peut écrire $\ln (1-u)=\ln (1+(-u))$ si on ne connaît que des limites avec « + ». 
  • Modifié (January 2023)
    Voici ce que je m'étais fait dans mes papiers perso, c'est allègrement adapté copié de plusieurs livres/sources trouvées en ligne.
    Connaissances requises.
    - Calcul de limites, composition des limites
    - Dérivée, taux d'accroissement, dérivée de $\ln$, dérivée d'une composée
    - Limite de $u_n=f(n)$ quand $f$ a une limite en $+\infty$
    Je ne sais pas si tout ça se fait au lycée encore aujourd'hui, mais en L1 c'est tout à fait au programme.
    1) Posons $f(t)=\ln(1+t)$. $f$ est définie et dérivable sur $]-1;+\infty[$, de dérivée $f'(t)=\dfrac{1}{1+t}$. En particulier, le taux d'accroissement de $f$ en $0$ existe et vaut $\displaystyle \lim_{h \to 0}\dfrac{\ln(1+h) - \ln(1+0)}{h} = f'(0)=1$. Autrement dit : $\boxed{\displaystyle \lim_{h \to 0}\dfrac{\ln(1+h)}{h} = 1}$.
    2) Remarquons que pour tout $a \in \R$ et $x$ assez grand* :
    $\Big(1+\dfrac{a}{x}\Big)^x = e^{x\ln(1+ a/x)}$ et $x\ln\Big( 1+ \dfrac{a}{x}\Big) = \dfrac{\ln(1+a/x)}{1/x} = a \dfrac{\ln(1+a/x)}{a/x}\quad (\ast)$.
    Si $a \neq 0$ : on a $\displaystyle \lim_{x \to +\infty} \dfrac{a}{x} = 0$, donc par composition des limites avec le résultat encadré, $\displaystyle \lim_{x \to +\infty}\dfrac{\ln(1+a/x)}{a/x} =1$.
    Donc $\displaystyle \lim_{x \to +\infty}a\dfrac{\ln(1+a/x)}{a/x} =a$, c'est-à-dire d'après $(\ast)$ : $\displaystyle \lim_{x \to +\infty}x\ln\Big( 1+ \dfrac{a}{x}\Big) =a$. Encore par composition des limites, $\displaystyle \lim_{x \to +\infty} e^{x\ln(1+a/x)}=e^a$, c'est-à-dire $\boxed{\displaystyle \lim_{x \to +\infty}\Big(1+\dfrac{a}{x}\Big)^x = e^a}$. Et si $a=0$, on obtient sans aucune étude que $\displaystyle \lim_{x \to +\infty}\Big(1+\dfrac{0}{x}\Big)^x = e^0 = 1$.
    *Pour $a \in \R$ fixé, la seule chose qui compte c'est que le logarithme de $1+a/x$ soit défini au voisinage de $+\infty$, donc "pour $x$ assez grand" en termes de lycéen. C'est tout ce qui est nécessaire pour pouvoir parler de la limite de $\ln \Big(1+\dfrac{a}{x}\Big)$ en $+\infty$.
    3) Si $u_n=f(n)$ et que $f$ a une limite en $+\infty$, alors $(u_n)_n$ a une limite et $\lim u_n = \displaystyle \lim_{x \to +\infty}f(x)$. Autrement dit, $\boxed{\displaystyle \lim \Big(1+\dfrac{a}{n}\Big)^n = e^a}$, et ceci pour tout $a \in \R$.
    --------------------------------
    Pour un étudiant de L2 : ce que nous venons de démontrer, c'est que la suite de fonctions $f_n(x):=\Big(1+\dfrac{x}{n}\Big)^n$ converge simplement sur $\R$ vers $e^x$. Il me semble qu'on peut étendre ça à une convergence uniforme sur tout intervalle compact de $\R$ (et même sur tout compact de $\C$) mais je ne sais plus exactement comment. Les théorèmes de Dini posent problème au moins sur $\R_-$ et j'ai honnêtement la flemme de voir si la convergence uniforme se démontre à la main.
  • Moi en L1 je definis $e^x$ comme la limite de la suite $P_n(x)=1+x+\cdots+\frac{x^n}{n!}$ , je demontre que les polynomes $P_n(x)-(1+\frac{x}{n})^n$ sont a coefficients positifs, ce qui permet de montrer que cette suite tend vers zero.
  • C'est un des gros marronniers du forum, ça (surtout quand je suis dans les parages, j'admets), mais je n'aime toujours pas le concept de définir $\exp$ par sa série en L1. On ne voit pas encore les séries en L1, donc c'est un peu anachronique à mon goût, et ils ont déjà une définition autre qui date du lycée, donc il faut refaire les propriétés de $\exp$ depuis le début avec cette série, sans avoir fait de cours sur les séries avant. Je ne suis pas fan.
    Je préfère largement définir $\exp$ soit comme bijection réciproque de $\ln$ (introduit comme primitive de la fonction inverse), ou en deuxième recours par l'équa diff. Cependant, en L2 après, montrer que $\exp$ a une expression sous forme de série entière, puis faire remarquer que la série entière peut être définie avec un argument autre qu'un nombre entier, ça c'est chouette : tu montres qu'un théorème (ici : DSE de l'exponentielle) peut servir à étendre la définition d'un objet (ici : la fonction exponentielle) à un champ plus large (complexes, matrices...). C'est une bonne illustration de créativité mathématique, je trouve. C'est mieux à mon goût qu'une définition sortie d'un chapeau magique, a priori difficile à comprendre et à manipuler, qui a pour avantage principal de faire "aller plus vite" sur la progression globale. Bien que je comprends tout à fait cet argument (budget, heures de cours/programme, baisse du niveau global...), je ne suis juste pas convaincu que c'est le meilleur choix pédagogique.
  • P.2P.2
    Modifié (January 2023)
    C'est rapide, ça permet d'introduire le log et l'exponentielle complexe, le cosinus et le sinus, et c'est comme ça que fait Walter Rudin. Ça indigne avec l'argument 'mais les séries c'est en L2' Ma foi c'est une série, on n'est pas oblige de prononcer ce nom, puisque on étudie les suites en L1, et après tout une série n'est que la considération de la suite des sommes partielles, hein ?
  • Certes. 
  • Comme dit, je comprends très bien ceux qui aiment faire comme ça. Ce n'est juste pas ce que je préfère, c'est purement subjectif. L'exponentielle imaginaire, je suis d'accord que c'est utile de l'introduire tôt ($e^{i\theta}$, trigo...), et autant l'introduire "proprement" tout de suite. Les extensions complexes (surtout celles qui sont multivaluées), je ne sais pas si c'est utile de les introduire de si tôt. Mais encore une fois, ça c'est juste mon avis. Chaque choix pédagogique a ses avantages et ses inconvénients. Je sais que mes choix à moi ne sont pas parfaits, j'espère que tout le monde en fait autant.
  • Le prologue du Rudin 😀

    Disons qu’avec tous les outils, c’est génial et tout coule de source.  
    Mais sans les outils, comment démontre-t-on tout (si toutefois on démontre tout) ?
  • Ramis et Warusfel le démontrent avec rien dans le tome 1 du Tout en un, en démontrant pour commencer que $\lim \left (1+\frac{1}{n^2} \right )^n=0$. Petit à petit ils en arrivent à ce que $\lim \left (1+\frac{x}{n} \right )^n$ converge.
    Algebraic symbols are used when you do not know what you are talking about.
            -- Schnoebelen, Philippe
  • On peut très bien étudier les séries en première année, c'est d'ailleurs ce qui est fait en MPSI.
  • Modifié (January 2023)
    Je reprends ce que dit Poirot et moi (nos messages se sont croisés).
    Je sais que :
    1) la limite d'une suite ne dépend pas des premiers termes. Je peux donc regarder la suite uniquement pour les indices n strictement supérieurs à $-1/x$ lorsque $x<0$. Pour de tels indices, $1+x/n>0$, il est donc possible de prendre le logarithme
    2) je sais aussi que la dérivée de $\ln$ en $1$ est $1$, j'en déduis que $\lim_{x \to 0} \frac{\ln(1+x)}{x}=1$.
    Et c'est fini.
    Bien entendu, ce n'est pas la seule manière de faire, et la fonction exponentielle peut être définie par cette expression. C'est pour cela que je te demandais ce que tu avais dans ta besace (mais tu n'as pas répondu).
    Maintenant je te propose une variante heuristique, qui n'est donc pas une démonstration (et donc à ne pas faire), mais qui confirme intuitivement le résultat. Pour $y$ petit, $e^y$ est à peu près égal à $1+y$, donc à $x$ fixé, pour $n$ grand, $e^{x/n}$ est à peu près égal à $1+x/n$ et "donc" $e^x=(e^{x/n})^n$ à $(1+x/n)^n$ (ce dernier passage pose un vrai problème, mais en fait il donne une intuition du pourquoi).
  • @ Nicolas : pour la convergence, j'ai vaguement le souvenir qu'il y a de la monotonie que l'on peut faire à la main, ou peut-être des suites de rang pair et impair adjacentes dans le cas de $x<0$, mais j'avoue que je n'ai pas le courage de vérifier !
  • Oui je vois merci beaucoup ! à propos de la limite je vois pas trop son utilité ?
  • La première épreuve du CAPES externe de 2004 proposait deux constructions de l'exponentielle. La première la définissait en un réel $x$ comme la limite de $(1+x/n)^n$ lorsque $n$ tend vers l'infini. Par commodité je mets le sujet et un corrigé par un certain Boucher, les deux fichiers viennent de l'UPS.
  • DomDom
    Modifié (January 2023)
    Oui, math2, c’est « la méthode d’Euler ». J’allais en parler… puis… tu l’évoques. 
    Avec rien du tout (mais c’est calculatoire, très calculatoire… tu as le nez fin 🤣) on démontre que cette suite converge (comme tu le dis, suites adjacentes) et que l’on a les théorèmes (morphisme additif/multiplicatif) et certainement d’autre chose… 
    C’était dans les documents d’accompagnement (Terminale Spécialité Maths de mémoire). 
    Ce fut l’objet d’un sujet de CAPES Externe aussi. 
    [désolé, Math Coss, je n’avais pas vu ton message]
  • On s'en sort en une ligne avec des équivalents il me semble.
  • Modifié (January 2023)
    @ Dom, oui tu as raison. D'ailleurs dans mon ancien cours d'équa diff, je donnais cet exemple en application.
    @ OShine : je serais curieux de voir ta seule ligne avec les équivalents. Personnellement, elle ne me paraît pas claire sans mettre à part le cas $x=0$ et prendre le logarithme, ce qui revient à faire ce qui a été proposé en début de ce fil, et il faut plus d'une ligne pour dire que l'on traite à part le cas $x=0$, le retour à l'exponentielle et les précautions pour prendre le log ...
  • Modifié (January 2023)
    Il y a une démonstration qui utilise un développement de Newton. Avec qui tend vers $+\infty$ on retombe sur le développement en série de $exp(x)$
  • Modifié (January 2023)
    Une solution que j'ai trouvée seule, possible qu'il y ait des erreurs. 

    Soit $x \in \R$ fixé. 
    On a $(1+x/n)^n= \exp (n \ln (1 + x/n))$
    Or $x/n \longrightarrow 0$ lorsque $n$ tend vers plus l'infini, et on a $\ln(1+x/n)=x/n+o(x/n)$
    Donc $n \ln(1+x/n)=x+o(x)=x+o(1)$
    Donc a donc $(1+x/n)^n= e^x e^{ o(1) }$ et donc $\boxed{\lim\limits_{x \rightarrow +\infty} (1+x/n)^n= e^x}$
  • Quant tu interviens il faut TOUT lire : il est bien dit depuis le début qu'il y a un problème lorsque $x<0$. Tu ne t'es pas rendu compte que ton logarithme n'est pas défini !
  • Modifié (January 2023)
    [Inutile de recopier l’avant dernier message. Un lien suffit. AD]
    x dans R+ !!
  • Modifié (January 2023)
    Le problème quand on définit $\exp(x)$ par $\lim_{n\to +\infty} (1+x/n)^n$ c'est de démontrer que la fonction est dérivable et que la dérivée est égale à $\exp(x)$. Quelles que soient les méthodes utilisées, on se ramène toujours à utiliser des suites adjacentes et à faire quelques inégalités techniques.

    Passer par les séries est en réalité plus simple du point de vue déductif même si ça demande d'introduire le concept au préalable. 
  • rakam a dit :
    lorsque $x<0$. Tu ne t'es pas rendu compte que ton logarithme n'est pas défini !
    Pour $n$ assez grand $1+x/n$ est positif même si $x$ est négatif. On peut donc prendre le logarithme et la preuve d'OShine est correcte...
  • Modifié (January 2023)
    Passer par les séries est plus simple effectivement... à condition d'avoir les bons résultats sous la main. :)
    Afin que tout s'emboîte correctement, il faudrait quelque chose comme ça :
    1. La définition d'une série numérique.
    2. Le critère de convergence absolue (qui repose la complétude de $\mathbb R$).
    3. Le critère de comparaison et celui de d'Alembert.
    4. En déduire que la série $\sum \frac{t^n}{n!}$ converge absolument et uniformément sur tout segment.
    5. Si une suite de fonctions dérivables converge uniformément, ainsi que la suite de ses dérivées, alors la limite est dérivable et sa dérivée est la limite des dérivées (ce qui demande une certaine aisance avec les $\varepsilon$ et le théorème des accroissements finis).
    6. Appliquer (5) aux sommes partielles de la série exponentielle.
    Selon moi, si on met de côté les lemmes techniques, c'est la construction la plus naturelle de l'exponentielle, surtout quand on pense comme Euler (pour qui une fonction était toujours une série de Taylor). La construction $e^t = \lim_{n\to\infty} (1+\frac{t}{n})^n$ repose sur la méthode d'Euler explicite. Même si elle demande peu de prérequis techniques, elle donne lieu à une preuve un peu délicate à mon goût (car on doit montrer à la main que ça converge et que la limite est dérivable etc, alors que dans l'autre preuve les arguments sont « théoriques » et on s'évite ainsi de plonger nos mains dans le cambouis).

    Ceci-dit, du moment qu'on a des définitions convenables de l'exponentielle et du logarithme, la limite $e^t = \lim_{n\to\infty} (1+\frac{t}{n})^n$ est très facile à obtenir (à moins que ce soit déjà la définition de l'exponentielle).
  • Oui Raoul, mais je pense qu’il souligne justement que « savoir faire des calculs » ne suffit pas quand on veut faire des mathématiques. 
    C’est un peu comme l’expression caricaturale (légitime ou pas) « à la physicienne » qui signifie que l’on se permet tout formellement (échange limite/intégrale, échange somme/intégrale, changement de variable à la louche, dérivée toujours intégrable, etc.). 
    Tous les arguments sont là, oui, mais il y a des carences énormes. Un peu comme quand on divise par zéro. Le pire dans tout ça c’est quand le résultat (mal) démontré est vrai. L’auteur saute sur l’occasion « oui mais j’ai la bonne réponse ». 
    Exemple avec l’intégrale de Gauss où, « à la physicienne », on prend le carré, on passe en polaire, on mélange les intégrales, et hop, sans rien justifier, sans évoquer ni des définitions ni un théorème. 
    Je ne jette pas la pierre à OShine, il m’est arrivé et ça m’arrivera encore d’oublier des arguments. 

  • Avec un bon bagage, je pense que la meilleure définition est celle de l'équa diff. Non seulement cette définition montre réellement la nature de l'exponentielle (la fonction qui varie autant que sa valeur actuelle), mais elle permet de sentir intuitivement les généralisations sur les algèbres de Lie par exemple.
  • Techniquement, la "meilleure" version serait peut-être un théorème-définition qui dit "les conditions suivantes sont toutes équivalentes" + unicité de la fonction qui les vérifie, cette fonction est notée $\exp$. Mais pour faire 14 chapitres dans un bouquin d'analyse pour avoir "tout ce qu'il faut" pour ça, sans jamais pouvoir mettre d'exos sur la fonction exponentielle avant, personne ne fera ça  :D
  • Modifié (January 2023)
    NB: le fait que la série entière $s_n(x):= \exp x - \left ( 1+\frac x n \right )^n$ est pour tout entier $n$ à coefficients tous positifs a pour conséquence non négligeable que la fonction correspondante converge uniformément vers $0$ sur toute partie bornée de n'importe quelle algèbre de Banach (*).
    D'autre part pour les groupes/algèbres de Lie matriciels, $\exp$ est le "vrai $\exp$" (i.e. la série).

    Un exemple d'application: soit $d\in \N$ et $G$ un sous-groupe fermé de $GL_d(\R)$. Soit $v\in M_d(\R)$. Un théorème dû à Von Neumann dit qu'Il y a équivalence entre
    1°) pour tout $t\in \R$, $\exp(tv)\in G$
    2°) Il existe un voisinage $I$ de $0$ dans $\R$ une application $\gamma:I\to G$ de classe $\mathcal C^1$ telle que $\gamma'(0)=v$
    3°) Il existe $a>0$ et une fonction $\gamma: [0,a[ \to G$ dérivable à droite en $0$, telle que $\gamma'_d(0)=v$
    4°) il existe une suite $(x_n)_{n\in \N}$ d'éléments de $G$ telle que $x_n \underset{n\to +\infty} {\longrightarrow } I_d$ et $n(x_n - I_d) \to v$

    Preuve: 3°) => 4°) poser $x_n:= \gamma \left ( \frac 1 n\right)$ pour tout $n$ assez grand. A part ça, seul 4°) => 1°) est non trivial. Soit $t\in \R$. On pose pour tout $n\in \N$, $\varphi_n:=nt - \lfloor nt \rfloor$. On pose $\varepsilon_n:= n(x_n - I_d) - v$. Alors (tous calculs faits) $$x_n = \left (I_d + \frac {v+ \varepsilon_n + \varphi_n (x_n - I_d) }{\lfloor nt \rfloor} \right )$$ et comme $\varepsilon_n$ et $\varphi_n (x_n - I_d)$ tendent tous deux vers $0$ quand $n\to +\infty$, par le résultat (*),la limite quand $n$ tend vers l'infini de $x_n^{\lfloor nt \rfloor}$ est $\exp(tv)$ qui appartient alors à l'adhérence de $G$ i.e. $G$ lui-même.

    Soit $\frak g$ l'ensemble des $v$ satisfaisant l'un des énoncés 1°) à 4°) ci-dessus. Alors à l'aide de la version 2°), on montre que $\mathfrak g$ est un sous-espace vectoriel de $M_d(\R)$ et à l'aide de 3°), qu'il est stable par crochet $x,y \mapsto xy-yx$: en effet, soient $\mu,\nu$ dérivables à droite en $0$ telles que $\mu'(0)=x$ et $\nu'(0)=y$; alors $t\mapsto \mu(\sqrt t) \nu(\sqrt t) \mu^{-1} (\sqrt t) \nu^{-1} (\sqrt t)$ possède un développement limité à l'ordre 1 dont le terme linéaire est en $t \mapsto t (xy-yx)$ (calculs). Cela fait également le lien entre crochet de lie et commutateurs des groupes (les fonctions $a,b \mapsto aba^{-1}b^{ -1}$).
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • @Bibix : Il faut néanmoins démontrer l'existence d'une fonction $f$ tel que $f'=f$ et $f(0)=1$. Pour démontrer l'existence, on construit la fonction $f$ qui convient ... et en général c'est soit par la série, soit par la limite $\lim_{n\to +\infty} (1+x/n)^n.$
  • Modifié (January 2023)
    Ou alors on applique Cauchy-Lipschitz.
  • Modifié (January 2023)
    Cauchy linéaire pour l'équation $y'=y$ et $y(0)=1$ se démontre classiquement à partir de la suite de fonctions définie par $f_0(x)=1$ et $f_{n+1}(x)=1+\int_0^x f_n(t)dt$, soit $f_n(x)=1+t+t^2/2+....+t^n/n!$, ce qui revient à la définition par la somme de la série entière.
    Edit : il y a j'imagine une autre preuve plus autonome par le théorème de point fixe.
  • Modifié (January 2023)
    @JLapin: une fois la convergence uniforme de $f_n$ sur tout segment démontrée, l'égalité pour tout $x$ $f_{n+1}(x) = 1+\int_0^x f_n$ entraîne par passage à la limite pour tout $x$ $\exp (x) = 1+\int_0^x \exp$ (les échanges intégrale/limite uniforme de fonctions sur le segment d'intégration sont gratuits, de plus pour tous entiers $n,p$ et tous $R,x$ réels avec $x\in [-R,R]$, la positivité des coefficients des polynômes envisagés entraîne que $|f_{n+p} (x) - f_n(x)|\leq f_{n+p} (|x|) - f_n(|x|) \leq f_{n+p} (|R|) - f_n(|R|)$. Rappelons que pour tout réel $t>0$ les suites $n\mapsto f_n(t)$ et $\frac{t!}{n} + f_n(t)$ sont respectivement croissante et décroissante à partir de $n\geq 2t-1$ et de différence tendant vers $0$ et que que donc elles possèdent une limite commune. Le critère de Cauchy pour la convergence uniforme sur des segments quelconques peut donc s'appliquer à $n\mapsto f_n$).
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • En fait la preuve classique de Cauchy-Lipschitz est une généralisation de ce qui se passe pour exp.
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Ça se faisait par la méthode d'Euler en Terminale dans les années 2000.
    Aujourd'hui, c'est plutôt dans les rayons de la bibliothèque de l'ENS.
  • Si on utilise Cauchy, on utilise le calcul intégral (qu'on suppose donc vu en amont du chapitre sur exp/log.)
    Mais quitte à avoir déjà vu le calcul intégral autant alors définir $\ln$ d'abord via une intégrale de la fonction $1/x$ puis inverser. 
  • Modifié (January 2023)
    Pas nécessairement, cf. le CAPES 2004 ci-dessus.
    NB : j'ai compris "Cauchy" comme "l'inégalité de Cauchy" mais peut-être que tu voulais parler du théorème de Cauchy pour les ED linéaire.
  • Modifié (January 2023)
    @gai requin j'ai passé mon bac en 2009. J'ai survécu à ça parce que j'étais assez doué en maths/physique, mais la présentation se passait un peu comme ça : méthode d'Euler en guise d'intro, définition par l'équa diff "vous inquiétez pas on verra les équa diff plus tard", et après on a vu les équa diff, l'exponentielle ET le logarithme en physique-chimie (parce qu'on en avait besoin) AVANT de les faire en cours de maths :D 
    @Cyrano a l'air de penser un peu comme moi sur ce coup-là. Moi j'aime bien l'idée de faire remarquer que chaque fonction "monôme" a une primitive (monôme elle aussi, mais qu'importe) sauf $x \longmapsto 1/x$, donc on la définit par $\displaystyle x \longmapsto \int_a^x \dfrac{1}{t}\text{d}t$ grâce au nouvel outil "théorème fondamental de l'analyse", il reste à "motiver" le choix $a=1$ comme étant privilégié (ça apparait dans les calculs) pour avoir le logarithme naturel. Je dirais que le seul point qui touche à quelque chose de vraiment hors programme au lycée, c'est le concept de bijection réciproque. Techniquement, on voit déjà des bijections réciproques (les fonctions "arc" en trigo, même si c'est juste une touche sur une calculatrice, et la racine carrée), mais on n'explicite pas le concept de bijection/bijection réciproque.
    D'ailleurs, pour déborder un peu du sujet, l'apprentissage des racines carrées est extrêmement laborieux pour certains élèves parce que cette idée de "réfléchir à l'envers de d'habitude" est souvent peu maîtrisée. Mettre un nombre au carré, ça c'est un calcul, comprendre "chercher le nombre dont le carré vaut...", ça c'est une équation. Et les équations, c'est difficile à l'âge où on apprend les racines carrées.
Connectez-vous ou Inscrivez-vous pour répondre.
Success message!