variance tend vers 0

Bonjours,
j'ai vraiment besoin d'aide.
Voila cela fait des heures et des heures,que je réfléchis à un probléme.
Je commence à en avoir mal à la tête et les joues toutes rouges :-( .
Voici le probleme.
Quand on étudie la variance de la moyenne de variable aléatoire suivant la loi normal par exemple Xi, on obtient une variance egale a la variance des Xi diviser par la taille de l'echantillon.
C'est à dire que quand n tend vers l'infini la variance de la moyenne des resultats xi tend vers 0.
On s'approche de la valeur moyenne reel de la variable au fur est a mesure que l'on a de plus en plus d'echantillon obtenu.
Voila ça je sais le trouver analytiquement, je comprend les formules qui me permettent d'obtenir cela mais je ne vois pas logiquement pourquoi on obtient cela.
je m'explique, je ne vois pas pourquoi à force de tirer des variables qui ont une variance ( donc d écart a la moyenne au carré) quelqu'on on arrive a diminuer la variance de leur moyenne.
part exemple je prend les Xi de moyenne 2.
1ere xi réalisé j'ai une erreur de 2
2eme xi réalisé j'ai une erreur de 2
ect
ect
je somme les erreurs cela donne bien 2N car les variables sont INDEPENDANTES
jusqu'à là je comprend le raisonnement.
Ensuite c'est là que ca bloque.
cela nous donne un résultat qui à comme erreur à la moyenne 2N.
Le but etant de trouver l'écart à la moyenne de la moyenne des xi et non de sa somme il faut diviser.
Et la analytiquement on divise par n² et ce résultat vient du fait que multiplier une variable aléatoire c'est comme sommer un nombre de fois adéquat mais sauf que là les variables sont dépendentes,je pense que c'est là que je ne visualise plu.
J'arrive vraiment pas à visualiser pourquoi en fesant à chaque fois le meme ecart à la moyenne, celui de la moyenne des résultats diminue et en plus assez fortement.
je prend 1 xi, il a un ecart a la moyenne au carré de 2
je prend 2 xi, j'additionne je divise par 2, et là la variance n'est plus que de 1
Je comprends vraiment pas je suis perdu.
Merci d'avance ,j'ai ecrit bcp mais c'est tellement confu dans ma tête....

Réponses

  • Bonjour,

    Imagine qu'on te donne une pièce, et on te demande si elle est à peu près équilibrée. Tu la lances cinq fois, bof, ça te donne pas trop d'informations. Mais si tu la lances 200 fois, tu peux regarder la moyenne (en attribuant 0/1 à pile/face) et là tu peux conclure avec confiance parce que tu as un peu "neutralisé" le côté aléatoire de l'expérience.

    C'est parce que l'écart entre la moyenne que tu auras obtenu et l'espérance d'un lancer sera faible.

    Pour conclure, je crois que tu oublies que la variance, c'est la moyenne de l'écart à la moyenne, et pas seulement l'écart à la moyenne.
  • oui ,mais dans cette exemple la moyenne est de 1/2.
    Et la variance est de 1/4 ?
    Cela signifie quoi?
    Que quand on lance le 1er dés on aurra comme écart a peu pres racine 1/4 comparé a la moyenne.
    mais pourquoi alors à ce moment on conserve pas l'erreur vu qu'ils aurront tous cette erreur, cela devrait nous faire à la fin encore une erreur de 1/4
    Disons que le 1er qu'on tire à une variance de 1/4 le 2eme 1.2/4 le troisieme 0.8/4
    cela reste au alentour de 1/4, chaque résultat est éloigné de la valeur moyenne.
    pourquoi en additionnant les résultats et divisant par le nombre de résultats cela diminueraient?
  • Euh ben parce que les erreurs ont tendance à se compenser et pas à s'additionner. <<dans l'exemple du pile ou face, on s'attend à ce qu'il y ait grosso modo autant de piles que de faces au bout d'un grand nombre de lancers, puisqu'il est peu probable qu'on ait seulement des piles, justement à cause de l'indépendance...
  • donc le fait que les erreurs se compensent est matérialisé analytiquement par le fait que lorsqu'on passe le 1/n à l'exterieur de la variance il se transforme en 1/n².
    si on devait additioner n fois la moyenne obtenue, ces variables seraient dépendantes les unes des autres et c'est pourquoi on passe le scalaire au carré(le 1/n) ?
  • Salut Bobby.

    Non, tu mélanges un peu tout.
    Le fait que la variance est multipliée par 4 quand on multiplie les valeurs par 2 est seulement le fait qu'on fait une moyenne de carrés. C'est un problème de calcul, pas de signification. Si tu passes à l'écart-type, tu retrouve une quasi proportionalité (quasi à cause du signe).
    Ce qui te fais te tromper, c'est que tu parles de variance alors qu'il y a plusieurs variances :
    La variance de l'épreuve de base, qui ne varie pas (dans ton exemple 1/4).
    La variance de la moyenne des épreuve, qui n'a de dens que quand on arrète la série, qu'on étudie la variation de la moyenne.

    L'idée qui est concrétisée, c'est qu'avec une série d'essais, on obtient "en moyenne à peu près la moyenne" (La moyenne de la série est une variable aléatoire d'espérance mathématique la moyenne de l'épreuve), et ce "d'autant plus précisément que la série est longue" (la moyenne de la série est une variable aléatoire dont la variance tend vers 0 si n tend vers l'infini).

    Un conseil : Relis les formules de calcul de moyenne, variance. Ton prmier message est très inquiètant sur ce que tu as compris de ces notions (En particulier "j'ai une erreur de 2" qui n'a rien à voir avec ce que tu dis avant (2 était la moyenne. Une "erreur" est incompréhensible). et tu additionne les erreurs, ce qui n'a rien à voir avec la moyenne.

    de même "Cela signifie quoi?
    Que quand on lance le 1er dés on aurra comme écart a peu pres racine 1/4 comparé a la moyenne." est sans rapport avec la variance du dé (??), de la pièce. En effet, la moyenne est 1/2, mais dans ce cas, à chaque fois, on fait exactement un écart de 1/2. Prends un dé, la moyenne est 3,5, mais l'écart est soit de 2,5 (1 et 6) soit de 1,5 (2 et 5) soit de 0,5 (3 et 4), mais jamais égal à la variance. La variance n'est pas une erreur, ni même un écart.

    Cordialement
  • Ah oui je constate que ma définition de l'écart type etait fausse.
    Pour moi c'etait logiquement l'erreur moyen pour chaque résultat entre le fait que le resutat aurait du être la moyenne et le vrai résultat obtenu.
    Mais ce n'est pas le cas, c'est donc juste un indicateur des écarts sans sens trivial.
    Maintenant c'est déjà plus clair, je me disais aussi que je devais avoir des erreurs dés le début pour que cela soit si ambigue dans ma tête.
    Merci.
  • Effectivement Bobby,

    La variance est un indicateur ultra-pratique, mais sans signification directe. par contre l'ensemble de ses usages finit par lui donner un sens, celui que partagent les probabilistes et les statisticiens.

    Cordialement
Connectez-vous ou Inscrivez-vous pour répondre.