Indépendance d'événements et de leurs complémentaires — Les-mathematiques.net The most powerful custom community solution in the world

Indépendance d'événements et de leurs complémentaires

Bonjour,
j'essaie de prouver le résultat suivant mais plusieurs choses ne sont pas claires pour moi :
étant donné un espace probabilisé $(\Omega, \mathscr{A}, P)$, si des événements $A_1,...,A_k$ sont indépendants dans leur ensemble ($ k \in \mathbb{N}^*$) alors $\overline{A_1},...,\overline{A_k}$ sont indépendants dans leur ensemble.
Dans le bouquin d'agrégation interne que j'étudie, l'auteur écrit (sans détails supplémentaires) que la preuve de ce fait découle de la proposition suivante :
soient $A$ et $B$ deux événements. $A$ et $B$ sont indépendants si et seulement si $\overline{A}$ et $B$ sont indépendants.
La preuve de cette proposition est claire, je l'ai bien comprise mais je ne vois pas de lien direct entre cette proposition et ce que je veux démontrer. J'ai essayé de rédiger une récurrence sur $k$ et de passer par des complémentaires mais je me perds...
J'ai aussi essayé d'écrire : $P \left (\bigcap\limits_{i=1}^k \overline{A_i} \right)=1-P \left(\bigcup\limits_{i=1}^k A_i \right)$ mais que faire ensuite?
Mots clés:

Réponses

  • En fait, la bonne propriété à utiliser est : "Si les événements $(A_i)_{i\in I}$ sont mutuellement indépendants et $i_0\in I$ alors les événements $(B_i)_{i\in I}$ tels que $\forall i\in I\setminus \{i_0\}, B_i=A_i$ et $B_{i_0}=\overline{A_{i_0}}$ sont eux aussi indépendants."


  • Je te remercie Bisam, je pense avoir une preuve de ta proposition :
    $P \left (\bigcap\limits_{i \in I} B_i \right)=P \left( (\bigcap\limits_{i \in I \setminus \{i_0\}} B_i) \cap B_{i_0} \right)=P_{(\bigcap\limits_{i \in I \setminus \{i_0\}} B_i)}(B_{i_0}) \times P \left ( \bigcap\limits_{i \in I \setminus \{i_0 \}} B_i \right)=P_{(\bigcap\limits_{i \in I \setminus \{i_0\}}A_i)} ( \overline{A_{i_0} } ) \times P \left ( \bigcap\limits_{i \in I \setminus \{i_0 \}} A_i \right)$
    $P \left (\bigcap\limits_{i \in I} B_i \right)= \left(1-P_{(\bigcap\limits_{i \in I \setminus \{i_0\}}A_i)} ( A_{i_0} ) \right) \times \prod\limits_{i \in I \setminus \{i_0 \}}  P(A_i)$ car les $(A_i)_{i \in I \setminus \{i_0\}}$ sont mutuellement indépendants.
    On obtient alors (par indépendance mutuelle des $(A_i)_{i \in I})$ : $P \left (\bigcap\limits_{i \in I} B_i \right)=(1-P(A_{i_0}) )  \times \prod\limits_{i \in I \setminus \{i_0 \}}  P(A_i)$ soit finalement : $P \left (\bigcap\limits_{i \in I} B_i \right)=P(\overline{A_{i_0}}) \times \prod\limits_{i \in I \setminus \{i_0 \}}  P(A_i)=P(B_{i_0}) \times \prod\limits_{i \in I \setminus \{i_0 \}}  P(B_i)=\prod\limits_{i \in I}  P(B_i)$ donc les $(B_i)_{ i \in I}$ sont mutuellement indépendants .
    Le problème maintenant est que j'ai du mal à voir comment l'application de cette proposition me permet de prouver ce que je veux dans mon message initial. C'est sans doute facile mais là, je ne vois pas ! :s:'(:#
  • Récurrence ...
  • NicoLeProf a dit :
    C'est sans doute facile mais là, je ne vois pas ! :s:'(:#
    Tu as prouvé la propriété suivante: si $A_1,A_2,...,A_n$ sont mutuellement indépendants alors $\overline{A_1},A_2,...,A_n$ aussi. Mais dans le cas où $A_1,A_2,...,A_n$ sont mutuellement indépendants on peut appliquer à nouveau cette propriété à $A_2,\overline{A_1},...,A_n$ (qui sont indépendants) pour en déduire que $\overline{A_2},\overline{A_1},,...,A_n$ sont mutuellement indépendants et donc on peut appliquer la propriété à etc. ---------> récurrence comme déjà dit.
  • En fait, je reformule mon "problème" : je vois le lien avec la proposition de Bisam, intuitivement oui je vois et je comprends ce qu'il se passe mais je ne parviens pas à écrire une démonstration rigoureuse. Bien sûr qu'il y a une récurrence cachée là-dessous mais mon problème est davantage un problème de rédaction propre de cette récurrence...
  • Tu peux faire une récurrence qui porte sur le nombre de passages au complémentaire.
    S'il n'y a qu'un passage au complémentaire, c'est le lemme.
    Ensuite, il te reste l'hérédité à démontrer à l'aide du lemme et de l'hypothèse de récurrence.
  • Ca veut dire quoi "indépendants dans leur ensemble"? Jamais entendu ce terme.
  • On considère des événements $A_1,...,A_k$ mutuellement indépendants. ($k \in \mathbb{N}^*$) .
    On note pour tout $i \in \{1,...,k\}$, $P(i)$ la propriété : "$\overline{A_1},...,\overline{A_i},A_{i+1},...,A_k$ sont mutuellement indépendants".
    Initialisation : pour $i=1$, c'est le lemme en effet.
    Hérédité : supposons qu'il existe un entier $i \in \{1,...,k-1\}$ pour lequel $P(i)$ est vraie. Montrons que $P(i+1)$ est vraie.
    Par hypothèse de récurrence, les événements $\overline{A_1},...,\overline{A_i},A_{i+1},...,A_k$ sont mutuellement indépendants. Donc en appliquant le lemme pour $i_0=i+1$, on conclut que les événements $\overline{A_1},...,\overline{A_i},\overline{A_{i+1}},...,A_k$ sont mutuellement indépendants donc que $P(i+1)$ est vraie.
    Conclusion : $P(i)$ est vraie pour tout $i \in \{1,...,k\}$ . Donc en particulier pour $i=k$ .
    Merci beaucoup JLapin comme toujours pour ton aide précieuse ! :) Je crois que j'ai compris comment rédiger cette récurrence maintenant ! ^^'
  • Modifié (April 2023)
    @Héhéhé
    Ca doit être pour insister sur l'indépendance mutuelle (versus l'indépendance deux à deux).
  • J'ai trouvé ce document, parce que moi aussi j'ai voulu vérifier la définition : http://mathsv.univ-lyon1.fr/app/cours/?theme=proba&chap=2
    Tu me dis, j'oublie. Tu m'enseignes, je me souviens. Tu m'impliques, j'apprends. Benjamin Franklin
  • Voici la définition du Kieffer :
    Soit $n \in \mathbb{N}^*$. Soient $A_1,...,A_n$ $n$ événements. On dit que :
    1. $A_1,...,A_n$ sont mutuellement indépendants si, pour tout $I \subset \llbracket  1;n \rrbracket $ tel que $ I \neq \varnothing$, $P(\bigcap\limits_{i \in I} A_i)=\prod\limits_{i \in I} P(A_i)$ .
    2. $A_1,...,A_n$ sont indépendants dans leur ensemble si $P(\bigcap\limits_{i=1}^n A_i)=\prod\limits_{i =1}^n P(A_i)$ .
    L'indépendance mutuelle est donc bien plus forte que l'indépendance dans leur ensemble je dirais car elle exige d'avoir l'indépendance des événements pour toute partie non vide de $\llbracket  1;n \rrbracket $ .
  • Modifié (April 2023)
    Quel est l'intérêt de la notion d'indépendance dans leur ensemble ?
  • Independance deux â  deux + independance dans leur ensemble = independance mutuelle ?
    Le 😄 Farceur


  • NicoLeProf, je doute de ta référence, je viens de consulter Appel - Probabilités pour les non-probabilistes, Foata et Fuchs - Calcul des probabilités et Ouvrard - Probabilités 1 et ils disent tous que "indépendantes dans leur ensemble" est équivalent à l'indépendance mutuelle.
  • Modifié (April 2023)
    Bonjour, j'ai trouvé dans Escoffier "Probabilités et statistiques pour le CAPES externe et l’Agrégation interne de Mathématiques" , la même définition que @NicoLeProf a cité avec le 1. et 2. (je n'ai jamais croisé le terme indépendant dans leurs ensemble avant). 
    Bon maintenant est ce que le 1. et le 2. de NicoLeProf sont équivalents ? Est ce que l'énoncé de l'exercice est juste ? Si on n'a pas équivalence et si l'énoncé est juste il faut recommencer la démonstration car toutes les indications et la démonstration finale partent de l'hypothèse $A_1,...,A_n$ mutuellement indépendants, or l'exercice part de l'hypothèse indépendant dans leur ensemble.
  • Avec la définition 2 de l'indépendance dans leur ensemble l'exo est faux.

    Contre-exemple : $\Omega:=\{0,1,2\}$ et $p_0:=0,p_1:=1/2, p_2:=1/2$ où je note $p_i$ au lieu de $P(\{i\})$. Alors on vérifie facilement que les événements $A_i:=\{i\}$ pour $i=0..2$ sont indépendants dans leur ensemble (selon la définition, foireuse ?) mais pas les $\overline{A_i}$.
  • Modifié (April 2023)
    Barjoville, Il n'y a pas d'équivalence. La première proposition implique la seconde, mais la seconde ne permet pas de conclure à la première. Par exemple, soit A et C deux événements tels que P(A)=1/2 et P(C)=0, et soit B=A^c. Les événements A, B et C vérifient la deuxième proposition mais pas la première.
    Le 😄 Farceur


  • Modifié (April 2023)
    Ok, tout est réglé, avec presque le même contre exemple pour les deux questions :) . Merci à vous deux. 
    Correction de l'énoncé : remplacer tous les "Indépendants dans leur ensemble" (ou au moins le premier mais qui peut le plus peut le moins) par "mutuellement indépendants". (Si on utilise la définition du Kieffer ou de l'Escoffier)
  • Modifié (April 2023)
    NicoLeProf a dit :
    Voici la définition du Kieffer : 
    2. $A_1,...,A_n$ sont indépendants dans leur ensemble si $P(\bigcap\limits_{i=1}^n A_i)=\prod\limits_{i =1}^n P(A_i)$ . 
    Personnellement, je n'ai jamais entendu parler de cette définition intermédiaire qui me semble un peu douteuse, voire oubliable.
  • lourrran a dit :
    J'ai trouvé ce document, parce que moi aussi j'ai voulu vérifier la définition : http://mathsv.univ-lyon1.fr/app/cours/?theme=proba&chap=2
    Ce document n'est pas recommandable, la définition d'indépendance mutuelle (3.3.3) n'est pas la bonne.
  • Modifié (April 2023)
    Ce qui suit est valable dans n'importe quelle formalisation courante des probabilités (par exemple les événements sont les éléments d'une algèbre de Boole $B$ et $\mathbb P: B \to \{0,1\}$ et une fonction telle que $\mathbb P(\mathbf 1_B) = 1$, $\mathbb P (\mathbf 0_B) = 0$ et $\mathbb P (x)+\mathbb P (y) = \mathbb P (x \vee y) + \mathbb P (x \wedge y)$ pour tous $x,y\in B$).
    1°) On dit que les éléments d'une famille d'événements $(A_i)_{i\in I}$ sont indépendants si pour toute partie finie $F$ de $I$, $\mathbb P (\bigcap_{i\in F} A_i) = \prod_{i\in F} \mathbb P(A_i)$.
    2°) Ci-dessous pour tout événement $A$, on notera $e(0,A):= A$ et $e(1,A):= A^c$ (l'événement contraire de $A$).
    3°) Soit $n\in \N$ un entier et $A_1,...,A_n$ des événements. Alors ces événements sont indépendants si et seulement si pour tout $v \in \{0,1\}^n$, $\mathbb P \left (\bigcap_{i=1}^n e(v_i, A_i) \right ) = \prod_{i=1}^n \mathbb P \left (e (v_i, A_i) \right )$ (pour le sens direct, faire une récurrence sur $n$ en pensant aux probabilités conditionnelles; l'autre sens est trivial).
    Une fonction est un ensemble $f$ de couples tel que pour tous $x,y,z$, si $(x,y)\in f$ et $(x,z)\in f$ alors $y = z$.
  • Modifié (April 2023)
    Ok merci pour vos réponses éclairantes !!!
    Pour résumer :
    gebrane a dit :
    Independance deux â  deux + independance dans leur ensemble = independance mutuelle ?
    Malheureusement non, l'indépendance mutuelle est plus exigeante que ça : il faut que l'indépendance des événements soit vérifiée pour toute partie non vide de $\llbracket 1 ; n \rrbracket$ .
    JLapin a dit :
    Personnellement, je n'ai jamais entendu parler de cette définition intermédiaire qui me semble un peu douteuse, voire oubliable.
    Oui, je vais oublier cette définition, à la base, je pensais en avoir besoin pour mon développement (probas et arithmétique pour trouver une formule pour l'indicatrice d'Euler) mais en checkant le livre d'Escoffier, il prouve bien que les événements en question sont mutuellement indépendants.
    Pour le prouver, il s'agit bien de prendre une partie quelconque, non vide, de $\llbracket 1 ; n \rrbracket$ notée $\{i_1,...,i_j\}$ et prouver que $P(\bigcap\limits_{k=1}^j A_{i_{k}})=\prod\limits_{k=1}^j P(A_{i_{k}})$ ?
    Héhéhé a dit :
    Ce document n'est pas recommandable, la définition d'indépendance mutuelle (3.3.3) n'est pas la bonne.
    Oui, l'indépendance mutuelle parle d'indépendance sur toute partie non vide, c'est bien plus exigeant et délicat que la définition donnée dans ce document.
    Barjovrille a dit :
    Bonjour, j'ai trouvé dans Escoffier "Probabilités et statistiques pour le CAPES externe et l’Agrégation interne de Mathématiques" , la même définition que @NicoLeProf a cité avec le 1. et 2.
    Dans le livre d'Escoffier, je ne trouve pas de définition d'événements indépendants dans leur ensemble. Et c'est tant mieux d'ailleurs, je vais faire comme a suggéré JLapin : oublier cette déf.
    De toute façon, je me suis entraîné ce matin : je mets 20 minutes à présenter le plan de la leçon d'agrégation interne en question, c'est 5 minutes de trop !!! Il faut donc enlever des choses ! Suite à cet entraînement ce matin, j'ai besoin de conseils sur la présentation de mon plan à l'oral 1 de l'interne (j'ai mis un message ici : https://les-mathematiques.net/vanilla/index.php?p=/discussion/2333673/question-sur-loral-2-de-lagregation-interne#latest )
    Merci beaucoup pour votre aide !!! :)
  • Modifié (April 2023)
    @NicoLeProf
    Si le jury te pose cette question (utilisée en calcul de fiabilité)
    Soient des événements mutuellement indépendants $(A_i)$ pour $i=1,\dots,n$. On considère les deux réseaux $R_1=\bigcup_{i=1}^{n-1} A_i$ et $R_2=A_n$. Est-ce que les réseaux $R_1$ et $R_2$ sont indépendants ?
    $R_1$ est un montage en parallèle des $n-1$ composants $A_i$ qu'on met en série avec le réseau $R_2$ formé du seul composant $A_n$.
    Je crois que @gerard0 connait ce genre d'applications en DUT
    Le 😄 Farceur


  • Modifié (April 2023)
    gebrane a dit :
    Les événements $A_1,...,A_n$ sont mutuellement indépendants donc d'après le lemme de Bisam (voir plus haut) appliqué $n-1$ fois, $\overline{R_1}=\bigcap\limits_{i=1}^{n-1} \overline{A_i}$ et $R_2$ sont mutuellement indépendants. Ce qui équivaut à dire que $R_1$ et $R_2$ le sont.
    A moins que je n'aie commis une erreur de raisonnement sans m'en rendre compte, je dirais donc que oui, $R_1$ et $R_2$ sont indépendants (sans comprendre forcément cette histoire de montage de composants : trop "physique" pour moi ^^' :D ) .
  • Le lemme de bisam ne dit pas cela
    Le 😄 Farceur


  • Modifié (April 2023)
    Ouh là non pas du tout lol , désolé, je suis allé trop vite !!! :#:o
  • Modifié (April 2023)
    Vérifie l'indépendance par retour à la définition (et au résultat de ton post initial). Il n'y a pas grand chose à modifier à ton message précédent.
  • Modifié (April 2023)
    En fait, ce n'est pas ce que je voulais écrire. Je reformule les choses correctement : le lemme de Bisam nous dit que $\overline{A_1}, \dots,\overline{A_{n-1}},A_n$ sont mutuellement indépendants car $A_1,\dots,A_n$ sont mutuellement indépendants.
    Donc $P(\bigcap\limits_{i=1}^{n-1} \overline{A_i} \cap A_n)=\prod\limits_{i=1}^{n-1} P(\overline{A_i}) \times P(A_n)$ .
    Toujours par indépendance mutuelle des événements $\overline{A_1}, \dots,\overline{A_{n-1}},A_n$, on a : $P(\overline{R_1})=\prod\limits_{i=1}^{n-1} P(\overline{A_i})$.
    De plus, $P(\bigcap\limits_{i=1}^{n-1} \overline{A_i} \cap A_n)=P((\bigcap\limits_{i=1}^{n-1} \overline{A_i}) \cap (A_n))=P(\overline{R_1} \cap R_2)$.
    Donc finalement, on obtient : $P(\overline{R_1} \cap R_2)=P(\overline{R_1}) \times P(R_2)$ donc les événements $\overline{R_1}$ et $R_2$ sont indépendants d'où l'indépendance de $R_1$ et $R_2$.
  • Bravo, tu es devenu un expert en calcul des fiabilités . Certains prof de physiques utilisent des arguments mathématiques sans comprendre pourquoi :D
    Le 😄 Farceur


  • Modifié (April 2023)
    Voici la définition du Kieffer :
    Soit $n \in \mathbb{N}^*$. Soient $A_1,...,A_n$ $n$ événements. On dit que :
    1. $A_1,...,A_n$ sont mutuellement indépendants si, pour tout $I \subset \llbracket  1;n \rrbracket $ tel que $ I \neq \varnothing$, $P(\bigcap\limits_{i \in I} A_i)=\prod\limits_{i \in I} P(A_i)$ .
    2. $A_1,...,A_n$ sont indépendants dans leur ensemble si $P(\bigcap\limits_{i=1}^n A_i)=\prod\limits_{i =1}^n P(A_i)$ .
    L'indépendance mutuelle est donc bien plus forte que l'indépendance dans leur ensemble je dirais car elle exige d'avoir l'indépendance des événements pour toute partie non vide de $\llbracket  1;n \rrbracket $ .
    Bonjour NicoleProf
    Je pense qu,il faut mieux voir la définition de l'indépendance de ses événements comme l'indépendance de tribus qu'ils engendrent.
  • Généralisation plus corsée  >:)

    Soit $(\Omega, \mathscr{A}, P)$ un espace probabilisé. Soit $n>0$ un entier et $\mathcal{C}_1,...,\mathcal{C_n}$ des ensembles de parties de $\mathscr{A}$ (donc $\mathcal{C}_i\subset \mathscr{A}$ pour tout $i=1,...,n$). On dit que $\mathcal{C}_1,...,\mathcal{C_n}$ sont indépendantes si $\forall (C_1,...,C_n) \in \mathcal{C}_1\times...\times \mathcal{C_n}$, $P\left(\bigcap_1^n C_i\right)=\prod_1^n P(C_i)$.

    Soient $\mathcal{C}_1,...,\mathcal{C_n}$ indépendantes.  Montrer que si les $\mathcal{C_i}$ sont stables par intersections finies (c'est-à-dire : $\forall A,B\in \mathcal{C_i}, A\cap B\in \mathcal{C_i}$) et si $\forall i\in [\![1,n]\!], \Omega\in \mathcal{C_i}$, alors $\sigma(\mathcal{C}_1),...,\sigma(\mathcal{C_n})$ sont indépendantes.

    Application (on retrouve le résultat du fil) : soient $A_1,...,A_n$ des événements, on pose $\mathcal{C_i}:=\{A_i,\Omega\}$. Dire que les $A_1,...,A_n$ sont mutuellement indépendants signifie que $\mathcal{C}_1,...,\mathcal{C_n}$ sont indépendantes. Par conséquent, $\sigma(\mathcal{C}_1),...,\sigma(\mathcal{C_n})$ sont indépendantes et donc $\overline{A_1},...,\overline{A_n}$ sont mutuellement indépendants.
  • Modifié (April 2023)
    Bonjour,  @raoul-s
    Il y a un truc que je ne sais pas démontrer car je n'arrive pas à formaliser une preuve. C'est un résultat utilisé en fiabilité mais je n'ai jamais vu de preuve. La propriété dit que si les composants $C_i$ sont mutuellement indépendants, alors les réseaux sont aussi mutuellement  indépendants. Par définition, un réseau est constitué d'un certain nombre de composants $C_i$ que l'on met en parallèle et/ou en série, c'est-à-dire mathématiquement un réseau est constitué de $\cap$ et/ou $\cup$ d'un certain nombre des  $C_i$.
    Exemple de réseaux : $C_1\cap (C_2\cup C_3)$;   $(\cup_i C_i) \cup( \cap_j C_j)$.
    Je ne sais pas si tu as compris la question.
    Le 😄 Farceur


  • Modifié (April 2023)
    Tu pourrais introduire des variables aléatoires indicatrices des événements $C_i$, fabriquer les indicatrices des réunions/intersections qui t'intéressent et utiliser un théorème d'indépendance par paquets.
  • Modifié (April 2023)
    Justement
    JLapin a dit :
     fabriquer les indicatrices des réunions/intersections qui t'intéressent
    Ceux qui m’intéressent me pose problème. Je veux formuler un théorème général. Comment modéliser un réseau de façon générale sans oublier un
    Le 😄 Farceur


  • Modifié (April 2023)
    @gebrane je ne comprends pas bien la question : par exemple si $C_1,C_2$ sont indépendants, les réseaux $C_1$ et $C_1\cap C_2$ ne sont pas indépendants en général. 
  • il ne faut pas répéter les composants
    Le 😄 Farceur


  • Modifié (April 2023)
    OK. Donc si j'ai bien compris ton résultat découle de la généralisation proposée ci-dessus.

    @gebrane je formalise ta proposition : soient $C_1,...,C_n$ des événements mutuellement indépendants et $I_1,...,I_m\subset [\![1,n]\!]$ une partition de $[\![1,n]\!]$. Pour $k=1..m$ notons $\mathcal{C}_k:=\{C_i\mid i\in I_k\}$. Alors $\sigma(\mathcal{C}_1),...,\sigma(\mathcal{C_m})$ sont indépendantes.

    Remarque que les tribus $\sigma(\mathcal{C_k})$ contiennent les réseaux dont tu parles donc il faut prouver cette proposition et c'est bon.

    Preuve de la proposition de gebrane : on peut ajouter sans perte de généralité les intersections finies aux ensembles $\mathcal{C}_k$ ainsi que $\Omega$, en effet en ajoutant les intersections finies et $\Omega$ on ne change pas les tribus engendrées $\sigma(\mathcal{C_k})$. Par conséquent, il suffit de vérifier que les $\mathcal{C}_1,...,\mathcal{C_n}$ sont indépendantes pour pouvoir appliquer la généralisation mentionnée ICI et conclure que $\sigma(\mathcal{C}_1),...,\sigma(\mathcal{C_m})$ sont indépendantes. Mais l'indépendance de  $\mathcal{C}_1,...,\mathcal{C_n}$ découle directement du fait que $C_1,...,C_n$ sont mutuellement indépendants et du fait que $I_1,...,I_m\subset [\![1,n]\!]$ est une partition de $[\![1,n]\!]$.

    Bref c'est un corollaire de la généralisation ci-dessus... qu'il faut encore démontrer :mrgreen:
  • Modifié (April 2023)
    gebrane a dit :
    Ceux qui m’intéressent me pose problème. Je veux formuler un théorème général. Comment modéliser un réseau de façon générale sans oublier un
    Tu as un théorème général : si $X_1,\dots, X_n$ sont des variables indépendantes, $(\Omega_i)_{i\in I}$ une partition de $[1,n]$ et $(f_i)_{i\in I}$ une famille de fonctions définies sur les ensembles qui vont bien (produits cartésiens des images des $X_k$), les variables aléatoires $(f_i((X_k)_{k\in \Omega_i}))_{i\in I}$ sont indépendantes.
    Ça me semble couvrir tous les cas qui t'intéressent.
  • Mh raoul, tu es diabolique
    Le 😄 Farceur


  • D'ailleurs le théorème général cité par JLapin se démontre aussi avec ceci.
  • Modifié (April 2023)
    Merci beaucoup Gebrane pour tes encouragements ! Et merci à tous pour vos retours !!! :) 
    Milas a dit :
    Bonjour NicoleProf. Je pense qu'il faut mieux voir la définition de l'indépendance de ses événements comme l'indépendance de tribus qu'ils engendrent.
    Merci Milas, mais je vais me contenter des définitions et notions de base. Je ne suis pas un expert en probas ! ^^'
Connectez-vous ou Inscrivez-vous pour répondre.
Success message!