Chaînes de Markov

Bonjour,

Une première question : est-ce que quelqu'un saurait ce qu'est une mesure de probabilité d'une chaîne de Markov ?
Si j'ai bien compris, une chaîne de Markov (à espace d'états dénombrable $E$) est un processus stochastique $(X_{n})_{n\in\N}$, dont l'état à un instant futur ne dépend que de l'état à l'instant présent (absence de mémoire), autrement dit, pour toute suite $(i_{0},i_{1},....,i_{n+1})$ d'éléments de $E$, on a :
$P(X_{n+1}=i_{n+1}|X_{n}=i_{n},X_{n-1}=i_{n-1},...,X_{0}=i_{0})=
P(X_{n+1}=i_{n+1}|X_{n}=i_{n})$
La propriété d'être une chaîne de Markov est donc fortement liée à la mesure de probabilité $P$ attachée à l'espace probabilisable $(\Omega,T)$, espace sur lequel sont définies les $X_{n}$.
Or, dans le livre "Processus stochastiques", de Foata et Fuchs, est définie la notion de mesure de probabilité d'une chaîne de Markov homogène, de la façon suivante :
* Tout d'abord, on définit une suite $(\mu_{i})_{i\in E}$ de nombres positifs, de somme égale à $1$, de manière à obtenir une mesure de probabilité $\mu$ sur $E$.
* Ensuite, il est dit que $P$ est la mesure de probabilité de la chaîne $(X_{n})_{n\in\N}$ si :
i) pour tout état $i$, on a : $P(X_{0}=i)=\mu_{i}$
ii) pour tous états $i,j$, on a : $P(X_{1}=j|X_{0}=i)=p_{i,j}$, où $P=(p_{i,j})$ est la matrice stochastique de la chaîne de Markov $(X_{n})_{n\in\N}$.

Est-ce que l'on définit ainsi une autre mesure de probailité sur $(\Omega,T)$ (je veux dire, autre que $P$ ), ou est-ce la même ? Cette présentation des choses me semble d'autant plus ambiguë que les auteurs conservent la même notation pour les deux mesures de probabilité (toutes les deux sont notées $P$).
D'autre part, quel est l'intérêt d'avoir défini une "mesure de probabilité d'une chaïne de Markov" ?


Deuxième question : toujours dans le même livre (et en conservant les mêmes notations), il est dit que si $A$ est un événement de la tribu $A_{n}$ engendrée par $X_{0},X_{1},X_{2},....,X_{n}$, l'événement $A$ est réunion dénombrable d'événements deux à deux disjoints, de la forme : $\{X_{0}=i_{0},X_{1}=i_{1},X_{2}=i_{2},....,X_{n}=i_{n}\}$.
Jusque là, ça va.
On considère ensuite l'événement $\{A,X_{n}=i\}$, qui est dans la tribu $A_{n}$. Les auteurs affirment alors que, s'il n'est pas vide, alors on a : $A\subset \{X_{n}=i\}$. Et là, je ne comprends plus.
Si par exemple, je prends $A=\{X_{0}=i_{0},...,X_{n-1}=i_{n-1},X_{n}\in\{i,j\}\}$, il me semble que $A$ est un événement, que $\{A,X_{n}=i\}$ n'est pas vide, mais que $A$ n'est pas inclus dans $\{X_{n}=i\}$... ou peut-être je me trompe ?

Merci d'avance !
Amicalement.
Olivier.

Réponses

  • Le monde merveilleux des probas et son vocabulaire...
    Pour la première question, je pense que c'est du blabla, vu qu'en pratique, on a toujours l'inverse, à savoir l'espace dispose déja d'une probabilité et on cherche à trouver la matrice de transition de la chaine.
    Quand au deuxième problème, c'est au moins bizarre. Tu n'as pas oublié d'hypothèse sur A genre c'est un évènement de la forme des briques élémentaires précédemment décrites?
  • Bonsoir Olivier,

    Pour le 1) je ne vois pas trop ce qui te dérange, peut être quelque chose m'a échappé. Pour définir ta chaîne de Markov finie homogène, il suffit de préciser la loi initiale (ce qu'ils notent bizarrement $\mu$ alors qu'en général c'est plutôt $\mu_0$...) et les probabilités de transition. Pour préciser ces proba de transitions, il y a deux façons de faire tout à fait équivalentes : soit on donne la matrice stochastique $P=(p_{i,j})$ associée à la chaîne, soit on donne toutes les probas $P(X_1=j | X_0=i)$ qui sont par magie égales aux composantes de la matrice $P$.
    A partir de ces deux données (loi initiale et probas de transition) on peut calculer la proba d'atteindre chaque état à n'importe quel instant.

    Pour le 2) comme corentin je trouve ça très bizarre ... N'y a t'il pas d'indications supplémentaires dans l'énoncé ?

    Amicalement,

    PS : désolé si tout ce que je dis dans le 1) est clair et limpide pour toi et complètement à côté de la plaque.
Connectez-vous ou Inscrivez-vous pour répondre.