Intervertir la dérivée partielle et l'opération de moyennage dans le cadre du $\chi^2$
Titre initial "Expression d'un élément d'une matrice de Fisher : moyenne des dérivées et la derivée des moyennes"
[Le titre doit être court et informatif. Privilégier le corps du message pour les détails ! :)AD]
Bonjour
En utilisant la formule générale d'une Likelihood à partir d'un modèle théorique et $\lambda_{i}, \lambda_{j}$ considérés comme paramètres dont on veut estimer l'erreur sur sur la valeur fiducielle, on peut écrire la définition d'un élément $(i, j)$ de la matrice de Fisher $F$ :$$F_{i j}=\left\langle-\frac{\partial^{2} \ln (\mathcal{L})}{\partial \lambda_{i} \lambda_{i}}\right\rangle=\left\langle\frac{\partial \ln (\mathcal{L})}{\partial \lambda_{i}} \frac{\partial \ln (\mathcal{L})}{\partial \lambda_{j}}\right\rangle$$
Nous faisons une hypothèse forte en considérant la likelihood $\mathcal{L}$ Gaussienne, reliant le $\chi^{2}$ avec l'élément de la matrice de Fisher $F_{ij}$ :
$$\chi^{2}=\sum_{i=1}^{n}\left(\frac{x_{i}-\bar{x}_{i}}{\sigma_{i}}\right)^{2} \Rightarrow \ln (\mathcal{L})=-\frac{1}{2} \chi^{2}+K \text { with } K \text { a constant }$$
On a donc :
$$\begin{aligned}
F_{i j} &=\sum_{k=1}^{n} \sum_{k^{\prime}=1}^{n}\left\langle\frac{\left(x_{k}-\bar{x}_{k}\right)\left(x_{k^{\prime}}-\bar{x}_{k^{\prime}}\right)}{\sigma_{k}^{2} \sigma_{k^{\prime}}^{2}} \frac{\partial x_{k}}{\partial \lambda_{i}} \frac{\partial x_{k^{\prime}}}{\partial \lambda_{j}}\right\rangle \\
&=\sum_{k=1}^{n} \sum_{k^{\prime}=1}^{n} \delta_{k k^{\prime}} \frac{1}{\sigma_{k}^{2} \sigma_{k^{\prime}}^{2}}\left\langle\left(x_{k}-\bar{x}_{k}\right)\left(x_{k^{\prime}}-\bar{x}_{k^{\prime}}\right) \frac{\partial x_{k}}{\partial \lambda_{i}} \frac{\partial x_{k^{\prime}}}{\partial \lambda_{j}}\right\rangle \\
&=\sum_{k=1}^{n} \frac{1}{\sigma_{k}^{2}}\left\langle\frac{\partial x_{k}}{\partial \lambda_{i}} \frac{\partial x_{k}}{\partial \lambda_{j}}\right\rangle \\
\text { since } &:\left\langle(x-\bar{x})^{2}\right\rangle=\sigma^{2}
\end{aligned}$$
F_{i j} &=\sum_{k=1}^{n} \sum_{k^{\prime}=1}^{n}\left\langle\frac{\left(x_{k}-\bar{x}_{k}\right)\left(x_{k^{\prime}}-\bar{x}_{k^{\prime}}\right)}{\sigma_{k}^{2} \sigma_{k^{\prime}}^{2}} \frac{\partial x_{k}}{\partial \lambda_{i}} \frac{\partial x_{k^{\prime}}}{\partial \lambda_{j}}\right\rangle \\
&=\sum_{k=1}^{n} \sum_{k^{\prime}=1}^{n} \delta_{k k^{\prime}} \frac{1}{\sigma_{k}^{2} \sigma_{k^{\prime}}^{2}}\left\langle\left(x_{k}-\bar{x}_{k}\right)\left(x_{k^{\prime}}-\bar{x}_{k^{\prime}}\right) \frac{\partial x_{k}}{\partial \lambda_{i}} \frac{\partial x_{k^{\prime}}}{\partial \lambda_{j}}\right\rangle \\
&=\sum_{k=1}^{n} \frac{1}{\sigma_{k}^{2}}\left\langle\frac{\partial x_{k}}{\partial \lambda_{i}} \frac{\partial x_{k}}{\partial \lambda_{j}}\right\rangle \\
\text { since } &:\left\langle(x-\bar{x})^{2}\right\rangle=\sigma^{2}
\end{aligned}$$
En prenant des notations générales $x \equiv\left\{x_{1}, . ., x_{n}\right\}$ and $\bar{x} \equiv\left\{\bar{x}_{1}, . ., \bar{x}_{n}\right\}$, on peut écrire :
$$-\frac{\partial \ln \mathcal{L}}{\partial \lambda_{i}}=\sum_{k=1}^{n} \frac{\left(x_{k}-\bar{x}_{k}\right)}{\sigma_{k}^{2}} \frac{\partial x_{k}}{\partial \lambda_{i}}$$
So :
$$\begin{aligned}
F_{i j} &=\sum_{k=1}^{n} \sum_{k^{\prime}=1}^{n}\left\langle\frac{\left(x_{k}-\bar{x}_{k}\right)\left(x_{k^{\prime}}-\bar{x}_{k^{\prime}}\right)}{\sigma_{k}^{2} \sigma_{k^{\prime}}^{2}} \frac{\partial x_{k}}{\partial \lambda_{i}} \frac{\partial x_{k^{\prime}}}{\partial \lambda_{j}}\right\rangle \\
&=\sum_{k=1}^{n} \sum_{k^{\prime}=1}^{n} \delta_{k k^{\prime}} \frac{1}{\sigma_{k}^{2} \sigma_{k^{\prime}}^{2}}\left\langle\left(x_{k}-\bar{x}_{k}\right)\left(x_{k^{\prime}}-\bar{x}_{k^{\prime}}\right) \frac{\partial x_{k}}{\partial \lambda_{i}} \frac{\partial x_{k^{\prime}}}{\partial \lambda_{j}}\right\rangle \\
&=\sum_{k=1}^{n} \frac{1}{\sigma_{k}^{2}}\left\langle\frac{\partial x_{k}}{\partial \lambda_{i}} \frac{\partial x_{k}}{\partial \lambda_{j}}\right\rangle
\end{aligned}$$
F_{i j} &=\sum_{k=1}^{n} \sum_{k^{\prime}=1}^{n}\left\langle\frac{\left(x_{k}-\bar{x}_{k}\right)\left(x_{k^{\prime}}-\bar{x}_{k^{\prime}}\right)}{\sigma_{k}^{2} \sigma_{k^{\prime}}^{2}} \frac{\partial x_{k}}{\partial \lambda_{i}} \frac{\partial x_{k^{\prime}}}{\partial \lambda_{j}}\right\rangle \\
&=\sum_{k=1}^{n} \sum_{k^{\prime}=1}^{n} \delta_{k k^{\prime}} \frac{1}{\sigma_{k}^{2} \sigma_{k^{\prime}}^{2}}\left\langle\left(x_{k}-\bar{x}_{k}\right)\left(x_{k^{\prime}}-\bar{x}_{k^{\prime}}\right) \frac{\partial x_{k}}{\partial \lambda_{i}} \frac{\partial x_{k^{\prime}}}{\partial \lambda_{j}}\right\rangle \\
&=\sum_{k=1}^{n} \frac{1}{\sigma_{k}^{2}}\left\langle\frac{\partial x_{k}}{\partial \lambda_{i}} \frac{\partial x_{k}}{\partial \lambda_{j}}\right\rangle
\end{aligned}$$
car : $\left\langle(x-\bar{x})^{2}\right\rangle=\sigma^{2}$
Je voulais simplement quelles sont les conditions requises pour échanger l'opération de moyenne avec la derivée partial dans la définition d'un élément de matrice de Fisher utlisant le chi2, c'est-à-dire :
$$\chi^{2}=\sum_{i=1}^{n}\left(\frac{x_{i}-\bar{x}_{i}}{\sigma_{i}}\right)^{2} \Rightarrow F_{i j}=\frac{1}{2}\left\langle\frac{\partial^{2} \chi^{2}}{\partial \lambda_{i} \lambda_{i}}\right\rangle$$
En effet, si je rajoute une observable suppélemntaire appelée '$O$ dans le $\chi^2$, j'aurais la définition suivante du nouveau $\chi^2$ :
$$\chi^{2}=\left(\left(x_{1}-\mu_{1}\right),\left(x_{2}-\mu_{2}\right) \ldots\left(O-\mu_{O}\right)\right)^{T} \operatorname{Cov}^{-1}\left(\left(x_{1}-\mu_{1}\right),\left(x_{2}-\mu_{2}\right) \ldots\left(O-\mu_{O}\right)\right)$$
avec la matrice de covariances des observables
$$\mathbf{C o v}^{-1}=\left[\begin{array}{rrrrrr}
x_{11} & x_{12} & x_{13} & \cdots & x_{1, n-1} & 0 \\
x_{21} & a_{22} & x_{23} & \cdots & x_{2, n-1} & 0 \\
x_{31} & a_{32} & x_{33} & \cdots & x_{3, n-1} & 0 \\
\vdots & \vdots & \vdots & \ddots & \vdots & 0 \\
x_{n-1,1} & x_{n-1,2} & x_{n-1,3} & \cdots & x_{n-1, n-1} & 0 \\
0 & 0 & 0 & 0 & 0 & \dfrac{1}{\sigma_{0}^{2}}
\end{array}\right]$$
x_{11} & x_{12} & x_{13} & \cdots & x_{1, n-1} & 0 \\
x_{21} & a_{22} & x_{23} & \cdots & x_{2, n-1} & 0 \\
x_{31} & a_{32} & x_{33} & \cdots & x_{3, n-1} & 0 \\
\vdots & \vdots & \vdots & \ddots & \vdots & 0 \\
x_{n-1,1} & x_{n-1,2} & x_{n-1,3} & \cdots & x_{n-1, n-1} & 0 \\
0 & 0 & 0 & 0 & 0 & \dfrac{1}{\sigma_{0}^{2}}
\end{array}\right]$$
Je cherche à prouver que je peux inververtir, dans la formule :
$$F_{i j}=\frac{1}{2}\left\langle\frac{\partial^{2} \chi^{2}}{\partial \lambda_{i} \lambda_{i}}\right\rangle$$
de manière à pouvoir écrire :
$$F_{i j}=\frac{1}{2}\left\langle\dfrac{\partial \chi^{2}}{\partial \lambda_{i}}\right\rangle\,\left\langle\dfrac{\partial \chi^{2}}{\partial \lambda_{j}}\right\rangle=\frac{1}{2}\dfrac{\partial \left\langle\chi^{2}\right\rangle}{\partial
\lambda_{i}}\,\dfrac{\partial
\left\langle\chi^{2}\right\rangle}{\partial \lambda_{j}}$$
Si je peux intervertir l'opération de moyennage et la dérivée partielle par rapport à $\lambda_i$ et $\lambda_j$, alors je réussi à prouver qu'il n'y a que des zéros sur la ligne et colonne supplémentaire excepté pour le dernier élément diagonal.
Mais quelles sont les conditions nécessaires pour intervertir ?
Quelqu'un pourrait m'aider à prouver cette interversion si les choses sont correctes dans mon raisonnement, et si c'est possible, quelles sont les conditions requises ?
Merci par avance pour votre aide.
Connectez-vous ou Inscrivez-vous pour répondre.
Réponses