loi gaussienne dans hyperplan

Bonjour,

Je me demande comment simuler une loi gaussienne standard dans l'hyperplan $H=\{\sum x_i = 0\}$ de $\mathbb{R}^n$. Cela signifie simplement que les coordonnées dans une base orthonormale de $H$ sont des gaussiennes ${\cal N}(0,1)$ indépendantes, mais je ne connais pas de base orthonormale "sympathique" de $H$.

Réponses

  • Tu peux partir d'une gaussienne centrée réduite dans $\R^{n-1}$ et prendre son image par une application linéaire $A$ bien choisie.
  • ... et comment bien choisir $A$ ?..
  • Ah il faut peut-être mette un peu le nez dedans effectivement. Là je n'ai pas trop la motivation. Sinon on peut faire plus simple. On part d'un vecteur gaussien standard sur $\R^n$ et on le projette orthogonalement sur ton plan. Ce projeté s'obtient facilement, c'est l'identité moins le projeté sur la droite orthogonale. On fait ce genre de chose dans les tests de moyennes et variances d'échantillons gaussiens.
  • Oui je viens de réaliser que j'ai mal posé ma question... Si je simule une gaussienne standard $Y$ sur $R^n$ et que je la projette sur $H$, la théorie dit que j'obtiens une gaussienne standard sur $H$... et cette projection est simplement le vecteur dont les composantes sont $(Y_i-\bar Y)$.

    Certes mais je ne suis pas sûr que cela va aller pour ce que je veux faire... l'idéal serait vraiment de partir d'une gaussienne sur $R^{n-1}$ et de l'appliquer à une base orthonormale de $H$.
  • Tu peux bien sûr toujours prendre une base quelconque et l'orthonormaliser par Gram-Schmidt. Mais je ne sais pas si on peut en trouver une qui ait une tête sympa. Tu aurais besoin de quoi en fait ?
  • Tu peux aussi créer un nouveau fil en enlevant les mots qui font fuir la plupart des algébristes :)
  • si $A$ est un transformation orthogonale, $(e_1, \ldots, e_n)$ une base orthogonale, et $A$ envoie $e_1$ sur $\frac{1}{\sqrt{n}}(1,1,\ldots,1)$, alors $Ae_2, Ae_3, \ldots, Ae_n$ est une base orthogonale de $H=\{x: \sum_i x_i = 0\}$, non ?

    On ne se casse pas la tete, on prend $(e_1, \ldots, e_n)$ la base canonique, donc il nous reste a trouver $A \in O_n(\mathbb{R})$ qui envoie $e_1$ sur $v = \frac{1}{\sqrt{n}}(1,1,\ldots,1)$. Le plus simple est de prendre une symetrie axiale, d'axe dirige par $w = \frac{e_1 + v}{\|e_1+v\|}$. Donc si
    \[ Ax = 2(x|w)w-x \]
    une base orthogonale de $H$ est $(Ae_2, \ldots, Ae_n)$, non?
  • Vu de loin ça sonne bien oui. Merci.
  • Merci alekk.
    > n <- 3
    > e <- diag(n) # base canonique
    > v <- rep(1,n)/sqrt(n) # vecteur unitaire orthogonal à H
    > w <- (e[,1]+v)/sqrt(crossprod(e[,1]+v)) # vecteur directeur unitaire de l'axe 
    > A <- function(x) 2*x%*%w*w-x # symétrie d'axe dirigé par w
    > ( B <- apply(e, 1, A) ) # nouvelle base orthonormale 
              [,1]       [,2]       [,3]
    [1,] 0.5773503  0.5773503  0.5773503
    [2,] 0.5773503 -0.7886751  0.2113249
    [3,] 0.5773503  0.2113249 -0.7886751
    > B%*%t(B) # vérification de l'orthonormalité
                  [,1]          [,2]          [,3]
    [1,]  1.000000e+00 -2.359224e-16 -2.220446e-16
    [2,] -2.359224e-16  1.000000e+00 -5.551115e-17
    [3,] -2.220446e-16 -5.551115e-17  1.000000e+00
    
  • Je suis un peu perdu avec l'algèbre-géométrie élémentaire :(

    Si $B=(b_1,b_2)$ est ma base de $H$, je définis un vecteur avec la loi normale standard sur $H$ par $\begin{pmatrix} x \\ y \\ z \end{pmatrix} =u_1b_1+u_2b_2$ où $u_1$ et $u_2$ sont deux ${\cal N}(0,1)$ indépendantes. Est-ce que la variance de $x$, $y$, $z$, est indépendante du choix de $B$ ? Si on voit $B$ comme une matrice, en mettant cîte-à-côte $b_1$ et $b_2$, cela voudrait dire que la somme des carrés sur chaque ligne ne dépend pas du choix de $B$, je ne vois pas pourquoi ce serait vrai.
  • Enfin oui ici ça se voit pour ce choix de $H$, parce qu'il n'y a qu'un choix possible pour la 1ère colonne de $B$ dans mon code : c'est le vecteur unitaire orthogonal à $H$ (au signe près mais ça ne change rien à la suite). Comme la transposée d'une matrice orthogonale est orthogonale aussi, les lignes définissent des vecteurs unitaires donc OK.
    > ( B <- apply(e, 1, A) ) # nouvelle base orthonormale 
    ~~~~~[,1]       [,2]       [,3]
    [1,] 0.5773503  0.5773503  0.5773503
    [2,] 0.5773503 -0.7886751  0.2113249
    [3,] 0.5773503  0.2113249 -0.7886751
    
    Mais si je prenais un $H$ de dimension $n-2$ par exemple ?
  • Steven: un espace euclidien $E$ en Europe, c'est un espace de dimension finie avec un produit scalaire, sans référence à des coordonnées. La loi gaussienne standard $N_E$ sur $E$ est de densité $Ce^{-\|x\|^2/2}$ et tu remarques qu'on n' a pas besoin d'une base pour la définir. Maintenant si tu prends un SEV $H$ de $E$ il est canoniquement euclidien aussi, et il a sa loi gaussienne standard $Z\sim N_H$. Finalement si $E=\mathbb{R}^n$ euclidien canonique, et si $X=(X_1,\ldots,X_n)$ sont les coordonnées de $Z$, peu importe comment tu as construit $Z:$ pourvu qu'il soit de loi $N_H$ cela ne changera pas la loi de $X$, en particulier sa matrice de covariance.
  • Oui c'est bien ce qu'il me semble, mais je ne vois pas la preuve algébrique.
    Par exemple si je prends $H \subset \R^4$ un e.v. de dimension $2$, et deux vecteurs $u$ et $v$ normés et orthogonaux qui engendrent $H$, pourquoi $u_1^2+v_1^2$ ne dépend pas du choix de $u$ et $v$ ? Ca devrait être simple pourtant...
  • Bonjour.

    C'est la norme euclidienne du vecteur. Elle est la même dans tout autre base orthonormée.

    Cordialement.
  • Comment interprètes-tu le vecteur $(u_1,v_1)$ dans $\mathbb{R}^4$ ? Ici je parle de deux vecteurs $u=(u_1,u_2,u_3,u_4)$ et $v=(v_1,v_2,v_3,v_4)$.
  • Heu ... $ H$ est bien de dimension 2, lui ?

    Mais si c'était des coordonnées de $u$ et $v$ dans $\mathbb R^4$, ça n'a aucun rapport avec $H$. J'étais parti dans l'idée que tu utilisais les notations de ce message.

    Cordialement.
  • Oui $H$ est de dimension $2$, engendré par $u$ et $v$.
  • Aaahhh facile. Si on prend deux bases orthonormales $B_1$ et $B_2$ de $H$ alors on a même plus que ça : on a $B_1{}^t\!B_1=B_2{}^t\!B_2$. En regardant la diagonale ça donne ce que je cherche.
  • Ah oui quel naze je suis, j'aurais vu ça tout de suite si j'avais commencé par chercher la matrice de variance, c'est justement $B_1{}^t\!B_1$.
  • Tant que je me remémore l'algèbre linéaire de base, quelqu'un aurait-il l'amabilité de me rappeler si cette matrice symétrique positive $B_1{}^t\!B_1$ que l'on peut associer à un sous-espace vectoriel $H$, et qui est la matrice de variance de la loi gaussienne standard sur $H$, a-t-elle une interprétation algébrique ?
  • Salut Steven,

    Ben sauf erreur c'est la matrice de la forme quadratique "norme de la projection orthogonale sur $H$" ?
  • De nada.. mais il y a sans doute une interprétation algébrique plus intéressante.
Connectez-vous ou Inscrivez-vous pour répondre.