Optimisation, convexité et autres ...

Hello !

J'ai commencé un problème qui m'avait l'air sympa, mais je suis bloqué à un moment. Comme cela m'empêche de continuer, je me demandais si vous pouviez m'aider un peu. Attention les yeux.

Soient $X$ et $Y$ deux variables aléatoires intégrables définies sur un même espace de probabilités. On veut minimiser au sens de la $CVaR$ (Conditionnal Value At Risk : définition ci-après) ($\alpha \in ]0,1[$) la régression d'une variable aléatoire $Y$ par $\theta X$ où $\theta$ parcourt $\mathbb{R}$.
On suppose que le couple $(X,Y)$ a une densité, que $\mathbb{E}X = 0,\ \mathbb{E}|X| > 0$ et que pour tout $a \in \mathbb{R},\ \mathbb{P}(X \leq a) \in ]0,1[$.
1) Montrer que cela se ramène à résoudre le problème d'optimisation suivant : $$
\inf_{y, \theta \in \mathbb{R}}{V_\alpha(y, \theta)}, ~\text{où}~ V_\alpha(y, \theta) := y + \dfrac{1}{1 - \alpha}\mathbb{E}(Y - \theta X - y)_+$$
>> La $CVaR$ est définie selon : $$CVaR_\alpha (X) := \mathbb{E}(X | X \geq VaR_\alpha(X))
$$ où $VaR_\alpha (X) := \inf\{\xi \mid \mathbb{P}(X \leq \xi) \geq \alpha\}$.

En utilisant le fait que pour $Y$ non négatif, on a : $$\mathbb{E}Y = \int_{0}^{\infty}\mathbb{P}(Y \geq y)dy
$$ on montre que : $$
CVaR_\alpha (X) = VaR_\alpha (X) + \dfrac{1}{1 - \alpha} \int_{VaR_\alpha (X)}^{+\infty}\mathbb{P}(X > u) du
$$ J'obtiens ainsi quelque-chose qui ressemble à ce que je souhaite obtenir, mais pas encore tout à fait. Savez-vous comment je peux poursuivre ?

2) Montrer que $V_\alpha$ est une fonction convexe.
>> Question bête, que signifie pour une fonction de $2$ variables être convexe. Si la fonction ne dépendait que d'une seule variable, j'aurais calculé sa dérivée seconde et montré qu'elle est positive ou nulle.

Merci pour votre aide. :)

Réponses

  • Hello !

    Je reviens vers vous car malgré mes tentatives, je n'ai pas beaucoup avancé.
    Pour dériver la fonction
    $$\displaystyle ~ V_\alpha(y, \theta) := y + \dfrac{1}{1 - \alpha}\mathbb{E}(Y - \theta X - y)_+$$
    (afin de montrer qu'elle est convexe), comment fait-on ?

    Sous couvert des bonnes hypothèses (pour l'inversion intégrale espérance), a-t-on :
    $$\displaystyle ~ V'_\alpha(y, \theta) := 1 + \dfrac{1}{1 - \alpha}\mathbb{E}(1_{\{Y \geq \theta X + y\}})_+$$

    Je ne sais pas comment gérer les deux variables à vrai dire.
  • Salut,

    Il n'y pas besoin de dériver quoi que ce soit ici. A $\omega$ fixé, la fonction $(y,\theta) \mapsto (Y(\omega)-\theta X(\theta) -y)_+$ est convexe, comme composée d'une fonction affine et de la fonction convexe croissante $t \mapsto t_+$. Il reste à comprendre pourquoi ça reste vrai lorsqu'on intègre par rapport à $\Prob$.
  • Salut,

    Je posais la question parce que dans une question ultérieure, il m'est demandé de montrer que $V_\alpha$ est différentiable et de calculer une représentation de son gradient sous forme d'espérance.

    Cela reste vrai quand on intègre à cause de Jensen, je dirais.

    [La case LaTeX. :) AD]
  • C'est plus simple que Jensen. Tu as essayé de l'écrire ? Si $F(Z,x)$ est p.s. convexe en $x \in \R^d$, alors tu intègre simplement l'inégalité $F(Z,\lambda x+(1-\lambda)y ) \leq \lambda F(Z,x) + (1-\lambda) F(Z,y)$, puis tu utilises la linéarité de l'espérance.

    Si tu as besoin du gradient, écris $(Y-\theta X-y)$ comme la composée de $t \mapsto t_+$ (dont tu semble connaître la dérivée p.p.) et d'une fonction affine, puis applique le théorème de différentiation des fonctions composées.
  • egoroffski écrivait:
    > C'est plus simple que Jensen. Tu as essayé de
    > l'écrire ? Si $F(Z,x)$ est p.s. convexe en $x \in
    > \R^d$, alors tu intègre simplement l'inégalité
    > $F(Z,\lambda x+(1-\lambda)y ) \leq \lambda F(Z,x)
    > + (1-\lambda) F(Z,y)$, puis tu utilises la
    > linéarité de l'espérance.

    C'est vrai, c'est nettement plus simple.

    Pour la dérivée, à la place de ce que j'avais écris précédemment :
    $$\displaystyle \displaystyle ~ V'_\alpha(y, \theta) := 1 - \dfrac{1}{1 - \alpha}\mathbb{E}((X + 1)1_{\{Y \geq \theta X + y\}})_+$$
  • Toujours pas :) Un gradient, c'est un vecteur, avec autant de composantes que de variables (une composante = une dérivée partielle).
  • Essayons :
    la composante de $y$ \qquad $\displaystyle \displaystyle \displaystyle ~ V'_\alpha(y, \theta) := 1 - \dfrac{1}{1 - \alpha}\mathbb{E}(1_{\{Y - \theta X \geq y\}})_+$
    la composante de $\theta$ \qquad $\displaystyle \displaystyle \displaystyle ~ V'_\alpha(y, \theta) := - \dfrac{1}{1 - \alpha}\mathbb{E}(X 1_{\{Y - y \geq \theta X \}})_+$
    Pour les indicatrices, sont elles indiquées dans le bon sens ?
  • Salut,

    En supposant que ce que j'ai écrit dans mon précédent message soit correct. Je souhaiterais écrire l'algorithme stochastique associé.
    Je pense à \begin{align*}
    y_{n+1} &= y_n - \gamma_{n+1}^{(y)} H^{(y)} (y_n, Y_{n+1})\\
    \theta_{n+1} &= \theta_n - \gamma_{n+1}^{(\theta)} H^{(\theta)} (\theta_n, Y_{n+1}) \\
    \text{où } H^{(y)}(y, \theta) &:= 1 - \dfrac{1}{1 - \alpha}1_{\{Y - \theta X \geq y\}} \\
    H^{(\theta)}(y, \theta) &:= - \dfrac{1}{1 - \alpha} 1_{\{Y - y \geq \theta X \}}
    \end{align*}
    Mais comme je n'ai jamais fait ce genre de choses en 2 dimensions, je ne garantis pas. D'où ma question.
  • Salut,

    Pensez-vous que c'est correct ?
  • egoroffski si tu m'entends.

    J'ai un examen demain (très important pour valider l'année), et j'aurais aimé savoir si tu accepterais juste de me donner ton avis sur les deux derniers messages (si on ne compte pas le dernier, qui n'en est pas un en fait) . Tu as ma parole que je ne te poserais pas d'autres questions.
    Merci.
  • Pitié.
Connectez-vous ou Inscrivez-vous pour répondre.