Proba:Changements de variables

De Ensiwiki
Aller à : navigation, rechercher


Wikicours.png Changements de variables
Matière Proba 2
Chapitre 2
Promo 1A
Date 2007
Professeur O. François
Auteur L. Petit
PDF Le Post'IT

Définitions

(X,Y) un couple de variable de densité f_{(X,Y)}

(Z,T) = \varphi(X,Y)

Z = \varphi_1(X,Y)
T = \varphi_2(X,Y)

Hypothèses

  1. f_{(X,Y)} > 0 sur D \subset \mathbb{R}^2, ouvert
  2. \varphi est bijective de D sur \Delta = \varphi(D)
  3. \varphi et \varphi' sont différentiables.

On définit :

\left|\textrm{Jac}\, \varphi\right| = \left| \left|\begin{array}{cc} \frac{\partial \varphi_1}{\partial x} & \frac{\partial \varphi_1}{\partial y} \\ \frac{\partial \varphi_2}{\partial x} & \frac{\partial \varphi_2}{\partial y} \end{array}\right|\right| \textrm{\,sur\,} D

et on a

DéfinitionThéorème
f_{(Z,T)}(z,t) = \left\{ \begin{array}{ll}
\left|\textrm{Jac}\, \varphi^{-1}\right|(z,t) f_{(X,Y)}\left(\varphi^{-1}(z,t)\right) & \textrm{\,sur\,} \Delta \\
0 & \textrm{\,sinon}
\end{array}
\right.


Loi conditionnelle

Soit x tel que f_X(x) > 0. On appelle loi conditionnelle de Y sachant X = x la loi de densité :

\forall y \in \mathbb{R}, \quad f_Y^{X=x} (y) = \frac{f_{(X,Y)}(x,y)}{f_X(x)}

Applications

Changement de variable en 1D

X de densitee f_X > 0 sur \mathbb{R} et \varphi continue, strictement croissante. (\varphi et \varphi^{-1} sont dérivables). Z=\varphi(X).

Soit t \in \mathbb{R}

P(Z\leq t) = P(\varphi(X) \leq t)
= P(X \leq \varphi^{-1}(t))
= F_X(\varphi^{-1}(t))

Soit z \in \mathbb{R},

f_Z(z) = \frac{1}{\varphi'(\varphi^{-1}(z))} f_X(\varphi^{-1}(z))

Exemple : X vaut \mathcal N(0,1). Z= m + \sigma X.

On a : E[Z] = m + \sigma 0 = m et \textrm{Var\,} = \sigma^2 \textrm{Var\,} = \sigma^2.

\forall x \in \mathbb{R}, f_X(x) = \frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}}.

\varphi : z = m + \sigma x (avec \sigma > 0)

\varphi^{-1} : x = \frac{z-m}{\sigma}

Ce qui donne :

\forall z \in \mathbb{R},\quad f_Z(z) = \frac{1}{\sigma} \frac{1}{\sqrt{2\pi}} e^{-\frac{(z-m)^2}{2\sigma^2}}

Cette densité décrit la loi \mathcal N(m,\sigma^2).

Exemple en 2D

Soit (U,V) un couple de densité uniforme sur (0,1)^2.

\forall (u,v) \in \mathbb{R}^2, \quad f_{(U,V)} = \mathds 1_{(0,1)^2}(u,v) = \mathds 1_{(0,1)}(u) + \mathds 1_{(0,1)}(v)
\varphi : \left\{ \begin{array}{l} z = - \ln u \\ t = - v \ln u \end{array} \right.
\varphi^{-1} : \left\{ \begin{array}{l} u = e^{-z} \\ v = \frac{t}{z} \end{array}\right.

On a : \Delta \subset \{0 < t < z\}. A-t-on égalité ?

Si 0 < t < z \Rightarrow \left\{ \begin{array}{l} u \in [0,1] \\ v \in [0,1] \end{array} \right.. Hourra ! \Delta = \{ 0 < t < z\}

Remarque :

\textrm{Jac}\,\varphi^{-1}(z,t) = \frac{1}{\textrm{Jac}\,\varphi} \left( \varphi^{-1}(x,t)\right)
\textrm{Jac}\,\varphi^{-1} (z,t) = \left| \begin{matrix} -e^{-z} & 0 \\ x & \frac{1}{z}\end{matrix}\right| \Rightarrow \left|\textrm{Jac}\, \varphi^{-1}(z,t)\right| = \frac{e^{-z}}{z}
\Rightarrow f_{(Z,T)} (z,t) = \frac{e^{-z}}{z} \mathds 1_D(u(z,t),v(z,t)) = \frac{e^{-z}}{z} \mathds 1_\Delta (z,t)

Loi conditionnelles discrètes

X \in \mathbb{N} et Y \in \mathbb{N}.

Soit x tel que P(X=x) > 0.

Soit y \in \mathbb{N},

P(Y = y | X = x) = \frac{P(X=x) \cap Y = y)}{P(X=x)} = \frac{P(x,y)}{P_X(x)}

Exemple : On joue à pile ou face. proba(P) = p. On s'intéresse au rang du second pile.

\textrm{FFFFF}\underbrace{P}_X\textrm{FFFFFFFFF}\underbrace{P}_{Z = X+Y}

On sait que Z = z (13 par exemple), donner P(X = a) (a = 6) par exemple aussi.

P(X = x | Z = z) = \left\{ \begin{array}{ll} 0 & \textrm{\,si\,} x \geq z \\
\frac{P(X=x \cap Y = z - x)}{P(X+Y=z)} & \textrm{\,si\,} 1 \leq x < z \end{array}\right.

Or X et Y sont indépendant et de loi G(p).

Si 1 \leq x < z,

P(X = x \cap Z = z) = \frac{p^2(1-p)^{x-1} (1-p)^{z-x+1}}{p^2 \sum_{\textrm{Albert}=1}^{z-1} (1-p)^{\textrm{Albert}-1}(1-p)^{z-\textrm{Albert}+1}}
= \frac{1}{z-1} \textrm{\,loi\,uniforme}


Exemple : Supposons que le temps d'attente d'un tram soit de loi \varepsilon(\lambda), \lambda > 0. (\lambda = \textrm{frequence\,de\,passage}) et que les trams arrivent les uns après les autres avec des durées indépendantes. X est le temps d'attente jusqu'au tram 1, et Y la durée entre le tram 1 et le tram 2.

Sachant que le tram 2 est arrivé à la date z, quelle est la date d'arrivée du tram 1 ?

Solution \left\{ \begin{array}{l} Z = X+Y \\ T  = X \end{array} \right.

Loi jointe de (X,X+Y) ?

f_X^{X+Y = Z} (t) = f_T^{Z=z}(t) = \frac{f_{(Z,T)}(z,t)}{f_Z(z)}

D = \mathbb{R}_{+*}^2, f_{(X,Y)} (x,y) = \lambda^2 e^{-\lambda (x+y)} \mathds 1_D(x,y)

f_{(Z,T)}(z,t) = \lambda^2 e^{-\lambda z}\mathds 1_{\{0<t<z\}}

f_Z(z) = \lambda^2 z e^{-\lambda z}\mathds 1_{\mathbb{R}_+} (z)

Donc Z suit la loi \Gamma(2,\lambda), ainsi la loi jointe de (X,X+Y) est \mathcal U(0,z) !!

Applications fondamentales

Simulation

DéfinitionProposition

Algorithme de simulation :

  1. Simuler X selon la densité f_X(x)
  2. Sachant X = x, on simule Y selon f_Y^{X=x} (y)
\forall (x,y) tel que f_X(x) >0, f(x,y) = f_X(x) f_Y^{X=x}(y)


Exemple : f(x,y) = \frac{e^{-x}}{x} \mathds 1_\Delta (x,y)\Delta = {0 < y < x}.

Mais le premier terme ne dépend pas de y donc y suit une loi uniforme.

Soit x > 0, f_X(x) = \int_0^x \frac{1}{x} e^{-x} dy = e^{-x} (\varepsilon(1))

Sachant X=x, f_Y^{X=x} (y) = \frac{f(x,y)}{f_X(x)} = \frac{1}{x} \frac{e^{-x}}{e^{-x}} = \frac{1}{x} loi uniforme sur [0,x] sur [0,x].

Conclusion X suit \varepsilon(1). La loi conditionnelle de Y sachant X = x c'est U(0,x).

\left\{\begin{array}{l} X \leftarrow -\log(U) \\ Y \leftarrow -V.\log(U) \end{array}\right.

Coordonnées polaires

DéfinitionProposition

Coordonnées polaires (X,Y) couple de la loi \mathcal U (disque 1).


Coordonnées polaires.png f_{(r,\theta)} (r,\theta) = \frac{r}{\pi} = \underbrace{2r \mathds 1_{[0,1]}(r)}_{\textrm{pas\,une\,loi\,uniforme}} \frac{1}{2\pi} \mathds 1_{[0,2\pi]} (\theta)


Simulation de (R,\theta) : \left\{ \begin{array}{l} R = \sqrt{U} \\ \theta = 2\pi V \end{array} \right.

Simulation la loi \mathcal N(0,1)

\forall x\in\mathbb{R}, f(x0 = \frac{1}{\sqrt{2\pi}} e^{-x^2 /2}

\left\{ \begin{array}{ll} X = \sqrt{-4\log R} \cos \theta & \in \mathbb{R} \\ Y = \sqrt{-4\log R} \sin \theta & \in \mathbb{R}\end{array}\right.

X^2 + Y^2 = -4\log R \Rightarrow R^2 = e^{-\frac{X^2+Y^2}{2}}

\left| \begin{matrix} \frac{-4/R}{2\sqrt{.}} \cos \theta & -\sqrt{.}\sin \theta \\ \frac{-4/R}{2\sqrt{.}}\sin \theta & \sqrt{.} \cos \theta \end{matrix} \right| = \frac{2}{R}

Dans la formule de changement de variable.

f_{(X,Y)}(x,y) = \frac{2}{R(x,y)} \frac{R}{\pi} \mathds 1_{\mathbb{R}^2}(x,y)
= \frac{1}{2\pi} e^{-\frac{x^2+y^2}{2}}
= \frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}}\frac{1}{\sqrt{2\pi}}e^{-\frac{y^2}{2}}

Pour faire une variable \mathcal N(0,1) : X = \sqrt{-2\log U} \cos(2\pi V) avec (U,V) de loi \mathcal U(0,1) et indépendante.

Loi Gamma

DéfinitionProposition

Loi Gamma, G(a,\lambda), a>0, \lambda > 0.

\forall x \in \mathbb{R}, f(x) = \frac{\lambda^a}{\Gamma(a)}x^{a-1}e^{-\lambda x}\mathds 1_{\mathbb{R}_+}(x)

\Gamma(a) = \int_0^{+\infty} x^{a-1}e^{-x}dx.

\Gamma(n) = (n-1)!, \Gamma(a) =(a-1)\Gamma(a-1) et \Gamma(\frac{1}{2}) = \sqrt{\pi}

On a :

\left. \begin{array}{c} X \sim G(a,\lambda) \\ Y \sim G(b,\lambda) \\ X \textrm{\,et\,} Y \textrm{\,independantes} \end{array}\right\} \Rightarrow X+Y \textrm{\,suit\,} G(a+b,\lambda)