Proba:Vecteurs aléatoires

De Ensiwiki
Aller à : navigation, rechercher


Wikicours.png Vecteurs aléatoires
Matière Proba 2
Chapitre 5
Promo 1A
Date 2007
Professeur O. François
Auteur L. Petit
PDF Le Post'IT

Définitions - Propositions

DéfinitionDéfinition

Soit X \in \mathbb{R}^n, Loi de X : mesure de proba sur (\mathbb{R}^n,\mathcal B(\mathbb{R}^n)).

Soit B \in \mathcal B(\mathbb{R}^n),

P_X(B) = P(X \in B) = \int\!\!\!\int\!\!\!......\int\!\!\!\int_B f(x_1,...,x_n) dx_1 ... dx_n
f \geq 0 et \int f = 1.
DéfinitionDéfinition

Si chaque X_i est intégrable alors :

E[X] = ^t(E[X_1],...,E[X_n])
DéfinitionDéfinition

Loi de X_i : Soit x_1 \in \mathbb{R} :

f_{X_i}(x_1) = \int\!\!\! \int_{\mathbb{R}^{n-1}} f(x_1,...,x_n) dx_1....dx_{i-1}dx_{i+1}...dx_n
DéfinitionDéfinition

Indépendance : X_1, ... , X_n sont indépendantes si et seulement si :

f(x_1,...,x_n) = \prod_{i=1}^n f_{X_i} (x_i)
DéfinitionDéfinition

Matrice de cov : (Les X_i sont de carré intégrable)

K_X = (\textrm{cov}(X_i,X_j))_{i,j = 1,...,n} = (E[X_iX_j] - E[X_i]E[X_j])_{i,j=1,...,n}
DéfinitionProposition
  1. Si les X_i sont indépendantes, K_X est diagonale
  2. K_X est symétrique
  3. cov(X,Y) est bilinéaire
    \textrm{cov}(aX_1+bX_2,cY_1+dY_2) = ac \textrm{cov}(X_1,Y_1)
    + bc \textrm{cov}(X_2,Y_1)
    + ad \textrm{cov}(X_1,Y_2)
    + bd \textrm{cov}(X_2,Y_2)
  4. \left|\textrm{cov}(X,Y)\right| \leq \sqrt{\textrm{Var\,}(X)} \sqrt{\textrm{Var\,}(Y)}

    Inégalité de Cauchy-Schwarz

  5. Les valeurs propres de K_X sont \geq 0 (en fait ce sont des variances)
DéfinitionProposition

X \in \mathbb{R}^n, densité f_X(x_1,...,x_n). On a comme d'habitude :

  • Loi marginales et conditionnelles
  • Changement de variables Z = \varphi(X). \varphi un \mathcal C^1 difféomorphisme de \mathcal D \to \Delta.
    \forall z \in \mathbb{R}^n, f_Z(z) = \left|\textrm{Jac\,}\varphi^{-1}\right|(z) f_X(\varphi^{-1}(z))
  • Changement linéaire Z = AX. A matrice n\times n.
    E[Z] = AE[X] \qquad K_Z = A K_X ^TA

Demo - Exemple

Exemple : U, V va suivant \mathcal U(0,1) indépendant. \left\{ \begin{array}{l} X = U + V \\ Y = U -V \end{array} \right.

Exemple : f_X(x_1,x_2,x_3) = \left\{ \begin{array}{ll} \frac{1}{x_1^2 x_2} e^{-\left(x_1 + \frac{x_2}{x_1} + \frac{x_3}{x_1x_2} \right)} & \textrm{si\,} x_1, x_2, x_3 > 0 \\ 0 & \textrm{sinon}\end{array} \right.

Loi de X_1 Soit x_1 > 0

f_{X_1} (x_1) = e^{-x^1} \int_{\mathbb{R}_+} \frac{1}{x_1} e^{-\frac{x_2}{x_1}} \left( \int_{\mathbb{R}_+} \frac{1}{x_1x_2} e^{-\frac{x_3}{x_1x_2}} dx_3\right) dx_2 = e^{-x_1}

Donc X_1 \sim \varepsilon(1).

Loi de X_2

f_{X_2}^{X_1 = x_1} (x_2) = \frac{f_{X_1,X_2}(x_1,x_2)}{f_{X_1}(x_1)}
= \frac{e^{-x_1} \frac{1}{x_1} e^{-\frac{x_2}{x_1}}}{e^{-x_1}}
= \frac{1}{x_1} e^{-\frac{x_2}{x_1}} \sim \varepsilon\left(\frac{1}{x_1}\right)

Loi de X_3

f_{X_3}^{X_1=x_1, X_2 = x_2}(x_3) = \frac{f(x_1,x_2,x_3)}{f_{X_1,X_2}(x_1,x_2)}
= \frac{1}{x_1x_2} e^{-\frac{x_3}{x_1x_2}} \sim \varepsilon\left( \frac{1}{x_1x_2}\right)

Algo

\left\{ \begin{array}{l} X_1 = - \log(U) \\ X_2 = -X_1 \log(V) \\ X_3 = -X_1X_2 \log (W) \end{array}\right.

Preuve \varphi = \left\{ \begin{array}{ll} x_1 = - \log u \\ x_2 = \log u \log v \\ x_3 = \log^2 u \log v \log w \end{array} \right.

Donc \varphi^{-1} = \left\{ \begin{array}{ll} u = e^{-x_1} \\ v = e^{-\frac{x_2}{x_1}} \\ w = e^{-\frac{x^3}{x_1x_2}} \end{array} \right\}

Le domaine est \mathcal D=[0,1]^3 \Leftrightarrow \Delta = \mathbb{R}_+^3.

On a donc : \textrm{Jac\,} \varphi^{-1} = \left| \begin{matrix} -e^{x_1} & 0 & 0 \\ \star & -\frac{1}{x_1} e^{-\frac{x_2}{x_1}} & 0 \\ \star & \star & -\frac{1}{x_1 x_2} e^{-\frac{x_3}{x_1x_2}} \end{matrix}\right| = -f(x_1,x_2,x_3)