Proba:Convergences

De Ensiwiki
Aller à : navigation, rechercher


Wikicours.png Convergences
Matière Proba 2
Chapitre 8
Promo 1A
Date 2007
Professeur O. François
Auteur L. Petit
PDF Le Post'IT

On joue à Pile ou Face avec une pièce truquée telle que : P(\textrm{face\,au\,jeu\,} n) = p_n \to 0.

Soit la variable X_n = \mathds 1_{(\textrm{face\,au\,jeu\,} n)} suit \mathcal B(p_n). Peut-on dire P_{X_n} \to \delta_0, P(X_n = 0) \to 1. Réponse OUI ! Mais peut-on dire X_n \to 0 ? Il faut penser si on va avoir un nombre fini ou infini de face.

Définitions - Propositions

Soit (X_n) suite de variable aléatoire réelles.

DéfinitionDéfinition
  • On dit que X_n \to X presque sûrement (idem que presque partout en analyse) si
    P(X_n \to X) = 1
  • On dit que (X_n) converge en loi vers une loi de fonction de répartition F si
    F_n(t) \to F(t) \textrm{\,en\,tout\,point\,} t \textrm{\,ou\,} F \textrm{\,est\,continue}


Soit (A_n) une suite d'évènements alors

  1. \sum\limits_{n = 1}^\infty P(A_n) < \infty \Rightarrow un nombre fini de A_n se réalisent presque sûrement.
  2. Si les A_n sont indépendants : \sum\limits_{n=1}^\infty P(A_n) = \infty \Rightarrow un nombre infini de A_n se réalisent presque sûrement.
DéfinitionProposition

\forall \varepsilon > 0, A_n^\varepsilon = \left|X_n - X\right| > \varepsilon

\sum_{n=1}^\infty P(A_n^\varepsilon) < \infty \Rightarrow X_n \to X \textrm{\,p.s.}

Si (X_n) indépendantes,

\sum_{n=1}^\infty P(A_n^\varepsilon) = \infty \Rightarrow X_n \not\to X \textrm{\,p.s.}
C'est tout ou rien.

Exemples

Exemple : A_n = ``Face au jeu n.

\forall n, P(A_n) = p_n.

\sum_{n=1}^\infty p_n < \infty \Rightarrow on observe p.s un nombre fini de F. Par exemple p_n = \frac{1}{n^2}.

\sum_{n=1}^\infty p_n = \infty \Rightarrow on observe p.s un nombre infini de F. Par exemple p_n = \frac{1}{n}.

N_n = nb de F vus au temps n = X_1 + ... + X_nX_i = \mathds 1_{A_i}.

E[N_n] = E[X_1 + ... + X_n] = \sum_{i=1}^n p_i

Par exemple : p_i = \frac{1}{i^2}. Alors E[N_n] \approx \frac{\pi^2}{6}.

p_i  = \frac{1}{i}. E[N_n] = \sum_{i=1}^n \frac{1}{i} \approx \log n \to \infty

Soit X_n = \mathds 1_{A_n}. (représenter) F_n

Et on a F_n \to F_{\delta_1}.

On a donc X_n converge en loi vers \delta_1 et X_n = \mathds 1_{A_n} converge en loi vers \delta_0.

X_n = \mathds 1_{A_n} converge-t-elle X = 0.

P(\left|X_n\right| > \varepsilon) = P(X_n > \varepsilon) = P(X_n) = 1. .................... Exemple : (X_n) variable aléatoire de loi \varepsilon(n).

E[X_n] = \frac 1n \to 0

Candidat : X = 0. X_n \to 0 p.s. ? P_{X_n} \to \delta_0 en loi ?

\forall t \geq 0, F_n(t) = 1-e^{-nt} et si t \neq 0, F_n(t) \to 1.

P(\left|X_n\right| > \varepsilon) = P(\left|X_n\right| > \varepsilon)
= P(X_n > \varepsilon)
= e^{-n\varepsilon}

Ainsi \sum_{n=1}^\infty \left(e^{-\varepsilon}\right)^n < \frac{1}{1-e^{-\varepsilon}} < \infty. \Rightarrow X_n \to 0, p.s.

Suite candidate telle que X_n \not\to 0. \varepsilon(\log n).

P(X_n > \varepsilon) = \frac{1}{n^\varepsilon} série div pour \varepsilon petit.


Exemple : Soit X_1, ... , X_n. Une suite de variable aléatoire réelles positives, indépendantes.

Convergence records.png

On dit qu'il y a un record à l'étape n si

B_n(X_n > \max\limits_{i<n}^{} X_i)

Question : Il y a-t-il une infinité de records ?

  1. P(B_n) ?
  2. E[N_n]. N_n = nb de record au temps n. (Ici N_6 = 2)
  3. Réponse à la question.


P(B_n) = P(\max\limits_{i<n}^{} X_i \leq X_n)
= \int_0^{+\infty} P(\max\limits_{i<n}^{} X_i \leq X_n | X_n = x) f_{X_n}(x) dx
= \int_0^{+\infty} P(\max\limits_{i<n}^{} X_i \leq x) dF(x)
= \int_0^{+\infty} F^{n-1}(x) dF(x)
= \frac{1}{n} \left[ F^n(x) \right]_0^{+\infty} = \frac{1}{n}

Version 2 : Nombre d'ordres pour n variables : n!.

Nombres d'ordres tels que X_n > \max\limits_{i<n}^{} X_i.(n-1)!.

P(B_n) = \frac{(n-1)!}{n!} = \frac{1}{n}.

N_n = \sum_{i = 1}^n \mathds 1_{B_i}
E[N_n] = \sum_{i=1}^n P(B_i)
= 1 + ... + \frac 1n
\approx \log n + \gamma

P(nb infini de records) = 1 !

On a \sum_{i=1}^\infty P(B_i) = \infty (vrai !) + B_i indépendants.

\forall i_1, ... , i_r, P(B_{i_1} \cap ... \cap B_{i_r}) = \prod_{j=1}^r P(B_{ij})

Exemple :

P(B_1 \cap ... \cap B_n) = P(X_1 < X_2 < ... < X_n)
= \frac{1}{1} \frac 12 ... \frac 1n
= P(B_1)P(B_2) ... P(B_n)
P(B_{n-1} \cap B_n) = \frac{(n-2)!}{n!}
= \frac{1}{n-1} \frac 1n
= P(B_{n-1}) P(B_n)

P(B_2 \cap B_5 \cap B_7) = ?. P(B_7 | B_2 \cap B_5) = P(B_7). P(B_5 | B_2) = P(B_5)

On a donc : P(B_2 \cap B_5 \cap B_7) = P(B_2) P(B_5) P(B_7).