1 Cours

1.1 Un seul lancer

Considérons l’expérience (probabiliste) suivante : « lancer une pièce de monnaie ». Si on note \(P\) l’évènement « faire pile » et \(F\) l’évènement « faire face », l’ensemble des résultats possibles, appelé univers et souvent noté \(\Omega\), est \[ \Omega=\{P,F\}. \] L’évènement « faire pile » correspond donc à l’ensemble \(\{P\}\) et l’évènement « faire face » à l’ensemble \(\{F\}\). Ainsi, \(\Omega\) correspond à l’évènement « faire pile ou face », et l’évènement « ne faire ni pile, ni face » correspond à l’ensemble vide \(\emptyset\). L’ensemble des évènements est donc \[ \{\emptyset,\{P\},\{F\},\Omega\}. \] C’est en fait l’ensemble des parties de \(\Omega\), que l’on note \(\mathcal{P}(\Omega)\) : l’ensemble des sous-ensembles de \(\Omega\). Si \(\Omega\) possède \(n\) éléments, alors \(\mathcal{P}(\Omega)\) possède \(2^n\) éléments (qui sont des ensembles, voir Compléments). \(\mathcal{P}(\Omega)\) possède les propriétés suivantes, qui sont celles des tribus.

Définition d’une tribu : une tribu \(\mathcal{A}\) sur un ensemble \(\Omega\) est un sous ensemble de \(\mathcal{P}(\Omega)\) tel que
  • \(\mathcal{A}\) contient l’ensemble vide : \(\emptyset\in\mathcal{A}\).
  • \(\mathcal{A}\) est stable par passage au complémentaire : \(A\in\mathcal{A}\Rightarrow \overline{A}\in \mathcal{A}\).
  • \(\mathcal{A}\) est stable par union dénombrable : \((A_n)_{n\in\mathbf{N}}\subset\mathcal{A}\Rightarrow \bigcup_{n\in\mathbf{N}}A_n\in \mathcal{A}\).

La notion de tribu formalise la notion d’ensemble des évènements : cet ensemble est parfois (souvent), plus petit que \(\mathcal{P}(\Omega)\). C’est-à-dire qu’il peut exister des sous-ensembles de \(\Omega\) qu’il n’est pas souhaitable de considérer comme des évènements, c’est une question compliquée qui dépasse le cadre de ce cours, voir Compléments. Néanmoins, lorsque \(\Omega\) est un ensemble fini, on peut toujours prendre \(\mathcal{A}=\mathcal{P}(\Omega)\).

Lorsque la pièce n’est pas truquée, on associe naturellement aux évènements « faire pile » et « faire face » la même probabilité \(1/2\). On définit ainsi la probabilité uniforme sur l’univers \(\Omega\) : \[ \mathbf{P} : A\in \mathcal{P}(\Omega)\mapsto \frac{\# A}{\# \Omega}\in[0,1]. \]

La notation \(\# A\) désigne le cardinal de l’ensemble \(A\), c’est-à-dire son nombre d’éléments. On a bien, par exemple, \[ \mathbf{P}(\{F\})=\frac{\#\{F\}}{\#\{P,F\}}=\frac12. \] Comme toutes les probabilités, la probabilité uniforme vérifie les propriétés suivantes.

Définition d’une probabilité : Soit \(\mathcal{A}\) une tribu sur \(\Omega\). Une probabilité sur \((\Omega,\mathcal{A})\) est une application \[ \mathbf{P} : \mathcal{A}\to [0,1], \] telle que :
  • la probabilité associée à l’univers est \(1\) \[ \mathbf{P}(\Omega)=1. \]
  • pour toute famille finie ou dénombrable d’évènements \((A_i)_{i\in I}\) deux à deux disjoints, \[ \mathbf{P}\left(\bigcup_{i\in I}A_i\right)=\sum_{i\in I}\mathbf{P}(A_i). \] On appelle cette propriété la \(\sigma\)-additivité.

Les propriétés élémentaires des probabilités sont vues en Exercices.

On associe souvent une quantité au résultat d’une expérience aléatoire. Une telle correspondance s’appelle une variable aléatoire. Par exemple, on peut considérer la variable aléatoire \[ Z : \omega\in\Omega\mapsto \left\{\begin{array}{cc}1 \text{ si } \omega=P,\\0 \text{ si } \omega=F.\end{array} \right. \] Une telle variable aléatoire, prenant les valeurs \(0\) et \(1\), ce que l’on note \(Z(\Omega)=\{0,1\}\), s’appelle une variable de Bernoulli. Elle a pour paramètre la probabilité d’obtenir \(1\), qu’on appelle aussi probabilité de succès : \[ \mathbf{P}(Z=1)=\mathbf{P}(\{P\})=\frac12. \] On note \(Z\sim\mathcal{B}(\frac12)\). Lorsque la pièce est truquée, c’est-à-dire lorsque la probabilité d’obtenir pile est \(p\in[0,1]\), alors \(Z\) suit la loi de Bernoulli de paramètre \(p\), et l’on note \(\mathcal{B}(p)\).

En R, la simulation d’une variable aléatoire suivant une loi de Bernoulli de paramètre \(p\) s’effectue de la façon suivante :

p=0.5
Z=rbinom(1,1,p)

Pour être exact, une application de \(\Omega\) dans \(\mathbf{R}\) est une variable aléatoire réelle sous certaines conditions.

Définition d’une variable aléatoire réelle : Soit \((\Omega,\mathcal{A})\) un espace probabilisable, c’est-à-dire un ensemble muni d’une tribu, et \(X\,:\,\Omega\to\mathbf{R}\) une application. \(X\) est une variable aléatoire réelle si pour tout intervalle \(I\) de \(\mathbf{R}\), on a \[ X^{-1}(I)\in \mathcal{A},\quad\text{où}\quad X^{-1}(I)=\{\omega\in\Omega\, ;\, X(\omega)\in I\}=\{X\in I\}. \] Les fonctions continues ou seulement continues par morceaux sont des variables aléatoires.

1.2 Un nombre fini de lancers

On peut avoir envie de jouer plusieurs fois de suite à « pile ou face ». Si l’on joue \(n\) fois, l’univers est alors \[ \Omega_n=\{P,F\}^n=\{P,F\}\times\ldots\times\{P,F\}, \] et l’ensemble des évènements est \[ \mathcal{P}(\Omega_n). \] Il y a donc \(2^{2^n}\) évènements différents. On peut encore munir le couple \((\Omega_n, \mathcal{P}(\Omega_n))\), qui est un espace probabilisable, de la probabilité uniforme \(\mathbf{P}\), \[ \mathbf{P} : A\in \mathcal{P}(\Omega_n)\mapsto \frac{\# A}{\# \Omega_n}\in[0,1]. \] L’évènement « faire pile au deuxième lancer » a par exemple pour probabilité \[ \mathbf{P}(\{P,F\}\times\{P\}\times \{P,F\}^{n-2})=\frac{2\times 1\times 2^{n-2}}{2^n}=\frac12. \] Ce qui est conforme à l’intuition. Pour \(i\in\{1,\ldots,n\}\), soit \(Z_i\) la variable aléatoire valant \(1\) si l’on obtient pile au \(i\)-ième lancer et \(0\) sinon. Soit \((\omega_1,\ldots,\omega_n)\in \{0,1\}^n\), on a \[\begin{align*} \mathbf{P}((Z_1,\ldots,Z_n)=(\omega_1,\ldots,\omega_n))&=\mathbf{P}(\bigcap_{i=1}^n\{Z_i=\omega_i\})\\ &=\mathbf{P}(\{(\epsilon_1,\ldots,\epsilon_n)\})\\ &=\frac{1}{2^n}\\ &=\mathbf{P}(Z_1=\omega_1)\times\ldots\times\mathbf{P}(Z_n=\omega_n). \end{align*}\]

Dans cette écriture, \(\epsilon_i=P\) si et seulement si \(\omega_i=1\) et donc \(\epsilon_i=F\) si et seulement si \(\omega_i=0\). La famille de variables aléatoires \(\{Z_i,i\in\{1,\ldots,n\}\}\) est donc une famille de variables aléatoires indépendantes.

Définition : Deux variables alétoires discrètes \(X\) et \(Y\), c’est-à-dire prenant un nombre fini ou dénombrable de valeurs, sont dites indépendantes si, pour tout \(x\in X(\Omega)\) et \(y\in Y(\Omega)\), on a \[ \mathbf{P}(\{X=x\}\cap \{Y=y\})=\mathbf{P}(\{X=x\})\times \mathbf{P}(\{Y=y\}). \]

On se rappellera du gimmick : indépendance si et seulement si proba de l’intersection égal produit des probas.

Si l’on souhaite simuler une centaine de variables de Bernoulli indépendantes, on peut procéder de la façon suivante. On peut alors tracer le diagramme en bâton correspondant aux fréquences des réalisations obtenues.

p=0.75
n=100
Z=rbinom(n,1,p)
pn=sum(Z)/n
barplot(c(1-pn,pn),ylim=c(0,1),names.arg=c("0","1"),col=c("0","1"),ylab="Fréquence",xlab="Résultats")
abline(h=p,col="blue",lty=2)
abline(h=1-p,col="blue",lty=2)

Considérons maintenant la variable aléatoire \(B_n\) comptant le nombre de fois où l’on a obtenu pile au cours des \(n\) lancers. Cette variable aléatoire est à valeurs dans \(\{0,\ldots,n\}\) et pour \(k\) dans cet ensemble on a \[\begin{align*} \mathbf{P}(B_n=k)=\mathbf{P}(Z_1+\ldots+Z_n=k)&=\mathbf{P}(\bigcup_{(\omega_1,\ldots,\omega_n)\in \{0,1\}^n \atop \omega_1+\ldots+\omega_n=k}\{(Z_1,\ldots,Z_n)=(\omega_1,\ldots,\omega_n)\})\\ &=\sum_{(\omega_1,\ldots,\omega_n)\in \{0,1\}^n \atop \omega_1+\ldots+\omega_n=k}\mathbf{P}((Z_1,\ldots,Z_n)=(\omega_1,\ldots,\omega_n))\\ &=\sum_{(\omega_1,\ldots,\omega_n)\in \{0,1\}^n \atop \omega_1+\ldots+\omega_n=k}\frac{1}{2^n}=\binom{n}{k}\frac{1}{2^n}. \end{align*}\]

On a utilisé le fait que \(\binom{n}{k}\) compte le nombre de \(n\)-uplets \((\omega_i)_{1\leq i\leq n}\in\{0,1\}^n\) tels que \(\omega_1+\ldots+\omega_n=k\). En effet, il suffit de choisir la place des \(1\) et l’ordre n’a pas d’importance. On dit que \(B_n\) suit la loi binomiale de paramètre \(n\) et \(1/2\). Lorsque la probabilité de faire pile est \(p\), pour \(k\in \{0,\ldots,n\}\), l’on a \[ \mathbf{P}(B_n=k)=\binom{n}{k}p^k(1-p)^{n-k}. \] On note \(B_n\sim \mathcal{B}(n,p)\). \(B_n\) compte le nombre de succès lors de \(n\) expériences de Bernoulli indépendantes (et de même paramètre). En R, la simulation d’une variable aléatoire suivant une loi binomiale de paramètre \(n\) et \(p\) s’effectue de la façon suivante :

p=0.5
n=10
Bn=rbinom(1,n,p)

On peut afficher la distribution de \(B_n\) de la façon suivante.

p=0.5
n=10
par(mfrow = c(1,2))
barplot(dbinom(seq(0,10,1),size = n,prob = p),names.arg=seq(0,10,1),ylab="Fréquence",xlab="Pour p=1/2")
p=3/4
barplot(dbinom(seq(0,10,1),size = n,prob = p),names.arg=seq(0,10,1),ylab="Fréquence",xlab="Pour p=3/4")

Loi (ou distribution) d’une variable aléatoire (cas discret) : Soit \(X\) une variable aléatoire discrète, c’est-à-dire prenant un nombre fini ou dénombrable de valeurs que l’on note \(X(\Omega)\). Donner la loi de \(X\) c’est décrire \(X(\Omega)\) et pour tous les \(x\in X(\Omega)\) donner la valeur de \(\mathbf{P}(X=x)\).

La valeur moyenne d’une variable aléatoire discrète se calcule de la façon suivante.

Espérance (cas discret) : Soit \(X\) une variable aléatoire discrète, c’est-à-dire prenant un nombre fini ou dénombrable de valeurs que l’on note \(X(\Omega)\). L’espérance de \(X\) est définie par \[ \mathbf{E}(X)=\sum_{x\in X(\Omega)}x\mathbf{P}(X=x). \]

On retiendra le gimmick : pour une variable discrète, l’espérance est la somme de valeurs possibles pondérées par les probabilités. Lorsque l’espérance de la valeur absolue de la variable aléatoire est finie, \(\mathbf{E}(|X|)<\infty\), on dit que \(X\) est intégrable. On remarquera aussi que \(\mathbf{E}(0)=0\) et \(\mathbf{E}(1)=1\).

Linéarité de l’espérance : Soit \(X\) et \(Y\) deux variables aléatoires intégrables. Alors, pour tout réels \(\alpha\) et \(\beta\), \[ \mathbf{E}(\alpha X+\beta Y)=\alpha\mathbf{E}(X)+\beta\mathbf{E}(Y). \]

Si l’espérance décrit la valeur moyenne d’une distribution, sa dispersion autour de celle-ci est caractérisée par la variance.

Variance : Soit \(X\) une variable aléatoire. La variance de \(X\), lorsqu’elle est définie, est donnée par \[ \mathbf{V}(X)=\mathbf{E}((X-\mathbf{E}(X))^2)=\mathbf{E}(X^2)-\mathbf{E}(X)^2. \] C’est la moyenne des écarts à la moyenne au carré. Dans le cas discret, on a \[ \mathbf{E}(X^2)=\sum_{x\in X(\Omega)}x^2 \mathbf{P}(X=x). \] La variance est bien définie dès lors que cette quantité est finie.

Si \(X\) suit une loi binomiale de paramètre \(n\) et \(p\) alors \(X\) est une variable aléatoire à valeurs discrètes puisqu’elle est à valeurs dans \(\{0,\ldots,n\}\). Son espérance est donnée par \[\begin{align*} \mathbf{E}(X)=\sum_{k=0}^n k\mathbf{P}(X=k)&=\sum_{k=0}^n k\binom{n}{k}p^k(1-p)^{n-k}\\ &=\sum_{k=1}^n k\frac{n!}{k!(n-k)!}p^k(1-p)^{n-k}\\ &=np\sum_{k=1}^n \frac{(n-1)!}{(k-1)!(n-1-(k-1)!}p^{k-1}(1-p)^{n-1-(k-1)}\\ &=np\sum_{k=0}^{n-1}\binom{n-1}{k}p^k(1-p)^{n-1-k}\\ &=np(p+1-p)^{n-1}=np. \end{align*}\]

Le calcul de la variance est laissé en Exercices.

1.3 Un nombre infini de lancers

Lorsqu’on lance \(n\) fois une pièce de monnaie, on peut se demander si celle-ci est biaisée ou pas, c’est-à-dire si l’on a autant de chance d’obtenir pile que face. Pour cela, on peut considérer la fréquence, ou proportion empirique, des piles : \[ F_n=\frac 1n \sum_{i=1}^n Z_i \]\(Z_i\) est la variable aléatoire valant \(1\) si l’on fait pile au \(i\)-ième lancer et \(0\) sinon. Notons \(p\) la probabilité de faire pile, qui nous est a priori inconnue. On peut espérer que lorsque \(n\) grandit, la fréquence \(F_n\) se rapproche de \(p\). C’est ce que nous indique le théorème suivant.

Loi des grands nombres : Soit \((Z_i)_{i\in\mathbf{N}}\) une suite de variables aléatoires indépendantes et de même loi telle que \(\mathbf{E}(|Z_1|)<\infty\). Alors, au sens de la convergence presque sûre, \[ \lim_{n\to\infty} \frac{1}{n}\sum_{i=1}^n Z_i=\mathbf{E}(Z_1). \]

On retiendra le gimmick : pour des variables i.i.d. intégrables, la fréquence empirique converge p.s. vers l’espérance. Les termes au sens de la convergence presque sûre signifient que l’évènement considéré se produit avec probabilité \(1\), c’est-à-dire que \[ \mathbf{P}\left(\lim_{n\to\infty} \frac{1}{n}\sum_{i=1}^n Z_i=\mathbf{E}(Z_1)\right)=1. \]

Dans notre cas, \(\mathbf{E}(Z_1)=p\), et donc \((F_n)_{n\geq1}\) converge bien presque-sûrement vers \(p\). Remarquons que lorsque l’on dit que \(n\) tend vers l’infini, cela veut dire que l’on joue à pile ou face une infinité de fois… Comment formaliser cela, c’est-à-dire trouver un espace probabilisé modélisant cette expérience ?

Il est naturel de prendre pour \(\Omega\) l’ensemble \(\{P,F\}^{\mathbf{N}^\ast}\). Est-ce que l’ensemble des évènements est \(\mathcal{P}(\{P,F\}^{\mathbf{N}^\ast})\) ? Pourquoi pas… mais est-ce que l’on peut construire une probabilité sur \((\{P,F\}^{\mathbf{N}^\ast},\mathcal{P}(\{P,F\}^{\mathbf{N}^\ast}))\) ? Ce n’est en fait pas possible, je vous laisse aller voir les Compléments.

On peut construire un ensemble d’événements plus satisfaisant de la façon suivante. Pour \(n\geq1\), on note \(\mathcal{F}_n\) l’ensemble des évènements que l’on peut décrire en ne considérant que les \(n\) premiers lancers : \[ \mathcal{F}_n=\{A\in\{P,F\}^{\mathbf{N}^\ast}\,;\, \exists A_n\subset\{P,F\}^n, A=\{\omega \in\{P,F\}^{\mathbf{N}^\ast}\,;\, (\omega_1,\ldots,\omega_n)\in A_n\} \}. \] La suite d’ensembles \((\mathcal{F}_n)\) est une suite croissante de tribus. En notant \[ \mathcal{F}_\infty=\bigcup_{n\in\mathbf{N}^\ast}\mathcal{F}_n, \] un ensemble d’évènements satisfaisant est \(\sigma(\mathcal{F}_\infty)\), la plus petite tribu (au sens de l’inclusion), contenant \(\mathcal{F}_\infty\). La probabilité \(\mathbf{P}\) sur cette tribu est entièrement définie par sa donnée sur les cylindres \[ C_{i,\epsilon}=\{\omega\,;\,\omega_i=\epsilon\},\quad i\in\mathbf{N}^\ast,\, \epsilon\in\{P,F\}, \] par \[ \mathbf{P}(C_{i,\epsilon})=\frac12. \] En termes simples, \(\mathbf{P}\) est entièrement définie par le fait de dire que la probabilité de faire pile (ou face) au \(i\)-ème lancer est \(1/2\).

Nous pouvons illustrer la loi des grands nombres pour le pile ou face de la façon suivante.

p=0.5
M=100
Z1=rbinom(M,1,p)
Sum_Z1=cumsum(Z1)
Z2=rbinom(M,1,p)
Sum_Z2=cumsum(Z2)
I=1:M
plot(I,Sum_Z1/I,type="l",ylab=expression("F"["n"]),xlab="n",ylim=c(0,1))
lines(I,Sum_Z2/I,type="l",col="grey")
abline(h=p,lty=2,col="blue")

1.4 Vers la loi uniforme sur \([0,1]\)

Comment tirer un réel au hasard uniformément dans l’intervalle \([0,1]\) ? Une façon de faire est de tirer au hasard chaque chiffre de la partie décimale du réel que l’on veut tirer au hasard. Et si l’on ne possède qu’une pièce de monnaie pour faire ça, on peut écrire son développement en écriture binaire. Pour rappel, en utilisant l’écriture binaire, \(439\) s’écrit \(110110111\) car \[ 439=1\times 2^0+1\times 2^1+1\times 2^2+0\times 2^3+1\times 2^4+1\times 2^5+0\times 2^6+1\times 2^7+1\times 2^8. \] Ainsi, tirer un réel au hasard entre \(0\) et \(1\) revient à lancer une infinité de fois un pièce de monnaie… Si on veut tirer un réel au hasard avec un développement binaire de longueur \(n\), on peut lancer \(n\) fois une pièce de monnaie équilibrée avec pour résultats \(Z_1\), \(Z_2\),…, \(Z_n\) et considérer \[ X_n=\sum_{k=1}^n \frac{Z_k}{2^k}. \] La variable aléatoire \(X_n\) est bien à valeurs dans \([0,1]\). Peut-on décrire, caractériser, la limite de \(X_n\) lorsque \(n\) tend vers l’infini ? Il nous faut pour cela d’abord caractériser la loi de \(X_n\) pour \(n\) fini.

Caractérisation de la loi d’une variable aléatoire : La loi d’une variable aléatoire réelle \(X\) est caractérisée par la donnée d’une des fonctions suivantes :
  • sa fonction de répartition : \[ F_X : x\in\mathbf{R}\mapsto \mathbf{P}(X\leq x). \] La fonction \(F_X\) est croissante et telle que \[ \lim_{x\to\infty} F_X(x)=1,\quad\text{et}\quad\quad \lim_{x\to-\infty} F_X(x)=0. \] On retiendra le gimmick : la fonction de répartition relie \(0\) à \(1\) de façon croissante.
  • sa fonction caractéristique : \[ \phi_X : t\in\mathbf{R}\mapsto \mathbf{E}(e^{itX}). \] C’est une fonction à valeurs complexes.

Deux variables aléatoires réelles \(X\) et \(Y\) qui ont même fonction de répartition ou bien même fonction caractéristique ont la même loi : pour tout intervalle \(I\) de \(\mathbf{R}\), on a \[ \mathbf{P}(X\in I)=\mathbf{P}(Y\in I). \]

Dans notre cas, on peut calculer la fonction caractéristique de \(X_n\) (voir Exercices). Pour tout \(t\in\mathbf{R}\), \[ \phi_{X_n}(t)=\mathbf{E}(e^{itX_n})=e^{i\frac t2 (1-(1/2)^{n})}\frac{\sin(t/2)}{2^{n}\sin(t/2^{n+1})}. \] Lorsque \(n\) tend vers l’infini, \(\phi_{X_n}(t)\) converge vers \[ e^{it/2}\frac{\sin(t/2)}{t/2}=\frac{e^{it}-1}{it}=\phi(t). \] Est-ce que \(\phi\) est la fonction caractéristique d’une variable aléatoire réelle ? Il suffit de remarquer que \[ \frac{e^{it}-1}{it}=\int_0^1 e^{itx} {\rm d}x=\mathbf{E}(e^{itU}), \]\(U\) est une variable aléatoire de densité \(\mathbf{1}_{[0,1]}\), appelée loi uniforme sur \([0,1]\).

Variable aléatoire continue : une variable aléatoire réelle \(X\) a pour densité \(f_X\) une fonction, disons continue par morceaux de \(\mathbf{R}\) dans \(\mathbf{R}\), positive et telle que \[ \int_\mathbf{R}f_X(x){\rm d}x=1, \] si pour toute fonction continue par morceaux et bornée (ou positive) \(g\), \[ \mathbf{E}(g(X))=\int_\mathbf{R} g(x)f_X(x){\rm d} x. \] On dit que \(X\) est une variable aléatoire continue ayant pour densité \(f_X\). La densité caractérise la loi.

Lorsque \(U\) a pour densité \(\mathbf{1}_{[0,1]}\), on a donc, pour toute fonction \(g\) continue par morceaux et bornée \[ \mathbf{E}(g(U))=\int_{\mathbf{R}}g(x)\mathbf{1}_{[0,1]}(x){\rm d}x=\int_0^1g(x){\rm d}x. \] En particulier, l’espérance et la variance sont caractérisées de la façon suivante dans le cas continu.

Espérance et variance pour une variable aléatoire continue : soit \(X\) une variable aléatoire réelle ayant pour densité \(f_X\). Alors \[ \mathbf{E}(X)=\int_\mathbf{R} xf_X(x){\rm d}x,\quad \mathbf{E}(X^2)=\int_\mathbf{R} x^2f_X(x){\rm d}x. \] Et on a toujours, \[ \mathbf{V}(X)=\mathbf{E}(X^2)-\mathbf{E}(X)^2. \] La variance est bien définie dès lors que \(\mathbf{E}(X^2)<\infty\).

La fonction de répartition de la loi uniforme est donc, pour \(x\in\mathbf{R}\): \[ F_U(x)=\mathbf{P}(U\leq x)=\mathbf{E}(\mathbf{1}_{]-\infty,x]}(U))=\int_{\mathbf{R}}\mathbf{1}_{]-\infty,x]}(t)\mathbf{1}_{[0,1]}(t){\rm d}t=\left\{\begin{array}{ll}1 &\text{si } x\geq1,\\ x &\text{si }x\in[0,1],\\ 0 &\text{sinon.} \end{array}\right. \] Traçons cette fonction de répartition.

x=seq(-5,5,by=0.1)
plot(x,punif(x),type='l',xlab="x",ylab=expression("F"["U"](x)))

On remarque que cette fonction de répartition est continue. C’est un fait général pour les variables aléatoires à densité, et c’est pour cela qu’elles sont dites continues.

Propriété : La fonction de répartition d’une variable aléatoire continue est continue.

On a montré que la fonction caractéristique de \(X_n\) converge ponctuellement vers la fonction caractéristique de la loi uniforme sur \([0,1]\). On dit que \((X_n)\) converge en loi vers la loi uniforme.

Convergence en loi : Une suite de variable aléatoire réelle \((X_n)\) converge en loi vers une variable aléatoire \(X_\infty\) si l’une des deux conditions suivantes (équivalentes) est satisfaite :
  • il y a convergence ponctuelle des fonctions caractéristiques : \[ \forall t\in\mathbf{R},\quad \lim_{n\to\infty}\phi_{X_n}(t)=\phi_{X_\infty}(t).\]
  • il y a convergence des fonctions de répartition, là où la fonction de répartition \(F_{X_\infty}\) de \(X_\infty\) est continue : \[ \forall x\in\mathbf{R}\text{ tel que } F_{X_\infty}\text{ est continue en }x,\quad \lim_{n\to\infty}F_{X_n}(x)=F_{X_\infty}(x).\]

1.5 Propriétés de base des variables aléatoires continues.

Dans toute cette section, \(X\) désigne une variable aléatoire réelle de densité \(f_X\). On a vu que pour toute fonction continue par morceaux et bornée (ou positive) \(g\), on a \[ \mathbf{E}(g(X))=\int_\mathbf{R}g(x) f_X(x){\rm d} x. \] En particulier, pour tous réels \(a,b\), \[\begin{align*} \mathbf{P}(X\in[a,b])=\mathbf{E}(\mathbf{1}_{[a,b]}(X))&=\int_\mathbf{R}\mathbf{1}_{[a,b]}(x) f_X(x){\rm d} x\\ &=\int_{-\infty}^a\mathbf{1}_{[a,b]}(x) f_X(x){\rm d} x+\int_{a}^b\mathbf{1}_{[a,b]}(x) f_X(x){\rm d} x+\int_{b}^\infty\mathbf{1}_{[a,b]}(x) f_X(x){\rm d} x\\ &=\int_{-\infty}^a0\times f_X(x){\rm d} x+\int_{a}^b1\times f_X(x){\rm d} x+\int_{b}^\infty0\times f_X(x){\rm d} x\\ &=\int_{a}^b f_X(x){\rm d} x. \end{align*}\] La probabilité \(\mathbf{P}(X\in[a,b])\) correspond donc à l’aire délimitée par la courbe de la densité et les droites d’équation \(x=a\), \(x=b\) et \(y=0\). En faisant le même raisonnement, on trouve aussi que \[ \mathbf{P}(X\in]a,b])=\mathbf{P}(X\in]a,b[)=\mathbf{P}(X\in[a,b[)=\int_{a}^b f_X(x){\rm d} x. \]

En fait, une variable aléatoire continue ne charge pas les points : \[ \forall x\in \mathbf{R},\quad \mathbf{P}(X=x)=0. \]

Dans ce cours, l’ensemble des valeurs possibles prises par une variable aléatoire continue \(X\) sera l’adhérence de l’ensemble des réels où la densité est strictement positive \[ \overline{\{x\in\mathbf{R},\, f_X(x)>0\}}. \] Comme nous l’avons déjà vu, la fonction de répartition de \(X\) en \(x\) s’exprime facilement comme l’intégrale de la densité jusqu’en \(x\) : \[ \forall x\in \mathbf{R},\quad F_X(x)=\mathbf{P}(X\leq x)=\mathbf{P}(-\infty <X\leq x)=\int_{-\infty}^x f_X(t){\rm d}t. \]

On peut faire l’opération inverse : si \(F_X\) est dérivable en \(x\), \[ F'_X(x)=f_X(x). \]

2 Compléments

2.1 Les parties d’un ensemble et les coefficients binomiaux

Soit \(\Omega\) un ensemble. Les opérations sur \(\mathcal{P}(\Omega)=\{A\,;\, A\subset\Omega\}\) sont les opérations ensemblistes : l’union, l’intersection, le passage au complémentaire… Rappelons quelques règles de bases. Soit \(A\), \(B\) et \(C\) trois ensembles :

  • \(A\cup(B\cap C)=(A\cup B)\cap (A\cup C)\),
  • \(A\cap(B\cup C)=(A\cap B)\cup (A\cap C)\),
  • \(A\setminus B=A\cap \bar{B}\),
  • \(\overline{A\cap B}=\bar{A}\cup\bar{B}\),
  • \(\overline{A\cup B}=\bar{A}\cap\bar{B}\).

Si \(\Omega\) contient \(n\) éléments, alors \(\mathcal{P}(\Omega)\) en contient \(2^n\), en effet, l’application \[ \chi : \begin{matrix}\mathcal{P}(\Omega)&\to& \{0,1\}^\Omega\\ A&\mapsto& \mathbf{1}_A\end{matrix} \] est une bijection et l’ensemble \(\mathcal{P}(\Omega)\) possède \(2^{\#\Omega}\) éléments (on peut aussi faire une récurrence lorsque \(\#\Omega\) est fini). Le nombre de parties de \(\Omega\) possédant exactement \(k\) éléments, \(0\leq k\leq n\), se note \(\binom{n}{k}\). C’est une des définitions du coefficient binomial. On peut alors montrer que \[ \binom{n}{k}=\frac{n!}{k!(n-k)!}, \] En particulier, \(\binom{n}{0}=1\), \(\binom{n}{n}=1\) et \[ \binom{n}{k}=\binom{n}{n-k},\quad \binom{n}{k}=\binom{n-1}{k}+\binom{n-1}{k-1}. \] Ces deux dernières égalités signifient simplement que choisir \(k\) éléments dans un ensemble à \(n\) éléments revient à en choisir \(n-k\) (les non-choisis) et que pour choisir \(k\) éléments dans un ensemble à \(n\) éléments, on peut discriminer un élément et puis : soit le choisir et choisir les \(k-1\) éléments restant parmi les \(n-1\) restant : \[ 1\times \binom{n-1}{k-1}\,; \] soit ne pas choisir cet élément et choisir les \(k\) éléments parmi les \(n-1\) restant : \[ \binom{n-1}{k}. \]

2.2 Une probabilité sur \(\mathcal{P}(\{P,F\}^{\mathbf{N}^\ast})\) ?

Soit \(\mathbf{P}\) une probabilité éventuelle sur \(\mathcal{P}(\{P,F\}^{\mathbf{N}^\ast})\). Il est naturel de demander que \(\mathbf{P}\) assigne la même probabilité aux singletons \[ \{(\omega_i)_{i\geq1}\}\text{ et }\{(\omega_{\sigma(i)})_{i\geq 1}\} \]\(\sigma\) est une permutation qui échange un nombre fini d’indices. On souhaite par exemple que la probabilité de faire pile au lancer \(i\) puis face au lancer \(j\) soit égal à la probabilité de faire pile au lancer \(j\) et face au lancer \(i\).

On dit que la permutation \(\sigma\) est une permutation à support fini : il existe un sous-ensemble \(S\) de \(\mathbf{N}^\ast\), tel que \(\#S< \infty\) et \(\sigma(i)=i\) pour tout \(i\in \mathbf{N}^\ast\setminus S\). On note \(\Sigma_{<\infty}\) l’ensemble des permutations à support fini, il y a un nombre dénombrable de telles permutations (ceci n’est pas évident).

Supposons donc qu’il existe une probabilité \(\mathbf{P}\) sur \(\mathcal{P}(\{P,F\}^{\mathbf{N}^\ast})\) qui soit invariante par permutation à support fini. On considère la relation d’équivalence suivante : \[ \omega \sim \omega' \Longleftrightarrow \omega, \omega'\in \mathcal{P}(\{P,F\}^{\mathbf{N}^\ast}),\quad \exists \sigma\in \Sigma_{<\infty},\quad \omega_\sigma=\omega'. \] C’est-à-dire que \(\omega\) et \(\omega'\) sont dans la même classe d’équivalence si l’on peut transformer l’un en l’autre en échangeant un nombre fini d’indices. En utilisant l’axiome du choix, on peut construire l’ensemble \(V\) (comme Vitali), qui contient un et un seul représentant de chaque classe. Alors \[ \{P,F\}^{\mathbf{N}^\ast}=\bigcup_{\sigma\in\Sigma_{<\infty}} \{\omega_\sigma\,;\, \omega\in V\}. \] Donc, d’une part \(\mathbf{P}(\{P,F\}^{\mathbf{N}^\ast})=1\) et d’autre part, en utilisant la \(\sigma\)-additivité de \(\mathbf{P}\) et le fait que les ensembles \((\{\omega_\sigma\,;\, \omega\in V\},\sigma\in\Sigma_{<\infty})\) sont deux à deux disjoints, on a
\[ \mathbf{P}(\{P,F\}^{\mathbf{N}^\ast})=\mathbf{P}(\bigcup_{\sigma\in\Sigma_{<\infty}} \{\omega_\sigma\,;\, \omega\in V\})=\sum_{\sigma\in\Sigma_{<\infty}}\mathbf{P}(\{\omega_\sigma\,;\, \omega\in V\})=\sum_{\sigma\in\Sigma_{<\infty}}\mathbf{P}(V). \] Donc \[ \sum_{\sigma\in\Sigma_{<\infty}}\mathbf{P}(V)=1 \] ce qui est absurde car si \(\mathbf{P}(V)=0\) alors on a \(0=1\) et si \(\mathbf{P}(V)>0\) alors \(\infty=1\). Donc \(\mathbf{P}\) n’existe pas…

3 Exercices

3.1 Exercices du cours

Exercice 1 : Soit \(\mathbf{P}\) une probabilité sur un espace probabilisable \((\Omega,\mathcal{A})\). Montrer que, pour \(A\), \(B\), \(C\) dans \(\mathcal{A}\),
  1. \(\mathbf{P}(\Omega)=1.\)
  2. \(\mathbf{P}(\bar A)=1-\mathbf{P}(A).\)
  3. \(\mathbf{P}(A\cup B)=\mathbf{P}(A)+\mathbf{P}(B)-\mathbf{P}(A\cap B).\)

Exercice 2 : Décrire \(\mathcal{P}(\Omega)\) lorsque \(\Omega=\{1,2,3\}\).

Exercice 3 : Montrer que la variance d’une variable aléatoire de loi \(\mathcal{B}(n,p)\) est \(np(1-p)\).

Exercice 4 : Comme dans le cours, on considère une suite \((Z_n)\) de variables aléatoires indépendantes et de même loi de Bernoulli de paramètre \(1/2\). Pout \(n\in\mathbf{N}^\ast\), on pose, \[ X_n=\sum_{k=1}^n \frac{Z_k}{2^k}. \] On va calculer, pour \(t\in\mathbf{R}\), \(\mathbf{E}(e^{i t X_n})\) pas à pas.
  1. Montrer que \[ \mathbf{E}(e^{i t X_n})=\mathbf{E}(\Pi_{k=1}^ne^{i t Z_k/2^k})=\Pi_{k=1}^n\mathbf{E}(e^{i t Z_k/2^k}). \] Ici, on a utilisé l’indépendance des variables aléatoires pour dire que l’espérance du produit est égal au produit des espérances (c’est un gimmick).
  2. Montrer que \[ \mathbf{E}(e^{i t Z_k/2^k})=\frac{1}{2}e^{i t/2^k}+\frac{1}{2}=\frac12 e^{i t/2^{k+1}}\left(e^{i t/2^{k+1}}+e^{-i t/2^{k+1}}\right)=e^{i t/2^{k+1}}\cos(t/2^{k+1}). \]
  3. Montrer que \[ \Pi_{k=1}^n e^{i t/2^{k+1}}=e^{it \sum_{k=1}^n\frac{1}{2^{k+1}}}=e^{it\frac{1}{2}\left(1-1/2^n\right)},\quad \Pi_{k=1}^n\cos(t/2^{k+1})=\frac{\sin(t/2)}{2^{n}\sin(t/2^{n+1})}. \]
  4. En déduire que \[ \mathbf{E}(e^{itX_n})=e^{i\frac t2 (1-(1/2)^{n})}\frac{\sin(t/2)}{2^{n}\sin(t/2^{n+1})}. \] comme énoncé en cours.
Exercice 5 : Montrer que pour une variable aléatoire \(U\) uniforme sur \([0,1]\), on a \[ \mathbf{E}(U)=\frac{1}{2},\quad\mathbf{V}(U)=\frac{1}{12}. \] Exercice 6 : Soit \(E\) une variable aléatoire exponentielle de paramètre \(\lambda>0\), c’est-à-dire ayant pour densité \[ \forall x\in\mathbf{R},\quad f_\lambda(x)=\lambda e^{-\lambda x}\mathbf{1}_{[0,\infty[}(x). \]
  1. Calculer la probabilité que \(E\) se trouve dans l’intervalle \([1,2[\).
  2. Calculer la fonction de répartition de \(E\).
  3. Calculer l’espérance et la variance de \(E\).
  4. Calculer la fonction caractéristique de \(E\).
  5. Soit \(Y=2E+1\), déterminer la loi de \(E\).
  6. Soit \(Z=E^2\), déterminer la loi de \(E\).
Exercice 7 : Pour \(n\in\mathbf{N}^\ast\), soit \(G_n\) une variable aléatoire de loi géométrique de paramètre \(1/n\), c’est-à-dire vérifiant \[ \forall k\in\mathbf{N}^\ast,\quad \mathbf{P}(G_n=k)=\frac{1}{n}\left(1-\frac{1}{n}\right)^{k-1}. \]
  1. Calculer la fonction caractéristique de \(G_n\).
  2. En déduire, pour \(n\in\mathbf{N}^\ast\), la fonction caractéristique de \(G_n/n\) et montrer que la suite de variables aléatoires \((G_n/n)\) converge en loi vers une variable aléatoire exponentielle de paramètre \(1\).

3.2 Exercices des TDs

Exercice 1 : On lance 2 dés. On considère les événements :
  1. \(A\) : « La somme des deux résultats est paire »,
  2. \(B\) : « L’un au moins des 2 dés donne 1 ».

Modéliser l’expérience puis calculer la probabilité de : \(A\cap B\), \(A\cup B\), \(A\cap \bar{B}\).

Exercice 2 : Calculer l’espérance et la variance de la variable aléatoire \(X\) dans les cas suivants :
  1. \(X\) suit une loi de Bernoulli de paramètre \(p \in [0,1]\) ;
  2. \(X\) suit une loi géométrique de paramètre \(p \in ]0,1[\) ;
  3. \(X\) suit une loi de Poisson de paramètre \(\lambda >0\).
Exercice 3 : On considère une urne contenant \(N\) boules numérotées de \(1\) à \(N\). On tire une boule et on note \(X_N\) son numéro.
  1. Modéliser cette expérience.
  2. Calculer la loi de la variable aléatoire \(X_N\).
  3. Montrer que pour tout réel \(x\) dans \([0,1]\), \[ \mathbf{P}\left(\frac{X_N}{N}\leq x\right)=\frac{\lfloor xN\rfloor}{N}. \]
  4. Montrer que la suite de variable aléatoire \(\left(\frac{X_N}{N}\right)_{N\geq1}\) converge en loi vers la loi uniforme sur \([0,1]\) lorsque \(N\) tend vers l’infini.
Exercice 4 : On modélise la pluviométrie \(P\) d’un jour du mois d’Avril dans un pays tempéré par une variable aléatoire de densité : \[f(x)= c(x^2-100)\mathbf{1}_{[0,10]}(x)\]
  1. Quel est l’ensemble des valeurs possibles pour \(T\) ?
  2. Calculer \(c\).
  3. Calculer \(\mathbf{E}[P]\).
  4. Quelle est la probabilité que \(P\) soit inférieur à \(5\) ?

Exercice 5 : (D’après DS1 2015-2016). On considère la variable aléatoire \(X\) de densité : \[ \forall x\in\mathbf{R},\quad f_X(x)=\frac{1}{x^2}\mathbf{1}_{[1,+\infty[}(x). \] On dit que \(X\) suit la loi de Pareto de paramètre \((1,2)\).

  1. Quelles sont les valeurs possibles pour \(X\) ?
  2. Calculer la fonction de répartition \(F_X\) de \(X\).
  3. On pose \(Z=\frac{1}{X^2}\). Quelles sont les valeurs possibles pour \(Z\) ? Calculer la fonction de répartition \(F_Z\) de \(Z\).
  4. En déduire la densité de \(Z\).
  5. Calculer \(\mathbf{E}(Z)\) et \(\mathbf{V}(Z)\).
Exercice 6 : Soit \(T\) une variable aléatoire qui suit la loi normale centrée réduite. On pose \(X=|T|\).
  1. Exprimer la fonction de répartition \(F\) de \(X\) en fonction de la fonction de répartition \(\Phi\) de la loi normale centrée réduite.
  2. En déduire la densité \(f\) de \(X\).
  3. Calculer l’espérance et la variance de \(X\).