Télécharger le PDF

Terminale : Probabilités

Dans ce chapitre, nous allons étudier la notion de probabilités. D'abord, nous la définirons puis ensuite nous reverrons des résultats déjà vus en classe de première spécialité mathématique en introduisant de nouvelles lois.

1. Prérequis

Définition 1. Une issue

En probabilité, on désigne par issue, le résultat donné par une expérience.

Par exemple, si l'on lance une pièce de monnaie, obtenir pile est une issue ; l'autre étant obtenir face. Dans cette expérience, il y a au total deux issues différentes.

Définition 2. Un événement

En probabilité, on désigne par événement, un ensemble d'issues.

Si l'on décide de lancer un dé à six faces, obtenir une face dont le numéro est pair est un événement. Si l'on note \(A\) cet événement, cela se réécrit :

\(A\) : « Obtenir une face dont le numéro inscrit est pair »

Définition 3. L'événement contraire

En probabilité, l'événement contraire (ou le complémentaire) d'un événement \(A\) représente toutes les issues qui ne réalise pas l'événement \(A\). On utilise traditionnellement la notation \(\overline{A}\), ou moins fréquemment \(A^c\).

Dans l'exemple précédent du dé à six faces, l'événement contraire de \(A\) est :

\(\overline{A}\) : « Obtenir une face dont le numéro inscrit n'est pas pair »

cela équivaut à dire,

\(\overline{A}\) : « Obtenir une face dont le numéro inscrit est impair »

Représentation de l'événement contraire

Figure 1. Représentation de l'événement contraire

Définition 4. L'univers

En probabilité, on désigne par l'univers, l'ensemble de tous les issues possibles. On le note \(\Omega\).

Si l'on note \(A\) un événement alors on a \(A\subset \Omega\) et on a même l'égalité suivante :

\[ \Omega = A \cup \overline{A} \quad \textrm{avec} \quad A \cap \overline{A} = \emptyset \]

Dans la suite, nous considérons \(A\) et \(B\) deux événements quelconques alors \(A\subset\Omega\) et \(B\subset\Omega\).

Vocabulaire probabiliste

Dans la suite, nous considérons \(A\) et \(B\) deux événements quelconques alors \(A\subset\Omega\) et \(B\subset\Omega\).

Étudier les événements \(A\) et \(B\) à la fois, c'est étudier leur intersection \(A\cap B\).

Étudier les événements \(A\) ou \(B\) à la fois, c'est étudier leur réunion \(A\cup B\).

Étudier l'événement \(A\) sans compter l'événement \(B\), c'est étudier leur différence \(A\backslash B=A\cap \overline{B}\).

Les événements \(A\) et \(B\) sont disjoints si leur intersection est vide, c'est-à-dire, \(A\cap B=\emptyset\).

Représentation de la réunion

Figure 2. Représentation de la réunion de deux événements

2. Probabilité

Définition 5. Probabilité

Une probabilité \(\mathbb{P}\) est une application, qui associe à un événement \(A\subset\Omega\), un réel positif qui vérifie :

1. La propriété de normalisation : \(\mathbb{P}(\Omega)=1\).
2. La propriété \(\sigma\)-additive : Si \(A\) et \(B\) sont deux événements disjoints alors, \(\mathbb{P}(A\cup B)=\mathbb{P}(A)+\mathbb{P}(B)\).

Définition 6. Cardinal d'un ensemble

Si l'on considère l'univers d'une expérience en probabilité, on appelle son cardinal, le nombre d'issues qu'il contient. On note \(\# \Omega\) ou \(|\Omega|\) le cardinal de l'univers \(\Omega\).

Si l'on considère l'expérience d'un lancer de dé à six faces alors toutes les issues possibles sont : la face 1, la face 2, la face 3, la face 4, la face 5 et la face 6. Au total, notre univers comptabilise 6 issues donc son cardinal vaut 6.

Définition 7. Probabilité d'une issue

Si l'on note \(\omega\) une issue d'un univers \(\Omega\) alors sa probabilité est donnée par :

\[ \mathbb{P}(\{\omega\})= \frac{1}{|\Omega|} \]

(Note: Ceci n'est vrai que pour une loi uniforme, comme précisé plus bas.)

Dans ce cas, obtenir dans un lancer aléatoire la face numérotée 6 correspond à la probabilité :

\[ \mathbb{P}(\{\omega=6\})= \frac{1}{|\Omega|}=\frac{1}{6} \]

Définition 8. Probabilité d'un événement

Si l'on note \(A\) un événement d'un univers \(\Omega\) alors sa probabilité est donnée par :

\[ \mathbb{P}(A)= \frac{|A|}{|\Omega|} \]

Dans le cas où notre événement \(A\) correspond à l'obtention d'une face paire sans trucage, on a :

\[ \mathbb{P}(A)=\frac{|A|}{|\Omega|}= \dfrac{3}{6}=\frac{1}{2} \]

Propriété 1. Probabilité de l'événement contraire

Si l'on note \(A\) un événement et \(\overline{A}\) son contraire alors on a :

\[ \mathbb{P}(\overline{A})=1-\mathbb{P}(A) \]
Preuve

Remarquons que par définition, on a :

\[ \Omega = A \cup \overline{A} \quad \textrm{avec} \quad A \cap \overline{A} = \emptyset \]

En utilisant la \(\sigma\)-additivité de la probabilité \(\mathbb{P}\), on obtient :

\[ \mathbb{P}(\Omega)=\mathbb{P}(A)+\mathbb{P}(\overline{A}) \]

En utilisant la propriété de normalisation, on en déduit que :

\[ 1=\mathbb{P}(A)+\mathbb{P}(\overline{A}) \iff \mathbb{P}(\overline{A})=1-\mathbb{P}(A) \]

d'où le résultat souhaité.

Propriété 2. Probabilité de l'ensemble vide

Si l'on note \(\emptyset\) l'ensemble vide (contenant aucune issue) alors sa probabilité est donnée par :

\[ \mathbb{P}(\emptyset)=0 \]
Preuve

En appliquant la propriété 1 ci-dessus, on a :

\[ \mathbb{P}(\overline{\Omega})=1-\mathbb{P}(\Omega) \]

or le complémentaire de l'univers \(\Omega\), c'est l'ensemble vide \(\emptyset\). On en déduit que :

\[ \mathbb{P}(\emptyset)=0 \]

(Note: Le LaTeX écrit \(\mathbb{P}(\overline{\Omega})=0\), il s'agit d'une coquille pour \(\mathbb{P}(\emptyset)=0\).)

Propriété 3. Probabilité de la différence

Si l'on considère deux événements quelconques \(A\) et \(B\) alors,

\[ \mathbb{P}(A\backslash B)=\mathbb{P}(A)-\mathbb{P}(A\cap B) \]
Preuve

On peut d'abord constater que :

\[ A= (A\backslash B)\cup(A\cap B) \]

par \(\sigma\)-additivité, comme les événements \(A\backslash B\) et \(A\cap B\) sont disjoints alors :

\[ \mathbb{P}(A)=\mathbb{P}(A\backslash B)+\mathbb{P}(A\cap B) \iff \mathbb{P}(A\backslash B)=\mathbb{P}(A)-\mathbb{P}(A\cap B) \]

Propriété 4. Probabilité de la réunion quelconque

Si l'on considère deux événements quelconques \(A\) et \(B\) alors,

\[ \mathbb{P}(A\cup B)=\mathbb{P}(A)+\mathbb{P}(B)-\mathbb{P}(A\cap B) \]
Preuve

Avec un dessin, on peut observer que :

\[ A\cup B=(A\cap \overline{B})\cup(A\cap B)\cup(\overline{A}\cap B) \]

Si l'on introduit les événements \(X=A\cap \overline{B}\), \(Y=A\cap B\) et \(Z=\overline{A}\cap B\) alors on remarque que :

\[ X\cap Y=\emptyset \quad ; \quad X\cap Z=\emptyset \quad \textrm{et} \quad Y\cap Z=\emptyset \]

Donc les événements sont deux à deux disjoints. On peut alors écrire :

\[ \begin{align*} \mathbb{P}(A\cup B)&=\mathbb{P}(X\cup Y \cup Z)\\ &=\mathbb{P}((X\cup Y) \cup Z)\\ &=\mathbb{P}(X\cup Y) + \mathbb{P}(Z)\\ &=\mathbb{P}(X)+\mathbb{P}(Y)+\mathbb{P}(Z)\\ &=\mathbb{P}(A\backslash B)+\mathbb{P}(A\cap B)+\mathbb{P}(B\backslash A)\\ &=\mathbb{P}(A)-\mathbb{P}(A\cap B)+\mathbb{P}(A\cap B)+\mathbb{P}(B)-\mathbb{P}(A\cap B)\\ &=\mathbb{P}(A)+\mathbb{P}(B)-\mathbb{P}(A\cap B) \end{align*} \]

ce qui donne la formule voulue.

Définition 9. Probabilité conditionnelle

Si l'on considère deux événements \(A\) et \(B\), on note \(\mathbb{P}_{B}(A)\) la probabilité que l'événement \(A\) ait lieu sachant que l'événement \(B\) vient de se réaliser à l'instant. Elle est déterminée par la formule suivante :

\[ \mathbb{P}_{B}(A)=\dfrac{\mathbb{P}(A\cap B)}{\mathbb{P}(B)} \]

Propriété 5. Formule de Bayes

Si l'on considère deux événements \(A\) et \(B\), la formule de Bayes permet d'écrire :

\[ \mathbb{P}_{B}(A)=\dfrac{\mathbb{P}(A)}{\mathbb{P}(B)}\mathbb{P}_{A}(B) \]

Remarque : La formule de Bayes permet de calculer une probabilité conditionnelle même si cette probabilité n'est pas dans le sens que l'on souhaitait en inversant l'ordre chronologique. Si l'on veut déterminer la probabilité d'un animal court sachant qu'il a bu peut être fait en connaissant la probabilité qu'un animal boit sachant qu'il a couru. Il suffira alors de connaître en plus les probabilités qu'un animal court et qu'un animal boit.

Propriété 6. Formule des probabilités totales

Soit \(n\) un entier naturel supérieur ou égal à 2. Si l'on considère \(n\) événements notés \(A_1\), \(A_2\) à \(A_n\) tels que \(\displaystyle\Omega=\bigcup_{k=1}^n A_k\), \(\displaystyle \bigcap_{k=1}^n A_k=\emptyset\) (partition) et \(A\) un autre événement alors la formule des probabilités totales énonce :

\[ \mathbb{P}(A)=\sum_{k=1}^n \mathbb{P}_{A_k}(A)\mathbb{P}(A_k) \]

Un exemple classique d'utilisation de la formule des probabilités totales et que si l'on chercher à déterminer la probabilité d'un événement \(B\subset \Omega\) qui a lieu après un événement \(A\subset \Omega\) alors, on peut écrire :

\[ \mathbb{P}(B)=\mathbb{P}_A(B)\mathbb{P}(A)+\mathbb{P}_{\overline{A}}(B)\mathbb{P}(\overline{A}) \]

car \(\Omega=A\cup \overline{A}\) et \(A\cap \overline{A}=\emptyset\).

Définition 10. Événements indépendants

Soient \(A\) et \(B\) deux événements quelconques. On dit que \(A\) et \(B\) sont indépendants si et seulement si,

\[ \mathbb{P}(A\cap B)=\mathbb{P}(A)\times \mathbb{P}(B) \]

3. Variable aléatoire

En général, on exprime des probabilités de grandeurs quantifiables pouvant représenter une issue (une valeur, un ensemble...). On utilise alors les variables aléatoires.

Définition 11. Variable aléatoire réelle

Une variable aléatoire réelle, notée \(X\), est une grandeur mathématique qui associe à un événement, un réel.

Par exemple, on peut définir une variable aléatoire réelle notée \(X\) qui compte le nombre de fois que l'on obtient face lors d'un lancer d'une pièce de monnaie équilibrée.

On considère dans toute la suite, des variables aléatoires discrètes (à valeurs dans \(\mathbb{Z}\)).

Définition 12. Probabilité d'une variable aléatoire

La probabilité d'une variable aléatoire est bien définie, on parle de loi de probabilité de la variable aléatoire. Si l'on note \(X\) une variable aléatoire discrète prenant une suite de valeurs \((x_k)_{k\in\mathbb{N}}\) alors, la loi de probabilité est pleinement déterminée par la suite de probabilités \((\mathbb{P}(X=x_k))_{k\in\mathbb{N}}\).

Cette propriété met en évidence le résultat suivant : si l'événement \(A\) s'écrit \(A=\{x_1,x_5,x_{16}\}\) alors on observe que :

\[ \mathbb{P}(X\in A)=\mathbb{P}(X=x_1)+\mathbb{P}(X=x_5)+\mathbb{P}(X=x_{16}) \]

Plus généralement, si un événement \(A=(y_i)_{i\in\mathbb{N}}\) (suites de réels) alors :

\[ \mathbb{P}(X\in A)=\sum_{i\in\mathbb{N}}\mathbb{P}(X=y_i) \]

Ainsi, on somme les probabilités de chaque événement, c'est exactement la définition de la probabilité d'un événement au sens purement probabiliste.

Propriété 7. Formule des probabilités totale - pour une variable aléatoire

Soit \(X\) une variable aléatoire discrètes prenant la suite de valeurs réelles \(\Omega=(x_k)_{k\in\mathbb{N}}\) alors la probabilité d'un événement \(A\subset\Omega\) est déterminée par la formule des probabilités suivantes :

\[ \mathbb{P}(A)=\sum_{k\in\mathbb{N}}\mathbb{P}_{\{X=x_k\}}(A)\mathbb{P}(X=x_k) \]

Maintenant que nous avons défini la probabilité d'une variable aléatoire discrète en évoquant la notion de loi de probabilité et que nous avons des outils de calcul de probabilités, nous pouvons étudier quelques lois de probabilités classiques.

La suivante est très utilisée dans les tirages au sort ou lancer équilibré (et même pondéré) :

Définition 13. Loi uniforme

Soient \(n\) un entier et \(X\) une variable aléatoire discrètes prenant la suite de valeurs réelles \(\Omega=\{x_1,x_2,...,x_n\}\) alors si la variable aléatoire \(X\) suit une loi uniforme, on a :

\[ \forall k\in [\![ 1~;~ n ]\!], \quad \mathbb{P}(X=x_k)=\dfrac{1}{n} \]

La prochaine est très utilisée dans des expériences aléatoires

Définition 14. Loi de Bernoulli

Soient \(p\in[0,1]\) un réel et \(X\) une variable aléatoire discrètes prenant les valeurs 0 (échec) ou 1 (succès) \(\Omega=\{0,1\}\) alors si la variable aléatoire \(X\) suit une loi de Bernoulli de paramètre de succès \(p\), on a :

\[ \mathbb{P}(X=0)=1-p \quad \textrm{et} \quad \mathbb{P}(X=1)=p \]

Propriété 8. Somme de variables aléatoires

Soient \(\lambda\) un réel, \(X\) et \(Y\) deux variables aléatoires suivant la même loi de probabilité. La combinaison linéaire \(\lambda X+Y\) est aussi une variable aléatoire.

Définition 15. Loi binomiale

Soient \(n\) un entier non nul, \(p\in[0,1]\) et \(X\) une variable aléatoire discrètes prenant la suite de valeurs réelles \(\Omega=[\![ 0~;~ n ]\!]\) alors si la variable aléatoire \(X\) suit une loi binomiale de paramètres \(n\) et \(p\), on a :

\[ \forall k\in [\![ 0~;~ n ]\!], \quad \mathbb{P}(X=k)=\binom{n}{k}p^k(1-p)^{n-k} \]

Une loi binomiale de paramètres \(n\in\mathbb{N}^*\) et \(p\in[0,1]\) n'est rien d'autre qu'une somme de \(n\) variables aléatoires indépendantes entre elles suivant toutes la même loi de Bernoulli de paramètre \(p\). On parle de processus de Bernoulli.

4. Espérance et variance

Dans la section précédente, nous avons vu la notion de variables aléatoires et les lois classiques en probabilité qu'une variable aléatoire pouvait suivre. On peut définir deux grandeurs mathématiques qui utilise des variables aléatoire : l'espérance et la variance.

Définition 16. Espérance

Soient \(n\) un entier et \(X\) une variable aléatoire discrètes prenant la suite de valeurs entières \(\Omega=\{x_1,x_2,...,x_n\}\). On appelle espérance de \(X\), notée \(\mathbb{E}(X)\), la quantité suivante :

\[ \mathbb{E}(X)=\sum_{k=1}^n x_k\cdot\mathbb{P}(X=x_k) \]

Remarque : La principale interprétation de l'espérance que l'on peut faire est la notion de moyenne d'une variable aléatoire. Si \(X\) compte le nombre de boules vertes qu'on tire à chaque tour avec remise dans une urne composée de boules vertes et rouge alors l'espérance de \(X\) représentera la valeur moyenne de boules vertes qu'on tire de l'urne à chaque tour.

Propriété 9. Linéarité de l'espérance

Soient \(\lambda\) un réel, \(X\) et \(Y\) deux variables aléatoires suivant la même loi de probabilité. L'espérance d'une combinaison linéaire est la combinaison linéaire des espérances :

\[ \mathbb{E}(\lambda X+Y)=\lambda \mathbb{E}(X)+\mathbb{E}(Y) \]

Propriété 10. Inégalité de Markov

Soient \(a>0\) et \(X\) une variable aléatoire discrète à valeurs positives dont l'espérance existe qu'on note \(\mathbb{E}(X)\). L'inégalité de Markov permet d'écrire :

\[ \mathbb{P}(X\ge a)\le \frac{\mathbb{E}(X)}{a} \]

Définition 17. Variance

Soient \(n\) un entier et \(X\) une variable aléatoire discrètes prenant la suite de valeurs entières \(\Omega=\{x_1,x_2,...,x_n\}\). On appelle variance de \(X\), notée \(\mathbb{V}(X)\), la quantité suivante :

\[ \mathbb{V}(X)=\mathbb{E}\left((X-\mathbb{E}(X))^2\right) \]

ou sous forme d'une somme,

\[ \mathbb{V}(X)=\sum_{k=1}^n (x_k-\mathbb{E}(X))^2\cdot\mathbb{P}(X=x_k) \]

Propriété 11. Variance d'une transformation affine

Soient \(a\) et \(b\) deux réels, \(X\) une variable aléatoire. On a :

\[ \mathbb{V}(aX+b)=a^2\mathbb{V}(X) \]

Propriété 12. Variance d'une somme de variables aléatoires indépendantes

Soient \(X\) et \(Y\) deux variables aléatoires indépendantes admettant une variance, notées \(\mathbb{V}(X)\) et \(\mathbb{V}(Y)\) respectivement. On peut alors écrire :

\[ \mathbb{V}(X+Y)=\mathbb{V}(X)+\mathbb{V}(Y) \]

Définition 18. Écart-type

Soit \(X\) une variable aléatoire discrète. Si l'on note \(\sigma(X)\) l'écart-type de \(X\) et \(\mathbb{V}(X)\) la variance de \(X\), on établit que :

\[ \sigma(X)=\sqrt{\mathbb{V}(X)} \]

Remarque : L'interprétation principale de l'écart-type est la dispersion visible des valeurs autour de la moyenne, c'est-à-dire l'espérance. Un écart-type faible par rapport à l'espérance signifie que les valeurs sont très concentrées autour de l'espérance. Au contraire, un écart-type élevé par rapport à l'espérance signifie que les valeurs s'éloignent de leur moyenne.

Propriété 13. Inégalité de Bienaymé-Tchebychev

Soient \(a>0\) et \(X\) une variable aléatoire discrète et positive admettant une espérance notée \(\mathbb{E}(X)\) et une variance notée \(\mathbb{V}(X)\). L'inégalité de Bienaymé-Tchebychev permet d'écrire :

\[ \mathbb{P}\left(|X-\mathbb{E}(X))|\ge a\right)\le \dfrac{\mathbb{V}(X)}{a^2} \]

Remarque : L'inégalité de Bienaymé-Tchebychev permet d'avoir une estimation de la probabilité de retrouver la variable aléatoire à une certaine distance de sa moyenne. Rappelons que la notation \(|.|\) désigne la valeur absolue, qui renvoie la valeur positive de la valeur d'entrée.