Analyse mathématique du problème

Une difficulté du calcul des probabilités repose sur le modèle choisi pour décrire les résultats d'une expérience aléatoire. Plusieurs exemples historiques (le problème de croix et pile de Simon de Laplace, et plus récemment le  paradoxe  de Bertrand) pointent les obstacles épistémologiques forts liés à cette modélisation. En particulier, l'hypothèse d'équiprobabilité faite sur le modèle permet la définition de la probabilité d'un événement comme le rapport du nombre de cas favorables sur le nombre de cas possibles, comme illustré par [pages 12-13]Laplace1814 et reproduit figure laplace.

Figure: Principes généraux du calcul des probabilités
Image laplace

Le problème proposé repose précisément sur cette modélisation : les univers de probabilité de l'expérience aléatoire consistant à jeter deux dés peuvent être décrits de différentes manières, la modélisation par un univers d'événements élémentaires équiprobables amenant à la réponse :

Dé 1Dé 2 1 2 3 4 5 6
1 0 1 2 3 4 5
2 1 0 1 2 3 4
3 2 1 0 1 2 3
4 3 2 1 0 1 2
5 4 3 2 1 0 1
6 5 4 3 2 1 0


Modélisation de l'univers de probabilité en événements élémentaires équiprobables.

Dans cette modélisation, les concepts fondamentaux d'expérience aléatoire, d'univers de probabilité et d'équiprobabilité sont cruciaux. On peut donc s'attendre dans le déroulement d'une telle situation à des interrogations concernant les relations entre la réalisation de l'expérience concrète, la description de l'expérience aléatoire et la détermination de l'univers de probabilité associé. Une réflexion sur la probabilité des événements élémentaires de cet univers peut conduire à un questionnement sur l'utilisation de la formule de Laplace (La probabilité d'un événement élémentaire est le rapport du nombre de cas possible sur le nombre de cas total dans un univers dont les événements élémentaires sont équiprobables).

Le deuxième aspect du problème est le lien entre la fréquence d'un événement dans une statistique et la probabilité de cet événement dans un modèle. Pour évaluer la probabilité d'un événement, une expérience est réalisée soit concrètement par l'utilisation de dés, soit par simulation en utilisant un générateur de nombres aléatoires.

Cette situation repose sur l'approche fréquentiste des probabilités mais les moyens théoriques d'explication de cette approche ne sont pas disponibles pour des élèves de terminale.

Si on appelle $n_A$ le nombre d'occurrences de l'événement $A$ dans une suite de $n$ expériences, la fréquence de l'événement $A$ se calcule comme le rapport $\frac{n_A}{n}$. La loi des grands nombres stipule alors, dans sa version  faible , que, si l'on considère $n$ variables aléatoires indépendantes d'espérance commune $E(X)$, étant donnée $\epsilon>0$, la probabilité de la moyenne empirique $Y_n=\frac{X_1+X_2+\dots+X_n}{n}$ s'éloigne de l'espérance de plus de $\epsilon$ tend vers 0 lorsque $n$ tend vers l'infini :

\begin{displaymath}\lim_{n\to \infty}p\left(\left\vert\frac{X_1+X_2+\dots+X_n}{n}-E(X)\right\vert\ge \epsilon\right)=0\end{displaymath}

La démonstration repose d'une part sur la linéarité de l'espérance et l'application de l'inégalité de Bienaymé-Tchébycheff :

Notons $\sigma$, l'écart-type commun des $X_i$ :


\begin{displaymath}E(Y_n)=E\left(\frac{1}{n}\sum_{i=1}^nX_i\right)=\frac{1}{n}\sum_{i=1}^nE(X_i)=E(X)\end{displaymath}


\begin{displaymath}Var(Y_n)=Var\left(\frac{1}{n}\sum_{i=1}^nX_i\right)=\frac{1}{n^2}\sum_{i=1}^n \sigma^2=\frac{\sigma^2}{n}\end{displaymath}

L'inégalité de Bienaymé-Tchébicheff donne alors :


\begin{displaymath}p\left(\left\vert Y_n-E(X)\right\vert\ge \epsilon\right)\le \frac{1}{\epsilon^2}Var(Y_n) \le \frac{\sigma^2}{n\epsilon^2}\end{displaymath}

Cette quantité tend vers 0 quand $n$ tend vers l'infini.

Il y a une contradiction entre l'approche fréquentiste de la probabilité qui repose sur la multiplication de l'expérience concrète et de la détermination d'une fréquence d'apparition d'un événement et la détermination  géométrique 4.6 de la probabilité. Ce questionnement est prévisible dans une telle situation.

Enfin, la simulation du hasard s'effectue grâce au générateur de nombres aléatoires du logiciel. En fait, ce générateur produit des suites pseudo-aléatoires engendrées par une graine ; ainsi il est possible de construire deux suites aléatoires identiques en utilisant la même graine. Différents algorithmes déterministes permettent d'obtenir des suites pseudo-aléatoires : on se donne un nombre naturel $M$ qui fixe l'intervalle dans lequel les nombres naturels vont être générés, deux nombres $a$ et $b$ de l'intervalle d'entiers $[0,M[$ et pour chaque séquence de nombres aléatoires un germe $u_0$, un nombre entier de l'intervalle $[0,M[$. On définit alors la suite $u_{n+1}=au_n+b \textrm{ mod}(M)$ ; la suite $u_n/M$ correspond  à peu près  à une suite aléatoire de loi uniforme sur $[0,1]$. Une autre méthode, due à Pierre L'Ecuyer consiste à construire deux suites congruentes générées par $f(x)=\textrm{mod}(r\times x,p)$ et $g(x)=\textrm{mod}(s\times x,q)$ avec $p,q$ deux nombres premiers et $r,s$ deux racines primitives de $p$ et $q$. Les suites engendrées, $u$ et $v$ sont définies par $u_n=\textrm{mod}(r^n,p)$ et $v_n=\textrm{mod}(s^n,q)$. On définit alors la suite $w$ par $w_n=\textrm{mod}(u_n-v_n,p-1)$. Les termes de cette suite sont bien des entiers de l'intervalle $[0,p-1[$ ; la période d'une telle suite est donnée par le ppcm des nombres $p-1$ et $q-1$. La documentation de la calculatrice TI-Nspire ne donne pas d'indications concernant la génération des suites aléatoires, mais c'est certainement cette méthode qui est utilisée Vassard2010. Plusieurs définitions de suites aléatoires peuvent être données ; Kolmogorov définit la complexité de Kolmogorov d'une suite $u$ comme la longueur du plus petit programme écrit pour une machine universelle produisant la suite $u$ : $K_M(u)=\min_{p\in P_M}\l (p),p\rightarrow u\}$. Une suite est aléatoire si la complexité de Kolmogorov est aussi grande que la suite elle-même ; les critiques faites à cette définition proviennent de la non universalité de la définition, puisque les programmes dépendent de la machine ; d'autre part cette complexité de Kolmogorov n'est pas décidable, en ce sens qu'il n'est pas possible de construire un programme qui donne la complexité de Kolmogorov de toute suite donnée en argument Chaitin1966. Martin-Löf définit une propriété  exceptionnelle et effectivement vérifiable , comme une propriété que presque aucune suite de chiffres ne vérifie et dont un programme peut décider avec un risque de se tromper qui diminue lorsque les termes étudiés de la suite augmente. Une suite est alors aléatoire si et seulement si elle ne vérifie aucune propriété  exceptionnelle   c'est-à-dire vérifiée sur une partie de mesure nulle des suites de $\{0,1\}^N$ et  testable  au sens précédent.

Gilles 2012-03-05