Le problème proposé repose précisément sur cette modélisation : les univers de probabilité de l'expérience aléatoire consistant à jeter deux dés peuvent être décrits de différentes manières, la modélisation par un univers d'événements élémentaires équiprobables amenant à la réponse :
Dé 1Dé 2 | 1 | 2 | 3 | 4 | 5 | 6 |
1 | 0 | 1 | 2 | 3 | 4 | 5 |
2 | 1 | 0 | 1 | 2 | 3 | 4 |
3 | 2 | 1 | 0 | 1 | 2 | 3 |
4 | 3 | 2 | 1 | 0 | 1 | 2 |
5 | 4 | 3 | 2 | 1 | 0 | 1 |
6 | 5 | 4 | 3 | 2 | 1 | 0 |
Dans cette modélisation, les concepts fondamentaux d'expérience aléatoire, d'univers de probabilité et d'équiprobabilité sont cruciaux. On peut donc s'attendre dans le déroulement d'une telle situation à des interrogations concernant les relations entre la réalisation de l'expérience concrète, la description de l'expérience aléatoire et la détermination de l'univers de probabilité associé. Une réflexion sur la probabilité des événements élémentaires de cet univers peut conduire à un questionnement sur l'utilisation de la formule de Laplace (La probabilité d'un événement élémentaire est le rapport du nombre de cas possible sur le nombre de cas total dans un univers dont les événements élémentaires sont équiprobables).
Le deuxième aspect du problème est le lien entre la fréquence d'un événement dans une statistique et la probabilité de cet événement dans un modèle. Pour évaluer la probabilité d'un événement, une expérience est réalisée soit concrètement par l'utilisation de dés, soit par simulation en utilisant un générateur de nombres aléatoires.
Cette situation repose sur l'approche fréquentiste des probabilités mais les moyens théoriques d'explication de cette approche ne sont pas disponibles pour des élèves de terminale.
Si on appelle le nombre d'occurrences de l'événement
dans une suite de
expériences, la fréquence de l'événement
se calcule comme le rapport
. La loi des grands nombres stipule alors, dans sa version faible , que, si l'on considère
variables aléatoires indépendantes d'espérance commune
, étant donnée
, la probabilité de la moyenne empirique
s'éloigne de l'espérance de plus de
tend vers 0 lorsque
tend vers l'infini :
La démonstration repose d'une part sur la linéarité de l'espérance et l'application de l'inégalité de Bienaymé-Tchébycheff :
Notons , l'écart-type commun des
:
L'inégalité de Bienaymé-Tchébicheff donne alors :
Cette quantité tend vers 0 quand tend vers l'infini.
Il y a une contradiction entre l'approche fréquentiste de la probabilité qui repose sur la multiplication de l'expérience concrète et de la détermination d'une fréquence d'apparition d'un événement et la détermination géométrique 4.6 de la probabilité. Ce questionnement est prévisible dans une telle situation.
Enfin, la simulation du hasard s'effectue grâce au générateur de nombres aléatoires du logiciel. En fait, ce générateur produit des suites pseudo-aléatoires engendrées par une graine ; ainsi il est possible de construire deux suites aléatoires identiques en utilisant la même graine. Différents algorithmes déterministes permettent d'obtenir des suites pseudo-aléatoires : on se donne un nombre naturel qui fixe l'intervalle dans lequel les nombres naturels vont être générés, deux nombres
et
de l'intervalle d'entiers
et pour chaque séquence de nombres aléatoires un germe
, un nombre entier de l'intervalle
. On définit alors la suite
; la suite
correspond à peu près à une suite aléatoire de loi uniforme sur
. Une autre méthode, due à Pierre L'Ecuyer consiste à construire deux suites congruentes générées par
et
avec
deux nombres premiers et
deux racines primitives de
et
. Les suites engendrées,
et
sont définies par
et
. On définit alors la suite
par
. Les termes de cette suite sont bien des entiers de l'intervalle
; la période d'une telle suite est donnée par le ppcm des nombres
et
. La documentation de la calculatrice TI-Nspire ne donne pas d'indications concernant la génération des suites aléatoires, mais c'est certainement cette méthode qui est utilisée Vassard2010. Plusieurs définitions de suites aléatoires peuvent être données ; Kolmogorov définit la complexité de Kolmogorov d'une suite
comme la longueur du plus petit programme écrit pour une machine universelle produisant la suite
:
. Une suite est aléatoire si la complexité de Kolmogorov est aussi grande que la suite elle-même ; les critiques faites à cette définition proviennent de la non universalité de la définition, puisque les programmes dépendent de la machine ; d'autre part cette complexité de Kolmogorov n'est pas décidable, en ce sens qu'il n'est pas possible de construire un programme qui donne la complexité de Kolmogorov de toute suite donnée en argument Chaitin1966. Martin-Löf définit une propriété exceptionnelle et effectivement vérifiable , comme une propriété que presque aucune suite de chiffres ne vérifie et dont un programme peut décider avec un risque de se tromper qui diminue lorsque les termes étudiés de la suite augmente. Une suite est alors aléatoire si et seulement si elle ne vérifie aucune propriété exceptionnelle c'est-à-dire vérifiée sur une partie de mesure nulle des suites de
et testable au sens précédent.
Gilles 2012-03-05