« MATH206 : Probabilités et Statistiques » : différence entre les versions

De Wiki du LAMA (UMR 5127)
Aller à la navigation Aller à la recherche
Aucun résumé des modifications
 
(102 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
Feuilles de TD :
[http://www.lama.univ-savoie.fr/~raffalli/pdfs/TD1-MATH206.pdf 1]
[http://www.lama.univ-savoie.fr/~raffalli/pdfs/TD2-MATH206.pdf 2]
[http://www.lama.univ-savoie.fr/~raffalli/pdfs/TD3-MATH206.pdf 3]

==Introduction==

Statistique descriptive: décrire avec le moins possible de nombres (ou avec un graphique) des données constituées
d'un (très) grand nombre de valeur.

Probabilité: prédire la description précédente sans faire de mesure (à l'aide d'hypothèses).

Statistique mathématique ou inférentielle: comparer la prédiction à la mesure et confirmer ou infirmer des hypothèses scientifiques.

Exemple du dé juste.

==Vocabulaire de probabilité==
==Vocabulaire de probabilité==


* ''' Population ''' : Groupe d'objets étudiés. Elle peut-être :
* Population
**"réelle" : les Français, les étudiants de ce cours...
* Sous-population, échantillon
** "virtuelle" : l'ensemble des lancés de dés possibles...
* Partition
* '''Sous-population, échantillon '''
* Cardinal (Propriété)
* '''Expérience ''' : Choisir un élément dans une population.
* Fréquence (Propriété)
* '''Evénement''' : L'événement se produit lorsque l'élément appartient à la sous-population.
* Variable aléatoire et Série statistique
* '''Partition ''' : Découpage d'un ensemble en plusieurs sous-ensembles disjoints.
* '''Cardinal ''' : Nombre d'éléments d'un ensemble.
* '''Fréquence ''' d'un sous ensemble A &sub; &Omega; : <math> F(A)=\frac{\displaystyle {card(A)}}{\displaystyle{card}(\Omega)} </math>
* '''Variable aléatoire ''' et ''' Série statistique ''' : Application d'une population &Omega; dans un ensemble ''G'' quelconque.


==Estimateur ponctuel==
==Estimateur ponctuel==


* Moyenne et espérance (rappel et "sens")
* '''Moyenne ''' et '''espérance''' (rappel et "sens")
Formule de la moyenne (resp. espérance) d'une série statistique (resp. variable aléatore) X sur un population <math>\Omega</math>:
Formule de la moyenne (resp. espérance) d'une série statistique (resp. variable aléatore) X sur un population <math>\Omega</math>:

<math>\displaystyle M(X) = E(X) = \frac{\sum_{i \in \Omega} X_i}{Card(\Omega)}</math>
<math>\displaystyle M(X) = E(X) = \frac{\sum_{i \in \Omega} X_i}{Card(\Omega)}</math>

La moyenn est le nombre x qui remplace le mieux <math>X_i</math> pour l'ensemble de la population quand on regarde l'erreur quadratique
Remarque: pour avoir le droit d'écrire <math>E(X)</math> il faut que <math>X</math> soit une variable aléatoire numérique, c-à-d une application de <math>\Omega</math> dans <math>\mathbb{R}</math> (remarque hors programme : un espace vectoriel suffirait).
La moyenne est le nombre x qui remplace le mieux <math>X_i</math> pour l'ensemble de la population quand on regarde l' '''erreur quadratique'''
donnée par la formule suivante (preuve facile en dérivant f):
donnée par la formule suivante (preuve facile en dérivant f):
<math>\displaystyle f(x) = \sum_{i \in \Omega} (X_i - x)^2</math>
<math>\displaystyle f(x) = \sum_{i \in \Omega} (X_i - x)^2</math>


On définit deux types d'erreurs :
Cette erreur est d'ailleurs liée à la variance V(X) car:
# ''' l'erreur absolue ''' : <math> \sum_{i \in \Omega} \mid X_i -x \mid </math>
# ''' l'erreur quadratique ''' : <math> \sum_{i \in \Omega} (X_i -x)^2 </math>
On choisit la seconde car la première est plus compliquée.

L'erreur quadratique est aussi liée à la variance V(X) car:


<math>\displaystyle V(X) = \frac{\sum_{i \in \Omega} (X_i - E(X))^2}{Card(\Omega)} = \frac{f(E(x))}{Card(\Omega)}</math>
<math>\displaystyle V(X) = \frac{\sum_{i \in \Omega} (X_i - E(X))^2}{Card(\Omega)} = \frac{f(E(x))}{Card(\Omega)}</math>


Rappel on a aussi <math>V(X) = E(X^2) - E(X)^2</math>
* Propriété de la moyenne (linéarité) : <math>E(X + Y) = E(X) + E(Y)</math> et <math>E(aX) = aE(X)</math>.
* Propriété de la variance : <math>V(X) = E(X^2) - E(X)^2</math> et <math>V(aX) = a^2 V(X)</math>


Notation:
* Propriété de la moyenne (linéarité) E(X + Y) = E(X) + E(Y) et E(aX) = aE(X)
*<math>i \mapsto ...</math> désigne la fonction qui a <math>i</math> associe le contenu des trois petits points. Cela évite de donner des noms à toutes les fonctions (et donc toutes les variables alétoires) ou d'utiliser trop de notations ambigües.


<u>Démonstration de <math>V(X) = E(X^2) - E(X)^2</math></u>
* Définition d'estimateur et de biais
<math>\begin{align}V(X) &= \frac{\sum_{i \in \Omega} (X_i - E(X))^2}{Card(\Omega)} \\
&= E(i \mapsto (X_i - E(X))^2) \\
&= E(i \mapsto X_i^2 - 2 X_i E(X) + E(X)^2) \\
&= E(i \mapsto X_i^2) - 2 E(X) E(i \mapsto X_i) + E(i \mapsto E(X)^2) \\
&= E(X^2) - 2 E(X)^2 + E(X)^2 \\
&= E(X^2) - E(X)^2
\end{align}</math>


* Définition d'estimateur et de biais :
Un estimateur est une "formule" permettant de calculer un nombre à partir de la variable aléatoire restreinte à un échantillon.

Un '''estimateur''' est une "formule" permettant de donner une bonne approximation d'un paramètre statistique à partir de la variable aléatoire restreinte à un échantillon.


Un estimateur estime un paramètre P(X) si il converge vers P(X) lorsque la taille de l'échantillon tend vers la taille de la population
Un estimateur estime un paramètre P(X) si il converge vers P(X) lorsque la taille de l'échantillon tend vers la taille de la population
(cela n'a guère se sens que sur les populations infinies ...)
(cela n'a de sens que sur les populations infinies ...)


Un estimateur pour P(X) est sans biais, si son espérance est égale à P(X) lorsqu'on le considère comme une variable aléatoire sur la population des échantillons de taille n fabriquée à partir de <math>\Omega</math> (notée <math>\Omega^{(n)}</math>).
Un estimateur pour P(X) est '''sans biais''', si son espérance est égale à P(X) lorsqu'on le considère comme une variable aléatoire sur la population des échantillons de taille n fabriquées à partir de <math>\Omega</math> (notée <math>\Omega^{(n)}</math> si il s'agit d'échantillon
sans répétition (ou remise) et sans ordre et <math>\Omega^{n}</math> pour les échantillons avec répétitions (avec remise) et avec ordre).


Notation:
* Estimateur de la moyenne : la moyenne sur l'échantillon est un estimateur sans biais de la moyenne sur la population entière. Si on note
*<math>\hat{P}(X)</math> désigne la valeur du paramètre statistique <math>P</math> sur un échantillon (ici implicite).


<u> Estimateur de la moyenne :</u> la moyenne sur l'échantillon est un estimateur sans biais de la moyenne sur la population entière.
* Estimateur de la variance (avec et sans remise) :


<u>Démonstration :</u>
Si on note <math>\sigma^2</math> la variance d'un échantillon de taille n dans une population de taille N, on obtient un estimateur sans biais
Soit <math>(A_1;...;A_n)</math> l'échantillon (avec ou sans répétition, la preuve est identique) et
<math>\hat{E}(X)=\frac{\sum_{i = 1}^n X_{A_i}}{n} </math> la moyenne sur l'échantillon.
On a:
<math>\begin{align}E(\hat{E}(X)) &= E\left(A \mapsto \frac{\sum_{i = 1}^n X_{A_i}}{n}\right) \\
&= \frac{1}{n} \sum_{i = 1}^n E(A \mapsto X_{A_i}) \\
&= \frac{1}{n} n E(X) = E(X)\end{align} </math>
Explication:
- La première égalité est juste le remplacement de <math>\hat{E}(X)</math> par sa ''vraie'' définition,
c'est à dire la variable aléatoire qui à l'échantillon <math>A</math> associe la moyenne de <math>X</math>
sur cet échantillon.
- La seconde égalité est juste la linéarité de l'espérance. On doit numéroter les éléments de l'échantillon
pour pouvoir faire cette étape sinon la preuve n'est pas tout à fait correcte.
- La troisième égalité vient du fait que pour chaque <math>i</math> on a <math>E(A \mapsto X_{A_i}) = E(X)</math>.
C'est intuitivement vrai, car prendre un échantillon de taille <math>n</math> pour ne retenir que sa i-ème valeur,
revient à juste prendre un individu. Si vous n'êtes pas convaincu, faite le calcul !

*<u>Estimateur de la variance (avec et sans remise) :</u>

Si on note <math>\hat{V}(X)</math> la variance d'un échantillon de taille n dans une population de taille N, on obtient un estimateur sans biais
de la variance avec les formules suivantes:
de la variance avec les formules suivantes:


<math>\displaystyle \frac{n}{n-1}\sigma^2</math> dans le cas de tirage avec remise de l'échantillon
<math>\displaystyle \frac{n}{n-1}\hat{V}(X)</math> dans le cas de tirage avec remise de l'échantillon


<math>\displaystyle \frac{N-1}{N} \frac{n}{n-1}\sigma^2</math> dans le cas de tirage sans remise (qui vaut bien <math>\sigma^2</math> lorque n = N).
<math>\displaystyle \frac{N-1}{N} \frac{n}{n-1}\hat{V}(X)</math> dans le cas de tirage sans remise (qui vaut bien <math>\sigma^2</math> lorque n = N).
<u>Démonstration :</u>
'' Calcul préalable : '' Soit X une variable aléatoire sur &Omega;, On définit <math>Y = (i,j) \mapsto X_i X_j</math> la variable aléatoire sur
<math>\Omega \times \Omega</math> (avec remise) ou sur <math>\Omega \times \Omega \setminus \{(i,i) \mid i \in \Omega\}</math> (sans remise).
* avec remise :
<math>\begin{align} E(Y) &= \frac{1}{N^2} \left( \sum_{i,j \in \Omega} X_iX_j \right) \\
&= \frac{1}{N^2} \left( \sum_{i \in \Omega} X_i \sum_{j \in \Omega} X_j \right) \\
&=E(X)^2
\end{align} </math>
* sans remise :
<math>\begin{align} E(Y)
&=\frac{\sum_{i,j \in \Omega ; i \neq j }X_iX_j}{N^2 - N} \\
&=\frac{\sum_{i,j \in \Omega}X_iX_j - \sum_{i \in \Omega}X_i^2}{N(N-1)} \\
&=\frac{ \left( \sum_{i \in \Omega} X_i \right) ^2 - \sum_{i \in \Omega }X_i^2}{N(N-1)} \\
&= E(X)^2 \frac{N}{N-1} - \frac{E(X^2)}{N-1}
\end{align}</math>
'' Fin de la démonstration :'' Soit &Omega; une population de taille N, soit X une variable aléatoire sur &Omega;, on s'intéresse aux échantillons de taille n.
On a V(X) variance de la population et <math>\hat{V}(X)</math> la variance d'un échantillon <math>A = \{a_1,\dots,a_n\}</math> de taille
<math>n</math>. Là encore, la notation <math>\hat{V}(X)</math> ne fait pas appraître le fait que cette quantité dépend de <math>A</math>. On a
<math>\begin{align}\hat{V}(X) &= \hat{E}(X^2) - \hat{E}(X)^2 \\
&= \frac{1}{n} \sum_{i = 1}^n X_{a_i}^2 - \frac{1}{n^2} \sum_{1 \leq i, j \leq n} X_{a_i}X_{a_j} \\
&= \frac{n-1}{n^2} \sum_{i = 1}^n X_{a_i}^2 - \frac{1}{n^2} \sum_{1 \leq i \neq j \leq n} X_{a_i}X_{a_j}
\end{align}</math>
D'où
<math>\begin{align} E(A \mapsto \hat{V}(X))
&=\frac{n-1}{n^2} \sum_{i = 1}^n E(A \mapsto X_{a_i}^2) - \frac{1}{n^2} \sum_{1 \leq i \neq j \leq n} E(A \mapsto X_{a_i}X_{a_j}) \\
&=\frac{n-1}{n} E(X^2) - \frac{n-1}{n} E(Y)
\end{align}</math>
Pour finir, on utilise le résultat du calcul préalable.
* avec remise : <math> E(A \mapsto \hat{V}(X))= \frac{n-1}{n} (E(X^2) - E(X)^2)= \frac{n-1}{n} V(X) </math>
* sans remise : <math> E(A \mapsto \hat{V}(X))= \frac{n-1}{n} (E(X^2) - E(X)^2 \frac{N}{N-1} + \frac{E(X^2)}{N-1})= \frac{n-1}{n} \frac{N}{N-1}V(X) </math>


On prend donc en général, pour estimateur sans biais de V(X) sur un échantillon <math>A \subset \Omega</math> la valeur appelée variance empirique de Y :
On prend donc en général, pour estimateur sans biais de V(X) sur un échantillon <math>A \subset \Omega</math> la valeur appelée variance empirique de Y :
<math>\displaystyle \sigma'^2 = \frac{1}{Card(A)-1}\sum_{i \in A} (y_i - \overline y)^2</math>
<math>\displaystyle \sigma'^2 = \frac{1}{Card(A)-1}\sum_{i \in A} (y_i - \overline y)^2</math>


Remarque: pour faire le calcul pour l'estimateur de variance, le point principal est de calculer l'espérance de <math>X_1X_2</math> où <math>X_1</math> et <math>X_2</math> sont deux variables aléatoires obtenue à partir d'une variable aléatoire X en choisissant deux individus au hasard. On a besoin de faire ce calcul à la fois pour un choix de deux individus avec remise et sans remise.
Remarque: pour faire le calcul pour l'estimateur de variance, le point principal est de calculer l'espérance de <math>X_1X_2</math> où <math>X_1</math> et <math>X_2</math> sont deux variables aléatoires obtenues à partir d'une variable aléatoire X en choisissant deux individus au hasard. On a besoin de faire ce calcul à la fois pour un choix de deux individus avec remise et sans remise.


==Un peu de dénombrement==
==Un peu de dénombrement==


* Cardinal du '''produit cartésien ''': le produit des cardinaux.
==Probabilité et loi usuelle==

* Tirage '''sans ordre et sans remise ''' de p parmi n, c-à-d nombre de parties à p éléments d'un ensemble à n éléments :

<center><math>\displaystyle C^p_n</math></center>
<u>Démonstration :</u>
On veut choisir p+1 éléments parmi n+1, sans ordre, sans remise. Soit <math> E_n^p </math> l'ensemble des parties à p éléments de {1;...;n}.
<math> E_{n+1}^{p+1}= F_{n+1}^{p+1} \cup G_{n+1}^{p+1}</math> de sorte que <math> F_{n+1}^{p+1} </math> est l'ensemble des p+1 éléments qui contiennent n+1,
et <math> G_{n+1}^{p+1} </math> est l'ensemble des p+1 éléments qui ne contiennent pas n+1. On a <math> F_{n+1}^{p+1} \cap G_{n+1}^{p+1} = \emptyset</math>.
D'autre part <math> G_{n+1}^{p+1}=E_{n}^{p+1} </math>. Soit f: <math> E_n^p \rightarrow F_{n+1}^{p+1}</math>, <math> card(E_{n+1}^{p+1})=card(E_n^p) + card(E_n^{p+1})</math>
''Remarque : '' Deux ensembles en bijection ont le même cardinal.

* Tirage '''avec ordre et sans remise ''' de p parmi n, c-à-d nombre de p-uplets d'un ensemble à n éléments (nombre d'injections de {1;...;p} dans un ensemble à n éléments) :

<center> <math>\displaystyle A^p_n</math></center>
<u>Démonstration:</u>
Soit <math> A_n^p </math> le nombre d'injection, <math> A_n^1=n </math> et <math> A_{n+1}^{p+1}=(n+1) \times A_n^p</math>.
D'où <math> A_n^p= n A_{n-1}^{p-1}=n(n-1)(n-2) ... (n-p+1) </math>

* Tirage '''avec ordre et avec remise ''' de p parmi n, c-à-d nombre de tirage avec remise et avec ordre de p-élemnts parmis n (nombre d'applications de {1;...;p} dans un ensemble à n éléments) :

<center><math>n^p</math></center>
<u>Démonstration :</u>
<math> card(E \times E \times E \times ... \times E)=(cardE)^p=n^p </math>

* Tirage '''sans ordre et avec remise ''' de p parmi n :

<center><math>\displaystyle C^{p}_{n+p-1} = C^{n-1}_{n+p-1}</math></center>
<u>Démonstration : </u>
On place n-1 jetons dans n+p-1 cases, il reste p cases libres. Il y a <math> C_{n+p-1}^{n-1}=C_{n-1+p}^{p}</math> choix.
Soit f: <math> E \rightarrow \begin{Bmatrix}0;\dots;p\end{Bmatrix} </math> soit f associe à x le nombre de fois où x a été choisi.
On a <math> \sum_{x \in E} f(x)=p</math>, ce qui revient à n-1 jetons et p cases vides.

<center> <u>Choix de p éléments parmi n </u>
<table border="1">
<tr> <th> Ordre\Remise </th> <th> Sans (0&le;p&le;n) </th> <th> Avec (0&le;p)</th>
</tr>
<tr> <th> Sans </th> <td> <math>\displaystyle C^p_n</math> </td> <td> <math>\displaystyle C^p_{n+p-1}</math></td> </tr>
<tr> <th> Avec </th> <td> <math>\displaystyle A^p_n</math> </td> <td> <math> n^p </math> </td> </tr>
</table>
</center>


'' Rappel des formules usuelles pour les coefficients binomiaux :''

* avec factorielle : <math>\displaystyle C^p_n = \frac{A^p_n}{p!} = \frac{n!}{(n-p)!p!} = \frac{n(n-1)...(n-p+1)}{p!}</math>
* triangle de Pascal : <math>\displaystyle C^0_n = C^n_n = 1, C^{n-p}_n = C^p_n</math> et <math>\displaystyle C^{p+1}_{n+1} = C^p_n + C^{p+1}_n (0 \leq p \leq n - 1)</math>
* Formule du binôme de Newton et applications comme <math>\displaystyle \sum_{p=0}^n C^p_n = 2^n</math>.

<u>Démonstration : </u>
Soit <math> f(x)=(x+1)^n </math>, <math> f(x)= \sum_{p=0}^n C_n^p x^p</math>. En particulier, f(1)=2<sup>n</sup>.

==Probabilité et lois usuelles==

* ''' Probabilité ''' (ou loi de probabilité) sur un ensemble <math>\Omega</math>: un nombre associé P(E) aux sous-ensembles <math>E \subset \Omega</math> d'un ensemble (pas toujours tous les sous-ensembles) tel que :
** <math>P(\emptyset) = 0</math>
** <math>P(\Omega) = 1</math>
** <math>P(E \cup F) = P(E) + P(F)</math> si <math>E \cap F = \emptyset</math>
:: '' Conséquences : ''
:::&mu; (A <sup>C</sup>)=1- &mu; (A)
::: <math>[(A \Rightarrow B) \Leftrightarrow (A \subset B)] \Rightarrow \mu (B) \geq \mu (A)</math>
::: <math> \mu (A \cup B)= \mu (A) + \mu (B) - \mu (A \cap B)</math> si A et B non disjoints.
* ''' Évènements = Sous-ensemble ''' . Evénements certains, impossibles, incompatibles. Implication entre évènement et inégalité sur les probas.
* Cas des ensembles finis et probabilité uniforme :
: Pour '' définir une loi de probabilité sur un ensemble fini '' &Omega;, il suffit de donner la probabilité des singletons.
<u>Démonstration : </u>
A={x<sub>1</sub>;...;x<sub>n</sub>} avec n=card(A). A={x<sub>1</sub>} &cup; {x<sub>2</sub>} &cup; ... &cup; {x<sub>n</sub>} où les singletons sont disjoints.
D'où &mu; (A)= &mu; (x<sub>1</sub>) + ... + &mu; (x<sub>n</sub>). Donner une loi sur &Omega; fini, c'est donner &mu; (x) pour tout x de &Omega;.

: La '' loi de probabilité uniforme '' sur &Omega; fini est l'unique probabilité sur &Omega; telle que &mu; (x)=p pour tout x dans &Omega; avec <math>p=\frac{1}{card(\Omega)} </math>.
<u>Démonstration : </u>
&Omega; = {x<sub>1</sub>;...;x<sub>N</sub>} avec N=card(&Omega;). D'où &mu; (&Omega;)= &mu; (x<sub>1</sub>) + ... + &mu; (x<sub>N</sub>)=Np. Or &mu; (&Omega;)=1. Donc p=1/N.

: Si A &sub; &Omega; et &mu; est une loi de probabilité uniforme sur &Omega; alors <math>\mu (A)=\frac{ card(A) }{card( \Omega )} </math>.
<u>Démonstration : </u>
N=card(&Omega;) et n=card(A) où A={x<sub>1</sub>;...; x<sub>n</sub}.
On a <math> \mu (A)= \sum_{i=1}^n \mu (x_i)=\sum_{i=1}^n \frac{1}{N}=\frac{n}{N}</math>.


* ''' Loi image ''' (image réciproque d'un ensemble &Omega; dans &Omega;') :

Soit X une variable aléatoire sur &Omega;, à valeurs dans &Omega;' (X fonction de &Omega; dans &Omega;'). On a une loi &mu; sur &Omega;. On construit une loi sur &Omega;', image de &mu; par X et notée &mu;<sub>X</sub>. On a pour A inclus dans &Omega; &mu; (A)=&mu; (X<sup>-1</sup>(A)).

Si &Omega; est un ensemble ordonné et &mu; une loi sur &Omega;, on définit F la ''' fonction de répartition ''' telle que <math> x \in \Omega , F(x)= \mu ( \{ a \in \Omega \mid a \leq x \} )</math>. F est croissante et tend vers 1.
<u>Démonstration :</u>
Si x &le; y &isin; &Omega; et {a/ a &le; x} &sub; {a/a &le; y } alors &mu; ({a/a &le; x}) &le; &mu; ({a/a &le; y}); d'où F(x) &le; F(y).

* ''' Variable aléatoire discrète '''
* Lois discrètes usuelles
** '''Loi indicatrice''' ou '''loi de Bernouilli ''' (I(p)) :

Soit X une variable aléatoire sur &Omega; à valeurs dans {0;1}. X(x)=1 si et seulement si x &isin; E &sub; &Omega; (E=X<sup>-1</sup>(1)).

Cette loi est déterminée par &mu; <sub> X </sub> (1)= &mu; (E)=p (d'où &mu; <sub> X </sub> (0)= &mu; (E<sup>C</sup>)=1-p).

::: Espérance : E(X)=p
::: Variance : V(X)=p(1-p)
::: Ecart-type : <math>\sigma (X)=\sqrt{p(1-p)} </math>
** '''Loi de Pascal''' (Pa(p)) :

&Omega; est muni d'une loi uniforme, E &isin; &Omega; est un événement. On réalise plusieurs expériences '' indépendantes'' jusqu'à obtenir un succès. Soit X le nombre total d'expériences (succès inclus). X est à valeurs dans lN*.

Cette loi est déterminée par &mu; (E)=p &isin; ]0;1[; &mu; (X=k)=(1-p) <sup>k-1</sup>p &isin; ]0;1[.

::: Espérance : E(X)=1/p
::: Variance : V(X)=(1-p)/(p<sup>2</sup>)
::: Ecart-type : <math>\sigma (X)=\sqrt{1-p}/p </math>
** Loi binomiale
** Loi hypergéométrique
** Loi de Poisson
* Lois continues

==Théorème de la limite centrale==


==Intervalle de confiance==
==Intervalle de confiance==

[http://cvresumewritingservices.org/ Resumes]

Dernière version du 30 mai 2011 à 10:07

Feuilles de TD : 1 2 3

Introduction

Statistique descriptive: décrire avec le moins possible de nombres (ou avec un graphique) des données constituées d'un (très) grand nombre de valeur.

Probabilité: prédire la description précédente sans faire de mesure (à l'aide d'hypothèses).

Statistique mathématique ou inférentielle: comparer la prédiction à la mesure et confirmer ou infirmer des hypothèses scientifiques.

Exemple du dé juste.

Vocabulaire de probabilité

  • Population  : Groupe d'objets étudiés. Elle peut-être :
    • "réelle" : les Français, les étudiants de ce cours...
    • "virtuelle" : l'ensemble des lancés de dés possibles...
  • Sous-population, échantillon
  • Expérience  : Choisir un élément dans une population.
  • Evénement : L'événement se produit lorsque l'élément appartient à la sous-population.
  • Partition  : Découpage d'un ensemble en plusieurs sous-ensembles disjoints.
  • Cardinal  : Nombre d'éléments d'un ensemble.
  • Fréquence d'un sous ensemble A ⊂ Ω :
  • Variable aléatoire et Série statistique  : Application d'une population Ω dans un ensemble G quelconque.

Estimateur ponctuel

  • Moyenne et espérance (rappel et "sens")

Formule de la moyenne (resp. espérance) d'une série statistique (resp. variable aléatore) X sur un population :

Remarque: pour avoir le droit d'écrire il faut que soit une variable aléatoire numérique, c-à-d une application de dans (remarque hors programme : un espace vectoriel suffirait).

La moyenne est le nombre x qui remplace le mieux pour l'ensemble de la population quand on regarde l' erreur quadratique donnée par la formule suivante (preuve facile en dérivant f):

On définit deux types d'erreurs :

  1. l'erreur absolue  :
  2. l'erreur quadratique  :

On choisit la seconde car la première est plus compliquée.

L'erreur quadratique est aussi liée à la variance V(X) car:

  • Propriété de la moyenne (linéarité) : et .
  • Propriété de la variance : et

Notation:

  • désigne la fonction qui a associe le contenu des trois petits points. Cela évite de donner des noms à toutes les fonctions (et donc toutes les variables alétoires) ou d'utiliser trop de notations ambigües.
Démonstration de 

  • Définition d'estimateur et de biais :

Un estimateur est une "formule" permettant de donner une bonne approximation d'un paramètre statistique à partir de la variable aléatoire restreinte à un échantillon.

Un estimateur estime un paramètre P(X) si il converge vers P(X) lorsque la taille de l'échantillon tend vers la taille de la population (cela n'a de sens que sur les populations infinies ...)

Un estimateur pour P(X) est sans biais, si son espérance est égale à P(X) lorsqu'on le considère comme une variable aléatoire sur la population des échantillons de taille n fabriquées à partir de (notée si il s'agit d'échantillon sans répétition (ou remise) et sans ordre et pour les échantillons avec répétitions (avec remise) et avec ordre).

Notation:

  • désigne la valeur du paramètre statistique sur un échantillon (ici implicite).

Estimateur de la moyenne : la moyenne sur l'échantillon est un estimateur sans biais de la moyenne sur la population entière.

Démonstration :
Soit  l'échantillon (avec ou sans répétition, la preuve est identique) et 
 la moyenne sur l'échantillon. 
On a:

Explication:
- La première égalité est juste le remplacement de  par sa vraie définition, 
c'est à dire la variable aléatoire qui à l'échantillon  associe la moyenne de 
sur cet échantillon.
- La seconde égalité est juste la linéarité de l'espérance. On doit numéroter les éléments de l'échantillon
pour pouvoir faire cette étape sinon la preuve n'est pas tout à fait correcte. 
- La troisième égalité vient du fait que pour chaque  on a .
C'est intuitivement vrai, car prendre un échantillon de taille  pour ne retenir que sa i-ème valeur,
revient à juste prendre un individu. Si vous n'êtes pas convaincu, faite le calcul !
  • Estimateur de la variance (avec et sans remise) :

Si on note la variance d'un échantillon de taille n dans une population de taille N, on obtient un estimateur sans biais de la variance avec les formules suivantes:

dans le cas de tirage avec remise de l'échantillon

dans le cas de tirage sans remise (qui vaut bien lorque n = N).

Démonstration :
 Calcul préalable :  Soit X une variable aléatoire sur Ω, On définit  la variable aléatoire sur 
 (avec remise) ou sur  (sans remise).
* avec remise : 

* sans remise : 

 Fin de la démonstration : Soit Ω une population de taille N, soit X une variable aléatoire sur Ω, on s'intéresse aux échantillons de taille n. 
On a V(X) variance de la population et  la variance d'un échantillon  de taille
. Là encore, la notation  ne fait pas appraître le fait que cette quantité dépend de . On a 

D'où
 
Pour finir, on utilise le résultat du calcul préalable.
* avec remise : 
* sans remise : 

On prend donc en général, pour estimateur sans biais de V(X) sur un échantillon la valeur appelée variance empirique de Y :

Remarque: pour faire le calcul pour l'estimateur de variance, le point principal est de calculer l'espérance de et sont deux variables aléatoires obtenues à partir d'une variable aléatoire X en choisissant deux individus au hasard. On a besoin de faire ce calcul à la fois pour un choix de deux individus avec remise et sans remise.

Un peu de dénombrement

  • Cardinal du produit cartésien : le produit des cardinaux.
  • Tirage sans ordre et sans remise de p parmi n, c-à-d nombre de parties à p éléments d'un ensemble à n éléments :
         Démonstration :
         On veut choisir p+1 éléments parmi n+1, sans ordre, sans remise. Soit  l'ensemble des parties à p éléments de {1;...;n}.
          de sorte que  est l'ensemble des p+1 éléments qui contiennent n+1,
         et  est l'ensemble des p+1 éléments qui ne contiennent pas n+1. On a . 
         D'autre part . Soit f: , 
         Remarque :  Deux ensembles en bijection ont le même cardinal.
  • Tirage avec ordre et sans remise de p parmi n, c-à-d nombre de p-uplets d'un ensemble à n éléments (nombre d'injections de {1;...;p} dans un ensemble à n éléments) :
         Démonstration:
         Soit  le nombre d'injection,  et . 
         D'où 
  • Tirage avec ordre et avec remise de p parmi n, c-à-d nombre de tirage avec remise et avec ordre de p-élemnts parmis n (nombre d'applications de {1;...;p} dans un ensemble à n éléments) :
         Démonstration :
         
  • Tirage sans ordre et avec remise de p parmi n :
         Démonstration : 
         On place n-1 jetons dans n+p-1 cases, il reste p cases libres. Il y a  choix. 
         Soit f:  soit f associe à x le nombre de fois où x a été choisi. 
        On a , ce qui revient à n-1 jetons et p cases vides.
Choix de p éléments parmi n
Ordre\Remise Sans (0≤p≤n) Avec (0≤p)
Sans
Avec


Rappel des formules usuelles pour les coefficients binomiaux :

  • avec factorielle :
  • triangle de Pascal : et
  • Formule du binôme de Newton et applications comme .
         Démonstration : 
         Soit , . En particulier, f(1)=2n.

Probabilité et lois usuelles

  • Probabilité (ou loi de probabilité) sur un ensemble : un nombre associé P(E) aux sous-ensembles d'un ensemble (pas toujours tous les sous-ensembles) tel que :
    • si
Conséquences :
μ (A C)=1- μ (A)
si A et B non disjoints.
  • Évènements = Sous-ensemble . Evénements certains, impossibles, incompatibles. Implication entre évènement et inégalité sur les probas.
  • Cas des ensembles finis et probabilité uniforme :
Pour définir une loi de probabilité sur un ensemble fini Ω, il suffit de donner la probabilité des singletons.
         Démonstration : 
         A={x1;...;xn} avec n=card(A). A={x1} ∪ {x2} ∪ ... ∪ {xn} où les singletons sont disjoints. 
         D'où μ (A)= μ (x1) + ... + μ (xn). Donner une loi sur Ω fini, c'est donner μ (x) pour tout x de Ω.
La loi de probabilité uniforme sur Ω fini est l'unique probabilité sur Ω telle que μ (x)=p pour tout x dans Ω avec .
         Démonstration : 
         Ω = {x1;...;xN} avec N=card(Ω). D'où μ (Ω)= μ (x1) + ... + μ (xN)=Np. Or μ (Ω)=1. Donc p=1/N.
Si A ⊂ Ω et μ est une loi de probabilité uniforme sur Ω alors .
         Démonstration : 
         N=card(Ω) et n=card(A) où A={x1;...; xn</sub}. 
         On a .


  • Loi image (image réciproque d'un ensemble Ω dans Ω') :

Soit X une variable aléatoire sur Ω, à valeurs dans Ω' (X fonction de Ω dans Ω'). On a une loi μ sur Ω. On construit une loi sur Ω', image de μ par X et notée μX. On a pour A inclus dans Ω μ (A)=μ (X-1(A)).

Si Ω est un ensemble ordonné et μ une loi sur Ω, on définit F la fonction de répartition telle que . F est croissante et tend vers 1.

         Démonstration :
         Si x ≤ y ∈ Ω et  {a/ a ≤ x} ⊂ {a/a ≤ y } alors μ ({a/a ≤ x}) ≤ μ ({a/a ≤ y}); d'où F(x) ≤ F(y).
  • Variable aléatoire discrète
  • Lois discrètes usuelles
    • Loi indicatrice ou loi de Bernouilli (I(p)) :

Soit X une variable aléatoire sur Ω à valeurs dans {0;1}. X(x)=1 si et seulement si x ∈ E ⊂ Ω (E=X-1(1)).

Cette loi est déterminée par μ X (1)= μ (E)=p (d'où μ X (0)= μ (EC)=1-p).

Espérance : E(X)=p
Variance : V(X)=p(1-p)
Ecart-type :
    • Loi de Pascal (Pa(p)) :

Ω est muni d'une loi uniforme, E ∈ Ω est un événement. On réalise plusieurs expériences indépendantes jusqu'à obtenir un succès. Soit X le nombre total d'expériences (succès inclus). X est à valeurs dans lN*.

Cette loi est déterminée par μ (E)=p ∈ ]0;1[; μ (X=k)=(1-p) k-1p ∈ ]0;1[.

Espérance : E(X)=1/p
Variance : V(X)=(1-p)/(p2)
Ecart-type :
    • Loi binomiale
    • Loi hypergéométrique
    • Loi de Poisson
  • Lois continues

Théorème de la limite centrale

Intervalle de confiance

Resumes