 
 
 
Les lois de probabilités sont des objets mathématiques qui permettent 
aux statisticiens de fabriquer des modéles pour décrire des phénomènes
où le hasard intervient.
Une loi de probabilité est une distribution théorique de fréquences.
Soit Ω un ensemble muni d’une probabilité P. Une variable 
aléatoire X est une application définie sur Ω dans ℝ.
X permet de transporter la loi P en la loi P’ définie sur 
Ω′=X(Ω) : on a P′(xj)=P(X−1(xj))=P(X=xj). 
La loi P′ est appelée loi de X.
Une variable aléatoire discréte X est une application dont la valeur est 
la valeur du caractère étudié, c’est à dire le résultat d’une 
épreuve.
Si X prend n valeurs x1,...x−n, on définit :
Les n valeurs observées du caractère forment un échantillon de X 
d’ordre n : on dira que ces n valeurs sont les valeurs de n variables
aléatoires X1,X2,...,Xn qui suivent la même loi que X.
Par exemple, lorsqu’on lance un dé, on peut définir la variable aléatoire
X qui est égale à la valeur de la face visible, donc X vaut 1 ou 2 
ou ... 6.
Il y a trop de paramètres en jeu pour pouvoir déterminer le résultat 
du lancer d’un dé, mais à chaque lancer la valeur de X est définie.
Attention
 Ce n’est pas parce que deux variables aléatoires suivent la 
même loi qu’elles sont égales. Par exemple, je lance deux dés, un rouge 
et un vert : la variable X1 égale à la face visible du dé rouge et la 
variable X2 égale à la face visible du dé vert suivent toutes les deux
une loi équirépartie de probabilité p=1/6 sur 
{1,2,3,4,5,6}. 
La loi équirépartie P sur un ensemble Ω à k éléments
ω0,ω1,ωk−1 est définie par : P(ωj)=1/k pour 
tout j=0 .. k−1.
Choisir un élément de Ω selon la loi équirépartie P, c’est 
choisir au hasard un élément de Ω.
La variable aléatoire X suit une loi équirépartie si :
X a pour valeurs  x0,x1,xk−1 et si  P(X=xj)=1/k pour tout 
j=0 .. (k−1).
On a :
µ=E(X)=1/k∑j=0k−1xj
σ2=σ2(X)=1/k∑j=0k−1xj2−µ2
La variable aléatoire X suit une loi de Bernouilli de probabilité 
p, si X vaut 
1 ou 0 avec les probabilités respectives p et 1−p.
On a alors :
E(X)=p,
E(X2)=p,
σ(X)=√p(1−p).
Si la variable aléatoire X 
suit une loi binomiale B(n,p), cela veut dire que X est 
égale au nombre de succès obtenus dans une série de n épreuves de 
Bernouilli de probabilité p. La variable aléatoire X peut donc prendre 
n+1 valeurs : 0,1,...,n.
La loi binomiale B(n,p) est
la somme de n variables de Bernouilli indépendantes.
 On a :
  Proba(X=k)=Cnk pk(1-p)n-k, pour 0 ≤ k ≤ n,
E(X)=np,
σ(X)=√np(1−p).
Exercice
On fabrique des pièces et on suppose que la probabilité pour qu’une 
pièce soit défectueuse est p=0.05 et donc il y a un contrôle de 
ces pièces.
Soit X la variable alèatoire égale au nombre de défectueuses 
trouvées lors d’un contrôle de n=1000 pièces
Déterminer la loi de X ainsi que son espérance et son écart-type.
Ici X suit une loi binomiale B(n,p) de probabilité p.
E(X)=np=50
σ(X)=√np(1−p)=6.89202437604
Si la variable aléatoire Y 
suit la loi, dite loi des fréquences, cela veut dire que Y est 
égale à la fréquence des succès obtenus dans une série de n 
épreuves de Bernouilli de probabilité p. La variable aléatoire Y peut
donc prendre n+1 valeurs : 0,1/n,2/n...,n/n avec les probabilités :
p0=(1−p)n,p−1=comb(n,1)p(1−p)n−1,p−2=comb(n,2)p2(1−p)n−2,...pn.
 On a :
  Proba(Y=k/n)=Cnk pk(1-p)n-k, pour 0 ≤ k ≤ n,
E(Y)=p,
σ(Y)=√p(1−p)/n.
On dit que la variable aléatoire X suit une loi géométrique de 
probabilité p, si X est égale au nombre de tirages à effectuer pour
avoir un succès dans une série d’épreuves de Bernouilli de probabilité 
p. La variable aléatoire X peut donc prendre toutes les valeurs 
entières : 1,..,n,...
On a donc :
Proba(X=1)=p
Proba(X=2)=(1−p)p
.....
Proba(X=n)=(1−p)n−1p
.....
On vérifie que l’on a bien :∑j=1+∞(1−p)k−1p=1
Donc :
F(1)=p
F(n)=∑k=1n(1−p)k−1p=1−(1−p)n
Espérance
| E(X)= | 
 | n(1−p)n−1p= | 
 | 
Variance et Ecart type
| V(X)= | 
 | (n−1/p)2(1−p)n−1p= | 
 | 
| σ(X)= | 
 | 
Exercice
On fabrique des pièces et on suppose que la probabilité pour qu’une 
pièce soit défectueuse est p=0.05 et donc il y a un contrôle de 
ces pièces.
Soit X la variable alèatoire égale à la valeur du nombre de contrôles
effectués pour trouver une pièce défectueuse.
Déterminer la loi de X ainsi que son espérance et son écart-type.
Ici X suit une loi géométrique de probabilité p=0.05.
E(X)=1/p=20
σ(X)=√1−p/p=19.4935886896
La loi binomiale négative est une distribution de probabilité 
discrète. Elle dépend de 2 paramètres : un entier n (le nombre de 
succès attendus) et un réel p de ]0,1[ (la probabilité d’un succés).
On la note NegBin(n,p).
Elle permet de décrire la situation suivante : on fait une suite de tirages 
indépendants (avec pour chaque tirage, la probabilité p d’avoir un 
succès) jusqu’à obtenir n succès.
La variable aléatoire représentant le nombre d’échecs qu’il a fallut avant 
d’avoir n succès, suit alors une loi binomiale négative.
Si on définit comb(n,k) pour n<0 par comb(n,k)=n*(n-1)*..*(n-k-1)/k!, alors
Si X ∈ NegBin(n,p) (n ∈ ℕ et p ∈ ]0;1[) alors
Proba(X=k)=pn*(p-1)k*comb(-n,k)
ce qui justifie le nom de loi binomiale négative et qui facilite le calcul de
l’espérance (égale à n(1−p)/p) et de la variance (égale à 
n(1−p)/p2).
On tape :
On obtient :
La variable aléatoire X suit une loi de Poisson P(λ)
de paramètre λ (λ ≥ 0) si :
- X a pour valeurs les entiers naturels,
-  Prob(X=k)=e−λλk/k!, pour k∈ ℕ.
On a :
E(X)=λ
σ(X)=√λ
Exercice 1
Soit une variable aléatoire X qui vérifie pour λ ≥ 0 et pour 
tout entier n ≥ 1 :
 Prob(X=n)=λ/nProb(X=n−1)
Montrer que X suit une loi de Poisson.
On cherche pour k entier strictement positif :
 Prob(X=k)=λ/kProb(X=k−1)=...
λk/(k)!Prob(X=0).
Donc :
| Prob(X=k)= | 
 | Prob(X=0) | 
On tape :
sum(lambda^k/k!,k=0..inf)
On obtient :
exp(lambda)
On doit avoir :
∑k=0+∞Prob(X=k)=1
Donc on a le relation :
Prob(X=0)*∑k=0+∞λk/k!=exp(λ)*Prob(X=0)=1
c’est à dire :
Prob(X=0)=exp(−λ)
Donc on a bien :
 Prob(X=k)=e−λλk/k!, pour k∈ ℕ
Exercice 2
Soient X et Y deux variables aléatoires indépendantes qui suivent une 
loi de Poisson :
X suit une loi de Poisson 
P(λ1) de paramètre λ1 (λ1 ≥ 0) et
Y suit une loi de Poisson 
P(λ2) de paramètre λ2 (λ2 ≥ 0).
Déterminer la loi de la variable aléatoire Z=X+Y.
On a :
 Prob(X=k)=e−λ1λ1k/k!, pour k∈ ℕ
 Prob(X=k)=e−λ2λ2k/k!, pour k∈ ℕ
Donc :
 Prob(Z=n)=Prob(X+Y=n)=∑k=0nProb(X=k)*Prob(Y=n−k)=∑k=0ne−λ1λ1k/k!*e−λ2λ2n−k/(n−k)!
On sait que :
 (λ1+λ2)n=∑k=0nλ1kλ2n−kn!/k!(n−k)!
Donc :
 Prob(Z=n)=e−(λ1+λ2)(λ1+λ2)n/n!
Donc Z suit une loi de Poisson de paramètre λ1+λ2.
Variable aléatoire absolument continue
Une variable aléatoire X est absolument continue si il existe f(x) telle 
que sa fonction de répartition F(x) est égale à :
| Prob(X≤ x)=F(x)= | ∫ | 
 | f(t)dt | 
Densité de probabilité
La fonction f(x) est appelée densite de probabilité et on a :
| f(x)=F′(x) | 
Espérance mathématique
L’espérance mathématique ou moyenne de x est :
| E(X)= | 
 | = | ∫ | 
 | t*f(t)dt | 
Variance et Ecart type
La variance de X est :
| V(X)= | ∫ | 
 | (t−E(X))2f(t)dt | 
L’ecart type de X est :
| σ(X)= | √ | 
 | 
Définition
On dit que la variable aléatoire X suit une loi uniforme sur un segment 
[a,b] si sa densité de probabilité f(x) est une constante C sur 
[a,b] et est nulle en dehors du segment [a,b].
On a donc :
 C=1/b−a puisque  ∫abCdt=1
F(x)=0 pour x<a
 F(x)=x−a/b−a pour a≤ x<b
F(x)=1 pour x≥ b
Espérance
| E(X)= | 
 | ∫ | 
 | tdt= | 
 | 
Variance et Ecart type
| V(X)= | 
 | ∫ | 
 | (2t−a−b)2dt= | 
 | 
| σ(X)= | 
 | 
Exercice
Soient n variables aléatoires indépendantes Uk qui suivent une loi 
uniforme sur [0,1].
On considère les variables X=Max(Uk) et Y=Min(Uk).
Déterminer les fonctions de répartition de X et Y
Calculer E(X), E(Y), V(X), V(Y).
On a :
Proba(X≤ x)=Proba(U1≤ x) et Proba(U2≤ x)...et Proba(Un≤ x)
Donc puisque les Uk sont indépendantes :
Proba(X≤ x)=Πk=1nProba(Uk≤ x)
Soit :
FX(x)=0 pour x<0
FX(x)=xn pour x∈ [0,1]
FX(x)=1 pour x>1
La densité de probabilités vaut fX(x)=nxn−1 sur [0,1] donc :
 E(X)=n∫01xndx=n/n+1
 V(X)=n∫01(x−n/(n+1))2xn−1dx=n/n3+4*n2+5*n+2
En effet, on tape :
assume(n>=1)
n*int(1(x-n/(n+1))^2*x^(n-1),x=0..1)
On obtient :
n/(n^3+4*n^2+5*n+2)
On a :
Proba(Y≤ x)=Proba(U1≤ x) ou Proba(U2≤ x)...ou Proba(Un≤ x)
On sait que :
Proba(Y<x)=1−Proba(Y>x) et
Proba(Uk<x)=0 et Proba(Uk>x)=1 si x<0
Proba(Uk<x)=x et Proba(Uk>x)=1−x si 0<x<1
Proba(Uk<x)=1 et Proba(Uk>x)=0 si x>1
On calcule :
 Proba(Y>x)=Proba(U1>x) et Proba(U2>x) et....Proba(Un>x)
Comme les Uk sont independants :
Proba(Y>x)=1 si x<0
Proba(Y>x)=(1−x)n si 0<x<1
Proba(Y>x)=0 si 1<x
Donc :
Proba(Y<x)=1−1=0 si x<0
Proba(Y<x)=1−(1−x)n si 0<x<1
Proba(Y<x)=1−0=1 si x>1
La densité de probabilité est donc :
fY(x)=n(1−x)n−1 sur [0;1] et 0 en dehors de [0;1].
 donc :
 E(Y)=n∫01x(1−x)n−1dx=1/n+1
 V(Y)=n∫01(x−1/(n+1))2(1−x)n−1dx=n/n3+4*n2+5*n+2
En effet, on tape :
assume(n>=1)
n*int(x*(1-x)^(n-1),x=0..1)
On obtient :
1/(n+1)
On tape :
assume(n>=1)
n*int((x-1/(n+1))^2*(1-x)^(n-1),x=0..1)
On obtient :
n/(n^3+4*n^2+5*n+2)
Définition
On dit que la variable aléatoire X suit une loi exponentielle si sa 
densité de probabilité vaut pour a>0 :
f(x)=aexp(−ax) pour x≥ 0 et
f(x)=0 pour x<0
On a donc :
F(x)=Proba(X≤ x)=a∫0xexp(−at)dt=1−exp(−ax)
Espérance
| E(X)=a | ∫ | 
 | texp(−at)dt= | 
 | 
Variance et Ecart type
| V(X)=a | ∫ | 
 | (t−1/a)2exp(−at)dt= | 
 | 
| σ(X)= | 
 | 
La variable aléatoire X suit une loi Normale ou loi de Gauss
de paramètres µ,σ (σ > 0) si :
- X a pour valeurs tous les réels,
- Prob(a ≤ X<b)=∫ab f(t) dt où 
  f(x)=1/σ√2πe−1/2(x−µ/σ)2 (f est la densité de probabilité et a comme représentation 
graphique une courbe en cloche).
On note cette loi N(µ,σ).
On a :
E(X)=µ
σ(X)=σ.
On dit que N(0,1) est la loi normale centrée réduite.
Si X suit la loi N(0,1) alors :
 Prob(a ≤ X<b)=∫ab =1/√2πe−t2/2dt
Si X suit la loi N(µ,σ) alors  X−µ/σ
suit la loi N(0,1).
On a des tables où on peut lire que :
 P(|X−µ|/σ >1.96)=0.05,
 P(|X−µ|/σ >2.58)=0.01,
 P(|X−µ|/σ >3.1)=0.001,
et on a  P(|X−µ|/σ>t)=1−2∫0t f(x)dx.
On montre qu’une loi binomiale B(n,p) peut être approchée :
La distribution des fréquences issues de la répétition d’expériences 
identiques et indépendantes varient alors qu’une loi de probabilité
associée à la réalisation d’une expérience est un invariant.
La fréquence d’un élément est calculée à partir de données 
expérimentales alors que sa probabilité est calculée mathématiquement 
selon le modéle choisi. Les calculs de la statistique consistent à nous 
aider à choisir le bon modèle.
Exemple :
On lance 100 fois, une pièce bien équilibrée, et on obtient 48 faces : 
la probabilité
de tomber sur "face" est 0.5 alors que la fréquence d’apparition des 
"faces" est ici 0.48.
En statistique on étudie la valeur d’un caractère et en en langage 
probabiliste on étudie la valeur d’une variable aléatoire.
En statistique on parle de fréquences et en langage probabiliste on parle de 
probabilité.
En statistique on parle de moyennes et en en langage probabiliste on parle 
d’espérance.
Dans le monde théorique défini par une loi de probabilité P sur un 
ensemble Ω,
les fréquences des éléments de Ω dans une suite de n 
expériences identiques et indépendantes tendent vers leur probabilité 
quand n augmente indéfiniment.
Définition
Soit, deux événements A et B dans un espace de probabilisé.
On dit que les événements A et B sont indépendants si et seulement 
si :
Prob(A∩ B)=Prob(A)*Prob(B)
Définition
La probabilité de B sachant A notée ProbA(B) est la 
probabilité de B quand A est réalisé.
Théorème
On a :
| ProbA(B)= | 
 | 
Exercice
Dans une fabrique de pièces il y a 5% de pièces défectueuses.
Lors des contrôles :
- les pièces bonnes sont refusées avec une probabilité de 4%.
- les pièces défectueuses sont refusées avec une probabilité de 98%.
Calculer pour une pièce :
On a les événements :
A la pièce est acceptée,
R la pièce est refusée,
B la pièce est bonne,
D la pièce est défectueuse.
C la pièce est jugée conforme.
On a les probabilités :
ProbB(R)=0.04
ProbD(R)=0.98
ProbD(A)=0.02
Prob(B)=0.95
Prob(D)=0.05
Une variable aléatoire permet de faire correspondre à un espace 
probabilisable Ω, un espace probabilisable d’univers ℝ.
Définitions
Soit (Ω, τ) un espace probabilisable.
On appelle variable aléatoire sur cet espace toute application X de 
Ω vers ℝ telle que toute 
réunion dénombrables d’intervalles B de ℝ, X−1∈ B.
On appelle fonction de répartition d’une variable aléatoire X la 
fonction F de ℝ dans [0,1] par :
F(x)=Prob(X≥ x).
Une variable aléatoire peut être :
discréte et finie (si X(Ω)={x1,x2....xn}) ou,
discréte et infinie (si X(Ω)={x1,x2....xj...}) ou,
 absolument continue (si sa fonction de répartition 
F(x)=∫−∞xf(t)dt).
La fonction f est
alors appelée densité de probabilité de la variable aléatoire X.
On appelle espérance mathématique (ou moyenne) de la variable aléatoire X, le nombre :
On appelle variance de la variable aléatoire X, le nombre :
On a :
V(X)=E(X2)−E(X)2.
On appelle écart type de la variable aléatoire X, le nombre :
σ(X)=√V(X)
Le processus de Poisson gére les événements qui se produisent 
aléatoirement.
On dit que des événements aléatoires suivent un processus de Poisson 
de paramètre λ si le nombre d’événements produit dans l’intervalle
t suit une loi de Poisson de paramètre λ t.
Si les intervalles de temps sont disjoints le nombre d’événements produit 
dans ces intervalles sont indépendants.
On a donc si N(t) est le nombre d’événements produit dans l’intervalle 
t : Proba(N(t)=k)=e−λ t(λ t)k/k! et donc :
Proba(N(t)=0)=e−λ t
On considère les variables aléatoires T1, T2, Tn qui représentent 
l’intervalle d’attente entre la production de 2 évenements. T1, T2, Tn
sont indépendantes et suivent une loi exponnentielle de paramètre λ,
en effet :
Proba(T1(t)≤ t)=1−Proba(T1(t)≥ t)=1−Proba(N(t)=0)=1−e−λ t.
Soit Sn la variable aléatoire qui représente le temps d’attente de la 
production du n-ième évenement. On a donc :
Sn(t)=T1(t)+T2(t)+...+ Tn(t) et
Proba(Sn(t)≤ t)=Proba (N(t)≥ n)=1−e−λ t∑k=0n−1(λ t)k/k!.
La densité de probabilité fSn(t) de Sn est donc égale à :
 fSn(t)=−e−λ t(−λ ∑k=0n−1(λ t)k/k!+λ ∑k=1n−1(λ t)k−1/(k−1)!)
Donc :
 fSn(t)=λ e−λ t(λ t)n−1/(n−1)!
Sn suit donc une loi gamma ou loi de Erlang de paramètres n et 
λ.
Puisque Sn(t)=T1(t)+T2(t)+...+ Tn(t) et que les Tj sont indépendantes
et suivent la même loi, on a :
 E(Sn)=n*E(T1)=n/λ et
 V(Sn)=n*V(T1)=n/λ2 
On appelle fonction de répartition du couple de variables aléatoires 
discrètes (X,Y) sur le même espace probabilisé, la fonction F 
définie par :
F(x,y)=Prob((X≥ x)∩ (Y≥ y)).
On appelle loi conjointe du couple de variables aléatoires discrètes
(X,Y), l’application p définie par :
p(xi,yj)=Prob((X=xi)∩ (Y=yj)).
On a donc si xpx≤ x<xpx+1 et yqy≤ y<yqy+1 :
F(x,y)=∑i=1px∑i=1qyp(xi,yj).
On appelle loi de probabilités marginales du couple de variables 
aléatoires discrètes (X,Y), les lois de probabilité de X et de Y 
i.e. l’application pX définie par :
p(xi)=Prob(X=xi) et
l’application pY définie par :
p(yj)=Prob(Y=yj).
On appelle répartitions marginales du couple de variables aléatoires
discrètes (X,Y), les fonctions de répartition FX pour X et FY 
pour Y définies par :
FX(x)=Prob(X≤ x) et
FY(y)=Prob(Y≤ y).
On appelle loi de probabilité conditionnelle de Y sachant que X=xi l’application qui a yj fait correspondre :
| 
 | 
On appelle fonction de répartition du couple de variables aléatoires 
continues (X,Y) sur le même espace probabilisé, la fonction F(X,Y) 
définie par :
 F(X,Y)(x,y)=∫−∞x(∫−∞yf(X,Y)(u,v)dv)du.
La fonction f(X,Y) est appelée densité de probabilité du couple de 
variables aléatoires continues (X,Y).
La probabilité relative à un pavé 
D={(x,y)∈ ℝ2 a≤ x ≤ b,c≤ y ≤ d } est :
Prob((X=x et Y=y et (x,y)∈ D ))=∫cd(∫ab f(x,y)dx) dy.
La probabilité relative à un domaine de Borel 
D (D est la reunion (ou intersection) dénombrable d’une suite de pavés)
est :
Prob((X=x et Y=y et (x,y)∈ D ))=∫∫D f(x,y)dx dy.
On appelle répartitions marginales du couple de variables aléatoires
continues (X,Y), les fonctions de répartition FX pour X et FY pour Y 
définie par :
 FX(x)=∫−∞x(∫−∞+∞f(X,Y)(u,v)dv)du et
 FY=∫−∞y(∫−∞+∞f(X,Y)(u,v)du)dv.
On appelle densités marginales du couple de variables 
aléatoires continues (X,Y), les fonctions fX pour X et fY pour Y 
définies par :
 fX(x)=∫−∞+∞f(X,Y)(x,y)dy et
 fY(y)==∫−∞+∞f(X,Y)(x,y)dx.
On a donc :  f(X,Y)(x,y)=∂2F(X,Y)/∂ x ∂ y.
On appelle probabilité conditionnelle de Y sachant que x≤ X≤ x+dx l’application qui a y fait correspondre :
| 
 | 
On appelle densité conditionnelle de Y sachant que x≤ X≤ x+dx l’application fY/X définie par :
| fY/X(y/x)= | 
 | 
Si X et Y sont indépendantes alors f(X,Y)(x,y)=fX(x)* fY(y)
| 
 | 
^2+x*y/2,y=0..2),x=0..1)^2+x*y/2,y=0..2)^2+x))/7^2+u,u=0..x)^3+1/2*x^2))/7^2+x*y/2,y=0..x),x=0..1)^3+1/2*x^2))/7,x=1/2)^2+x*y/2,y=1/2..2),x=0..1/2)^2+x*y/2),y=0..2),x=0..1)^2+x*y/2),y=0..x),x=0..1)| fZ1(z)= | ⎧ ⎪ ⎨ ⎪ ⎩ | 
 | 
^2,z=0..1)+int(z*(2-z),z=1..2)Calcul de V(Z1) et de σ(Z1)
On a :
 V(Z1)=∫−∞+∞(z−1)2fZ1(z)dz=
 ∫01z(z−1)2dz+∫12(z−1)2(2−z)dz
On tape :
int(z*(z-1)^2,z=0..1)+int((z-1)^2*(2-z),z=1..2)
On obtient : 1/6
Donc V(Z1)=1/6 et σ(Z1)=√6/6.
| fZ2(z)= | ⎧ ⎨ ⎩ | 
 | 
Calcul de V(Z2) et de σ(Z2)
On a :
 V(Z2)=∫−∞+∞(z−1)2fZ1(z)dz=∫01(2−2z)(z−1/3)2dz
On tape :
int((2-2z)*(z-1/3)^2,z=0..1)
On obtient : 1/18
Donc V(Z2)=1/18 et σ(Z2)=√2/6
| fZ3(z)= | ⎧ ⎪ ⎨ ⎪ ⎩ | 
 | 
| fZ1(z)= | ⎧ ⎪ ⎨ ⎪ ⎩ | 
 | 
Calcul de V(Z1) et de σ(Z1)
On a :
 V(Z1)=∫−∞+∞(z−3/2)2fZ1(z)dz=∫01(z−3/2)2(1−exp(−z))dz+
 ∫1+∞(z−3/2)2(exp(−z+1)−exp(−z))dz
On tape :
int((z-3/2)^2*(1-exp(-z)),z=0..1)+
int((z-3/2)^2*(exp(-z+1)-exp(-z)),z=1..inf)
On obtient : 13/12
Donc V(Z1)=13/12 et σ(Z1)=√13/(2√3).
| fZ2(z)= | ⎧ ⎪ ⎨ ⎪ ⎩ | 
 | 
Calcul de V(Z2) et de σ(Z2)
On a :
 V(Z2)=∫−∞+∞(z+2exp(−1)−3/2)2fZ1(z)dz
On tape :
normal(int((z+2*exp(-1)-3/2)^2*(1-exp(-(z+1))+exp(-z)-exp(z-1)),z=0..1)+ int((z+2*exp(-1)-3/2)^2*(-exp(-1-z)+exp(-z)),z=1..inf))
On obtient : 6*exp(-1)-4*exp(-2)+(-11)/12
Donc V(Z2)=6exp(−1)−4exp(−2)+(−11)/12 et σ(Z2)=√V(Z2)
| fZ3(z)= | ⎧ ⎨ ⎩ | 
 | 
Calcul de V(Z3) et de σ(Z3)
On a :
 V(Z3)=E(Z32)−(E(Z3))2
E(Z32)=∫0+∞z*(−z*exp(−1/z)+z−exp(−1/z))dz
On tape :
limit(z*(-z*exp(-1/z)+z-exp(-1/z)),z=inf)
On obtient : 1/2
Donc l’intégrale calculant E(Z32) diverge donc on ne peut pas calculer la 
variance de Z3.
^2-y^2)*exp(-x),y=-x..x),x=0..inf)| c= | 
 | 
| Prob(Y<y0|X=x)= | ∫ | 
 | 
 | dy | 
^2-y^2)*exp(-x)/int((x^2-y^2)*exp(-x),y=-x..x),y=-x..y)^2*y-y^3)/(4*x^3)-(1/-2) 
 
