Arthur CHARPENTIER, JES 2010, copules
Copules et risques corrélés
Arthur Charpentier
Université Rennes 1
arthur.charpentier@univ-rennes1.fr
http ://freakonometrics.blog.free.fr/
Journées d’Études Statistique, Luminy, Novembre 2010.
1
Arthur CHARPENTIER, JES 2010, copules
“having worked out the basic properties of these functions, I wrote about them to
Fréchet, in English. He asked me to write a note about them in French. While
witting this, I decided I needed a name for those functions. Knowing the word
copula as a grammatical term for a word or expression that links a subject and a
predicate, I felt that this would make an appropriate name for a function that
links a multidimensional distribution to its one-dimensional margins, and used it
as such.” (Abe Sklar en 1959, [61], rapporté par [49]).
... mais la fonction copule apparaît (presque) dans Masstabinvariante
Korrelationtheorie (Hoeffding, 1940).
2
Arthur CHARPENTIER, JES 2010, copules
3
Arthur CHARPENTIER, JES 2010, copules
4
Arthur CHARPENTIER, JES 2010, copules
5
Arthur CHARPENTIER, JES 2010, copules
6
Arthur CHARPENTIER, JES 2010, copules
1 Introduction
1.1 De l’indépendance à la dépendance
Bayes, [7], “events are independent when the happening of any one of the does
neither increase nor abate the probability of the rest”.
Laplace, [40], “si les évènements sont indépendants les uns des autres, la
probabilité de l’existence de leur ensemble est le produit de leur probabilités
particulières”.
Deux évènements A et B sont indépendants si et seulement si
P(A et B) = P(A, B) = P(A) × P(B).
Or P(A et B) = P(A|B) × P(B), donc l’indépendance se caractérise par
P(A|B) = P(A).
7
Arthur CHARPENTIER, JES 2010, copules
Par opposition, on dira que deux évènements sont dépendants si
P(A et B) = P(A, B) = P(A) × P(B).
Deux variables aléatoires X et Y sont indépendantes si, ∀E = EX × EY ,
P((X, Y ) ∈ EX × EY ) = P(X ∈ EX, Y ∈ EY ) = P(X ∈ EX) × P(Y ∈ EY ).
En particulier, si E = (−∞, x] × (−∞, y], ∀x, y ∈ R,
P((X, Y ) ∈ (−∞, x]×(−∞, y]) = F(x, y) = P(X ≤ x)×P(Y ≤ y) = FX(x)×FY (y).
Dans le cas des variables discrètes, en considérant E = {(x, y)}, l’indépendance se
caractérise par
P((X, Y ) = (x, y)) = f(x, y) = P(X = x) × P(Y = y) = fX(x) × fY (y).
Cette dernière relation se généralise aux densités pour des variables continues.
8
Arthur CHARPENTIER, JES 2010, copules
1.2 Le vecteur Gaussien
Mardia [43], “in multivariate analysis, the only distribution leading to tractable
inference is the multivariate normal”.
Définition1
En dimension d, X = (X1, · · · , Xd) admet une distribution Gaussienne si et seulement
si, pour tout a ∈ Rd
, a X suit une loi normale (univariée).
Un vecteur Gaussien est alors caractérisé par deux paramètres, µ = [µi]i=1,··· ,d
(i.e. l’espérance, E(X)) et Σ = [Σi,j]i,j=1,··· ,d (i.e. la variance Var(X)).
Les lois marginales d’un vecteur Gaussien sont également Gaussienne, N(µi, Σi,i).
La structure de dépendance est caractérisée par une matrice de corrélation,
R = [ri,j]i,j=1,··· ,d, où Σi,j = ri,j Σi,iΣj,j, en notant que ri,i = 1.
9
Arthur CHARPENTIER, JES 2010, copules
En utilisant la décomposition de Cholesky, si X⊥
= (X⊥
1 , · · · , X⊥
d ) est un vecteur
Gaussien centré réduit à composantes indépenddantes, alors X = µ + AX⊥
est
un vecteur Gaussien N(µ, AA ), où A est une matrice triangulaire inférieure,
décomposition de Cholesky de la matrice Σ (i.e. AA = Σ).
On retrouve une propriété énoncée par Rosenblatt, [55]),
f(x1, x2, · · · , xd) = f1(x1) · f2|1(x2|x1) · f3|2,1(x3|x2, x1) · · ·
· · · fd|d−1,··· ,2,1(xd|xd−1, · · · , x2, x1).
10
Arthur CHARPENTIER, JES 2010, copules
Remarque1
Les copules seront présentées ici afin d’étudier les risques multiples, i.e. des vecteurs
aléatoires X = (X1, · · · , Xd).
Il est possible de les utiliser pour étudier des séries temporelles, ou des processus, (Xt),
charactérisé par les lois fini-dimensionnelle (Xt1
, Xt2
, · · · , Xtd
), où t1 ≤ t2 ≤ · · · ≤ td.
11
Arthur CHARPENTIER, JES 2010, copules
2 Concepts associés aux vecteurs aléatoires de Rd
La loi d’un vecteur aléatoire X = (X1, · · · , Xd) est caractérisée par
– sa fonction de répartition,
F(x) = P(X ≤ x) = P(X1 ≤ x1, · · · , Xd ≤ xd), ∀x = (x1, · · · , xd) ∈ Rd
.
– sa densité (si elle existe)
f(x) = f(x1, · · · , xd) =
∂d
P(X1 ≤ x1, · · · , Xd ≤ xd)
∂x1 · · · ∂xd
∀x = (x1, · · · , xd) ∈ Rd
, ou sa fonction de probabilité,
f(x) = P(X1 = x1, · · · , Xd = xd).
– sa fonction génératrice
ψ(z) = E ez X
= E ez1X1+···+zdXd
, ∀z = (z1, · · · , zd) ∈ Rd
,
dès lors que l’espérance existe.
12
Arthur CHARPENTIER, JES 2010, copules
Remarque2
Sous des hypothèses de dérivabilités, en dimension d = 1, les moments de X peuvent
être reliées aux dérivées de la fonction génératrice en 0, i.e.
E(Xn
) =
dn
ψ(z)
dzn
z=0
.
On peut obtenir une relation similaire en dimension d ≥ 2, en introduisant les
co-moments,
E(Xn1
1 Xn2
2 · · · Xnd
d ) =
∂n
ψ(z1, · · · , zd)
∂zn1
1 ∂zn2
2 · · · ∂znd
d z=0
,
où n = n1 + · · · + nd. Les premiers moments sont donc
– un vecteur de taille d : l’espérance, [E(Xi)]i=1,··· ,d,
– une matrice d × d : la variance, [E(XiXj)]i,j=1,··· ,d,
– un tableau d × d × d : la skewness [E(XiXjXk)]i,j,k=1,··· ,d, etc.
On note que travailler sur les moments d’ordre supérieur à 2 en dimension d grande va
rapidement être compliqué.
13
Arthur CHARPENTIER, JES 2010, copules
2.1 Classes de Fréchet
Définition2
Soient F1, · · · , Fd d fonctions de répartition R → [0, 1]. On notera F(F1, · · · , Fd)
l’ensemble des fonctions de répartition Rd
→ [0, 1] dont les lois marginales sont
F1, · · · , Fd.
Comme l’ont montré Fréchet et Hoeffding, les classes de Fréchet sont bornées,
Proposition1
Pour tout F ∈ F(F1, · · · , Fd), ∀x ∈ Rd
,
F−
(x) ≤ F(x) ≤ F+
(x)
où
F+
(x) = min{Fi(xi), i = 1, · · · , d},
et
F−
(x) = max{0, F1(x1) + · · · + Fd(xd) − (d − 1)}.
On notera que F+
∈ F(F1, · · · , Fd), alors que générallement F−
/∈ F(F1, · · · , Fd).
14
Arthur CHARPENTIER, JES 2010, copules
Remarque3
Il est possible que F−
∈ F(F1, · · · , Fd) alors que d > 2. Une condition nécessaire et
suffisante est d’avoir soit
d
i=1
Fi(xi) ≤ 1, ∀0 < Fi(xi) < 1; où i = 1, · · · , d,
i.e.
d
i=1
Fi(xi) ≥ d − 1, ∀0 < Fi(xi) < 1; où i = 1, · · · , d.
Mais si F−
/∈ F(F1, · · · , Fd), F−
n’en est pas moins une borne atteignable.
15
Arthur CHARPENTIER, JES 2010, copules
On peut aussi s’intéresser aux classes F(F1,··· ,k, Fk+1,··· ,d).
En dimension d = 3, F(F1,2, F3), cf. [30].
Avec quelques hypothèses de compatibilité, on peut considérer,
F(F1,··· ,k, Fk,··· ,d). En dimension d = 3, F(F1,2, F2,3).
Cette classe est équvialente à F(F1|2, F3|2, F2).
Remarque1
Cette classe n’est pas vide : elle contient le vecteur obtenu en supposant X1 et X3
indépendants, conditionnellement à X3, i.e.
F(x1, x2, x3) =
x2
−∞
F1|2(u)F3|2(u)dF2(u).
Classes définies par les lois des paires : en dimension 3, F(F12, F23, F13)
(moyennant quelques hypothèses de compatibilité).
16
Arthur CHARPENTIER, JES 2010, copules
Exemple1
Soient X = (X1, X2, X3) un vecteur Gaussien centré réduit dont les corrélations
croisées sont r + ε, où r ∈ [−1, 1] et ε ∈ [0, 1 − r], et Y = (Y1, Y2, Y3) dont les lois
marginales sont des lois N(0, 1), et telle que
P(Y1 ≤ y1, Y2 ≤ y2, Y3 ≤ y3) = Φ(y1)Φ(y2)Φ(y3)[1+θ(1−Φ(y1)(1−Φ(y2)(1−Φ(y3)]
On supposera les vecteurs X et Y indépendants. Alors
Z = (Z1, Z2, Z3) =
r
r + ε
(X1, X2, X3) +
ε
r + ε
(Y1, Y2, Y3)
est un vecteur dont les couples (Xi, Xj) suivent des lois Gaussiennes bivariée de
corrélation r ( [37] ou [42]).
17
Arthur CHARPENTIER, JES 2010, copules
2.2 Symmétrie, échangeabilité et indépendance
conditionnelle
Un vecteur aléatoire est dit symmétrique si la loi jointe est invariante par
permutation des composantes,
Définition3
Soit S (n) la classe des permutations de {1, ..., n}. Si X = (X1, ..., Xn) est un vecteur
tel que
Xσ(1), ..., Xσ(n)
L
= (X1, ..., Xn) , ∀σ ∈ S (n) ,
alors X sera dit n-échangeable, ou symmétrique.
De manière équivalente, X sera dit symmétrique si
HX
L
= X, ∀H ∈ P (n) ,
où P (n) désigne l’ensemble des matrices n × n de permutation.
L’échangeabilité est aussi appelé interchangeabilité. [6] disait des risques
échangeables qu’ils étaient “indistingables”.
18
Arthur CHARPENTIER, JES 2010, copules
Définition4
Un suite finie de variables aléatoires {X1, ..., Xn} est dite échangeable si
(X1, ..., Xn)
L
= Xσ(1), ..., Xσ(n)
pour tout permutation σ de {1, ..., n}. Plus généralement, une suite infinie {X1, X2...}
de variables aléatoire est dite échangeable si
(X1, X2, ...)
L
= Xσ(1), Xσ(2), ...
pour tout permutation finie σ de N∗
(i.e. Card {i, σ (i) = i} < ∞).
Définition5
Une suite n-échangeable (Xi) sera dite m-extensible ( pour m > n) si
(X1, ..., Xn)
L
= (Z1, ..., Zn) où (Zi) est une suite de variables m-échangeable.
19
Arthur CHARPENTIER, JES 2010, copules
Exemple2
Soit X1, ..., Xn une séries de variables aléatoires telles que
V ar (Xi) = σ2
et cov (Xi, Xj) = ρσ2
,
pour tout i = 1, ...n, et j = i. Alors
0 ≤ V ar
n
i=1
Xi =
n
i=1
V ar (Xi) +
i=j
cov (Xi, Xj)
= nσ2
+ n (n − 1) ρσ2
,
et de plus ;
ρ ≥ −
1
n − 1
.
=⇒ l’échangeabilité implique une dépendance positive.
20
Arthur CHARPENTIER, JES 2010, copules
Théorème de de Finetti ([4]) : les mesures échangeables peuvent être écrites
comme des mélanges de mesures produits : il existe S telle que pour tout Ai,
P (X1 ∈ A1, ..., Xn ∈ An|S) = P (X1 ∈ A1|S) × ... × P (Xn ∈ An|S) .
Théorème1
Soit X1, X2, ... une suite échangeable, alors il existe Θ telle que, sachant Θ les Xi sont
indépendants.
Corollaire1
Soit X1, X2, ... une suite échangeable de variables suivant une loi de Bernoulli, et notons
Sn = X1 + .... + Xn. Alors la distribution de Sn est un mélange de lois binomiales, i.e.
il existe une loi H définie sur [0, 1] telle que
P (Sn = k) =
1
0
n
k
ωk
(1 − ω)
n−k
dH (ω) .
Exemple3
Survenance de castrophes, cf. polycopié.
21
Arthur CHARPENTIER, JES 2010, copules
2.3 Lois sphériques et elliptiques
On peut aussi définir une invariance par rotations (centrées sur l’origine pour des
vecteurs centrés).
Définition6
On dira que X a une distribution sphérique si
HX
L
= X, ∀H ∈ O (n) ,
où O (n) est l’ensemble des matrices n × n orthogonales (i.e. H H = I).
22
Arthur CHARPENTIER, JES 2010, copules
Exemple4
La distribution N(0, I) est sphérique.
Remarque2
Plusieurs caractérisations des distributions sphériques sont possibles (cf. [24]),
1. HX
L
= X pour tout H ∈ O (n),
2. la fonction caractéristique de X est de la forme E(eit X
) : t → g (t t),
3. X admet la représentation X
L
= RU où R est une variable aléatoire positive,
indépendante de U, vecteur uniformément distribué sur la sphère unité de Rn
,
4. pour tout a ∈ Rn
, a X
L
= a Xi pour tout i = 1, ..., n.
En reprenant la construction du vecteur Gaussien N (µ, Σ) à partir du vecteur
Gaussien centré, à compostantes indépendantes, N (0, I), on dira que X a une
distribution elliptique si X
L
= µ + AY où Y a une distribution sphérique, où
AA = Σ : aussi, X aura une distribution elliptique de paramètres µ, Σ = A A et
φ (caractérisant la distribution sphérique sous-jacente).
Il existe là aussi plusieurs caractérisations de ces distributions sphériques, en
23
Arthur CHARPENTIER, JES 2010, copules
particulier, X admet une représentation de la forme X
L
= µ + RAU où R est une
variable positive, indépendante de U uniformément distribuée sur la sphère unité
de Rn
, et A vérifie AA = Σ.
Exemple5
La distribution t de Student, de paramètres ν > 0, µ et Σ, est obtenue comme loi du
vecteur µ + A
√
mZ/S, où Z ∼ N (0, I) et S ∼ χ2
(ν) sont indépendant. La densité de
la loi t de Student, de paramètres ν, µ et Σ, est alors
x →
Γ ((n + m) /2)
(πm)
n/2
Γ (m/2)
|Σ|
−1/2
1 +
1
m
(x − µ) Σ−1
(x − µ)
−(n+m)/2
(pour reprendre les notations de [24]). Cette densité est représentée sur la Figure 1.
Notons que si m = 1, on retrouve la loi de Cauchy multivariée. On notera que si ν > 1,
µ correspond à l’espérance de X, et que si ν > 2, n
n−2 Σ correspond à la matrice de
variance-covariance de X.
24
Arthur CHARPENTIER, JES 2010, copules
Figure 1 – Exemples de densités t de Student, avec en haut, de gauche à droite,
(r = 0.1, ν = 4) et (r = 0.9, ν = 4), e en bas (r = 0.5, ν = 4) et (r = 0.5, ν = 10).
25
Arthur CHARPENTIER, JES 2010, copules
2.4 Modélisation des portefeuilles homogènes de crédit
cf. KMV(see [15]) ou CreditMetrics ([33]), modélisation des défauts joints dans
un portefeuille d’émetteurs obligataires.
Considérons m émetteurs, que l’on suit sur un horizon temporel donné T
(classiquement une année).
Soit Yi l’indicateur du défaut de l’émetteur i à horizon T, i.e. Yi = 1 si
l’entreprise i fait défaut avant la date T, et Yi = 0 sinon.
Dans les modèles latents, on suppose qu’il existe X = (X1, ..., Xm), à marges
continues et des seuils D1, ..., Dm (en dessous desquels les compagnies sont en
faillite, et font défaut).
Yi = 1 {Xi ≤ Di}, i.e. la probabilité de défaut pour l’émetteur i s’écrit
pi = P (Yi = 1) = P (Xi ≤ Di) = Fi (Di) , pour i = 1, ..., m.
26
Arthur CHARPENTIER, JES 2010, copules
Approche classique,



X ∼ N (0, Σ) , distribution Gaussienne
X ∼ tν (0, Σ) , distribution Student t
où Σ est une matrice de corrélation, avec une unique corrélation croisée ρ > 0,
telle que X soit échangeable. Les seuls sont fixés, et donc, Y est échangeable.
Ces modèles de mélange ont été intensivement utilisés car ils permettent
d’obtenir des modèles facilement interprétables.
Supposons que le vecteur des indicatrices de défaut Y suit une mélange
échangeable de Bernoulli, i.e. il existe Θ à valeurs dans [0, 1] telle que,
conditionnellement à Θ les variables Y1, ..., Ym soient i.i.d., Bernoulli, de
paramètre Θ, i.e.
p = P (un défaut) = P (Yi = 1) = E (Yi) = E (Θ)
pk = P (k défauts) = P (Yi1
= 1, ..., Yik
= 1) = E Θk
=
1
0
qk
dΠ (q) ,
27
Arthur CHARPENTIER, JES 2010, copules
où Π est la distribution de la variable de mélange Θ. Afin de construire un
modèle, plusieurs lois peuvent être considérées



loi Beta : π (q) = β (α, β)
−1
qα−1
(1 − q)
β−1
, α, β > 0.
Probit-normal : Φ−1
(Θ) ∼ N µ, σ2
Logit-normal : log (Θ/ (1 − Θ)) ∼ N µ, σ2
28
Arthur CHARPENTIER, JES 2010, copules
!6 !4 !2 0 2 4 6
0.00.10.20.30.40.50.6
Value of the company
Probit model in dimension 1
DEFAULT
!4 !2 0 2 4
!4!2024
Value of company (1)
Valueofcompany(2)
(1) DEFAULTS
(2)DEFAULTS
Probit model in dimension 2
Figure 2 – Modélisation probit du risque de défaut.
29
Arthur CHARPENTIER, JES 2010, copules
3 Les copules
La notion de copula a été introduite par Sklar en 1959, motivé par les travaux de
Fréchet dans les années 50.
Les copules sont aussi été appelées “fonction de dépendance” par Deheuvels en
1979 ([17]), ou “représentation uniforme” par Kimeldorf et Sampson en 1975
([38]).
Remarque4
Les copules sont apparu chez Hoeffding, mais au lieu de considérer des lois uniformes
sur [0, 1], il considère des lois uniformes sur [−1/2, +1/2].
30
Arthur CHARPENTIER, JES 2010, copules
3.1 Les copules en dimension 2
Définition7
Une copule C : [0, 1]2
→ [0, 1] est une fonction de répartition dont les lois marginales
sont uniforme sur [0, 1].
De manière équivalente, on a la charactérisation suivante
Théorème2
Une copule C : [0, 1]2
→ [0, 1] est une fonction qui vérifie les trois conditions suivantes
– C(u1, 0) = C(0, u2) = 0 pour tout u1, u2 ∈ [0, 1],
– C(u1, 1) = u1 et C(1, u2) = u2 pour tout u1, u2 ∈ [0, 1],
– C est une fonction 2-croissante, i.e. pour tout 0 ≤ ui ≤ vi ≤ 1,
C(v1, v2) − C(v1, u2) − C(u1, v2) + C(u1, u2) ≥ 0.
Les deux premières conditions se traduisent graphiquement par les conditions de
bords de la Figure 3,
31
Arthur CHARPENTIER, JES 2010, copules
Borders of the copula function
!0.2 0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4
!0.20.00.20.40.60.81.01.21.4
!0.2
0.0
0.2
0.4
0.6
0.8
1.0
1.2
Figure 3 – Conditions de bord d’une copule en dimension d = 2, C(u1, 0) =
C(0, u2) = 0, C(u1, 1) = u1 et C(1, u2) = u2.
32
Arthur CHARPENTIER, JES 2010, copules
Si C est la copule associée à un vecteur aléatoire (X1, X2), alors C couple les
fonctions de répartition, au sens où
P(X1 ≤ x1, X2 ≤ x2) = C(P(X1 ≤ x1),P(X2 ≤ x2))
Il est aussi possible de coupler les fonctions de survie, au sens où il existe une
copule C telle que
P(X > x, Y > y) = C (P(X > x), P(Y > y)).
On montre aisément que
C (u1, u2) = u1 + u2 − 1 + C(1 − u1, 1 − u2).
Définition8
La copule de survie C associée à la copule C est la copule définie par
C (u1, u2) = u1 + u2 − 1 + C(1 − u1, 1 − u2).
33
Arthur CHARPENTIER, JES 2010, copules
Si X est un vecteur à compostantes continues, de loi F ∈ F(F1, F2), sa copule est
donnée par
C(u1, u2) = F(F−1
1 (u1), F−1
2 (u2)), ∀u1, u2 ∈ [0, 1].
Notons que C est alors la fonction de répartition du vecteur U = (U1, U2) où
Ui = Fi(Xi), i = 1, 2.
De manière générale, en notant h−1
l’inverse généralisé d’une fonction h : R → R
montone, définie par h−1
(t) = inf{x, h(x) ≥ t, t ∈ R}, la copule
C(u1, u2) = F(F−1
1 (u1), F−1
2 (u2)) est une copule du vecteur X.
Exemple6
Soit {X1, · · · , Xn} un échantillon i.i.d. de loi F, et notons Xi:n la ième plus grande
valeur. Rappelons que les fonctions de répartition de X1:n = min{X1, · · · , Xn} et
Xn:n = max{X1, · · · , Xn} sont respectivement données par
F1:n (x) = 1 − [1 − F (x)]
n
et Fn:n (x) = [F (x)]
n
pour tout x,
34
Arthur CHARPENTIER, JES 2010, copules
et de plus, la fonction de répartition du couple est donnée par
F1,n (x, y) =



F (x)
n
− (F (y) − F (x))
n
, si x < y
F (y)
n
, si x ≥ y
.
On en déduit alors que le copula du coupe (X1:n, Xn:n), noté Cn est de la forme suivante
Cn (u, v) =



v − v1/n
+ (1 − u)
1/n
− 1
n
, si 1 − (1 − u)
1/n
< v1/n
v , si 1 − (1 − u)
1/n
≥ v1/n
,
appelé copule min-max par [57].
On notera que les copules sont des fonctions continues. Plus précisément, elles
vérifient une condition de Lipschitz : pour tout 0 ≤ ui, vi ≤ 1,
|C(u1, u2) − C(v1, v2)| ≤ |u1 − v1| + |u2 − v2|.
35
Arthur CHARPENTIER, JES 2010, copules
3.2 Les copules en dimension d > 2
La propriété de croissance de la fonction de répartition est liée à la propriété de
n-croissance, qui s’interprète comme le fait que
P(x1 ≤ X1 ≤ y1, ..., xd ≤ Xd ≤ yd) ≥ 0 pour X = (X1, ..., Xd) de loi F, pour tout
x ≤ y (au sens xi ≤ yi.
Définition9
Une fonction h : Rd
→ R est dite d-croissante si pour tout hyper-rectangle [a, b] de Rd
,
Vh ([a, b]) ≥ 0, où
Vh ([a, b]) = ∆b
ah (t) = ∆bd
ad
∆bd−1
ad−1
...∆b2
a2
∆b1
a1
h (t) (1)
pour tout t, où
∆bi
ai
h (t) = h (t1, ..., ti−1, bi, ti+1, ..., tn) − h (t1, ..., ti−1, ai, ti+1, ..., tn) . (2)
36
Arthur CHARPENTIER, JES 2010, copules
Increasing functions in dimension 3
Figure 4 – La notion de 3-croissance : on somme la valeur aux différents sommets
de l’hyperrectangle, avec un signe positif ou négatif.
37
Arthur CHARPENTIER, JES 2010, copules
Définition10
Une copule en dimension d est une fonction de répartition sur [0, 1]d
dont les lois
marginales sont uniformes sur [0, 1].
De manière équivalente, les copules sont des fonctions C : [0, 1]d
→ [0, 1] telle que
pour tout 0 ≤ ui ≤ 1 pour tout i = 1, ..., d les conditions suivante sont vérifies,
C(1, ..., 1, ui, 1, ..., 1) = ui, (3)
C(u1, ..., ui−1, 0, ui+1, ..., ud) = 0, (4)
C est d-croissante. (5)
En fait les équations 3 et 4 implique que les marges sont uniformément répartie
sur [0, 1]. De plus, C est croissante par marges, avec une plense une propriété de
Lipschitz, garantissant la continuité de la fonction C (comme en dimension 2).
Le résultat le plus important sur les copules est le théorème de Sklar ([60] ou
[49]),
38
Arthur CHARPENTIER, JES 2010, copules
Théorème3 1. Si C est une copule, et F1, ..., Fd des fonctions de répartition
univariées, alors pour tout (x1, ..., xd) ∈ Rd
,
F(x1, ..., xn) = C(F1(x1), ..., Fd(xd)) (6)
est une fonction de répartition de F(F1, ..., Fd).
2. Réciproquement, si F ∈ F(F1, ..., Fd), il existe une copule C satisfaisant l’équation
6. Cette copule n’est pas forcément unique, mais si les lois marginales F1, ..., Fd
sont continues, elle le sera, avec, pour tout (u1, , ..., ud) ∈ [0, 1]d
,
C(u1, ..., ud) = F(F−1
1 (u1), ..., F−1
d (ud)), (7)
où les fonctions quantiles F−1
1 , ..., F−1
n sont les inverses généralisés (continues à
gauche) des fonctions Fi.
Ce théorème a permis de motiver l’utilisation des copules en tant que “fonctions
de dépendance”, permant de capture des propriétés de dépendance invariants par
changement d’échelle,
39
Arthur CHARPENTIER, JES 2010, copules
Proposition2
Soit (X1, ..., Xd) un vecteur aléatoire de copule C. Soient φ1, · · · , φd, φi : R → R des
fonctions continues strictement croissantes, alors C est la copule du vecteur
(φ1(X1), ..., φd(Xd)).
Une démonstration de ce résultat se trouve dans [37], ou [22], dans un cadre plus
général : en effet, notons que l’hypothèse de continuité des φi n’est pas nécessaire
si les Xi sont continues.
Définition11
Soit C une copule, alors la fonction
C (u1, ..., ud) =
d
k=0

(−1)k
i1,...,ik
C(1, ..., 1, 1 − ui1
, 1, ...1, 1 − uik
, 1, ...., 1)

 ,
(8)
pour tout (u1, ..., ud) ∈ [0, 1] × ... × [0, 1], est une copule, appelée copule de survie, ou
copule duale, de C.
40
Arthur CHARPENTIER, JES 2010, copules
Si (U1, ..., Ud) a pour fonction de répartition C, alors C est la fonction de
répartition du vecteur (1 − U1, ..., 1 − Ud). Et si
P(X1 ≤ x1, · · · , Xd ≤ xd) = C(P(X1 ≤ x1), · · · , P(Xd ≤ xd)),
pour tout (x1, · · · , xd) ∈ R, alors
P(X1 > x1, · · · , Xd > xd) = C (P(X1 > x1), · · · , P(Xd > xd)).
41
Arthur CHARPENTIER, JES 2010, copules
3.3 Propriétés de l’ensemble des copules
Proposition3
La classe des copules est convexe, i.e. si {Cθ, θ ∈ Ξ} est une famile de copules, et que H
est une distributonsur Ξ, alors
C (x1, ..., xn) =
Ξ
Cθ (x1, ..., xn) dH (θ)
est une copule.
Une preuve de se résultat peut être trouvé dans [49].
Exemple7
Les fonctions C⊥
(u1, · · · , ud) =
d
i=1 ui et C+
(u1, · · · , ud) = min{u1, · · · , ud}, sont
des copules (respectivement la copule indépendante et la copule comontone, appelée
aussi borne supérieure de Fréchet-Hoeffding), et pour tout α ∈ [0, 1],
C(u1, · · · , ud) = αC⊥
(u1, · · · , ud) + [1 − α]C+
(u1, · · · , ud),
est une copule.
42
Arthur CHARPENTIER, JES 2010, copules
3.4 Copules, quasi-copules et semi-copules
3.4.1 Quelques définitions
La notion de d-croissance correspond à avoir une masse positive sur tout
hyperrectangle, i.e.
P(U ∈ [a, b]) ≥ 0,
où [a, b] = [a1, b1] × · · · × [ad, bd].
D’autres notions de “croissance” ont été définie dans la littérature.
Une condition plus faible est de supposer une relation de ce genre mais
uniquement pour les hyperrectangles touchant un bord, i.e. il existe
i ∈ {1, · · · , d} tel que ai = 0 ou bi = 1.
Comme l’a montré [3], cette condition est équivalente à demander une croissance
par composante, et que la condition de Lipschitz soit vérifiée.
43
Arthur CHARPENTIER, JES 2010, copules
Définition12
Une fonction Q : [0, 1]d
→ [0, 1] est une quasi-copule si pour tout 0 ≤ ui ≤ 1,
i = 1, · · · , d,
Q(1, ..., 1, ui, 1, ..., 1) = ui, (9)
Q(u1, ..., ui−1, 0, ui+1, ..., ud) = 0, (10)
s → Q(u1, ..., ui−1, s, ui+1, ..., ud) est une fonction croissante, pour tout i, et
|Q(u1, · · · , ud) − Q(v1, · · · , vd)| ≤ |u1 − v1| + · · · + |ud − vd|.
Exemple8
Les copules sont des quasi-copules. De plus, C−
qui n’était pas une copule est en
revanche une quasi-copule.
Les quasi-copules sont intéressantes car elles apparaissent naturelles dès que l’on
cherche des bornes à des ensembles de copules.
44
Arthur CHARPENTIER, JES 2010, copules
Proposition4
Soit C un ensemble non vide de copules (éventuellement fermé), et notons C−
et C+
les
bornes de C, au sens où
C−
(u) = inf{C(u), C ∈ C} et C+
(u) = sup{C(u), C ∈ C}.
Alors C−
et C+
sont les meilleurs bornes possibles pour C, mais en général, C−
/∈ C et
C+
/∈ C, et ne sont générallement pas des copules. En revanche, C−
et C+
sont des
quasi-copules.
Remarque5
Cette façon d’écrire les quasi-copules (comme des bornes inférieures) d’ensembles de
copules rappelle la construction des capacités comme des bornes inférieurs d’ensemble
de probabilités.
45
Arthur CHARPENTIER, JES 2010, copules
Définition13
Une fonction S : [0, 1]d
→ [0, 1] est une semi-copule si pour tout 0 ≤ ui ≤ 1,
i = 1, · · · , d,
S(1, ..., 1, ui, 1, ..., 1) = ui, (11)
S(u1, ..., ui−1, 0, ui+1, ..., ud) = 0, (12)
et s → S(u1, ..., ui−1, s, ui+1, ..., ud) sur [0, 1].
46
Arthur CHARPENTIER, JES 2010, copules
Exemple9
Soit H l’ensemble de fonctions de distorsion, continues, strictement croissantes
[0, 1] → [0, 1] telles que h (0) = 0 et h (1) = 1.
On notera que h ∈ H si et seulement si h−1
∈ H
i.e. (H, ◦) est un groupe, où ◦ est l’opérateur de composition.
L’élément neutre est la fonction identité sur [0, 1].
Pour tout h ∈ H et C ∈ C (l’ensemble des copules), posons
Ψh (C) (u1, u2) = h−1
(C (h (u1) , h (u2))), ∀0 ≤ u1, u2 ≤ 1.
On parlera de H-copule. Les H-copules échangeables sont des semi-copules.
Ψh C⊥
est une quasi-copule si et seulement si − log h est convexe.
Dans ce cas on peut écrire
C (u, v) = h−1
(h (u) h (v)) = φ−1
(φ (u) + φ (v)) ,
où h ∈ H est le générateur multiplicatif, et φ = − log h le génrateur additif.
47
Arthur CHARPENTIER, JES 2010, copules
Remarque6
Comme l’a montré [5], la famille S est stable par distortion, au sens où Ψh (C) ∈ S,
pour tout C ∈ S et h ∈ H. Mais cette propriété n’est pas vérifiée pour l’ensemble des
copules C.
Définition14
Une capacité sur un espace (Ω, A) est une fonction d’ensemble ν : A → [0, 1] telle que
ν (∅) = 0, ν (Ω) = 1, et si A ⊂ B, alors ν (A) ≤ ν (B). De plus, la capacité ν est
convexe si et seulement si pour tout A, B, ν (A) + ν (B) ≤ ν (A ∪ B) + ν (A ∩ B).
(cf. la présentation de J.M. Tallon), les capacité sont des notions plus faibles que
les probabilités.
48
Arthur CHARPENTIER, JES 2010, copules
3.5 Simulations aléatoires et copules
Les copules sont des lois de vecteurs dont les marges sur uniformément réparties
sur [0, 1].
Or la simulation de lois repose sur les générateurs de nombres aléatoires (les
fonctions Random) qui génèrent précisément des variables uniformément réparties
sur [0, 1].
Plus précisément, on impose deux conditions aux générateurs de nombres
aléatoires,
– qu’ils génèrent des nombres uniforméments distribués sur [0, 1],
– que des appels consécutifs de fonctions Random génèrent des variables
indépendantes.
on sait générer U⊥
= (U⊥
1 , ..., U⊥
d ) que l’on va utiliser pour simuler ici un vecteur
U = (U1, ..., Ud) dont la loi soit une C, supposée dérivable.
49
Arthur CHARPENTIER, JES 2010, copules
L’idée naturelle est d’utiliser la décomposition à l’aide des lois conditionnelles
itérées
P(U1 ≤ u1, . . . , Ud ≤ ud) = P(Ud ≤ ud|U1 ≤ u1, . . . , Ud−1 ≤ ud−1)
×P(Ud−1 ≤ ud−1|U1 ≤ u1, . . . , Ud−2 ≤ ud−2)
× . . .
×P(U3 ≤ u3|U1 ≤ u1, U2 ≤ u2)
×P(U2 ≤ u2|U1 ≤ u1) × P(U1 ≤ u1).
En commençant par la fin, P(U1 ≤ u1) = u1 puisque U1 suit une loi uniforme.
Ensuite, notons que
50
Arthur CHARPENTIER, JES 2010, copules
P(U2 ≤ u2|U1 = u1)
= P(U2 ≤ u2, U3 ≤ 1, . . . Ud ≤ 1|U1 = u1)
= lim
h→0
P(U2 ≤ u2, U3 ≤ 1, . . . Ud ≤ 1|U1 ∈ [u1, u1 + h])
= lim
h→0
P(u1 ≤ U1 ≤ u1 + h, U2 ≤ u2, U3 ≤ 1, . . . Ud ≤ 1)
P(U1 ∈ [u1, u1 + h])
= lim
h→0
P(U1 ≤ u1 + h, U2 ≤ u2, U3 ≤ 1, . . . Ud ≤ 1) − P(U1 ≤ u1, U2 ≤ u2, U3 ≤ 1, . . .
P(U1 ∈ [u1, u1 + h])
= lim
h→0
C(u1 + h, u2, 1, . . . , 1) − C(u1, u2, 1, . . . , 1)
h
=
∂C
∂u1
C(u1, u2, 1, . . . , 1).
Et de manière plus générale, nous aurions
P(Uk ≤ uk|U1 = u1, . . . , Uk−1 = uk−1) =
∂k−1
∂u1 . . . ∂uk−1
C(u1, . . . , uk, 1, . . . , 1).
Nous avons alors un algorithme simple pour générer U = (U1, .., Un) suivant C à
partir d’un vecteur U⊥
= (U⊥
1 , ..., U⊥
d ) (généré à partir d’appels successifs de
51
Arthur CHARPENTIER, JES 2010, copules
fonction Random),
– générons U1 uniformément sur [0, 1],
u1 ← U⊥
1
– générons U2 suivant la loi conditionnelle ∂1C(·|u1),
u2 ← [∂1C(·|u1)]−1
(U⊥
2 ),
– générons Uk suivant la loi conditionnelle ∂1,...,k−1C(·|u1, ..., uk−1),
uk ← [∂1,...,k−1C(·|u1, ..., uk−1)]−1
(U⊥
k ),
...etc.
52
Arthur CHARPENTIER, JES 2010, copules
Exemple10
On retrouve ici l’idée implicite de l’utilisation de la décomposition de Cholesky : on
génère un vecteur gaussien centré réduit à composantes indépendantes, X⊥
, puis on
pose X = µ + AX⊥
, où A est une matrice triangulaire triangulaire inférieur telle que
AA = Σ, qui permet de générer un vecteur N(µ, Σ).
Aussi, en dimension 2, pour générer un vecteur centré-réduit de corrélation r ∈ (−1, 1),
on pose
– pour la première composante x1 = X⊥
1 ,
– pour la seconde x2 = rx1 +
√
1 − r2X⊥
2 .
53
Arthur CHARPENTIER, JES 2010, copules
!istri&'tion de -
./
010 012 014 014 015 110
0200400
!istri&'tion de 7
./
010 012 014 014 015 110
0100300900
010 012 014 014 015 110
010014015
-ni:orm m<r=ins
!4 !2 0 2 4
!4!2024
St<nd<rd ?<'ssi<n m<r=ins
54
Arthur CHARPENTIER, JES 2010, copules
Exemple11
Considérons la copule de Clayton (en dimension d = 2,
C(u1, u2) = (u−α
1 + u−α
2 − 1)−1/α
, où α ≥ 0. Alors (U1, U2) a pour distribution C si et
seulement U1 suit une loi uniforme sur [0, 1] et que U2|U1 = u1 a pour loi conditionnelle
P(U2 ≤ u2|U1 = u1) = ∂2C(u2|u1) = (1 + uα
1 [u−α
2 − 1])−1−1/α
.
L’algorithme pour générer une copule de Clayton est alors de la forme suivante,
– générons U1 uniformément sur [0, 1],
u1 ← U⊥
1 ,
– générons U2 suivant la loi conditionnelle ∂2C(·|u),
u2 ← [∂1C(·|u1)]−1
(U⊥
2 ) = [(U⊥
2 )−α/(1+α)
− 1]u−α
1 + 1
−1/α
.
Un example de simulation de copule de Clayton peut se visualiser sur la Figure suivante,
55
Arthur CHARPENTIER, JES 2010, copules
D"#$%"&u$"on +e U
.y
010 012 014 014 015 110
0200400
D"#$%"&u$"on +e V
.y
010 012 014 014 015 110
0200400
010 012 014 014 015 110
010014015
Un"fo%m ma%;"n#
!2 0 2 4
!2024
S$an+a%+ =au##"an ma%;"n#
56
Arthur CHARPENTIER, JES 2010, copules
Exemple12
En fait, plus générallement, il est possible de trouver un algorithme simple pour générer
une copule Archimédienne. Pour cela,
– générons U1 uniformément sur [0, 1],
u1 ← U⊥
1 ,
– générons U2 suivant la loi conditionnelle ∂2C(·|u),
u2 ← φ−1
(φ (u) − φ(u1)) ,
où u = φ −1
φ (u1)/U⊥
2 .
Notons que [31] ont proposé d’utiliser le fait que C(U1, U2) et φ(U1)/[φ(U1) + φ(U2)]
sont deux variables indépendantes, la première de loi K, où K(t) = t − φ(t)/φ (t), et la
seconde est uniforme sur [0, 1]. Aussi,
– générons U de loi K
u ← K−1
(U⊥
1 ),
– posons
u1 ← φ−1
(U⊥
2 φ(u)) et u2 ← φ−1
([1 − U⊥
2 ]φ(u)).
57
Arthur CHARPENTIER, JES 2010, copules
4 Les familles usuelles de copules
Avant de présenter les copules paramétriques les plus usuelles, on appelera C⊥
la
copule indépendante,
Définition15
On appelera copule indépendante C⊥
la copule définie par
C⊥
(u1, ..., un) = u1 · · · ud =
d
i=1
ui (= Π(u1, ..., un)).
Remarque7
Soit X ∈ F(F1, · · · , Fd). On notera X⊥
∈ F(F1, · · · , Fd) un vecteur dont la copule
est C⊥
. On dira qu’il s’agit d’une version indépendante de X.
58
Arthur CHARPENTIER, JES 2010, copules
4.1 Les bornes de Fréchet-Hoeffding et la comonotonie
La famille des copules est bornée : pour toute copule C,
C−
(u1, ..., ud) ≤ C(u1, ..., ud) ≤ C+
(u1, ..., ud),
pour tout (u1, ..., ud) ∈ [0, 1] × ... × [0, 1], où
C−
(u1, ..., ud) = max{0, u1 + ... + ud − (d − 1)} et C+
(u1, ..., ud) = min{u1, ..., ud}.
Les bornes sont appelées bornes de Fréchet-Hoeffding. On notera que si C+
est
une copule, en revanche C−
est une copule uniquement dans le cas d = 2.
Définition16
La copule comonotone C+
est définie par C+
(u1, ..., ud) = min{u1, ..., ud}.
Définition17
La borne inférieure de Fréchet C−
la fonction définie par
C−
(u1, ..., ud) = max{0, u1 + ... + ud − (d − 1)}. En dimension d = 2, C−
sera
appelée copule anticomonotone.
59
Arthur CHARPENTIER, JES 2010, copules
Remarque8
Soit X ∈ F(F1, · · · , Fd). On notera X+
∈ F(F1, · · · , Fd) une vecteur dont la copule
est C+
. On dira qu’il s’agit d’une version comonotone de X. De manière similaire, en
dimension d = 2, on notera X−
∈ F(F1, F2) une version anticomonone de X.
Figure 5 – Copule anticomontone, copule indépendante, et copule comonotone,
en dimension d = 2.
60
Arthur CHARPENTIER, JES 2010, copules
Proposition5 1. Si d = 2, C−
est la fonction de répartition du couple (U, 1 − U) où
U est uniformément distribuée sur [0, 1].
2. (X1, X2) a pour copule C−
si et seulement s’il exsite φ strictement croissante et ψ
strictement décroissante telles que (X1, X2)
L
= (φ(Z), ψ(Z)) où Z est une variable
aléatoire.
3. C+
est la fonction de répartition du vecteur (U, ..., U) où U est uniformément
distribuée sur [0, 1].
4. (X1, ..., Xn) a pour copule C+
si et seulement s’il existe des fonctions φi
strictement croissantes telles que (X1, ..., Xn)
L
= (φ1(Z), ..., φn(Z)) où Z est une
variable aléatoire.
cf. [49].
61
Arthur CHARPENTIER, JES 2010, copules
Exemple13
Ces bornes sur les copules peuvent en fait fournir des bornes sur certaines quantités. En
particulier, si d = 2, et que φ : R2
→ R est 2-croissante, alors pour tout
(X1, X2) ∈ F(F1, F2)
E(φ(F−1
1 (U), F−1
2 (1 − U))) ≤ E(φ(X1, X2)) ≤ E(φ(F−1
1 (U), F−1
2 (U))),
où U est uniformément répartie sur [0, 1] (cf. [62]).
Exemple14
si X1 et X2 sont comonotones, ainsi que X2 et X3, X1 et X3 peuvent ne pas être
comonotone. Par exemple, si
(X1, X2, X3) = (1, 1, 1) avec probabilité 1/4,
(1, 2, 3) avec probabilité 1/4,
(3, 2, 1) avec probabilité 1/4,
(3, 3, 3) avec probabilité 1/4,
alors X1 et X3 sont indépendants.
62
Arthur CHARPENTIER, JES 2010, copules
Exemple15
si X1 et X2 sont comonotones, et que X2 et X3 sont indépendants, X1 et X3 peuvent ne
pas être indépendants. Aussi, par exemple, avec
(X1, X2, X3) = (1, 1, 3) avec probabilité 1/4,
(2, 1, 1) avec probabilité 1/4,
(2, 3, 3) avec probabilité 1/4,
(3, 3, 1) avec probabilité 1/4,
X1 et X2 sont comonotones, X2 et X3 sont indépendants, et X1 et X3 sont indépendants.
63
Arthur CHARPENTIER, JES 2010, copules
4.2 Les copules elliptiques
Définition1
Soit X ∼ E(µ, Σ, g), et Fg la distribution des variables Xi/ Σi,i. On appelle copule
elliptique de paramètres Σ et g la distribution du vecteur
Fg
X1
Σ1,1
, Fg
X2
Σ2,2
, · · · , Fg
Xd
Σd,d
.
Exemple16
Soit r ∈ (−1, +1), alors la copule Gaussienne de paramètre r (en dimension 2) est
C(u1, u2) =
1
2π
√
1 − r2
Φ−1
(u1)
−∞
Φ−1
(u2)
−∞
exp
x2
− 2rxy + y2
2(1 − r2)
dxdy
où Φ est la fonction de répartition de la loi normale centrée réduite
Φ(x) =
x
−∞
1
√
2π
exp −
z2
2
dz.
64
Arthur CHARPENTIER, JES 2010, copules
Exemple17
Soit r ∈ (−1, +1), et ν, alors la copule de Student de paramètres r et ν est
T −1
ν (u1)
−∞
T −1
ν (u2)
−∞
1
πν
√
1 − r2
Γ ν
2 + 1
Γ ν
2
1 +
x2
− 2rxy + y2
ν(1 − r2)
− ν
2 +1
dxdy.
où Tν est la fonction de répartition de la loi de Student (univariariée) à ν degrés de
libertés, i.e.
Tν(x) =
x
−∞
Γ(ν+1
2 )
√
νπ Γ(ν
2 )
1 +
z2
ν
−( ν+1
2 )
65
Arthur CHARPENTIER, JES 2010, copules
4.3 Les copules Archimédiennes
4.3.1 Les copules Archimédiennes strictes en dimension 2
Définition18
Soit φ une fonction décroissante convexe sur (0, 1] → [0, ∞] telle que φ(1) = 0 et
φ(0) = ∞. On appelera copule Archimédienne stricte de générateur φ la copule définie
par
C(u1, u2) = φ−1
(φ(u1) + φ(u2)), u1, u2 ∈ [0, 1].
Exemple18
Soit φ(t) = tα
− 1 ; la copule associée est la copule de Clayton.
Notons que le générateur n’est pas unique, en particulier en multipliant par une
constante. Les copules Archimédiennes sont des copules symmétriques, au sens où
C(u1, u2) = C(u2, u1).
66
Arthur CHARPENTIER, JES 2010, copules
Exemple19
Il est aussi possible de chercher des copules Archimédiennes vérifiant une propriété de
symmétrie radiale, i.e. C(u1, u2) = C (u1, u2). Ceci n’est possible que si
φ(t) = log
e−αt
− 1
e−α − 1
. Il s’agit de la copule dite de Frank ([26]).
Remarque9
Certains (e.g. [45] ou [21]) préfère une présentation multiplicative,
C(u1, u2) = h−1
[h(u1) · h(u2)].
On retrouve la forme précédante en posant h(t) = exp[φ(t)], ou réciproquement
φ(t) = h(log(t)).
67
Arthur CHARPENTIER, JES 2010, copules
Remarque10
Une autre caractérisation des copules Archimédienne peut se faire à l’aide de la fonction
de Kendall,
K(t) = P(C(U1, U2) ≤ t) = t − λ(t) où λ(t) =
φ(t)
φ (t)
et où (U1, U2) a pour loi C. De façon réciproque,
φ(t) = exp
t
t0
ds
λ(s)
,
où t0 ∈ (0, 1) est une constante arbitraire (nous avions noté que les générateurs étaient
définis à une constante multiplicative près. Cette fonction est particulièrement en
inférence statistique.
68
Arthur CHARPENTIER, JES 2010, copules
on peut généraliser en autorisant φ(0) ≤ ∞.
Définition19
Soit φ une fonction décroissante convexe sur (0, 1] → [0, ∞] telle que φ(1) = 0.
Définissons l’inverse de φ par
φ−1
(t) =



φ−1
(t) , for 0 ≤ t ≤ φ(0)
0 , for φ(0) < t < ∞.
On appelera copule Archimédienne de générateur φ la copule définie par
C(u1, u2) = φ−1
(φ(u1) + φ(u2)), u1, u2 ∈ [0, 1].
Les copules Archimédiennes non strictes présente un ensemble nul
{(u1, u2), φ(u1) + φ(u2) > 0} non vide, pour lequel
P((U1, U2) ∈ {(u1, u2), φ(u1) + φ(u2) > 0}) = 0.
69
Arthur CHARPENTIER, JES 2010, copules
Cet ensemble est majoré par une courbe nulle, {(u1, u2), φ(u1) + φ(u2) = 0}, de
masse
P((U1, U2) ∈ {(u1, u2), φ(u1) + φ(u2) = 0}) = −
φ(0)
φ (0+)
,
qui est non nulle dès lors que −φ (0+
) est finie.
Exemple20
Soit φ(t) = tα
− 1, où α ∈ [−1, ∞), avec le cas limite φ(t) = − log(t) si α = 0 ; la
copule associée est la copule de Clayton. Le générateur est strict si α > 0.
70
Arthur CHARPENTIER, JES 2010, copules
ψ(t) range θ
(1) 1
θ
(t−θ − 1) [−1, 0) ∪ (0, ∞) Clayton, Clayton (1978)
(2) (1 − t)θ [1, ∞)
(3) log
1−θ(1−t)
t
[−1, 1) Ali-Mikhail-Haq
(4) (− log t)θ [1, ∞) Gumbel, Gumbel (1960), Hougaard (1986)
(5) − log
e−θt−1
e−θ−1
(−∞, 0) ∪ (0, ∞) Frank, Frank (1979), Nelsen (1987)
(6) − log{1 − (1 − t)θ} [1, ∞) Joe, Frank (1981), Joe (1993)
(7) − log{θt + (1 − θ)} (0, 1]
(8)
1−t
1+(θ−1)t
[1, ∞)
(9) log(1 − θ log t) (0, 1] Barnett (1980), Gumbel (1960)
(10) log(2t−θ − 1) (0, 1]
(11) log(2 − tθ) (0, 1/2]
(12) ( 1
t
− 1)θ [1, ∞)
(13) (1 − log t)θ − 1 (0, ∞)
(14) (t−1/θ − 1)θ [1, ∞)
(15) (1 − t1/θ)θ [1, ∞) Genest & Ghoudi (1994)
(16) ( θ
t
+ 1)(1 − t) [0, ∞)
71
Arthur CHARPENTIER, JES 2010, copules
4.3.2 Les copules Archimédiennes en dimension d > 2
Les copules Archimédiennes sont associatives (e.g. [58] ou [2]), i.e.
C(C(u1, u2), u3) = C(u1, C(u2, u3)), ∀0 ≤ u1, u2, u3 ≤ 1.
Définition20
Si d > 2, supposons que φ−1
est d-complètement monotone (où, pour rappels, ψ est
d-complètement monotone si elle est continue, et que ses dérivées sont monotones, de
signe alterné, i.e. pour tout k = 0, 1, ..., d, (−1)k
dk
ψ(t)/dtk
≥ 0).
Une copule Archimédienne est alors définie par
C(u1, ..., un) = φ−1
(φ(u1) + ... + φ(un)), ∀u1, ..., un ∈ [0, 1].
72
Arthur CHARPENTIER, JES 2010, copules
Ces copules sont obtenues par itérations successives, en posant
C2(u1, u2) = φ−1
(φ(u1) + φ(u2))
et ensuite, pour n ≥ 2,
Cn+1(u1, · · · , un+1) = C2(Cn(u1, · · · , un), un+1).
Exemple21
Soit ψ une transformée de Laplace d’une variable positive Θ, alors d’après le théorème
de Bernstein, ψ est complètement montone, et ψ(0) = 1. Alors φ = ψ−1
est
complètement montone, et permet d’engendrer une copule Archimédienne de dimension
d pour tout d ≥ 2. Par exemple si Θ suit une loi Gamma d’espérance a et de variance a,
alors ψ(t) = (1 + t)1/α
, on retrouve la copule de Clayton . Cette notation est celle
retenue dans [37] pour définir les copules Archimédiennes,
C(u1, · · · , ud) = ψ(ψ−1
(u1) + · · · + ψ−1
(ud)).
73
Arthur CHARPENTIER, JES 2010, copules
Exemple22
Soit X = (X1, · · · , Xd) un vecteur de durées de vies résidueles, dont la loi de survie
jointe est supposée Schur-constante (i.e. à la fois Schur-concave et Schur-convexe). Alors
il existe S : R+ → [0, 1] telle que
P(X1 > x1, · · · , Xd > xd) = S(x1 + · · · + xd).
Les lois marginales Xi sont alors Schur-contantes (i.e. suivent des lois exponentielles), et
la copule de survie de X est une copule Archimédienne de générateur S−1
. Notons
également que les durées de vies conditionnelles sont identiques, au sens où
P(Xi − xi > t|X > x) = P(Xj − xj > t|X > x),
pour tout t > 0 et x ∈ Rd
+. En particulier, si S est la fonction de survie d’une loi de
Pareto, on obtient la copule de Clayton, et si S est la fonction de survie d’une distribution
de Weibull, on obtient la copule de Gumbel, comme l’a montré [48].
74
Arthur CHARPENTIER, JES 2010, copules
Proposition6
Soit (Cn) une suite de copules absolument continues de copules Archimédiennes, de
générateurs (φn). La limite de Cn lorsque n → ∞ est une copule Archimédienne si et
seulement si une des conditions suivantes est satisfaite,
– il existe φ ∈ Φ telle que s, t ∈ [0, 1],
lim
n→∞
φn(s)
φn(t)
=
φ(s)
φ (t)
. (13)
– il existe λ continue telle que lim
n→∞
λn(t) = λ(t).
– il existe K continue telle que lim
n→∞
Kn(t) = K(t).
– il existe une suite de constante positive (cn) telles que lim
n→∞
cnφn(t) = φ(t), pour tout
t ∈ [0, 1].
Ce résultat a été montré partiellement par [29] et généralisé par [13].
Exemple23
Les copules archimédiennes sont intéressantes en rique de crédit (cf. [47]).
75
Arthur CHARPENTIER, JES 2010, copules
4.4 Les copules Archimédiennes généralisées et
hiérarchiques
Considérons le cas où C(u1, · · · , ud) est
φ−1
1 [φ1[φ−1
2 (φ2[· · · φ−1
d−1[φd−1(u1) + φd−1(u2)] + · · · + φ2(ud−1))] + φ1(ud)]
où les φi sont des générateurs de copules. C est une copule si φi ◦ φ−1
i−1 est
l’inverse d’une transformée de Laplace.
Cette copule est parfois appelée fully nested Archimedean (FNA). On commnece
par coupler deux composantes (ici U1 et U2), puis on couple cette paire avec U3,
etc.
En dimension d = 5, cela donne
φ−1
1 [φ1(φ−1
2 [φ2(φ−1
3 [φ3(φ−1
4 [φ4(u1) + φ4(u2)])
+ φ3(u3)]) + φ2(u4)]) + φ1(u5)].
On peut aussi envisager une construction plus hiérarchique, avec les copules
76
Arthur CHARPENTIER, JES 2010, copules
partially nested Archimedean (PNA), en considérant un couplage complet pour
(U1, U2, U3), un autre pour (U4, U5), et en couplant les deux vecteurs,
φ−1
4 [φ4(φ−1
1 [φ1(φ−1
2 [φ2(u1) + φ2(u2)]) + φ1(u3)])
+ φ4(φ−1
3 [φ3(u4) + φ3(u5)])]
La condition pour avoir effectivement une copule est que φ2 ◦ φ−1
1 soit l’inverse
d’une transformée de Laplace, mais aussi φ4 ◦ φ−1
1 ainsi que φ4 ◦ φ−1
3 .
77
Arthur CHARPENTIER, JES 2010, copules
U1 U2 U3 U4 U5
φ4
φ3
φ2
φ1
U1 U2 U3 U4 U5
φ2
φ1
φ3
φ4
Figure 6 – Copules Archimédiennes fully nested (gauche) et partially nested
(droite)
78
Arthur CHARPENTIER, JES 2010, copules
Enfin, on peut envisager une construction réellement hiérarchique, ne visant pas
uniquement à faire du couplage (deux à deux),
φ−1
3 [φ3(φ−1
1 [φ1(u1) + φ1(u2) + φ1(u3)])
+ φ3(φ−1
2 [φ2(u4) + φ2(u5)])].
Dans ce cas, on a effectivement construit une copule si φ3 ◦ φ−1
1 ainsi que φ3 ◦ φ−1
2
sont des inverses de transformées de Laplace. On pourrait aussi envisager
φ−1
3 [φ3(φ−1
1 [φ1(u1) + φ1(u2)] + φ3(u3)
+ φ3(φ−1
2 [φ2(u4) + φ2(u5)])].
79
Arthur CHARPENTIER, JES 2010, copules
U1 U2 U3 U4 U5
φ1
φ3
φ2
U1 U2 U3 U4 U5
φ1
φ3
φ2
Figure 7 – Copules Archimédiennes hiérarchiques avec deux constructions diffé-
rentes.
80
Arthur CHARPENTIER, JES 2010, copules
Exemple24
Si les φi sont des générateurs de copules de Gumbel de paramètre θi, une condition
suffisante pour que C soit une copule est que les θi soient croissants, et supérieurs à 1.
De même, si les φi sont des générateurs de copules de Clayton de paramètre θi, une
condition suffisante pour que C soit une copule est que les θi soient croissants, et
supérieurs à 0.
81
Arthur CHARPENTIER, JES 2010, copules
4.5 Les copules extrêmes
Soient Xk
, k = 1, · · · , n un échantillon i.i.d. de vecteurs aléatoires de loi jointe F
(supposée continue), de copule C et de lois marginales F1, · · · , Fd. On note Mn
le vecteur des maximums, composante par composantes,
Mn
= (max{X1
1 , · · · , Xn
1 }, · · · , max{X1
d , · · · , Xn
d })
Soit Cn la copule associée à Mn
, alors
Cn(u1, · · · , ud) = C u
1
n
1 , · · · , u
1
n
d
n
Définition21
Une copule C est une copule extrême s’il existe une copule Γ telle que
Γ u
1
n
1 , · · · , u
1
n
d
n
→ C(u1, · · · , ud) lorsque n → ∞
pour tout (u1, · · · , ud) ∈ [0, 1]d
. On dira de plus que Γ est dans le domaine d’attraction
de C.
82
Arthur CHARPENTIER, JES 2010, copules
L’ensemble des copules extrêmes coïncide avec l’ensembles des copules
max-stables, i.e. qui vérifient ∀n ∈ N∗
, ∀(u1, · · · , ud) ∈ [0, 1]d
.
C u
1
n
1 , · · · , u
1
n
d
n
= C(u1, · · · , ud)
Il est possible de réécrire le théorème de Pickands-Balkema-de Haan sous la
forme suivante, afin de caractériser l’ensemble des copules extrêmes,
Théorème4
Une copule C : [0, 1]d
→ [0, 1] est une copule extrême si et seulement si il existe une
mesure finie H sur le simplexe de Rd
, Sd, appelée mesure spectrale, telle que
C(u1, · · · , ud) = exp[− (− log u1, · · · , − log ud)]
où la fonction de dépendance de queue est donnée par
(x1, · · · , xd) =
Sd
max{ω1x1, · · · , ωdxd}dH(ω1, · · · , ωd)
pour tout (x1, · · · , xd) ∈ Rd
+. On suppose que Sd
ωidH(ω1, · · · , ωd) = 1 pour
i = 1, · · · , n.
83
Arthur CHARPENTIER, JES 2010, copules
Notons que
(x1, · · · , xd) = lim
t→0
[1 − C(1 − tx1, · · · , 1 − txd)]
Cette fonction de dépendance de queue est convexe, homogène de degré 1 (i.e.
(tx1, · · · , txd) = t (x1, · · · , xd) pour tout t > 0) et vérifie
max{x1, · · · , xd} ≤ (x1, · · · , xd) ≤ x1 + · · · + xd.
Comme tenu de cette propriété d’homogénéité, on peut aussi écrire
(x1, · · · , xd) = [x1 + · · · + xd]A
x1
x1 + · · · + xd
, · · · ,
xd
x1 + · · · + xd
où A est une fonction Sd → [d−1
, 1] appelée fonction de dépendance de Pickands
([51] et [52]).
84
Arthur CHARPENTIER, JES 2010, copules
La copule extrême s’écrit alors
C(u1, · · · , ud) = exp
d
i=1
log ui A
u1
d
i=1 log ui
, · · · ,
ud
d
i=1 log ui
Cette fonction A est convexe, et vérifie
max{ω1, · · · , ωd} ≤ A(ω1, · · · , ωd) ≤ 1
pour tout (ω1, · · · , ωd) ∈ Sd. Cette dernière propriété caractérise l’ensemble des
fonctions de dépendance en dimension d = 2 (mais pas au delà). Dans ce cas, on
peut alors écrire
C(U1, U2) = [uv]A(log v/ log uv)
où, par abus de notation, A : [0, 1] → [1/2, 1] est convexe et vérifie
max{ω, 1 − ω} ≤ A(ω) ≤ 1.
85
Arthur CHARPENTIER, JES 2010, copules
Exemple25
Si C est une copule Archimédienne de générateur φ, tel qu’il existe une limite
lim
s→0
sφ (1 − s)
φ(1 − s)
= −θ ∈ (−∞, −1]
alors C est dans le domaine d’attraction de la copule dont la fonction de dépendance est
(x1, · · · , xd) = [xθ
1 + · · · + xθ
d]
1
θ .
La copule limite est alors
C(u1, · · · , ud) = exp − [− log u1]θ
+ · · · + [− log u1]θ
1
θ
qui correspond à la copule de Gumbel.
86
Arthur CHARPENTIER, JES 2010, copules
Exemple26
En dimension 2, la copule de Student t de corrélation r et à ν s’écrit
T −1
ν (u1)
−∞
T −1
ν (u2)
−∞
1
πν
√
1 − r2
Γ ν
2 + 1
Γ ν
2
1 +
x2
− 2rxy + y2
ν(1 − r2)
− ν
2 +1
dxdy.
Cette copule est dans le domaine d’attraction de la copule extrême dont la fonction de
dépendance de Pickands est définie par
A(ω) = ωTν+1(zω) + (1 − ω)Tν+1(z1−ω)
où
zω =
1 + ν
1 − r2
ω
1 − ω
1
ν
− r
pour tout ω ∈ [0, 1].
87
Arthur CHARPENTIER, JES 2010, copules
4.6 La copule de Clayton
Commençons par le cas d = 2 afin de simplifier la présentation.
4.6.1 La copule de Pareto
Supposons que X et Y soient conditionnellement indépendante, sachant Θ, et
avec P(X > x|Θ = θ) = exp(−θx) et P(Y > y|Θ = θ) = exp(−θy). Supposons de
plus que Θ suive une loi Gamma, alors
P(X > x, Y > y) =
∞
0
exp(−θ[x+y])
θγ−1
exp(−θ/β)
βγΓ(γ)
dθ = (1+βx+βy)−γ
. (14)
On notera tout d’abord que les lois marginales (non conditionnelles) sont des lois
de Pareto, P(X > x) = (1 − βx)−γ
et P(Y > y) = (1 − βy)−γ
. De plus, la copule
de survie du couple (X1, X2) est
C (U1, U2) = (u−1/γ
+ v−1/γ
− 1)−γ
,
avec γ > 0, appelée copule de Pareto.
88
Arthur CHARPENTIER, JES 2010, copules
4.6.2 L’approche par vieillissement (frailty model)
Ces modèles ont été introduits à la fin des années 70, et popularisée par [50].
On suppose que l’on veut modéliser deux durées de vie, X et Y , indépendantes
conditionnellement à un facteur exogène Θ. On assume aussi que les lois
conditionnelles de X et Y sachant Θ sont de la forme
FX|Θ(x|θ) = P(X > x|Θ = θ) = GX(x)θ
,
pour une fonction de référence GX, pour tout θ, et de manière similaire pour la
loi de Y sachant Θ = θ. Alors
P(X > x, Y > y) = E(P(X > x, Y > y|Θ)) = E(P(X > x|Θ)P(X > x|Θ)),
c’est à dire,
P(X > x, Y > y) = E(exp[−Θ(− log P(X > x))] exp[−Θ(− log P(Y > y))]),
d’où finalement, si ψ correspond à la transformée de Laplace de Θ, i.e.
89
Arthur CHARPENTIER, JES 2010, copules
ψ(t) = E(exp(−tΘ)), on peut écrire
P(X > x, Y > y) = ψ(−logP(X > x) − logP(Y > y)).
Compte tenu de l’écriture des lois marginales, P(X > x) = ψ(− log GX(x)) la
coule de survie de (X1, X2) est alors donnée par
C∗
(U1, U2) = ψ(ψ−1
(u) + ψ−1
(v)),
qui est une copule Archimédienne de générateur φ = ψ−1
. Dans le cas particulier
où le facteur exogène Θ suit une loi Gamma, ψ(t) = (1 + t)1/α
, alors C∗
est la
copule de Clayton.
90
Arthur CHARPENTIER, JES 2010, copules
0 5 10 15
05101520
Conditional independence, two classes
!3 !2 !1 0 1 2 3
!3!2!10123
Conditional independence, two classes
Figure 8 – Deux classes de risque (Xi, Yi) et (Φ−1
(FX(Xi)), Φ−1
(FY (Yi))).
91
Arthur CHARPENTIER, JES 2010, copules
0 5 10 15 20 25 30
010203040
Conditional independence, three classes
!3 !2 !1 0 1 2 3
!3!2!10123
Conditional independence, three classes
Figure 9 – Trois classes de risque, (Xi, Yi) et (Φ−1
(FX(Xi)), Φ−1
(FY (Yi))).
92
Arthur CHARPENTIER, JES 2010, copules
0 20 40 60 80 100
020406080100
Conditional independence, continuous risk factor
!3 !2 !1 0 1 2 3
!3!2!10123
Conditional independence, continuous risk factor
Figure 10 – Continuum de classes de risques, (Xi, Yi) et
(Φ−1
(FX(Xi)), Φ−1
(FY (Yi))).
93
Arthur CHARPENTIER, JES 2010, copules
4.6.3 Propriété de la copule de Clayton, en dimension d = 2
Définition22
Soit θ ≥ −1, la copule de Clayton de paramètre θ ≥ −1 est définie sur [0, 1] × [0, 1] par
C(u1, u2) = (u
−1/θ
2 + u
−1/θ
2 − 1)−θ
.
Notons que θ → −1, θ → 0 et θ → ∞, C correspond respectivement au cas
anticomonotone (si d = 2), au cas indépendant, et la copule comonotone. De
plus, si 0 ≤ θ1 ≤ θ2, notons que C1(u1, u2) ≤ C2(u1, v2) pour tout u1, u2 ∈ [0, 1].
94
Arthur CHARPENTIER, JES 2010, copules
Figure 11 – Exemples de densités de la copule de Clayton, avec θ = à gauche
(ρ = 0, 5) et θ = à droite (ρ = 0, 8).
95
Arthur CHARPENTIER, JES 2010, copules
4.6.4 Copule de Clayton en dimension d > 2
La copule de Clayton étant Archimédienne (de générateur φ(t) = t−θ
− 1) on
peut aisément l’étendre à la dimension d > 2, à condition de se restreindre au cas
θ ≥ 0.
Définition23
Pour tout θ ≥ 0, la copule de Clayton de paramètre θ est définie sur [0, 1] × · · · × [0, 1]
par
C(x1, ..., xd) = (x
−1/θ
1 + ... + x
−1/θ
d − (d − 1))−θ
. (15)
Cette copule peut être obtenue de la manière suivante : posons
Ui = 1 +
Yi
Z
−θ
, i = 1, ..., d,
où les Yi sont des variables exponentielles E(1) indépendantes, indépendante de
Z ∼ G(θ, 1). Alors (U1, ..., Ud) admet pour loi jointe C donnée par 15.
96
Arthur CHARPENTIER, JES 2010, copules
4.7 Le modèle de Marshall et Olkin
4.7.1 Le modèle à choc commun
La classe des copules dite de Marshall et Olkin est dérivée du modèle à choc
commun introduit par [44].
Soient X1 et X2 deux durées de vies, associés à deux composants.
Suppposons que 3 chocs penvent affecter ces composantes : deux associés aux
composants x1 et x2, indépendament, et un dernier qui affecte les deux.
Supposons que ces chocs sont modélisés par des processus de Poisson, avec une
durée avant le premier choc Z1 (exponentielle, de paramètre λ1), qui afffecte x1,
Z2 (exponentielle, de paramètre λ2), qui afffecte x2, et Z12 (exponentielle, de
paramètre λ12), qui affecte x1 et x2.
Les dates de survenance des chocs sont supposés indépendantes.
Si les chocs sont fatals pour les deux composants, la durée de vie des composants
97
Arthur CHARPENTIER, JES 2010, copules
(X1, X2) admet pour fonction de survie
F(X1, X2) = P(X1 > x1, X2 > y > x2) = P(Z1 > x1)P(Z2 > x2)P(Z12 > min{x1, x2}).
P(X1 > x1, X2 > x2) = exp (−λ1x1 − λ2x2 − λ12 max{x1, x2}) , ∀x1, x2 > 0.
On notera que les lois marginales X1 et X2 suivent des lois exponentielles de
paramètre λ1 + λ12 et λ2 + λ12, respectivement.
Proposition7
F satisfait une propriété faible d’absence de mémoire, au sens où
F(x1 + t, x2 + t) = F(x1, x2)F(t, t).
Si on note
α =
λ12
λ1 + λ12
et β =
λ12
λ2 + λ12
,
la copule de survie du couple (X1, X2) est donnée par
C (u1, u2) = u1u2 min{u−α
1 , u−β
2 } = min{u1−α
1 u2, u1u1−β
2 }.
98
Arthur CHARPENTIER, JES 2010, copules
4.7.2 Copule induite par le modèle de Marshall et Olkin
Définition24
Etant donnés α, β ∈ (0, 1), la copule de Marshall-Olkin de paramètre (α, β) est
C(u1, u2) = min{u1−α
1 u2, u1u1−β
2 }.
Cette copule est parfois appelée copule de Cuadras-Augé dans le cas α = β, [16].
Remarque11
Notons que ces copules possèdent une composante singulière, de masse strictement
positive sur C = {(u1, u2) ∈ [0, 1] × [0, 1], uα
1 = uβ
2 }. De plus, la masse de cette courbe
est
P(U1 = U2) = P( le premier choc affecte les deux composantes ) =
λ12
λ1 + λ2 + λ12
> 0.
99
Arthur CHARPENTIER, JES 2010, copules
On notera que pour cette copule, le τ de Kendall et le ρ de Spearman sont
respectivement
τ =
αβ
α + β − αβ
et ρ =
3αβ
2α + 2β − αβ
,
et les indices de dépendance de queue sont donnés par
λL = lim
u→0
C(u, u)
u
= lim
u→0
u2
min{uα
, uβ
}
u
= lim
u→0
u min{uα
, uβ
} = 0,
et
λU = lim
u→1
C(u, u)
1 − u
= lim
u→1
1 − 2u + u2
min{uα
, uβ
}
1 − u
= lim
u→1
1 − 2u + u2
uα
1 − u
= α,
en supposant que α < β. Plus générallement,
λL = 0 et λU = min{α, β}.
100
Arthur CHARPENTIER, JES 2010, copules
4.7.3 Intérêt de la copule de Marshall et Olkin
Ce modèle à choc commmun présente l’avantage de le rendre facilement
interprétable, et pratique pour la programmation.
En assurance vie, [28] et [9] ont montré son intérêt, (pratique) : si on note Tx et
Ty les durées de vie résiduelles d’un mari et de son épouse à la signature d’un
contrat d’assurance vie (ils sont alors respectivement l’âge x et y), on note
classivement kpxy la probabilité conditionnelle qu’au moins un des deux survive k
années,
kpxy = 1 − P(Tx ≤ k, Ty ≤ k).
Si l’on suppose ces duréées de vie résiduelles exponentielles, alors
kpxy =k px +k py − exp(−λxyk)kpx ·k py.
L’annuité pour un contrat au dernier survivant s’écrit alors
axy =
∞
k=1
vk
P(Tx > k or Ty > k) =
∞
k=1
vk
kpxy.
101
Arthur CHARPENTIER, JES 2010, copules
En posant kp∗
x = exp(λxyk)kpx et kp∗
y = exp(λxyk)kpy, les annuités s’écrivent
alors as
axy =
∞
k=1
e−(δ+λxy)·k
kp∗
x +k p∗
y −k p∗
x ·k p∗
y ,
correspondant à un calcul fait en supposant l’indépendance entre les durées de
vie, et en actualisant avec un facteur δ + λxy. On note que plus la dépendance est
forte, plus faible sera le montant de l’annuité.
102
Arthur CHARPENTIER, JES 2010, copules
4.8 Le modèle de Gumbel
La copule de Gumbel a été introduite dans [34]. Elle est parfois appelée copule de
Gumbel-Hougaard, suite à son utilisation dans [35], ou encore la distribution
logistique extrême.
4.8.1 Une loi logistique bivariée
Considérons la fonction de répartition
F(X1, X2) = exp −(x−θ
1 + x−θ
2 )1/θ
, ∀x1, x2 > 0,
où θ ≥ 1. Cette fonction peut se réécire sous la forme
F(X1, X2) = exp − [− log(e−1/x1
)]θ
+ [− log(e−1/x2
)]θ
1/θ
, x1, x2 > 0.
103
Arthur CHARPENTIER, JES 2010, copules
Les lois marginales de cette distribution sont des loi de Fréchet standard
(Fi(xi) = e−1/xi
for xi > 0). La copule associée à cette loi bivariée est alors
C(u1, u2) = exp − [− log u1]θ
+ [− log u2]θ 1/θ
, ∀u1, u2 ∈ [0, 1],
où θ ≥ 1.
4.8.2 Properiétés de la copule de Gumbel
Définition25
Soit θ ≥ 1, la copule de Gumbel de paramètre θ est définie sur [0, 1] × [0, 1] par
C(u1, u2) = exp − [− log u1]θ
+ [− log u2]θ 1/θ
, u1, u2 ∈ [0, 1].
104
Arthur CHARPENTIER, JES 2010, copules
Figure 12 – Exemples de densités de la copule de Gumbel, avec θ = à gauche
(ρ = 0, 5) et θ = à droite (ρ = 0, 8).
105
Arthur CHARPENTIER, JES 2010, copules
Le τ de Kendall d’une copule de Gumbel de paramètre θ ≥ 1 est
τ =
θ − 1
θ
,
([49]), et les indices de dépendance de queue sont λL = 0 et λU = 2 − 21/θ
.
Remarque12
La copule de Gumbel est max-stable, au sens où ∀t > 0,
Ct
(u1, u2) = C(ut
1, ut
2), ∀u1, u2 ∈ [0, 1],
106
Arthur CHARPENTIER, JES 2010, copules
4.9 La copule Gaussienne
La copule est obtenue dès lors que l’on
Définition26
Pour tout r ∈ [−1, 1], la copule Gaussienne est définie par
C(u1, u2) =
1
2π
√
1 − r2
Φ−1
(u1)
−∞
Φ−1
(u2)
−∞
exp
x2
− 2rxy + y2
2(1 − r2)
dxdy
Pour une copule Gaussienne dont le vecteur Gaussien sous-jacent a pour
corrélation r ∈ [−1, +01], le τ de Kendall et le ρ de Spearman sont respectivement
τ =
2
π
sin−1
(r) et ρ =
6
π
sin−1 r
2
107
Arthur CHARPENTIER, JES 2010, copules
Figure 13 – Exemples de densités de la copule de Gaussienne, avec θ = à gauche
(ρ = 0, 5) et θ = à droite (ρ = 0, 8).
108
Arthur CHARPENTIER, JES 2010, copules
5 Mesurer et comparer des dépendance
5.0.1 Mesures de dépendance
[56] a proposé une axiomatique sur les propriétés fondamentales que devrait
satisfaire une mesure de concordance κ.
Pour cela, il convient que la mesure soit cohérente avec une relation d’ordre sur
les paires de variables aléatoire, l’ordre naturel étant l’ordre P QD (de
dépendance positive par quadrant, parfois appelé aussi ordre de concordance),
défini par X = (X1, X2) P QD (Y1, Y2) = Y si et seulement si
P(FX1 (X1) ≤ u1, FX2 (X2) ≤ u2) ≤ P(FY1 (Y1) ≤ u1, FY2 (Y2) ≤ u2),
pour tout 0 ≤ u1, u2 ≤ 1. Ou de manière équivalente, si CX est la copule associée
à X, et CY est la copule associée à Y ,
X = (X1, X2) P QD (Y1, Y2) = X si et seulement si CX(u1, u2) ≤ CY (u1, u2).
109
Arthur CHARPENTIER, JES 2010, copules
Définition27
κ est une mesure de concordance si et seulement si κ vérifie les propriétés suivantes
1. κ est définie pour toute paire de variables continues (X1, X2),
2. −1 ≤ κ (X1, X2) ≤ +1, κ (X1, X1) = +1 et κ (X1, −X1) = −1,
3. κ (X1, X2) = κ (X2, X1),
4. si X1 et X2 sont indépendantes, alors κ (X1, X2) = 0,
5. κ (−X1, X2) = κ (X1, −X2) = −κ (X1, X2),
6. si (X1, X2) P QD (Y1, Y2), alors κ (X1, X2) ≤ κ (Y1, Y2),
7. si X1
1 , X1
2 , X2
1 , X2
2 , ... est une suite de vecteurs qui converge en loi vers
(X1, X2) alors κ (Xn
1 , Xn
2 ) → κ (X1, X2) lorsque n → ∞.
Remarque13
La corrélation par exemple ne satisfait pas le premier.
On peut définir une dépendance positive
110
Arthur CHARPENTIER, JES 2010, copules
Remarque14
[53] avait proposé de finir les mesures de dépendance sous la forme de distance à
l’indépendance, ne permettant pas de distinguer dépendance positive et négative. [53]
imposait en particulier que δ (X, ±X) = +1, et des propriétés de linéarité de la mesure,
i.e. δ(aX + b, cY + d) = δ(X1, X2) pour tout a, c > 0 et b, d. En supposant que δ est
compris entre 0 et 1, [53] avoir défini une mesure. [59] ont noté que ces hypothèses
étaient beaucoup trop contraignantes.
Proposition8
Si κ est une mesure de concordance, et si f, g : R → R sont deux fonctions croissantes
κ(f(X), g(Y )) = κ(X1, X2). De plus, κ(X1, X2) = 1 s’il existe f presque sûrement
strictement croissante telle que Y = f(X) with f ; et de manière analogue
κ(X1, X2) = −1 si Y = f(X) où f presque sûrement strictement décroissante.
On déduit de cette proposition que les mesures de concordance sont fonction de
la copule uniquement, au sens où si (X1, X2) et (Y1, Y2) ont la même copule
(notée C), alors κ(X1, Y1) = κ(X2, Y2) = κ(C).
111
Arthur CHARPENTIER, JES 2010, copules
Exemple27
Le q de Blomqvist, parfois appelé coefficient de corrélation médiane, est défini par
q = P((X − médiane(X))(Y − médiane(Y )) > 0)
− P((X − médiane(X))(Y − médiane(Y )) < 0),
qui peut aussi s’écrire
q = 4C
1
2
,
1
2
− 1.
112
Arthur CHARPENTIER, JES 2010, copules
5.1 La corrélation comme mesure standard de dépendance
5.1.1 La corrélation linéaire de Pearson
Soient X1 et X2 deux variables aléatoires continues de variance finie, alors la
corrélation linéaire (ou de Pearson) est définie par
corr(X1, X2) =
cov(X1, X2)
V ar(X)V ar(Y )
=
E([X − E(X)][X − Y(Y )])
E([X − E(X)]2)E([Y − E(Y )]2)
.
On parle de corrélation linear au sens où corr(X1, X2) = +1 si et seulement s’il
existe a > 0 et b tels que Y = aX + b presque sûrement. De plus, cet coefficient
est invariant par transformations affines, i.e.
corr(aX1 + b, cX2 + d) = corr(X1, X2) si a et c sont de même signe.
113
Arthur CHARPENTIER, JES 2010, copules
Exemple28
Comme corr(X1, X2) peut s’écrire sous la forme E(φ(X1, X2)) où φ : R2
R
supermodulaire, alors corr(X1, X2) vérifie l’inégalité de Tchen ([62]),
corr(X−
, Y −
) = corr(F−1
X (U), F−1
X (1 − U)) ≤ corr(X1, X2)
≤ corr(F−1
X (U), F−1
X (U)) = corr(X+
, Y +
),
où U est uniformément distribué sur [0, 1]. En conséquence, le coefficient de corrélation
ne décrit pas nécessairement l’intervalle [−1, 1]. E.g., si X et Y suivent une loi
lognormale, de paramètre de variance 1 et σ, respectivement,
eσ
− 1
√
eσ2
− 1
√
e − 1
≤ corr (X, Y ) ≤
eσ
− 1
√
eσ2
− 1
√
e − 1
. (16)
(cf. [54]). Ceci implique en particulier qu’un coefficient de corrélation proche de 0 peut
parfaitement correspondre à un cas de comonotonie.
114
Arthur CHARPENTIER, JES 2010, copules
0 1 2 3 4 5
SIGMA
-1.0
-0.5
0.0
0.5
1.0
BORNE INFERIEURE
BORNE SUPERIEURE
-0,0901
0,6657
Figure 14 – Bornes de la corrélation pour des variables lognormales.
115
Arthur CHARPENTIER, JES 2010, copules
Exemple29
Ce coefficient de corrélation apparaît naturellement dans les modèles de régression. Si on
considère la régression de Y sur X, les estimateurs des coefficients de la régression a et b
qui minimisent E(Y − (aX + b))2
sont
a =
cov(Y, X)
V ar(X)
et b = E(Y ) − aE(X).
116
Arthur CHARPENTIER, JES 2010, copules
5.2 Le tau de Kendall et le rho de Spearman
Le ρ de Spearman entre deux variables continues est la corrélation (au sens de
Pearson) entre U1 = F1(X1) et U2 = F2(X2). Comme U1 et U2 sont uniformément
répartie sur [0, 1], E(U1) = E(U2) = 1/2, and V ar(U1) = V ar(U2) = 1/12, et donc
ρ(X1, X2) = corr(U1, U2) =
E(U1U2 − 1/4
1/12
= 12E(U1U2) − 3.
Définition28
Soit (X1, X2) un couple de variables aléatoire de copule C, et de lois marginales
continues. Alors le ρ de Spearman est
ρ(X1, X2) = 12
1
0
1
0
C(u1, u2)du1du2 − 3
= 12
R R
[F(x1, x2) − F1(x1)F2(x2)]dx1dx2.
117
Arthur CHARPENTIER, JES 2010, copules
Comme le note [20], l’expression à droite est une distance moyenne entre F et
F⊥
. Ce coefficient a été introduit sous sa forme empirique par Spearman en 1904.
Il est possible de noter que
ρ(X1, X2) = 3[P((X1 − Y1)(Y2 − Z3) > 0) − P((X1 − Y2)(X2 − Z3) < 0)],
où (X1, X2), (Y1, Y2) et (Z1, Z2) sont trois versions indépendantes de (X1, X2)
([49]).
Définition29
Soit (X1, X2) un couple de variables aléatoires continues, de copule C, alors de τ de
Kendall est défini par
τ(X1, X2) = 4
1
0
1
0
C(u1, u2)dC(u1, u2) − 1 = 4E(C(U1, U2)) − 1.
118
Arthur CHARPENTIER, JES 2010, copules
Là encore, intiallement, le τ de Kendall n’a pas été défini, initialement, à l’aide
des copules, mais comme une probabilité de concordance à laquelle on soustrait
la probabilité de discordancedu vecteur (X1, X2), i.e.
τ(X1, X2) = 3[P((X1 − Y1)(X2 − Y2) > 0) − P((X1 − Y1)(X2 − Y2) < 0)],
où (X1, X2) and (Y1, Y2) sont deux versions indépendantes de (X1, X2) ([49]).
Proposition9
Si X1 et X2 sont continues, alors le τ de Kendall et le ρ de Spearman sont des mesures
de concordance.
En particulier pour des vecteurs comonotones, ρ(X1, X2) = 1 et τ(X1, X2) = 1,
alors que pour des vecteurs anticomonotones ρ(X1, X2) = −1 and
τ(X1, X2) = −1. Et la réciproque est vraie.
119
Arthur CHARPENTIER, JES 2010, copules
Exemple30
Pour la copule min-max présentée dans l’Exemple 6, on notera que
τ(X1:n, Xn:n) =
1
2n − 1
.
Exemple31
Si X1 et X2 forment un couple de copule Archimédienne, de générateur φ, alors le τ de
Kendall s’écrit
τ(X1, X2) = 1 + 4
1
0
φ(t)
φ (t)
dt.
120
Arthur CHARPENTIER, JES 2010, copules
Exemple32
Comme le montre [37], considérons pour θ ∈ [0, 1] une mélange entre la copule
indépendante et la borne supérieure de Fréchet-Hoeffding,
C(u1, u2) = (1 − θ)C⊥
(u1, u2) + θC+
(u1, u2),
pour tout (u1, u2) ∈ [0, 1] × [0, 1]. Alors si (X1, X2) a pour copule C, ρ(X1, X2) = θ.
Plus généralllement, si l’on rajoute la borne inférieure de Fréchet-Hoeffding, comme
suggéré par [27], avec comme paramètres de mélange α, β > 0 tels que α + β ≤ 1,
C(u1, u2) = αC−
(u1, u2)+(1−α−β)C⊥
(u1, u2)+βC+
(u1, u2), ∀(u1, u2) ∈ [0, 1]×[0, 1].
Alors ρ(X1, X2) = β − α.
Les Tableaux 1 et 2 montrent l’évolution du τ de Kendall et du ρ de Spearman
en fonction du paramètre sous jacent (noté ici θ),
121
Arthur CHARPENTIER, JES 2010, copules
Kendall’s τ 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
Gaussian θ 0.00 0.16 0.31 0.45 0.59 0.71 0.81 0.89 0.95 0.99 1.00
Gumbel θ 1.00 1.11 1.25 1.43 1.67 2.00 2.50 3.33 5.00 10.0 +∞
Plackett θ 1.00 1.57 2.48 4.00 6.60 11.4 21.1 44.1 115 530 +∞
Clayton θ 0.00 0.22 0.50 0.86 1.33 2.00 3.00 4.67 8.00 18.0 +∞
Frank θ 0.00 0.91 1.86 2.92 4.16 5.74 7.93 11.4 18.2 20.9 +∞
Joe θ 1.00 1.19 1.44 1.77 2.21 2.86 3.83 4.56 8.77 14.4 +∞
Galambos θ 0.00 0.34 0.51 0.70 0.95 1.28 1.79 2.62 4.29 9.30 +∞
Morgenstein θ 0.00 0.45 0.90 - - - - - - - -
Table 1 – τ de Kendall en fonction du paramètre θ de la copule sous-jacente.
122
Arthur CHARPENTIER, JES 2010, copules
Spearman’s ρ 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
Gaussian θ 0.00 0.10 0.21 0.31 0.42 0.52 0.62 0.72 0.81 0.91 1.00
Gumbel θ 1.00 1.07 1.16 1.26 1.38 1.54 1.75 2.07 2.58 3.73 +∞
A.M.H. θ 1.00 1.11 1.25 1.43 1.67 2.00 2.50 3.33 5.00 10.0 +∞
Plackett θ 1.00 1.35 1.84 2.52 3.54 5.12 7.76 12.7 24.2 66.1 +∞
Clayton θ 0.00 0.14 0.31 0.51 0.76 1.06 1.51 2.14 3.19 5.56 +∞
Frank θ 0.00 0.60 1.22 1.88 2.61 3.45 4.47 5.82 7.90 12.2 +∞
Joe θ 1.00 1.12 1.27 1.46 1.69 1.99 2.39 3.00 4.03 6.37 +∞
Galambos θ 0.00 0.28 0.40 0.51 0.65 0.81 1.03 1.34 1.86 3.01 +∞
Morgenstein θ 0.00 0.30 0.60 0.90 - - - - - - -
Table 2 – ρ de Spearman en fonction du paramètre θ de la copule sous-jacente.
123
Arthur CHARPENTIER, JES 2010, copules
-1.0 -0.5 0.0 0.5 1.0
Tau de Kendall
-1.0
-0.5
0.0
0.5
1.0
RhodeSpearman
Figure 15 – Région d’admissibilité pour le tau de Kendall et le rho de Spearman
124
Arthur CHARPENTIER, JES 2010, copules
Remarque15
En analyse canonique nonlinéaire, on cherche les transformations (nonlinéaires) qui
maximisent la corrélation entre deux variables,
r (X1, X2) = max{a(X), b(Y )}
où a, b : R → R sont des fonctions mesurables telles que Var(a(X)) et Var(b(X))
soient finis. On parle alors de de corrélation maximale. On notera que cette mesure peut
être intéressante, en particulier car r (X1, X2) = 0 si et seulement si les variables X et
Y sont indépendantes. De plus, dans le cas Gaussie, comme l’a montré [39],
r (X1, X2) = r(X1, X2), autrement dit la corrélation est maximale avec des
transformations affines.
[38] avaient suggéré de se limiter aux fonctions a et b monotones, introduisant ainsi la
corrélation monotone.
125
Arthur CHARPENTIER, JES 2010, copules
5.3 Autres mesures de corrélation
Parmi les autres mesures intéressantes, car ne dépendant que des rangs, on
pourra introduire l’indice γ de Gini, le β de Blomqvist, ou encore la classe de
Schweizer et Wolff.
Définition30
Soit (X1, X2) un couple de copule C. L’indice γ de Gini est défini par
γ(X1, X2) = 4
1
0
C(s, 1 − s)ds −
1
0
|s − C(s, s)|ds .
[8] a proposé un test dit que quadrant, consistant évaluer la probabilité que X et
Y dépassent conjointement la valeur médiane.
126
Arthur CHARPENTIER, JES 2010, copules
Définition31
Soit (X − 1, X2) un couple de copule C. L’indice β de Blomqvist est défini par
β(X−1, X2) = 2P X1 > F−1
1
1
2
X2 > F−1
2
1
2
> 0 −1 = C
1
2
,
1
2
−1.
Enfin, [59] et [? ] ont proposé d’étendre la définition du ρ de Spearman,
ρ(X1, X2) = 12
1
0
1
0
|C(u1, u2) − C⊥
(u1, u2)|du1du2
en changeant la norme utilisée pour mesurer la distance entre C et C⊥
,
k(X1, X2) = κ
1
0
1
0
C(u1, u2) − C⊥
(u1, u2) du1du2,
où · désigne une norme, et κ une constante de normalisation (de manière à
avoir k(X1, X1) = 1).
127
Arthur CHARPENTIER, JES 2010, copules
Définition32
Soit (X1, X2) un couple de copule C. L’indice Φ2
de Hoeffding est défini par
k(X1, X2) = 90
1
0
1
0
[C(u1, u2) − C⊥(u1, u2)]2du1du2.
Définition33
Soit (X1, X2) un couple de copule C. Le κ est défini par
κ(X1, X2) = 4 sup
[0,1]2
|C(u1, u2) − C⊥
(u1, u2)| .
Peut se rapprocher d’une distance de Kolmogorov-Smirnov par rapport à
l’indépendance.
128
Arthur CHARPENTIER, JES 2010, copules
5.4 Dépendance locale, dans les queues
Pour étudier la dépendance dans les queues de distribution [63] avait suggéré
d’introduire des fonctions de concentrations dans les queues.
Définition34
Pour la queue inférieure,
L(z) = P(U < z, V < z)/z = C(z, z)/z = P(U < z|V < z) = P(V < z|U < z),
et pour la queue supérieure,
R(z) = P(U > z, V > z)/(1 − z) = P(U > z|V > z).
[36] avait définie le paramètre de dépendance de queue supérieure et de queue
inférieure, respectivement, en posant
λU = R(1) = lim
z→1
R(z) et λL = L(0) = lim
z→0
L(z).
129
Arthur CHARPENTIER, JES 2010, copules
Définition35
Soit (X1, X2) un couple aléatoire dans R2
. Les indices de dépendance de queue
inférieure (L) et supérieure (U) sont définis respectivement, dès lors que les limites
existent, par
λL = lim
u→0
P X ≤ F−1
X (u) |Y ≤ F−1
Y (u) ,
et
λU = lim
u→1
P X > F−1
X (u) |Y > F−1
Y (u) .
Proposition10
Soit (X1, X2) un couple de copule C, alors les indices de dépendance de queue, s’ils
existent, sont définis par
λL = lim
u→0
C(u, u)
u
et λU = lim
u→1
C∗
(u, u)
1 − u
.
130
Arthur CHARPENTIER, JES 2010, copules
Exemple33
Considérons le cas de copules Archimédiennes (comme dans [49], [12] ou [1]),
λU = 2 − lim
x→0
1 − φ−1
(2x)
1 − φ−1(x)
et λL = lim
x→0
φ−1
(2φ(x))
x
= lim
x→∞
φ−1
(2x)
φ−1(x)
.
[41] ont proposé une approche alternative pour quantifier la dépendance dans les
queues. Supposons que X1
L
= X2.
– sous hypothèse d’indépendance,
P(X > t, Y > t) = P(X > t) × P(Y > t) = P(X > t)2
,
– sous hypothèse de comonotonie, P(X > t, Y > t) = P(X > t) = P(X > t)1
,
On peut alors supposer que P(X > t, Y > t) ∼ P(X > t)1/η
as t → ∞, où
η ∈ (0, 1] sera appelée indice de dépendance de queue. On peut alors définir un
indice de queue inférieure et de queue supérieure, respectivmenet notés ηU et ηL.
131
Arthur CHARPENTIER, JES 2010, copules
Aussi, suivant l’idée de [14] on utiliser la définition suivante
Définition36
Soit
χU (z) =
2 log(1 − z)
log C (z, z)
− 1 et χL(z) =
2 log(1 − z)
log C(z, z)
− 1
Alors ηU = (1 + limz→0 χU (z))/2 et ηL = (1 + limz→0 χL(z))/2 sont appelés indices
de queue supérieure et inférieure, respectivement.
Exemple34
Si (X1, X2) a une copule de Gumbel, et des marges Fréchet de paramètre 1,
P(X ≤ x, Y ≤ y) = exp(−(x−α
+ y−α
)1/α
), où α ≥ 0,
alors ηU = 1 alors que ηL = 1/2α
. On peut montrer que dans le cas d’une copule de
Clayton, ηU = 1/2 et ηL = 1. Dans le cas d’une copule Gaussienne de corrélation r
ηU = ηL = (1 + r)/2.
132
Arthur CHARPENTIER, JES 2010, copules
Gaussian copula
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
L and R concentration functions
L function (lower tails) R function (upper tails)
GAUSSIAN
q
q
Student t copula
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
L and R concentration functions
L function (lower tails) R function (upper tails)
STUDENT (df=3)
q
q
Clayton copula
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
L and R concentration functions
L function (lower tails) R function (upper tails)
CLAYTON
q
q
Gumbel copula
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
L and R concentration functions
L function (lower tails) R function (upper tails)
GUMBEL
q
q
Figure 16 – Fonctions cumulative L (sur [0, 1/2]) et R (sur [1/2, 1] avec dans la
partie supérieure, le cas Gaussien et le cas Student t à droite, et dans la partie133
Arthur CHARPENTIER, JES 2010, copules
Gaussian copula
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
Chi dependence functions
lower tails upper tails
GAUSSIAN
q
q
Student t copula
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
Chi dependence functions
lower tails upper tails
STUDENT (df=3)
q
q
Clayton copula
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
Chi dependence functions
lower tails upper tails
CLAYTON
q
q
Gumbel copula
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q q
q
q
q
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
Chi dependence functions
lower tails upper tails
GUMBEL
q
q
Figure 17 – Fonctions cumulative χL (sur [0, 1/2]) et χU (sur [1/2, 1] avec dans
la partie supérieure, le cas Gaussien et le cas Student t à droite, et dans la partie134
Arthur CHARPENTIER, JES 2010, copules
5.5 Quantifier la dépendance en dimension d > 2
En dimension d > 2, le cas Gaussien nous invite à étudier la dépendance par
paires, en regarder des matrices de mesures de dépendance. On posera ainsi
R = [r(Xi, Xj)], pour i, j = 1, · · · , d.
Nous avions noté que les mesures de dépendance naturelles pouvaient parfois de
voir comme des distances entre la copule sous-jacente C et la copule indépendante
C⊥
, normalisé de manière à avoir 1 dans le cas comonotone. En particulier,
ρ(X1, X2) =
[0,1]×[0,1]
C(u1, u2) − C⊥
(u1, u2)dudv
[0,1]×[0,1]
C+(u1, u2) − C⊥(u1, u2)dudv
(17)
En suivant les idées de [66] il est possible d’étendre cette définition en dimension
135
Arthur CHARPENTIER, JES 2010, copules
d > 2,
ρ(X) =
[0,1]d C(u) − C⊥
(u)du
[0,1]×[0,1]
C+(u) − C⊥(u)du
=
d + 1
2d − (d + 1)
2d
[0,1]d
C(u)du − 1
(18)
pour le ρ de Spearman, et pour le τ de Kendall
τ(X) ==
1
2d−1 − 1)
2d
[0,1]d
C(u)dCu − 1 (19)
Exemple35
On peut également définir un q de Blomqvist multivarié,
q =
2d−1
2d−1 − 1
C
1
2
, · · · ,
1
2
+ C
1
2
, · · · ,
1
2
− 21−d
136
Arthur CHARPENTIER, JES 2010, copules
6 De l’aggrégation des risques multiples
6.1 Espérance de fonctions nonlinéaires
Rappelons tout d’abord que, peut importe la structure de dépendance entre X1
et X2, deux variables d’espérance finie, par linéarité de l’espérance,
E(h(X1, X2)) = h(X1, X2) si h est linéaire.
De manière générale, on a le résultat suivant
Proposition11
Soit h : R2
→ R une fonction 2-croissante, i.e.
h(x2, y2) + h(x1, y1) − h(x1, y2) − h(y1, x2) ≥ 0,
pour tout x1 ≤ y1 et x2 ≤ y2. Alors pour tout (X1, X2) ∈ F(F1, F2),
E h(X−
1 , X−
2 ) ≤ E (h(X1, X2)) ≤ E h(X+
1 , X+
2 ) ,
137
Arthur CHARPENTIER, JES 2010, copules
Cette proposition peut se généraliser en dimension plus grand, mais la notion de
croissance n’est alors plus la d-croissance, mais la supermodularité,
Proposition12
Soit φ : Rd
→ R une fonction supermodulaire, i.e.
φ(max{x1, y1}, · · · , max{xd, yd})+φ(min{x1, y1} · · · , min{xd, yd})−φ(x1, · · · , xd)−φ(y1,
pour tout x = (x1, · · · , xd) et y = (y1, · · · , yd). Alors pour tout
X = (X1, · · · , Xd) ∈ F(F1, · · · , Fd),
E φ(X−
1 , · · · , X−
d ) ≤ E (φ(X1, · · · , Xd)) ≤ E φ(X+
1 , · · · , X+
d ) .
Remarque16
Si φ est suffisement dérivable, la d croissance est équivalente à ∂d
φ/∂x1 · · · ∂xd positive
partout, alors que la supermodularité est équivalente à ∂d
φ/∂xi∂xj positive.
Exemple36
Le prime (pure) stop-loss d’un traité de réassurance s’écrit comme l’espérance d’une
fonction supermodulaire dès lors que l’on somme des
risques :φ(x1, · · · , xd) = (x1 + · · · + xd − k)+ est une fonction supermodulaire.
138
Arthur CHARPENTIER, JES 2010, copules
Exemple37
Pour une assurance vie jointe sur n années, l’annuité s’écrit
axy:n =
n
k=1
vk
P(Tx > k and Ty > k) =
n
k=1
vk
kpxy,
où v est le facteur d’actualisation, et (Tx, Ty) les durées de vie résiduelles des deux
assurés. Alors
a−
xy:n ≤ axy:n ≤ a+
xy:n ,
où
a−
xy:n =
n
k=1
vk
max{kpx + kpy − 1, 0}( cas anticomonotone ),
a+
xy:n =
n
k=1
vk
min{kpx, kpy}( cas comonotone ).
139
Arthur CHARPENTIER, JES 2010, copules
Exemple38
Dans le cas d’une assurance au dernier survivant, sur n années, l’annuité s’écrit
axy:n =
n
k=1
vk
P(Tx > k or Ty > k) =
n
k=1
vk
kpxy,
où kpxy = P(Tx > k or Ty > k) = kpx + kpy − kpxy. Alors
a−
xy:n ≤ axy:n ≤ a+
xy:n ,
où
a−
xy:n =
n
k=1
vk
(1 − min{kqx, kqy}) ( cas comonotone ),
a+
xy:n =
n
k=1
vk
(1 − max{kqx + kqy − 1, 0}) ( cas anticomonotone ).
140
Arthur CHARPENTIER, JES 2010, copules
Exemple39
L’annuité d’une pension de veuvage s’écrit
ax|y = ay − axy =
∞
k=1
vk
kpy −
∞
k=1
vk
kpxy.
Aussi,
a−
x|y ≤ ax|y ≤ a+
x|y,
où
a−
x|y = ay − axy =
∞
k=1
vk
kpy −
∞
k=1
vk
min{kpx, kpy}.( cas comonotone ),
a+
x|y = ay −axy =
∞
k=1
vk
kpy −
∞
k=1
vk
max{kpx +kpy −1, 0}.( cas anticomonotone ).
141
Arthur CHARPENTIER, JES 2010, copules
6.2 Comparer des sommes de risques
On dira que X corr Y CX ≤ CY , ou
X corr Y , i.e. corr(g(X1), h(X2)) ≤ corr(g(Y1), h(Y2))
pour toutes fonctions croissantes g, h : R → R telles que les variances soient finies.
Proposition13
Soient X = (X1, X2), Y = (Y1, Y2) ∈ F(F1, F2).
– si X corr Y , alors X1 + X2 ≤CX Y1 + Y2.
– si X corr Y , alors pour toute fonction h : R2
→ R 2-croissante,
h(X1, X2) ≤TVaR h(Y1, Y2)
En dimension plus grande,
Proposition14
Soient X = (X1, · · · , Xd), Y = (Y1, · · · , Yd) ∈ F(F1, · · · , Fd)). Si X SM Y , alors
pour toute fonction h : Rd
→ R supermodulaire, h(X1, · · · , Xd) ≤TVaR h(Y1, · · · , Yd).
142
Arthur CHARPENTIER, JES 2010, copules
6.3 Mesures de risques pour la somme de risques
En dimension d = 2, si des versions comonotones et anticomontones permettent
d’obtenir des bornes à certains quantités, cela n’est en général pas le cas pour
une mesure de risque quelconque, R, i.e.
R−
≤ R(X−
1 + X−
2 )≤R(X1 + X2)≤R(X+
1 + X+
2 ) ≤ R+
,
où la borne supérieure R+
peut excéder le cas comonotone, par exemple.
Dans le cas où R désigne la Value-at-Risk pour un seuil q ∈]0, 1[, rappelons que
R(X1 + X2) = VaRq[X1 + X2] = F−1
X1+X2
(q) = inf{x ∈ R|FX1+X2
(x) ≥ q}.
Exemple40
Si X1 ∼ E(α) et Y1 ∼ E(β),
P(X2 > x1) = exp(−x1/α), P(X2 > x2) = exp(−x2/β)∀x1, x2 ∈ R+
.
Les inégalités
exp(−x/ max{α, α}) ≤ Pr[X1 + X2 > x] ≤ exp(−(x − ξ)+/(α + β))
143
Arthur CHARPENTIER, JES 2010, copules
sont alors valides pour tout x ∈ R+
, quelle que soit la dépendance entre X1 et X2, où
ξ = (α + β) log(α + β) − α log α − β log β.
De plus, on a
− max{α, β} log(1 − q) ≤ VaRq[X1 + X2] ≤ ξ − (α + β) log(1 − q)
pour tout niveau q ∈ (0, 1).
Si α = β = 1, rappelons que sous hypothèse d’indépendance X1 + X2 ∼ G(2, 1) alors
que sous hypothèse de comonotonie, X1 + X2 ∼ E(2).
Exemple41
De manière générale, quelles que soient les lois F1 et F2, il est possible (au moins
numériquement) de calculer les bornes inférieures et supérieures. La Figure 18 montre la
Value-at-Risk pour la somme de deux risques Gaussien, alors que la Figure 19 montre la
Value-at-Risk pour la somme de deux risques suivant des lois Gamma.
144
Arthur CHARPENTIER, JES 2010, copules
0.0 0.2 0.4 0.6 0.8 1.0
!4!2024
Bornes de la VaR d’un portefeuille
Somme de 2 risques Gaussiens
0.90 0.92 0.94 0.96 0.98 1.00
0123456
Bornes de la VaR d’un portefeuille
Somme de 2 risques Gaussiens
Figure 18 – Value-at-Risk pour la somme de 2 variables gaussiennes N(0, 1), avec
le cas indépendant en pointillé, et le cas comontone en trait plein. Les courbes en
bas et en haut étant les bornes inférieures et supérieures. Le graphique de droite
correspond à un agrandissement pour les quantiles excédant le niveau 90%.
145
Arthur CHARPENTIER, JES 2010, copules
0.0 0.2 0.4 0.6 0.8 1.0
05101520
Bornes de la VaR d’un portefeuille
Somme de 2 risques Gamma
0.90 0.92 0.94 0.96 0.98 1.00
05101520
Bornes de la VaR d’un portefeuille
Somme de 2 risques Gamma
Figure 19 – Value-at-Risk pour la somme de 2 variables gaussiennes G(3, 1), avec
le cas indépendant en pointillé, et le cas comontone en trait plein. Les courbes en
bas et en haut étant les bornes inférieures et supérieures. Le graphique de droite
correspond à un agrandissement pour les quantiles excédant le niveau 90%.
146
Arthur CHARPENTIER, JES 2010, copules
Dans un cadre général, et plus théorique, [58] étudiait les bornes possibles pour
la Value-at-Risk (ou plutôt la loi jointe) de h(X1, X2) où h : R2
→ R et
(X1, X2) ∈ F(F1, F2), introduisant le concept de convolutions supremal et infimal,
Fsup (F1, F2) (z) = sup {C (F1 (x1) , F2 (x2)) , ψ (x1, x2) = z} (20)
Finf (F1, F2) (z) = inf {C (F1 (x1) , F2 (x2)) , ψ (x1, x2) = z} (21)
[65] a proposé des algorithmes numériques pour calculer ces bornes. Dans le cas
de la somme, l’idée est de noter que la distribution des bornes correspond à la
distribution de Smin and Smax, où
P(Smax < s) = sup
x∈R
max{P(X1 < x) + P(X2 < s − x) − 1, 0}
et
P(Smin ≤ s) = inf
x∈R
min{P(X1 ≤ x) + P(X2 ≤ s − x), 1}.
On obtient alors le résultat suivant
147
Arthur CHARPENTIER, JES 2010, copules
Proposition15
Soit X = (X1, X2) ∈ F(F1, F2) alors pour tout s ∈ R,
τC− (F1, F2)(s) ≤ P(X1 + X2 ≤ s) ≤ ρC− (F1, F2)(s),
où
τC(F1, F2)(s) = sup
x1,x2∈R
{C(F1(x1), F2(x2)), x1 + x2 = s}
et si ˜C(u1, u2) = u1 + u2 − C(u1, u2),
ρC(F1, F2)(s) = inf
x1,x2∈R
{ ˜C(F1(x1), F2(x2)), x1 + x2 = s}.
148
Arthur CHARPENTIER, JES 2010, copules
7 Inférence statistique
7.1 Méthodes paramétriques
Considérons un vecteur aléatoire X, absolument continu, telle que la densité
jointe s’écrive
f(x1, · · · , xd) = c(F1(x1), · · · , Fd(xd))) ·
d
i=1
fi(xi)
où c : [0, 1]d
→ R+
est la densité de la copule associée à X, et où fi est la densité
de la variable Xi.
La log-vraisemblance log L associée à un échantillon X1
, · · · , Xn
i.i.d. s’écrit
log Ln =
n
k=1
log c(F1(xk
1), · · · , Fd(xk
d))) +
d
i=1
n
k=1
log fi(xk
i )
et peut se décomposer en deux termes : celui de gauche est associé à la structure
149
Arthur CHARPENTIER, JES 2010, copules
de dépendance, et le second aux lois marginales. Notons que le second terme est
le seul qui apparaît si l’on suppose que les composantes du vecteur X sont
indépendantes.
On supposera que la copule C appartient à une famillee paramétrique
C = {Cθ, θ ∈ Θ} et que les lois marginales sont également dans des familles
paramétriques, Fi ∈ Fi = {Fαi
, αi ∈ Ai}.
Sous les conditions usuelles de régularités, l’estimateur du maximum de
vraisemblance (θ, α), solution de
(θ, α) = argmax{log Ln(θ, α)}
est consistant et asymptotiquement Gaussien, au sens où
√
n (θ, α) − (θ, α)
L
→ N (0, Σ)
où
Σ = − lim
n→∞
∂2
log Ln
∂(θ, α)∂(θ, α) (θ,α)
−1
150
Arthur CHARPENTIER, JES 2010, copules
7.2 Méthodes semi-paramétriques
Ici, seule la copule est paramétrique, et l’on utilise les fonction de répartition
empiriques des lois marginales pour estimer le paramètre de la copule. En
l’occurence,
θ = argmin
n
k=1
log c(F1(xk
1), · · · , Fd(xk
d)))
151
Arthur CHARPENTIER, JES 2010, copules
7.3 Méthodes nonparamétriques d’estimation de copule
[11] a proposé un survey sur l’estimation nonparamétrique de densités de copules,
en insistant sur l’estimation à noyau. Mais l’estimation a noyau étant biaisé
(multiplicativement) sur les bords, il peut être intéressant de s’adapter pour
obtenir un estimateur sans biais partout sur [0, 1]d
. Par la suite, on se limitera au
cas d = 2 pour la simplicité de l’exposé. On suppose disposer d’observations
(U1,i, U2,i), i.i.d., distribuées suivant C, de densité c.
Une première piste est de transformer les variables, en considérant
(X1,i, X2,i) = (G−1
(U1,i), G−1
(U2,i)), où G est une fonction strictement
croissante R → [0, 1], tel que le couple (X, Y ) admette une densité. Pour tout
(x1, x2) ∈ R2
, posons
f(x1, x2) =
1
nh2
n
i=1
K
x1 − X1,i
h
K
x2 − X2,i
h
.
Or comm
f(x1, x2) = g(x1)g(x2)c[G(x1), G(x2)]. (22)
152
Arthur CHARPENTIER, JES 2010, copules
on peut réécrire
c(u1, u2) =
f(G−1
(u1), G−1
(u2))
g(G−1(u1))g(G−1(u2))
, pour (u1, u2) ∈ [0, 1] × [0, 1], (23)
ce qui donne, en subsituant f dans (23), on onbtient
c(u1, u2) =
1
nh · g(G−1(u1)) · g(G−1(u2))
n
i=1
K
G−1
(u1) − G−1
(U1,i)
h
,
G−1
(u2) − G−1
(
h
153
Arthur CHARPENTIER, JES 2010, copules
0.2 0.4 0.6 0.8
0.2
0.4
0.6
0.8
0
1
2
3
4
5
Estimation of Frank copula
0.2 0.4 0.6 0.8
0.20.40.60.8
Figure 20 – Estimation d’une densité de copule de Frank, à partir de n = 250
simulation d’une copule de Frank, à l’aide d’une tranformation Gaussienne (G =
Φ), et un noyau Gaussien bivarié.
154
Arthur CHARPENTIER, JES 2010, copules
Un autre estimateur classique est l’estimateur par noyau Beta de la densité de la
copule au point (u1, u2), est obtenu à l’aide de produits de noyaux Beta,
c(u1, u2) =
1
n
n
i=1
K Xi,
u1
b
+ 1,
1 − u1
b
+ 1 · K Yi,
u2
b
+ 1,
1 − u2
b
+ 1 ,
où K(·, α, β) est la densité de la loi Beta de paramètres α et β.
155
Arthur CHARPENTIER, JES 2010, copules
Beta (independent) bivariate kernel , x=0.0, y=0.0 Beta (independent) bivariate kernel , x=0.2, y=0.0 Beta (independent) bivariate kernel , x=0.5, y=0.0
Beta (independent) bivariate kernel , x=0.0, y=0.2 Beta (independent) bivariate kernel , x=0.2, y=0.2 Beta (independent) bivariate kernel , x=0.5, y=0.2
Beta (independent) bivariate kernel , x=0.0, y=0.5 Beta (independent) bivariate kernel , x=0.2, y=0.5 Beta (independent) bivariate kernel , x=0.5, y=0.5
156
Arthur CHARPENTIER, JES 2010, copules
0.2 0.4 0.6 0.8
0.2
0.4
0.6
0.8
0.0
0.5
1.0
1.5
2.0
2.5
3.0
Estimation of the copula density (Beta kernel, b=0.1) Estimation of the copula density (Beta kernel, b=0.1)
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
Figure 22 – Estimation de la densité de copule par noyaux Beta, b = 0.1 (simu-
lation suivant une copule de Frank).
157
Arthur CHARPENTIER, JES 2010, copules
0.2 0.4 0.6 0.8
0.2
0.4
0.6
0.8
0.0
0.5
1.0
1.5
2.0
2.5
3.0
Estimation of the copula density (Beta kernel, b=0.05) Estimation of the copula density (Beta kernel, b=0.05)
0.0 0.2 0.4 0.6 0.8 1.0
0.00.20.40.60.81.0
Figure 23 – Estimation de la densité de copule par noyaux Beta, b = 0.05
158
Arthur CHARPENTIER, JES 2010, copules
0.0 0.2 0.4 0.6 0.8 1.0
01234
Standard Gaussian kernel estimator, n=100
Estimation of the density on the diagonal
Densityoftheestimator
0.0 0.2 0.4 0.6 0.8 1.0
01234
Standard Gaussian kernel estimator, n=1000
Estimation of the density on the diagonal
Densityoftheestimator
0.0 0.2 0.4 0.6 0.8 1.0
01234
Standard Gaussian kernel estimator, n=10000
Estimation of the density on the diagonal
Densityoftheestimator
Figure 24 – Estimation de la densité sur la diagonale, par noyaux Gaussiens.
159
Arthur CHARPENTIER, JES 2010, copules
0.0 0.2 0.4 0.6 0.8 1.0
01234
Transformed kernel estimator (Gaussian), n=100
Estimation of the density on the diagonal
Densityoftheestimator
0.0 0.2 0.4 0.6 0.8 1.0
01234
Transformed kernel estimator (Gaussian), n=1000
Estimation of the density on the diagonal
Densityoftheestimator
0.0 0.2 0.4 0.6 0.8 1.0
01234
Transformed kernel estimator (Gaussian), n=10000
Estimation of the density on the diagonal
Densityoftheestimator
Figure 25 – Estimation de la densité sur la diagonale, transformation puis trans-
formation inverse.
160
Arthur CHARPENTIER, JES 2010, copules
0.0 0.2 0.4 0.6 0.8 1.0
01234
Beta kernel estimator, b=0.05, n=100
Estimation of the density on the diagonal
Densityoftheestimator
0.0 0.2 0.4 0.6 0.8 1.0
01234
Beta kernel estimator, b=0.02, n=1000
Estimation of the density on the diagonal
Densityoftheestimator
0.0 0.2 0.4 0.6 0.8 1.0
01234
Beta kernel estimator, b=0.005, n=10000
Estimation of the density on the diagonal
Densityoftheestimator
Figure 26 – Estimation de la densité sur la diagonale, par noyaux Beta.
Dans le cas Archimédien, nous avions noté dans la Remarque 10 qu’on pouvait
caractériser une copule Archimédienne à l’aide de la fonction de Kendall K.
L’estimateur nonparamétrique simple de cette fonction est
K(t) =
1
n
n
i=1
1(Zi ≤ t)
161
Arthur CHARPENTIER, JES 2010, copules
où
Zi =
1
n − 1
j=i
1(X1,j < X1,i, X2,j < X2,i).
L’estimateur du générateur associé est alors
φ(t) = exp
t
t0
ds
s − K(s)
.
162
Arthur CHARPENTIER, JES 2010, copules
7.4 Tests d’ajustement
Supposons que l’on cherche à tester C ∈ C, où C est une famille de copules
(l’hypothèse alternative étant C /∈ C. Dans le cas univarié, on pense au test
d’Anderson-Darling, ou à l’approche graphique du QQ-plot. Mais en dimension
supérieure, c’est plus compliqué.
Si la famille C est une famille paramétrique, [25] ou [32] ont suggéré d’utiliser le
test de Cramér-von Mises, avec comme statistique
T = n
[0,1]d
C(u) − Cθ
(u)
2
dC(u),
où C(·) est la copule empirique, i.e.
C(1, · · · , ud) =
1
n + 1
n
i=1
1(Ui
1 ≤ u1, · · · , Ui
d ≤ ud).
Une approche un peu plus simple est d’utiliser la fonction de Kendall
K(t) = P(C(U) ≤ t). Si on suppose que cette fonction appartient à une famille
163
Arthur CHARPENTIER, JES 2010, copules
paramétrique, alors la statistique précédante peut s’écrire
T = n
[0,1]
K(t) − Kθ
(t)
2
dKθ
(t),
comme suggéré par [31].
Une autre idée peut être de revenir à la transformation de [55]. Supposons que U
ait pour copule C, alors V défini par



V1 = U1
V2 = C2|1(U2|U1)
V3 = C3|2,1(U3|U2, U1)
· · ·
Vd = Cd|d−1,··· ,2,1(Ud|Ud−1, · · · , U2, U1)
est un vecteur dont la loi est C⊥
(on utilise ici la méthode de simulation évoquée
dans la section ??, à l’envers). Il suffit alors de faire des tests d’indépendance.
Toutefois, il convient de faire plusieurs tests, en testant toutes les permutations
164
Arthur CHARPENTIER, JES 2010, copules
possibles d’indices.
[10] a adapté le test présenté auparavant dans ce cas, à l’aide de la statistique de
Cramér-von Mises,
T = n
[0,1]d
C(v) − C⊥
(v)
2
dC(v),
où C est ici la copule empirique associée à V .
Pour certaines familles de lois, il existe des tests spécifiques (en particulier des
tests de normalité multivariés peuvent être utilisés pour tester l’ajustement d’une
copule Gaussienne).
165
Arthur CHARPENTIER, JES 2010, copules
[1] Charpentier A. and Segers J. Tails of multivariate archimedean copulas.
Journal of Multivariate Analysis, 100(7) :1521 – 1537, 2009.
[2] C. Alsina, M. J. Frank, and B. Schweizer. Associative Functions : Triangular
Norms And Copulas. World Scientific Publishing Company, 2006.
[3] Nelsen R.B. Alsina, C. and B. Schweizer. On the characteristic function of a
class of binary operations on distribution functions. Statistic and Probability
Letters, 7 :85–89, 1993.
[4] de Finetti B. La prévision : ses lois logiques, ses sources subjectives. Annales
de l’Institut Henri Poincarré, 7 :1–68, 1937.
[5] Bruno Bassan and Fabio Spizzichino. Relations among univariate aging,
bivariate aging and dependence for exchangeable lifetimes. Journal of
Multivariate Analysis, 93(2) :313 – 339, 2005.
[6] N. Bäuerle and A. Müller. Modelling and comparing dependencies in
multivariate risk portfolios. Astin Bulletin, 28 :59–76, 1998.
[7] T. Bayes. An essay towards solving a problem in the doctrine of chances.
Philosophical Transactions of the Royal Society of London, 54, 1763.
166
Arthur CHARPENTIER, JES 2010, copules
[8] N. Blomqvist. On a measure of dependence between two random variables.
The Annals of Mathematical Statistics, 21 :593–600, 1950.
[9] N.L. Bowers, H.U. Gerber, J.C. Hickman, D.A. Jones, and C.J. Nesbitt.
Actuarial mathematics. The Society of Actuaries, 1997.
[10] Genest C., Rémillard B., and Beaudoin D. Goodness-of-fit tests for copulas :
A review and a power study. Insurance : Mathematics and Economics,
44 :199–213, 2009.
[11] A. Charpentier, J.-D. Fermanian, and O. Scaillet. The Estimation of
Copulas : Theory and Practice. In J. Rank, editor, Copulas : From theory to
application in finance, pages 35–62. Risk Books, 2007.
[12] A. Charpentier and J. Segers. Lower tail dependence for archimedean
copulas : Characterizations and pitfalls. Insurance : Mathematics and
Economics, 40(3) :525 – 532, 2007.
[13] Arthur Charpentier and Johan Segers. Convergence of archimedean copulas.
Statistics & Probability Letters, 78(4) :412 – 419, 2008.
167
Arthur CHARPENTIER, JES 2010, copules
[14] J. Coles, S. Heffernan and J.A. Tawn. Dependence measures for multivariate
extremes. Extremes, 2 :339–365, 1999.
[15] KMV Corporation. Modelling default risk. KMV Corporation Technical
document, 1997.
[16] C. M. Cuadras and J. Augé. A continuous general multivariate distribution
and its properties. Communications in Statistics-Theory and Methods,
10(4) :339–353, 1981.
[17] P. Deheuvels. La fonction de dépendance empirique et ses propriétés .
Académie Royale de Belgique (Bulletin de la Classe des Sciences),
65 :274–292, 1940.
[20] D. Drouet-Mari and S. Kotz. Correlation and dependence. World Scientific
Publishing Company Inc., 2001.
[21] Fabrizio Durante, José Quesada-Molina, and Carlo Sempi. A generalization
of the archimedean class of bivariate copulas. Annals of the Institute of
Statistical Mathematics, 59 :487–498, 2007. 10.1007/s10463-006-0061-9.
168
Arthur CHARPENTIER, JES 2010, copules
[22] P. Embrechts, A. J. McNeil, and D. Straumann. Correlation and
Dependence in Risk Management : Properties and Pitfalls. In M. Dempster,
editor, Risk Management : Value at Risk and Beyond, pages 176–223.
Cambridge University Press, 2002.
[24] K.-T. Fang, S. Kotz, and K.-W. Ng. Symmetric Multivariate and Related
Distributions. Chapman & Hall/CRC, 1989.
[25] J.-D. Fermanian. Goodness of fit tests for copulas. Journal of Multivariate
Analysis, 95(1) :119–152, 2005.
[26] M. J. Frank. On the simultaneous associativity of F(x, y) and
x + y − F(x, y). Aequationes Mathematicae, 19 :194–226, 1979.
[27] M. Fréchet. Remarques au sujet de la note précédante. Comptes Rendus de
l’Académie des Sciences de Paris, 249 :2719–2720, 1958.
[28] W.E. Frees, J. Carriere, and E.A Valdez. Annuity valuation with dependent
mortality. The Journal of Risk and Insurance, 63 :229–261, 1996.
[29] C. Genest and R. J. MacKay. Copules archimédiennes et familles de lois
169
Arthur CHARPENTIER, JES 2010, copules
bidimensionnelles dont les marges sont données. The Canadian Journal of
Statistics, 14 :145–159, 1986.
[30] C. Genest, J. J. Quesada Molina, and J. A. Rodríguez Lallena. De
l’impossibilité de construire des lois à marges multidimensionnelles données
à partir de copules. Comptes rendus de l’Académie des sciences de Paris,
320 :723–726, 1995.
[31] C. Genest and L.-P. Rivest. Statistical Inference Procedures for Bivariate
Archimedean Copulas. Journal of the American Statistical Association,
88(423) :1034–1043, 1993.
[32] C. Genest and B. Rémillard. Validity of the parametric bootstrap for
goodness-of-fit testing in semiparametric models. Annales de l’Institut Henri
Poincaré : Probabilités et statistiques, 44 :1096–1127, 2008.
[33] CreditMetrics Group. Creditmetrics technical document. JP Morgan, 1997.
[34] E. J. Gumbel. Bivariate exponential distributions. Journal of the American
Statistical Association, 55 :698–707, 1960.
170
Arthur CHARPENTIER, JES 2010, copules
[35] P. Hougaard. Survival models for heterogeneous populations derived from
stable distributions. Biometrika, 73(2) :387–396, 1986.
[36] H. Joe. Families of min-stable multivariate exponential and multivariate
extreme value distributions. Statistical and Probability Letters, 9 :75–81,
1990.
[37] H. Joe. Multivariate Models and Dependence Concepts. Chapman &
Hall/CRC, 1997.
[38] G. Kimeldorf and A. Sampson. One-parameter families of bivariate
distributions with fixed marginals. Communications in Statististics,
4 :293–301, 1975.
[39] H.O Lancaster. The structure of bivariate distributions. Annals of
Mathematical Statistics, 29 :719–736, 1958.
[40] P.-S. Laplace. Théorie Analytique des Probabilités. Paris, Ve. Courcier,
Paris, 1812.
[41] A.W. Ledford and J.A. Tawn. Statistics for Near Independence in
Multivariate Extreme Values. Biometrika, 83 :169–187, 1996.
171
Arthur CHARPENTIER, JES 2010, copules
[42] Stéphane Loisel. A trivariate non-Gaussian copula having 2-dimensional
Gaussian copulas as margins.
[43] K. V. Mardia. Mardia’s test of multinormality. In S. Kotz & N. L. Johnson,
editor, Encyclopedia of statistical sciences (Vol. 5), pages 217–221. Wiley,
1985.
[44] A. W. Marshall and I. Olkin. A generalized bivariate exponential
distribution. Journal of Applied Probability, 4 :291–302, 1967.
[45] Patricia Mariela Morillas. A method to obtain new copulas from a given
one. Metrika, 61 :169–184, 2005. 10.1007/s001840400330.
[47] A. Müller and M. Scarsini. Archimedean copulae and positive dependence.
Journal of Multivariate Analysis, 93 :434–445, 2004.
[48] R. B. Nelsen. Dependence Modeling with Archimedean Copulas.
http ://www.lclark.edu/ mathsci/brazil2.pdf (2010-03-16), 2005.
[49] R. B. Nelsen. An Introduction to Copulas. Springer, 2007.
[50] D. Oakes. Bivariate survival models induced by frailties. Journal of the
American Statistical Association, 84,406 :487–493, 1989.
172
Arthur CHARPENTIER, JES 2010, copules
[51] J. Pickands. Multivariate extreme value distributions. M. Bull. Internat.
Statist. Inst. Proc. 43d. Session (Buenos Aires), pages 859–878, 1981.
[52] J. Pickands. Multivariate negative exponential and extreme value
distributions. In J. Hüssler and R.D. Reiss, editors, Extreme Value Theory.
Springer Verlag, 1989.
[53] A. Rényi. On measures of dependence. Acta Mathematica Hungarica,
10 :441–451, 1959.
[54] J.P. Romano and A.F. Siegel. Counterexamples in Probability and Statistics.
Wadsworht and Brooks, 1996.
[55] M. Rosenblatt. Remarks on a Multivariate Transformation. The Annals of
Mathematical Statistics, 23(3) :470–472, 1952.
[56] M. Scarsini. On measures of concordance. Stochastica, 8(3) :201–218, 1984.
[57] V. Schmitz. Revealing the dependence structure between x(1) and x(n).
Journal of Statistical Planning and Inference, 123(1) :41 – 47, 2004.
[58] B. Schweizer and A. Sklar. Probabilistic Metric Spaces. North-Holland, New
York, 1983.
173
Arthur CHARPENTIER, JES 2010, copules
[59] B. Schweizer and E. F. Wolff. Sur une mesure de dépendance pour les
variables aléatoires. Comptes Rendus de l’Académie des Sciences de Paris,
283 :659–661, 1976.
[60] A. Sklar. Fonctions de répartition à n dimensions et leurs marges.
Publications de L’Institut de Statistique de L’Université de Paris,
8 :229–231, 1959.
[61] A. Sklar. Random variables, distribution functions, and copulas—a personal
look backward and forward. Distributions with Fixed Marginals and Related
Topics, 28 :1–14, 1996.
[62] A.H. Tchen.
[63] G. Venter. Tails of copulas. Procedings of the Casualty Actuarial Society,
2002.
[65] R.C. Williamson. Probabilistic arithmetic, 1989. PhD thesis.
[66] E.F. Wolff. n-dimensional measures of dependence,. Stochastica, 4 :175–188,
1980.
174

Contenu connexe

PDF
Dg et CAT devant une hémoptysie
PDF
these15-18.pdf
PDF
Approche diagnostique des tumeurs osseuses
PDF
Anatomie radiologique de l'épaule
PPTX
Imagerie des Traumatismes du rachis.pptx
PPT
Claudication chuv 11 10
PDF
21 cylindre entaillé cor
PPT
medics_anti_cancereux.ppt
Dg et CAT devant une hémoptysie
these15-18.pdf
Approche diagnostique des tumeurs osseuses
Anatomie radiologique de l'épaule
Imagerie des Traumatismes du rachis.pptx
Claudication chuv 11 10
21 cylindre entaillé cor
medics_anti_cancereux.ppt

Tendances (20)

PDF
Approche diagnostique des tumeurs osseuses chez l'enfant
PDF
Imagerie des Lésions Musculaires
PPTX
Portal biliopathy
PDF
Variations du sein normal
PPTX
le syndrome cardio- rénal
PPTX
Lymphomes gastriques
PPTX
Ecographie
PDF
Le systeme de sante algérien
PPTX
Hémorragie méningiée
PDF
Tumeurs hépatiques malignes primitives tumeurs primitives
PDF
Prise en charge d’un traumatisme du rachis cervical 2015
PPTX
Sca nstemi
PPT
Maladies rhumatismales
PPTX
Td pour externes
PPT
Icono imagerie ecn
PDF
accident vasculaire cérébral (avec mp3)
PDF
Affections acquises de la pathologie vertébrale non traumati
PPT
11 avant -bras - fractures
PPT
CM4 - Transformée en z
PPT
11 gonarthrose
Approche diagnostique des tumeurs osseuses chez l'enfant
Imagerie des Lésions Musculaires
Portal biliopathy
Variations du sein normal
le syndrome cardio- rénal
Lymphomes gastriques
Ecographie
Le systeme de sante algérien
Hémorragie méningiée
Tumeurs hépatiques malignes primitives tumeurs primitives
Prise en charge d’un traumatisme du rachis cervical 2015
Sca nstemi
Maladies rhumatismales
Td pour externes
Icono imagerie ecn
accident vasculaire cérébral (avec mp3)
Affections acquises de la pathologie vertébrale non traumati
11 avant -bras - fractures
CM4 - Transformée en z
11 gonarthrose
Publicité

Similaire à Slides cirm-copulasv3 (20)

PDF
Resuffdgfdfdfdhdfgfhdhfdfgdfgdmé-gyhhguProba.pdf
PDF
Slides 2040-4
PDF
Rappels stats-2014-part2
PDF
Statistiques s3
PDF
Estimation de copules, une approche bayésienne
PDF
chap2. Introduction à la statistique appliquée 2
PDF
Variables aléatoires continues Chapitre 5.pdf
PDF
Mathématiques Générales.pdf
PDF
S2 mqii-statistiquedescriptiveii-rsumsdeschapitres-130401181113-phpapp01
PDF
chap2-www.fsjescours.com_.pdf
PDF
slides statistique mathématique.pdf
PDF
Mettre obligatoirement le titre de la leçon ici
PDF
Aates ch08 lois-a-densite
PDF
compte
PDF
Théorie des distributions
PDF
Vecteurs aléatoires sur un espace fini ou dénombrable
PDF
Laffly regression multiple
PDF
Laffly regression multiple
PDF
Slides 2040-5
PDF
Prob stat
Resuffdgfdfdfdhdfgfhdhfdfgdfgdmé-gyhhguProba.pdf
Slides 2040-4
Rappels stats-2014-part2
Statistiques s3
Estimation de copules, une approche bayésienne
chap2. Introduction à la statistique appliquée 2
Variables aléatoires continues Chapitre 5.pdf
Mathématiques Générales.pdf
S2 mqii-statistiquedescriptiveii-rsumsdeschapitres-130401181113-phpapp01
chap2-www.fsjescours.com_.pdf
slides statistique mathématique.pdf
Mettre obligatoirement le titre de la leçon ici
Aates ch08 lois-a-densite
compte
Théorie des distributions
Vecteurs aléatoires sur un espace fini ou dénombrable
Laffly regression multiple
Laffly regression multiple
Slides 2040-5
Prob stat
Publicité

Plus de Arthur Charpentier (20)

PDF
Family History and Life Insurance
PDF
ACT6100 introduction
PDF
Family History and Life Insurance (UConn actuarial seminar)
PDF
Control epidemics
PDF
STT5100 Automne 2020, introduction
PDF
Family History and Life Insurance
PDF
Machine Learning in Actuarial Science & Insurance
PDF
Reinforcement Learning in Economics and Finance
PDF
Optimal Control and COVID-19
PDF
Slides OICA 2020
PDF
Lausanne 2019 #3
PDF
Lausanne 2019 #4
PDF
Lausanne 2019 #2
PDF
Lausanne 2019 #1
PDF
Side 2019 #10
PDF
Side 2019 #11
PDF
Side 2019 #12
PDF
Side 2019 #9
PDF
Side 2019 #8
PDF
Side 2019 #7
Family History and Life Insurance
ACT6100 introduction
Family History and Life Insurance (UConn actuarial seminar)
Control epidemics
STT5100 Automne 2020, introduction
Family History and Life Insurance
Machine Learning in Actuarial Science & Insurance
Reinforcement Learning in Economics and Finance
Optimal Control and COVID-19
Slides OICA 2020
Lausanne 2019 #3
Lausanne 2019 #4
Lausanne 2019 #2
Lausanne 2019 #1
Side 2019 #10
Side 2019 #11
Side 2019 #12
Side 2019 #9
Side 2019 #8
Side 2019 #7

Slides cirm-copulasv3

  • 1. Arthur CHARPENTIER, JES 2010, copules Copules et risques corrélés Arthur Charpentier Université Rennes 1 [email protected] http ://freakonometrics.blog.free.fr/ Journées d’Études Statistique, Luminy, Novembre 2010. 1
  • 2. Arthur CHARPENTIER, JES 2010, copules “having worked out the basic properties of these functions, I wrote about them to Fréchet, in English. He asked me to write a note about them in French. While witting this, I decided I needed a name for those functions. Knowing the word copula as a grammatical term for a word or expression that links a subject and a predicate, I felt that this would make an appropriate name for a function that links a multidimensional distribution to its one-dimensional margins, and used it as such.” (Abe Sklar en 1959, [61], rapporté par [49]). ... mais la fonction copule apparaît (presque) dans Masstabinvariante Korrelationtheorie (Hoeffding, 1940). 2
  • 3. Arthur CHARPENTIER, JES 2010, copules 3
  • 4. Arthur CHARPENTIER, JES 2010, copules 4
  • 5. Arthur CHARPENTIER, JES 2010, copules 5
  • 6. Arthur CHARPENTIER, JES 2010, copules 6
  • 7. Arthur CHARPENTIER, JES 2010, copules 1 Introduction 1.1 De l’indépendance à la dépendance Bayes, [7], “events are independent when the happening of any one of the does neither increase nor abate the probability of the rest”. Laplace, [40], “si les évènements sont indépendants les uns des autres, la probabilité de l’existence de leur ensemble est le produit de leur probabilités particulières”. Deux évènements A et B sont indépendants si et seulement si P(A et B) = P(A, B) = P(A) × P(B). Or P(A et B) = P(A|B) × P(B), donc l’indépendance se caractérise par P(A|B) = P(A). 7
  • 8. Arthur CHARPENTIER, JES 2010, copules Par opposition, on dira que deux évènements sont dépendants si P(A et B) = P(A, B) = P(A) × P(B). Deux variables aléatoires X et Y sont indépendantes si, ∀E = EX × EY , P((X, Y ) ∈ EX × EY ) = P(X ∈ EX, Y ∈ EY ) = P(X ∈ EX) × P(Y ∈ EY ). En particulier, si E = (−∞, x] × (−∞, y], ∀x, y ∈ R, P((X, Y ) ∈ (−∞, x]×(−∞, y]) = F(x, y) = P(X ≤ x)×P(Y ≤ y) = FX(x)×FY (y). Dans le cas des variables discrètes, en considérant E = {(x, y)}, l’indépendance se caractérise par P((X, Y ) = (x, y)) = f(x, y) = P(X = x) × P(Y = y) = fX(x) × fY (y). Cette dernière relation se généralise aux densités pour des variables continues. 8
  • 9. Arthur CHARPENTIER, JES 2010, copules 1.2 Le vecteur Gaussien Mardia [43], “in multivariate analysis, the only distribution leading to tractable inference is the multivariate normal”. Définition1 En dimension d, X = (X1, · · · , Xd) admet une distribution Gaussienne si et seulement si, pour tout a ∈ Rd , a X suit une loi normale (univariée). Un vecteur Gaussien est alors caractérisé par deux paramètres, µ = [µi]i=1,··· ,d (i.e. l’espérance, E(X)) et Σ = [Σi,j]i,j=1,··· ,d (i.e. la variance Var(X)). Les lois marginales d’un vecteur Gaussien sont également Gaussienne, N(µi, Σi,i). La structure de dépendance est caractérisée par une matrice de corrélation, R = [ri,j]i,j=1,··· ,d, où Σi,j = ri,j Σi,iΣj,j, en notant que ri,i = 1. 9
  • 10. Arthur CHARPENTIER, JES 2010, copules En utilisant la décomposition de Cholesky, si X⊥ = (X⊥ 1 , · · · , X⊥ d ) est un vecteur Gaussien centré réduit à composantes indépenddantes, alors X = µ + AX⊥ est un vecteur Gaussien N(µ, AA ), où A est une matrice triangulaire inférieure, décomposition de Cholesky de la matrice Σ (i.e. AA = Σ). On retrouve une propriété énoncée par Rosenblatt, [55]), f(x1, x2, · · · , xd) = f1(x1) · f2|1(x2|x1) · f3|2,1(x3|x2, x1) · · · · · · fd|d−1,··· ,2,1(xd|xd−1, · · · , x2, x1). 10
  • 11. Arthur CHARPENTIER, JES 2010, copules Remarque1 Les copules seront présentées ici afin d’étudier les risques multiples, i.e. des vecteurs aléatoires X = (X1, · · · , Xd). Il est possible de les utiliser pour étudier des séries temporelles, ou des processus, (Xt), charactérisé par les lois fini-dimensionnelle (Xt1 , Xt2 , · · · , Xtd ), où t1 ≤ t2 ≤ · · · ≤ td. 11
  • 12. Arthur CHARPENTIER, JES 2010, copules 2 Concepts associés aux vecteurs aléatoires de Rd La loi d’un vecteur aléatoire X = (X1, · · · , Xd) est caractérisée par – sa fonction de répartition, F(x) = P(X ≤ x) = P(X1 ≤ x1, · · · , Xd ≤ xd), ∀x = (x1, · · · , xd) ∈ Rd . – sa densité (si elle existe) f(x) = f(x1, · · · , xd) = ∂d P(X1 ≤ x1, · · · , Xd ≤ xd) ∂x1 · · · ∂xd ∀x = (x1, · · · , xd) ∈ Rd , ou sa fonction de probabilité, f(x) = P(X1 = x1, · · · , Xd = xd). – sa fonction génératrice ψ(z) = E ez X = E ez1X1+···+zdXd , ∀z = (z1, · · · , zd) ∈ Rd , dès lors que l’espérance existe. 12
  • 13. Arthur CHARPENTIER, JES 2010, copules Remarque2 Sous des hypothèses de dérivabilités, en dimension d = 1, les moments de X peuvent être reliées aux dérivées de la fonction génératrice en 0, i.e. E(Xn ) = dn ψ(z) dzn z=0 . On peut obtenir une relation similaire en dimension d ≥ 2, en introduisant les co-moments, E(Xn1 1 Xn2 2 · · · Xnd d ) = ∂n ψ(z1, · · · , zd) ∂zn1 1 ∂zn2 2 · · · ∂znd d z=0 , où n = n1 + · · · + nd. Les premiers moments sont donc – un vecteur de taille d : l’espérance, [E(Xi)]i=1,··· ,d, – une matrice d × d : la variance, [E(XiXj)]i,j=1,··· ,d, – un tableau d × d × d : la skewness [E(XiXjXk)]i,j,k=1,··· ,d, etc. On note que travailler sur les moments d’ordre supérieur à 2 en dimension d grande va rapidement être compliqué. 13
  • 14. Arthur CHARPENTIER, JES 2010, copules 2.1 Classes de Fréchet Définition2 Soient F1, · · · , Fd d fonctions de répartition R → [0, 1]. On notera F(F1, · · · , Fd) l’ensemble des fonctions de répartition Rd → [0, 1] dont les lois marginales sont F1, · · · , Fd. Comme l’ont montré Fréchet et Hoeffding, les classes de Fréchet sont bornées, Proposition1 Pour tout F ∈ F(F1, · · · , Fd), ∀x ∈ Rd , F− (x) ≤ F(x) ≤ F+ (x) où F+ (x) = min{Fi(xi), i = 1, · · · , d}, et F− (x) = max{0, F1(x1) + · · · + Fd(xd) − (d − 1)}. On notera que F+ ∈ F(F1, · · · , Fd), alors que générallement F− /∈ F(F1, · · · , Fd). 14
  • 15. Arthur CHARPENTIER, JES 2010, copules Remarque3 Il est possible que F− ∈ F(F1, · · · , Fd) alors que d > 2. Une condition nécessaire et suffisante est d’avoir soit d i=1 Fi(xi) ≤ 1, ∀0 < Fi(xi) < 1; où i = 1, · · · , d, i.e. d i=1 Fi(xi) ≥ d − 1, ∀0 < Fi(xi) < 1; où i = 1, · · · , d. Mais si F− /∈ F(F1, · · · , Fd), F− n’en est pas moins une borne atteignable. 15
  • 16. Arthur CHARPENTIER, JES 2010, copules On peut aussi s’intéresser aux classes F(F1,··· ,k, Fk+1,··· ,d). En dimension d = 3, F(F1,2, F3), cf. [30]. Avec quelques hypothèses de compatibilité, on peut considérer, F(F1,··· ,k, Fk,··· ,d). En dimension d = 3, F(F1,2, F2,3). Cette classe est équvialente à F(F1|2, F3|2, F2). Remarque1 Cette classe n’est pas vide : elle contient le vecteur obtenu en supposant X1 et X3 indépendants, conditionnellement à X3, i.e. F(x1, x2, x3) = x2 −∞ F1|2(u)F3|2(u)dF2(u). Classes définies par les lois des paires : en dimension 3, F(F12, F23, F13) (moyennant quelques hypothèses de compatibilité). 16
  • 17. Arthur CHARPENTIER, JES 2010, copules Exemple1 Soient X = (X1, X2, X3) un vecteur Gaussien centré réduit dont les corrélations croisées sont r + ε, où r ∈ [−1, 1] et ε ∈ [0, 1 − r], et Y = (Y1, Y2, Y3) dont les lois marginales sont des lois N(0, 1), et telle que P(Y1 ≤ y1, Y2 ≤ y2, Y3 ≤ y3) = Φ(y1)Φ(y2)Φ(y3)[1+θ(1−Φ(y1)(1−Φ(y2)(1−Φ(y3)] On supposera les vecteurs X et Y indépendants. Alors Z = (Z1, Z2, Z3) = r r + ε (X1, X2, X3) + ε r + ε (Y1, Y2, Y3) est un vecteur dont les couples (Xi, Xj) suivent des lois Gaussiennes bivariée de corrélation r ( [37] ou [42]). 17
  • 18. Arthur CHARPENTIER, JES 2010, copules 2.2 Symmétrie, échangeabilité et indépendance conditionnelle Un vecteur aléatoire est dit symmétrique si la loi jointe est invariante par permutation des composantes, Définition3 Soit S (n) la classe des permutations de {1, ..., n}. Si X = (X1, ..., Xn) est un vecteur tel que Xσ(1), ..., Xσ(n) L = (X1, ..., Xn) , ∀σ ∈ S (n) , alors X sera dit n-échangeable, ou symmétrique. De manière équivalente, X sera dit symmétrique si HX L = X, ∀H ∈ P (n) , où P (n) désigne l’ensemble des matrices n × n de permutation. L’échangeabilité est aussi appelé interchangeabilité. [6] disait des risques échangeables qu’ils étaient “indistingables”. 18
  • 19. Arthur CHARPENTIER, JES 2010, copules Définition4 Un suite finie de variables aléatoires {X1, ..., Xn} est dite échangeable si (X1, ..., Xn) L = Xσ(1), ..., Xσ(n) pour tout permutation σ de {1, ..., n}. Plus généralement, une suite infinie {X1, X2...} de variables aléatoire est dite échangeable si (X1, X2, ...) L = Xσ(1), Xσ(2), ... pour tout permutation finie σ de N∗ (i.e. Card {i, σ (i) = i} < ∞). Définition5 Une suite n-échangeable (Xi) sera dite m-extensible ( pour m > n) si (X1, ..., Xn) L = (Z1, ..., Zn) où (Zi) est une suite de variables m-échangeable. 19
  • 20. Arthur CHARPENTIER, JES 2010, copules Exemple2 Soit X1, ..., Xn une séries de variables aléatoires telles que V ar (Xi) = σ2 et cov (Xi, Xj) = ρσ2 , pour tout i = 1, ...n, et j = i. Alors 0 ≤ V ar n i=1 Xi = n i=1 V ar (Xi) + i=j cov (Xi, Xj) = nσ2 + n (n − 1) ρσ2 , et de plus ; ρ ≥ − 1 n − 1 . =⇒ l’échangeabilité implique une dépendance positive. 20
  • 21. Arthur CHARPENTIER, JES 2010, copules Théorème de de Finetti ([4]) : les mesures échangeables peuvent être écrites comme des mélanges de mesures produits : il existe S telle que pour tout Ai, P (X1 ∈ A1, ..., Xn ∈ An|S) = P (X1 ∈ A1|S) × ... × P (Xn ∈ An|S) . Théorème1 Soit X1, X2, ... une suite échangeable, alors il existe Θ telle que, sachant Θ les Xi sont indépendants. Corollaire1 Soit X1, X2, ... une suite échangeable de variables suivant une loi de Bernoulli, et notons Sn = X1 + .... + Xn. Alors la distribution de Sn est un mélange de lois binomiales, i.e. il existe une loi H définie sur [0, 1] telle que P (Sn = k) = 1 0 n k ωk (1 − ω) n−k dH (ω) . Exemple3 Survenance de castrophes, cf. polycopié. 21
  • 22. Arthur CHARPENTIER, JES 2010, copules 2.3 Lois sphériques et elliptiques On peut aussi définir une invariance par rotations (centrées sur l’origine pour des vecteurs centrés). Définition6 On dira que X a une distribution sphérique si HX L = X, ∀H ∈ O (n) , où O (n) est l’ensemble des matrices n × n orthogonales (i.e. H H = I). 22
  • 23. Arthur CHARPENTIER, JES 2010, copules Exemple4 La distribution N(0, I) est sphérique. Remarque2 Plusieurs caractérisations des distributions sphériques sont possibles (cf. [24]), 1. HX L = X pour tout H ∈ O (n), 2. la fonction caractéristique de X est de la forme E(eit X ) : t → g (t t), 3. X admet la représentation X L = RU où R est une variable aléatoire positive, indépendante de U, vecteur uniformément distribué sur la sphère unité de Rn , 4. pour tout a ∈ Rn , a X L = a Xi pour tout i = 1, ..., n. En reprenant la construction du vecteur Gaussien N (µ, Σ) à partir du vecteur Gaussien centré, à compostantes indépendantes, N (0, I), on dira que X a une distribution elliptique si X L = µ + AY où Y a une distribution sphérique, où AA = Σ : aussi, X aura une distribution elliptique de paramètres µ, Σ = A A et φ (caractérisant la distribution sphérique sous-jacente). Il existe là aussi plusieurs caractérisations de ces distributions sphériques, en 23
  • 24. Arthur CHARPENTIER, JES 2010, copules particulier, X admet une représentation de la forme X L = µ + RAU où R est une variable positive, indépendante de U uniformément distribuée sur la sphère unité de Rn , et A vérifie AA = Σ. Exemple5 La distribution t de Student, de paramètres ν > 0, µ et Σ, est obtenue comme loi du vecteur µ + A √ mZ/S, où Z ∼ N (0, I) et S ∼ χ2 (ν) sont indépendant. La densité de la loi t de Student, de paramètres ν, µ et Σ, est alors x → Γ ((n + m) /2) (πm) n/2 Γ (m/2) |Σ| −1/2 1 + 1 m (x − µ) Σ−1 (x − µ) −(n+m)/2 (pour reprendre les notations de [24]). Cette densité est représentée sur la Figure 1. Notons que si m = 1, on retrouve la loi de Cauchy multivariée. On notera que si ν > 1, µ correspond à l’espérance de X, et que si ν > 2, n n−2 Σ correspond à la matrice de variance-covariance de X. 24
  • 25. Arthur CHARPENTIER, JES 2010, copules Figure 1 – Exemples de densités t de Student, avec en haut, de gauche à droite, (r = 0.1, ν = 4) et (r = 0.9, ν = 4), e en bas (r = 0.5, ν = 4) et (r = 0.5, ν = 10). 25
  • 26. Arthur CHARPENTIER, JES 2010, copules 2.4 Modélisation des portefeuilles homogènes de crédit cf. KMV(see [15]) ou CreditMetrics ([33]), modélisation des défauts joints dans un portefeuille d’émetteurs obligataires. Considérons m émetteurs, que l’on suit sur un horizon temporel donné T (classiquement une année). Soit Yi l’indicateur du défaut de l’émetteur i à horizon T, i.e. Yi = 1 si l’entreprise i fait défaut avant la date T, et Yi = 0 sinon. Dans les modèles latents, on suppose qu’il existe X = (X1, ..., Xm), à marges continues et des seuils D1, ..., Dm (en dessous desquels les compagnies sont en faillite, et font défaut). Yi = 1 {Xi ≤ Di}, i.e. la probabilité de défaut pour l’émetteur i s’écrit pi = P (Yi = 1) = P (Xi ≤ Di) = Fi (Di) , pour i = 1, ..., m. 26
  • 27. Arthur CHARPENTIER, JES 2010, copules Approche classique,    X ∼ N (0, Σ) , distribution Gaussienne X ∼ tν (0, Σ) , distribution Student t où Σ est une matrice de corrélation, avec une unique corrélation croisée ρ > 0, telle que X soit échangeable. Les seuls sont fixés, et donc, Y est échangeable. Ces modèles de mélange ont été intensivement utilisés car ils permettent d’obtenir des modèles facilement interprétables. Supposons que le vecteur des indicatrices de défaut Y suit une mélange échangeable de Bernoulli, i.e. il existe Θ à valeurs dans [0, 1] telle que, conditionnellement à Θ les variables Y1, ..., Ym soient i.i.d., Bernoulli, de paramètre Θ, i.e. p = P (un défaut) = P (Yi = 1) = E (Yi) = E (Θ) pk = P (k défauts) = P (Yi1 = 1, ..., Yik = 1) = E Θk = 1 0 qk dΠ (q) , 27
  • 28. Arthur CHARPENTIER, JES 2010, copules où Π est la distribution de la variable de mélange Θ. Afin de construire un modèle, plusieurs lois peuvent être considérées    loi Beta : π (q) = β (α, β) −1 qα−1 (1 − q) β−1 , α, β > 0. Probit-normal : Φ−1 (Θ) ∼ N µ, σ2 Logit-normal : log (Θ/ (1 − Θ)) ∼ N µ, σ2 28
  • 29. Arthur CHARPENTIER, JES 2010, copules !6 !4 !2 0 2 4 6 0.00.10.20.30.40.50.6 Value of the company Probit model in dimension 1 DEFAULT !4 !2 0 2 4 !4!2024 Value of company (1) Valueofcompany(2) (1) DEFAULTS (2)DEFAULTS Probit model in dimension 2 Figure 2 – Modélisation probit du risque de défaut. 29
  • 30. Arthur CHARPENTIER, JES 2010, copules 3 Les copules La notion de copula a été introduite par Sklar en 1959, motivé par les travaux de Fréchet dans les années 50. Les copules sont aussi été appelées “fonction de dépendance” par Deheuvels en 1979 ([17]), ou “représentation uniforme” par Kimeldorf et Sampson en 1975 ([38]). Remarque4 Les copules sont apparu chez Hoeffding, mais au lieu de considérer des lois uniformes sur [0, 1], il considère des lois uniformes sur [−1/2, +1/2]. 30
  • 31. Arthur CHARPENTIER, JES 2010, copules 3.1 Les copules en dimension 2 Définition7 Une copule C : [0, 1]2 → [0, 1] est une fonction de répartition dont les lois marginales sont uniforme sur [0, 1]. De manière équivalente, on a la charactérisation suivante Théorème2 Une copule C : [0, 1]2 → [0, 1] est une fonction qui vérifie les trois conditions suivantes – C(u1, 0) = C(0, u2) = 0 pour tout u1, u2 ∈ [0, 1], – C(u1, 1) = u1 et C(1, u2) = u2 pour tout u1, u2 ∈ [0, 1], – C est une fonction 2-croissante, i.e. pour tout 0 ≤ ui ≤ vi ≤ 1, C(v1, v2) − C(v1, u2) − C(u1, v2) + C(u1, u2) ≥ 0. Les deux premières conditions se traduisent graphiquement par les conditions de bords de la Figure 3, 31
  • 32. Arthur CHARPENTIER, JES 2010, copules Borders of the copula function !0.2 0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 !0.20.00.20.40.60.81.01.21.4 !0.2 0.0 0.2 0.4 0.6 0.8 1.0 1.2 Figure 3 – Conditions de bord d’une copule en dimension d = 2, C(u1, 0) = C(0, u2) = 0, C(u1, 1) = u1 et C(1, u2) = u2. 32
  • 33. Arthur CHARPENTIER, JES 2010, copules Si C est la copule associée à un vecteur aléatoire (X1, X2), alors C couple les fonctions de répartition, au sens où P(X1 ≤ x1, X2 ≤ x2) = C(P(X1 ≤ x1),P(X2 ≤ x2)) Il est aussi possible de coupler les fonctions de survie, au sens où il existe une copule C telle que P(X > x, Y > y) = C (P(X > x), P(Y > y)). On montre aisément que C (u1, u2) = u1 + u2 − 1 + C(1 − u1, 1 − u2). Définition8 La copule de survie C associée à la copule C est la copule définie par C (u1, u2) = u1 + u2 − 1 + C(1 − u1, 1 − u2). 33
  • 34. Arthur CHARPENTIER, JES 2010, copules Si X est un vecteur à compostantes continues, de loi F ∈ F(F1, F2), sa copule est donnée par C(u1, u2) = F(F−1 1 (u1), F−1 2 (u2)), ∀u1, u2 ∈ [0, 1]. Notons que C est alors la fonction de répartition du vecteur U = (U1, U2) où Ui = Fi(Xi), i = 1, 2. De manière générale, en notant h−1 l’inverse généralisé d’une fonction h : R → R montone, définie par h−1 (t) = inf{x, h(x) ≥ t, t ∈ R}, la copule C(u1, u2) = F(F−1 1 (u1), F−1 2 (u2)) est une copule du vecteur X. Exemple6 Soit {X1, · · · , Xn} un échantillon i.i.d. de loi F, et notons Xi:n la ième plus grande valeur. Rappelons que les fonctions de répartition de X1:n = min{X1, · · · , Xn} et Xn:n = max{X1, · · · , Xn} sont respectivement données par F1:n (x) = 1 − [1 − F (x)] n et Fn:n (x) = [F (x)] n pour tout x, 34
  • 35. Arthur CHARPENTIER, JES 2010, copules et de plus, la fonction de répartition du couple est donnée par F1,n (x, y) =    F (x) n − (F (y) − F (x)) n , si x < y F (y) n , si x ≥ y . On en déduit alors que le copula du coupe (X1:n, Xn:n), noté Cn est de la forme suivante Cn (u, v) =    v − v1/n + (1 − u) 1/n − 1 n , si 1 − (1 − u) 1/n < v1/n v , si 1 − (1 − u) 1/n ≥ v1/n , appelé copule min-max par [57]. On notera que les copules sont des fonctions continues. Plus précisément, elles vérifient une condition de Lipschitz : pour tout 0 ≤ ui, vi ≤ 1, |C(u1, u2) − C(v1, v2)| ≤ |u1 − v1| + |u2 − v2|. 35
  • 36. Arthur CHARPENTIER, JES 2010, copules 3.2 Les copules en dimension d > 2 La propriété de croissance de la fonction de répartition est liée à la propriété de n-croissance, qui s’interprète comme le fait que P(x1 ≤ X1 ≤ y1, ..., xd ≤ Xd ≤ yd) ≥ 0 pour X = (X1, ..., Xd) de loi F, pour tout x ≤ y (au sens xi ≤ yi. Définition9 Une fonction h : Rd → R est dite d-croissante si pour tout hyper-rectangle [a, b] de Rd , Vh ([a, b]) ≥ 0, où Vh ([a, b]) = ∆b ah (t) = ∆bd ad ∆bd−1 ad−1 ...∆b2 a2 ∆b1 a1 h (t) (1) pour tout t, où ∆bi ai h (t) = h (t1, ..., ti−1, bi, ti+1, ..., tn) − h (t1, ..., ti−1, ai, ti+1, ..., tn) . (2) 36
  • 37. Arthur CHARPENTIER, JES 2010, copules Increasing functions in dimension 3 Figure 4 – La notion de 3-croissance : on somme la valeur aux différents sommets de l’hyperrectangle, avec un signe positif ou négatif. 37
  • 38. Arthur CHARPENTIER, JES 2010, copules Définition10 Une copule en dimension d est une fonction de répartition sur [0, 1]d dont les lois marginales sont uniformes sur [0, 1]. De manière équivalente, les copules sont des fonctions C : [0, 1]d → [0, 1] telle que pour tout 0 ≤ ui ≤ 1 pour tout i = 1, ..., d les conditions suivante sont vérifies, C(1, ..., 1, ui, 1, ..., 1) = ui, (3) C(u1, ..., ui−1, 0, ui+1, ..., ud) = 0, (4) C est d-croissante. (5) En fait les équations 3 et 4 implique que les marges sont uniformément répartie sur [0, 1]. De plus, C est croissante par marges, avec une plense une propriété de Lipschitz, garantissant la continuité de la fonction C (comme en dimension 2). Le résultat le plus important sur les copules est le théorème de Sklar ([60] ou [49]), 38
  • 39. Arthur CHARPENTIER, JES 2010, copules Théorème3 1. Si C est une copule, et F1, ..., Fd des fonctions de répartition univariées, alors pour tout (x1, ..., xd) ∈ Rd , F(x1, ..., xn) = C(F1(x1), ..., Fd(xd)) (6) est une fonction de répartition de F(F1, ..., Fd). 2. Réciproquement, si F ∈ F(F1, ..., Fd), il existe une copule C satisfaisant l’équation 6. Cette copule n’est pas forcément unique, mais si les lois marginales F1, ..., Fd sont continues, elle le sera, avec, pour tout (u1, , ..., ud) ∈ [0, 1]d , C(u1, ..., ud) = F(F−1 1 (u1), ..., F−1 d (ud)), (7) où les fonctions quantiles F−1 1 , ..., F−1 n sont les inverses généralisés (continues à gauche) des fonctions Fi. Ce théorème a permis de motiver l’utilisation des copules en tant que “fonctions de dépendance”, permant de capture des propriétés de dépendance invariants par changement d’échelle, 39
  • 40. Arthur CHARPENTIER, JES 2010, copules Proposition2 Soit (X1, ..., Xd) un vecteur aléatoire de copule C. Soient φ1, · · · , φd, φi : R → R des fonctions continues strictement croissantes, alors C est la copule du vecteur (φ1(X1), ..., φd(Xd)). Une démonstration de ce résultat se trouve dans [37], ou [22], dans un cadre plus général : en effet, notons que l’hypothèse de continuité des φi n’est pas nécessaire si les Xi sont continues. Définition11 Soit C une copule, alors la fonction C (u1, ..., ud) = d k=0  (−1)k i1,...,ik C(1, ..., 1, 1 − ui1 , 1, ...1, 1 − uik , 1, ...., 1)   , (8) pour tout (u1, ..., ud) ∈ [0, 1] × ... × [0, 1], est une copule, appelée copule de survie, ou copule duale, de C. 40
  • 41. Arthur CHARPENTIER, JES 2010, copules Si (U1, ..., Ud) a pour fonction de répartition C, alors C est la fonction de répartition du vecteur (1 − U1, ..., 1 − Ud). Et si P(X1 ≤ x1, · · · , Xd ≤ xd) = C(P(X1 ≤ x1), · · · , P(Xd ≤ xd)), pour tout (x1, · · · , xd) ∈ R, alors P(X1 > x1, · · · , Xd > xd) = C (P(X1 > x1), · · · , P(Xd > xd)). 41
  • 42. Arthur CHARPENTIER, JES 2010, copules 3.3 Propriétés de l’ensemble des copules Proposition3 La classe des copules est convexe, i.e. si {Cθ, θ ∈ Ξ} est une famile de copules, et que H est une distributonsur Ξ, alors C (x1, ..., xn) = Ξ Cθ (x1, ..., xn) dH (θ) est une copule. Une preuve de se résultat peut être trouvé dans [49]. Exemple7 Les fonctions C⊥ (u1, · · · , ud) = d i=1 ui et C+ (u1, · · · , ud) = min{u1, · · · , ud}, sont des copules (respectivement la copule indépendante et la copule comontone, appelée aussi borne supérieure de Fréchet-Hoeffding), et pour tout α ∈ [0, 1], C(u1, · · · , ud) = αC⊥ (u1, · · · , ud) + [1 − α]C+ (u1, · · · , ud), est une copule. 42
  • 43. Arthur CHARPENTIER, JES 2010, copules 3.4 Copules, quasi-copules et semi-copules 3.4.1 Quelques définitions La notion de d-croissance correspond à avoir une masse positive sur tout hyperrectangle, i.e. P(U ∈ [a, b]) ≥ 0, où [a, b] = [a1, b1] × · · · × [ad, bd]. D’autres notions de “croissance” ont été définie dans la littérature. Une condition plus faible est de supposer une relation de ce genre mais uniquement pour les hyperrectangles touchant un bord, i.e. il existe i ∈ {1, · · · , d} tel que ai = 0 ou bi = 1. Comme l’a montré [3], cette condition est équivalente à demander une croissance par composante, et que la condition de Lipschitz soit vérifiée. 43
  • 44. Arthur CHARPENTIER, JES 2010, copules Définition12 Une fonction Q : [0, 1]d → [0, 1] est une quasi-copule si pour tout 0 ≤ ui ≤ 1, i = 1, · · · , d, Q(1, ..., 1, ui, 1, ..., 1) = ui, (9) Q(u1, ..., ui−1, 0, ui+1, ..., ud) = 0, (10) s → Q(u1, ..., ui−1, s, ui+1, ..., ud) est une fonction croissante, pour tout i, et |Q(u1, · · · , ud) − Q(v1, · · · , vd)| ≤ |u1 − v1| + · · · + |ud − vd|. Exemple8 Les copules sont des quasi-copules. De plus, C− qui n’était pas une copule est en revanche une quasi-copule. Les quasi-copules sont intéressantes car elles apparaissent naturelles dès que l’on cherche des bornes à des ensembles de copules. 44
  • 45. Arthur CHARPENTIER, JES 2010, copules Proposition4 Soit C un ensemble non vide de copules (éventuellement fermé), et notons C− et C+ les bornes de C, au sens où C− (u) = inf{C(u), C ∈ C} et C+ (u) = sup{C(u), C ∈ C}. Alors C− et C+ sont les meilleurs bornes possibles pour C, mais en général, C− /∈ C et C+ /∈ C, et ne sont générallement pas des copules. En revanche, C− et C+ sont des quasi-copules. Remarque5 Cette façon d’écrire les quasi-copules (comme des bornes inférieures) d’ensembles de copules rappelle la construction des capacités comme des bornes inférieurs d’ensemble de probabilités. 45
  • 46. Arthur CHARPENTIER, JES 2010, copules Définition13 Une fonction S : [0, 1]d → [0, 1] est une semi-copule si pour tout 0 ≤ ui ≤ 1, i = 1, · · · , d, S(1, ..., 1, ui, 1, ..., 1) = ui, (11) S(u1, ..., ui−1, 0, ui+1, ..., ud) = 0, (12) et s → S(u1, ..., ui−1, s, ui+1, ..., ud) sur [0, 1]. 46
  • 47. Arthur CHARPENTIER, JES 2010, copules Exemple9 Soit H l’ensemble de fonctions de distorsion, continues, strictement croissantes [0, 1] → [0, 1] telles que h (0) = 0 et h (1) = 1. On notera que h ∈ H si et seulement si h−1 ∈ H i.e. (H, ◦) est un groupe, où ◦ est l’opérateur de composition. L’élément neutre est la fonction identité sur [0, 1]. Pour tout h ∈ H et C ∈ C (l’ensemble des copules), posons Ψh (C) (u1, u2) = h−1 (C (h (u1) , h (u2))), ∀0 ≤ u1, u2 ≤ 1. On parlera de H-copule. Les H-copules échangeables sont des semi-copules. Ψh C⊥ est une quasi-copule si et seulement si − log h est convexe. Dans ce cas on peut écrire C (u, v) = h−1 (h (u) h (v)) = φ−1 (φ (u) + φ (v)) , où h ∈ H est le générateur multiplicatif, et φ = − log h le génrateur additif. 47
  • 48. Arthur CHARPENTIER, JES 2010, copules Remarque6 Comme l’a montré [5], la famille S est stable par distortion, au sens où Ψh (C) ∈ S, pour tout C ∈ S et h ∈ H. Mais cette propriété n’est pas vérifiée pour l’ensemble des copules C. Définition14 Une capacité sur un espace (Ω, A) est une fonction d’ensemble ν : A → [0, 1] telle que ν (∅) = 0, ν (Ω) = 1, et si A ⊂ B, alors ν (A) ≤ ν (B). De plus, la capacité ν est convexe si et seulement si pour tout A, B, ν (A) + ν (B) ≤ ν (A ∪ B) + ν (A ∩ B). (cf. la présentation de J.M. Tallon), les capacité sont des notions plus faibles que les probabilités. 48
  • 49. Arthur CHARPENTIER, JES 2010, copules 3.5 Simulations aléatoires et copules Les copules sont des lois de vecteurs dont les marges sur uniformément réparties sur [0, 1]. Or la simulation de lois repose sur les générateurs de nombres aléatoires (les fonctions Random) qui génèrent précisément des variables uniformément réparties sur [0, 1]. Plus précisément, on impose deux conditions aux générateurs de nombres aléatoires, – qu’ils génèrent des nombres uniforméments distribués sur [0, 1], – que des appels consécutifs de fonctions Random génèrent des variables indépendantes. on sait générer U⊥ = (U⊥ 1 , ..., U⊥ d ) que l’on va utiliser pour simuler ici un vecteur U = (U1, ..., Ud) dont la loi soit une C, supposée dérivable. 49
  • 50. Arthur CHARPENTIER, JES 2010, copules L’idée naturelle est d’utiliser la décomposition à l’aide des lois conditionnelles itérées P(U1 ≤ u1, . . . , Ud ≤ ud) = P(Ud ≤ ud|U1 ≤ u1, . . . , Ud−1 ≤ ud−1) ×P(Ud−1 ≤ ud−1|U1 ≤ u1, . . . , Ud−2 ≤ ud−2) × . . . ×P(U3 ≤ u3|U1 ≤ u1, U2 ≤ u2) ×P(U2 ≤ u2|U1 ≤ u1) × P(U1 ≤ u1). En commençant par la fin, P(U1 ≤ u1) = u1 puisque U1 suit une loi uniforme. Ensuite, notons que 50
  • 51. Arthur CHARPENTIER, JES 2010, copules P(U2 ≤ u2|U1 = u1) = P(U2 ≤ u2, U3 ≤ 1, . . . Ud ≤ 1|U1 = u1) = lim h→0 P(U2 ≤ u2, U3 ≤ 1, . . . Ud ≤ 1|U1 ∈ [u1, u1 + h]) = lim h→0 P(u1 ≤ U1 ≤ u1 + h, U2 ≤ u2, U3 ≤ 1, . . . Ud ≤ 1) P(U1 ∈ [u1, u1 + h]) = lim h→0 P(U1 ≤ u1 + h, U2 ≤ u2, U3 ≤ 1, . . . Ud ≤ 1) − P(U1 ≤ u1, U2 ≤ u2, U3 ≤ 1, . . . P(U1 ∈ [u1, u1 + h]) = lim h→0 C(u1 + h, u2, 1, . . . , 1) − C(u1, u2, 1, . . . , 1) h = ∂C ∂u1 C(u1, u2, 1, . . . , 1). Et de manière plus générale, nous aurions P(Uk ≤ uk|U1 = u1, . . . , Uk−1 = uk−1) = ∂k−1 ∂u1 . . . ∂uk−1 C(u1, . . . , uk, 1, . . . , 1). Nous avons alors un algorithme simple pour générer U = (U1, .., Un) suivant C à partir d’un vecteur U⊥ = (U⊥ 1 , ..., U⊥ d ) (généré à partir d’appels successifs de 51
  • 52. Arthur CHARPENTIER, JES 2010, copules fonction Random), – générons U1 uniformément sur [0, 1], u1 ← U⊥ 1 – générons U2 suivant la loi conditionnelle ∂1C(·|u1), u2 ← [∂1C(·|u1)]−1 (U⊥ 2 ), – générons Uk suivant la loi conditionnelle ∂1,...,k−1C(·|u1, ..., uk−1), uk ← [∂1,...,k−1C(·|u1, ..., uk−1)]−1 (U⊥ k ), ...etc. 52
  • 53. Arthur CHARPENTIER, JES 2010, copules Exemple10 On retrouve ici l’idée implicite de l’utilisation de la décomposition de Cholesky : on génère un vecteur gaussien centré réduit à composantes indépendantes, X⊥ , puis on pose X = µ + AX⊥ , où A est une matrice triangulaire triangulaire inférieur telle que AA = Σ, qui permet de générer un vecteur N(µ, Σ). Aussi, en dimension 2, pour générer un vecteur centré-réduit de corrélation r ∈ (−1, 1), on pose – pour la première composante x1 = X⊥ 1 , – pour la seconde x2 = rx1 + √ 1 − r2X⊥ 2 . 53
  • 54. Arthur CHARPENTIER, JES 2010, copules !istri&'tion de - ./ 010 012 014 014 015 110 0200400 !istri&'tion de 7 ./ 010 012 014 014 015 110 0100300900 010 012 014 014 015 110 010014015 -ni:orm m<r=ins !4 !2 0 2 4 !4!2024 St<nd<rd ?<'ssi<n m<r=ins 54
  • 55. Arthur CHARPENTIER, JES 2010, copules Exemple11 Considérons la copule de Clayton (en dimension d = 2, C(u1, u2) = (u−α 1 + u−α 2 − 1)−1/α , où α ≥ 0. Alors (U1, U2) a pour distribution C si et seulement U1 suit une loi uniforme sur [0, 1] et que U2|U1 = u1 a pour loi conditionnelle P(U2 ≤ u2|U1 = u1) = ∂2C(u2|u1) = (1 + uα 1 [u−α 2 − 1])−1−1/α . L’algorithme pour générer une copule de Clayton est alors de la forme suivante, – générons U1 uniformément sur [0, 1], u1 ← U⊥ 1 , – générons U2 suivant la loi conditionnelle ∂2C(·|u), u2 ← [∂1C(·|u1)]−1 (U⊥ 2 ) = [(U⊥ 2 )−α/(1+α) − 1]u−α 1 + 1 −1/α . Un example de simulation de copule de Clayton peut se visualiser sur la Figure suivante, 55
  • 56. Arthur CHARPENTIER, JES 2010, copules D"#$%"&u$"on +e U .y 010 012 014 014 015 110 0200400 D"#$%"&u$"on +e V .y 010 012 014 014 015 110 0200400 010 012 014 014 015 110 010014015 Un"fo%m ma%;"n# !2 0 2 4 !2024 S$an+a%+ =au##"an ma%;"n# 56
  • 57. Arthur CHARPENTIER, JES 2010, copules Exemple12 En fait, plus générallement, il est possible de trouver un algorithme simple pour générer une copule Archimédienne. Pour cela, – générons U1 uniformément sur [0, 1], u1 ← U⊥ 1 , – générons U2 suivant la loi conditionnelle ∂2C(·|u), u2 ← φ−1 (φ (u) − φ(u1)) , où u = φ −1 φ (u1)/U⊥ 2 . Notons que [31] ont proposé d’utiliser le fait que C(U1, U2) et φ(U1)/[φ(U1) + φ(U2)] sont deux variables indépendantes, la première de loi K, où K(t) = t − φ(t)/φ (t), et la seconde est uniforme sur [0, 1]. Aussi, – générons U de loi K u ← K−1 (U⊥ 1 ), – posons u1 ← φ−1 (U⊥ 2 φ(u)) et u2 ← φ−1 ([1 − U⊥ 2 ]φ(u)). 57
  • 58. Arthur CHARPENTIER, JES 2010, copules 4 Les familles usuelles de copules Avant de présenter les copules paramétriques les plus usuelles, on appelera C⊥ la copule indépendante, Définition15 On appelera copule indépendante C⊥ la copule définie par C⊥ (u1, ..., un) = u1 · · · ud = d i=1 ui (= Π(u1, ..., un)). Remarque7 Soit X ∈ F(F1, · · · , Fd). On notera X⊥ ∈ F(F1, · · · , Fd) un vecteur dont la copule est C⊥ . On dira qu’il s’agit d’une version indépendante de X. 58
  • 59. Arthur CHARPENTIER, JES 2010, copules 4.1 Les bornes de Fréchet-Hoeffding et la comonotonie La famille des copules est bornée : pour toute copule C, C− (u1, ..., ud) ≤ C(u1, ..., ud) ≤ C+ (u1, ..., ud), pour tout (u1, ..., ud) ∈ [0, 1] × ... × [0, 1], où C− (u1, ..., ud) = max{0, u1 + ... + ud − (d − 1)} et C+ (u1, ..., ud) = min{u1, ..., ud}. Les bornes sont appelées bornes de Fréchet-Hoeffding. On notera que si C+ est une copule, en revanche C− est une copule uniquement dans le cas d = 2. Définition16 La copule comonotone C+ est définie par C+ (u1, ..., ud) = min{u1, ..., ud}. Définition17 La borne inférieure de Fréchet C− la fonction définie par C− (u1, ..., ud) = max{0, u1 + ... + ud − (d − 1)}. En dimension d = 2, C− sera appelée copule anticomonotone. 59
  • 60. Arthur CHARPENTIER, JES 2010, copules Remarque8 Soit X ∈ F(F1, · · · , Fd). On notera X+ ∈ F(F1, · · · , Fd) une vecteur dont la copule est C+ . On dira qu’il s’agit d’une version comonotone de X. De manière similaire, en dimension d = 2, on notera X− ∈ F(F1, F2) une version anticomonone de X. Figure 5 – Copule anticomontone, copule indépendante, et copule comonotone, en dimension d = 2. 60
  • 61. Arthur CHARPENTIER, JES 2010, copules Proposition5 1. Si d = 2, C− est la fonction de répartition du couple (U, 1 − U) où U est uniformément distribuée sur [0, 1]. 2. (X1, X2) a pour copule C− si et seulement s’il exsite φ strictement croissante et ψ strictement décroissante telles que (X1, X2) L = (φ(Z), ψ(Z)) où Z est une variable aléatoire. 3. C+ est la fonction de répartition du vecteur (U, ..., U) où U est uniformément distribuée sur [0, 1]. 4. (X1, ..., Xn) a pour copule C+ si et seulement s’il existe des fonctions φi strictement croissantes telles que (X1, ..., Xn) L = (φ1(Z), ..., φn(Z)) où Z est une variable aléatoire. cf. [49]. 61
  • 62. Arthur CHARPENTIER, JES 2010, copules Exemple13 Ces bornes sur les copules peuvent en fait fournir des bornes sur certaines quantités. En particulier, si d = 2, et que φ : R2 → R est 2-croissante, alors pour tout (X1, X2) ∈ F(F1, F2) E(φ(F−1 1 (U), F−1 2 (1 − U))) ≤ E(φ(X1, X2)) ≤ E(φ(F−1 1 (U), F−1 2 (U))), où U est uniformément répartie sur [0, 1] (cf. [62]). Exemple14 si X1 et X2 sont comonotones, ainsi que X2 et X3, X1 et X3 peuvent ne pas être comonotone. Par exemple, si (X1, X2, X3) = (1, 1, 1) avec probabilité 1/4, (1, 2, 3) avec probabilité 1/4, (3, 2, 1) avec probabilité 1/4, (3, 3, 3) avec probabilité 1/4, alors X1 et X3 sont indépendants. 62
  • 63. Arthur CHARPENTIER, JES 2010, copules Exemple15 si X1 et X2 sont comonotones, et que X2 et X3 sont indépendants, X1 et X3 peuvent ne pas être indépendants. Aussi, par exemple, avec (X1, X2, X3) = (1, 1, 3) avec probabilité 1/4, (2, 1, 1) avec probabilité 1/4, (2, 3, 3) avec probabilité 1/4, (3, 3, 1) avec probabilité 1/4, X1 et X2 sont comonotones, X2 et X3 sont indépendants, et X1 et X3 sont indépendants. 63
  • 64. Arthur CHARPENTIER, JES 2010, copules 4.2 Les copules elliptiques Définition1 Soit X ∼ E(µ, Σ, g), et Fg la distribution des variables Xi/ Σi,i. On appelle copule elliptique de paramètres Σ et g la distribution du vecteur Fg X1 Σ1,1 , Fg X2 Σ2,2 , · · · , Fg Xd Σd,d . Exemple16 Soit r ∈ (−1, +1), alors la copule Gaussienne de paramètre r (en dimension 2) est C(u1, u2) = 1 2π √ 1 − r2 Φ−1 (u1) −∞ Φ−1 (u2) −∞ exp x2 − 2rxy + y2 2(1 − r2) dxdy où Φ est la fonction de répartition de la loi normale centrée réduite Φ(x) = x −∞ 1 √ 2π exp − z2 2 dz. 64
  • 65. Arthur CHARPENTIER, JES 2010, copules Exemple17 Soit r ∈ (−1, +1), et ν, alors la copule de Student de paramètres r et ν est T −1 ν (u1) −∞ T −1 ν (u2) −∞ 1 πν √ 1 − r2 Γ ν 2 + 1 Γ ν 2 1 + x2 − 2rxy + y2 ν(1 − r2) − ν 2 +1 dxdy. où Tν est la fonction de répartition de la loi de Student (univariariée) à ν degrés de libertés, i.e. Tν(x) = x −∞ Γ(ν+1 2 ) √ νπ Γ(ν 2 ) 1 + z2 ν −( ν+1 2 ) 65
  • 66. Arthur CHARPENTIER, JES 2010, copules 4.3 Les copules Archimédiennes 4.3.1 Les copules Archimédiennes strictes en dimension 2 Définition18 Soit φ une fonction décroissante convexe sur (0, 1] → [0, ∞] telle que φ(1) = 0 et φ(0) = ∞. On appelera copule Archimédienne stricte de générateur φ la copule définie par C(u1, u2) = φ−1 (φ(u1) + φ(u2)), u1, u2 ∈ [0, 1]. Exemple18 Soit φ(t) = tα − 1 ; la copule associée est la copule de Clayton. Notons que le générateur n’est pas unique, en particulier en multipliant par une constante. Les copules Archimédiennes sont des copules symmétriques, au sens où C(u1, u2) = C(u2, u1). 66
  • 67. Arthur CHARPENTIER, JES 2010, copules Exemple19 Il est aussi possible de chercher des copules Archimédiennes vérifiant une propriété de symmétrie radiale, i.e. C(u1, u2) = C (u1, u2). Ceci n’est possible que si φ(t) = log e−αt − 1 e−α − 1 . Il s’agit de la copule dite de Frank ([26]). Remarque9 Certains (e.g. [45] ou [21]) préfère une présentation multiplicative, C(u1, u2) = h−1 [h(u1) · h(u2)]. On retrouve la forme précédante en posant h(t) = exp[φ(t)], ou réciproquement φ(t) = h(log(t)). 67
  • 68. Arthur CHARPENTIER, JES 2010, copules Remarque10 Une autre caractérisation des copules Archimédienne peut se faire à l’aide de la fonction de Kendall, K(t) = P(C(U1, U2) ≤ t) = t − λ(t) où λ(t) = φ(t) φ (t) et où (U1, U2) a pour loi C. De façon réciproque, φ(t) = exp t t0 ds λ(s) , où t0 ∈ (0, 1) est une constante arbitraire (nous avions noté que les générateurs étaient définis à une constante multiplicative près. Cette fonction est particulièrement en inférence statistique. 68
  • 69. Arthur CHARPENTIER, JES 2010, copules on peut généraliser en autorisant φ(0) ≤ ∞. Définition19 Soit φ une fonction décroissante convexe sur (0, 1] → [0, ∞] telle que φ(1) = 0. Définissons l’inverse de φ par φ−1 (t) =    φ−1 (t) , for 0 ≤ t ≤ φ(0) 0 , for φ(0) < t < ∞. On appelera copule Archimédienne de générateur φ la copule définie par C(u1, u2) = φ−1 (φ(u1) + φ(u2)), u1, u2 ∈ [0, 1]. Les copules Archimédiennes non strictes présente un ensemble nul {(u1, u2), φ(u1) + φ(u2) > 0} non vide, pour lequel P((U1, U2) ∈ {(u1, u2), φ(u1) + φ(u2) > 0}) = 0. 69
  • 70. Arthur CHARPENTIER, JES 2010, copules Cet ensemble est majoré par une courbe nulle, {(u1, u2), φ(u1) + φ(u2) = 0}, de masse P((U1, U2) ∈ {(u1, u2), φ(u1) + φ(u2) = 0}) = − φ(0) φ (0+) , qui est non nulle dès lors que −φ (0+ ) est finie. Exemple20 Soit φ(t) = tα − 1, où α ∈ [−1, ∞), avec le cas limite φ(t) = − log(t) si α = 0 ; la copule associée est la copule de Clayton. Le générateur est strict si α > 0. 70
  • 71. Arthur CHARPENTIER, JES 2010, copules ψ(t) range θ (1) 1 θ (t−θ − 1) [−1, 0) ∪ (0, ∞) Clayton, Clayton (1978) (2) (1 − t)θ [1, ∞) (3) log 1−θ(1−t) t [−1, 1) Ali-Mikhail-Haq (4) (− log t)θ [1, ∞) Gumbel, Gumbel (1960), Hougaard (1986) (5) − log e−θt−1 e−θ−1 (−∞, 0) ∪ (0, ∞) Frank, Frank (1979), Nelsen (1987) (6) − log{1 − (1 − t)θ} [1, ∞) Joe, Frank (1981), Joe (1993) (7) − log{θt + (1 − θ)} (0, 1] (8) 1−t 1+(θ−1)t [1, ∞) (9) log(1 − θ log t) (0, 1] Barnett (1980), Gumbel (1960) (10) log(2t−θ − 1) (0, 1] (11) log(2 − tθ) (0, 1/2] (12) ( 1 t − 1)θ [1, ∞) (13) (1 − log t)θ − 1 (0, ∞) (14) (t−1/θ − 1)θ [1, ∞) (15) (1 − t1/θ)θ [1, ∞) Genest & Ghoudi (1994) (16) ( θ t + 1)(1 − t) [0, ∞) 71
  • 72. Arthur CHARPENTIER, JES 2010, copules 4.3.2 Les copules Archimédiennes en dimension d > 2 Les copules Archimédiennes sont associatives (e.g. [58] ou [2]), i.e. C(C(u1, u2), u3) = C(u1, C(u2, u3)), ∀0 ≤ u1, u2, u3 ≤ 1. Définition20 Si d > 2, supposons que φ−1 est d-complètement monotone (où, pour rappels, ψ est d-complètement monotone si elle est continue, et que ses dérivées sont monotones, de signe alterné, i.e. pour tout k = 0, 1, ..., d, (−1)k dk ψ(t)/dtk ≥ 0). Une copule Archimédienne est alors définie par C(u1, ..., un) = φ−1 (φ(u1) + ... + φ(un)), ∀u1, ..., un ∈ [0, 1]. 72
  • 73. Arthur CHARPENTIER, JES 2010, copules Ces copules sont obtenues par itérations successives, en posant C2(u1, u2) = φ−1 (φ(u1) + φ(u2)) et ensuite, pour n ≥ 2, Cn+1(u1, · · · , un+1) = C2(Cn(u1, · · · , un), un+1). Exemple21 Soit ψ une transformée de Laplace d’une variable positive Θ, alors d’après le théorème de Bernstein, ψ est complètement montone, et ψ(0) = 1. Alors φ = ψ−1 est complètement montone, et permet d’engendrer une copule Archimédienne de dimension d pour tout d ≥ 2. Par exemple si Θ suit une loi Gamma d’espérance a et de variance a, alors ψ(t) = (1 + t)1/α , on retrouve la copule de Clayton . Cette notation est celle retenue dans [37] pour définir les copules Archimédiennes, C(u1, · · · , ud) = ψ(ψ−1 (u1) + · · · + ψ−1 (ud)). 73
  • 74. Arthur CHARPENTIER, JES 2010, copules Exemple22 Soit X = (X1, · · · , Xd) un vecteur de durées de vies résidueles, dont la loi de survie jointe est supposée Schur-constante (i.e. à la fois Schur-concave et Schur-convexe). Alors il existe S : R+ → [0, 1] telle que P(X1 > x1, · · · , Xd > xd) = S(x1 + · · · + xd). Les lois marginales Xi sont alors Schur-contantes (i.e. suivent des lois exponentielles), et la copule de survie de X est une copule Archimédienne de générateur S−1 . Notons également que les durées de vies conditionnelles sont identiques, au sens où P(Xi − xi > t|X > x) = P(Xj − xj > t|X > x), pour tout t > 0 et x ∈ Rd +. En particulier, si S est la fonction de survie d’une loi de Pareto, on obtient la copule de Clayton, et si S est la fonction de survie d’une distribution de Weibull, on obtient la copule de Gumbel, comme l’a montré [48]. 74
  • 75. Arthur CHARPENTIER, JES 2010, copules Proposition6 Soit (Cn) une suite de copules absolument continues de copules Archimédiennes, de générateurs (φn). La limite de Cn lorsque n → ∞ est une copule Archimédienne si et seulement si une des conditions suivantes est satisfaite, – il existe φ ∈ Φ telle que s, t ∈ [0, 1], lim n→∞ φn(s) φn(t) = φ(s) φ (t) . (13) – il existe λ continue telle que lim n→∞ λn(t) = λ(t). – il existe K continue telle que lim n→∞ Kn(t) = K(t). – il existe une suite de constante positive (cn) telles que lim n→∞ cnφn(t) = φ(t), pour tout t ∈ [0, 1]. Ce résultat a été montré partiellement par [29] et généralisé par [13]. Exemple23 Les copules archimédiennes sont intéressantes en rique de crédit (cf. [47]). 75
  • 76. Arthur CHARPENTIER, JES 2010, copules 4.4 Les copules Archimédiennes généralisées et hiérarchiques Considérons le cas où C(u1, · · · , ud) est φ−1 1 [φ1[φ−1 2 (φ2[· · · φ−1 d−1[φd−1(u1) + φd−1(u2)] + · · · + φ2(ud−1))] + φ1(ud)] où les φi sont des générateurs de copules. C est une copule si φi ◦ φ−1 i−1 est l’inverse d’une transformée de Laplace. Cette copule est parfois appelée fully nested Archimedean (FNA). On commnece par coupler deux composantes (ici U1 et U2), puis on couple cette paire avec U3, etc. En dimension d = 5, cela donne φ−1 1 [φ1(φ−1 2 [φ2(φ−1 3 [φ3(φ−1 4 [φ4(u1) + φ4(u2)]) + φ3(u3)]) + φ2(u4)]) + φ1(u5)]. On peut aussi envisager une construction plus hiérarchique, avec les copules 76
  • 77. Arthur CHARPENTIER, JES 2010, copules partially nested Archimedean (PNA), en considérant un couplage complet pour (U1, U2, U3), un autre pour (U4, U5), et en couplant les deux vecteurs, φ−1 4 [φ4(φ−1 1 [φ1(φ−1 2 [φ2(u1) + φ2(u2)]) + φ1(u3)]) + φ4(φ−1 3 [φ3(u4) + φ3(u5)])] La condition pour avoir effectivement une copule est que φ2 ◦ φ−1 1 soit l’inverse d’une transformée de Laplace, mais aussi φ4 ◦ φ−1 1 ainsi que φ4 ◦ φ−1 3 . 77
  • 78. Arthur CHARPENTIER, JES 2010, copules U1 U2 U3 U4 U5 φ4 φ3 φ2 φ1 U1 U2 U3 U4 U5 φ2 φ1 φ3 φ4 Figure 6 – Copules Archimédiennes fully nested (gauche) et partially nested (droite) 78
  • 79. Arthur CHARPENTIER, JES 2010, copules Enfin, on peut envisager une construction réellement hiérarchique, ne visant pas uniquement à faire du couplage (deux à deux), φ−1 3 [φ3(φ−1 1 [φ1(u1) + φ1(u2) + φ1(u3)]) + φ3(φ−1 2 [φ2(u4) + φ2(u5)])]. Dans ce cas, on a effectivement construit une copule si φ3 ◦ φ−1 1 ainsi que φ3 ◦ φ−1 2 sont des inverses de transformées de Laplace. On pourrait aussi envisager φ−1 3 [φ3(φ−1 1 [φ1(u1) + φ1(u2)] + φ3(u3) + φ3(φ−1 2 [φ2(u4) + φ2(u5)])]. 79
  • 80. Arthur CHARPENTIER, JES 2010, copules U1 U2 U3 U4 U5 φ1 φ3 φ2 U1 U2 U3 U4 U5 φ1 φ3 φ2 Figure 7 – Copules Archimédiennes hiérarchiques avec deux constructions diffé- rentes. 80
  • 81. Arthur CHARPENTIER, JES 2010, copules Exemple24 Si les φi sont des générateurs de copules de Gumbel de paramètre θi, une condition suffisante pour que C soit une copule est que les θi soient croissants, et supérieurs à 1. De même, si les φi sont des générateurs de copules de Clayton de paramètre θi, une condition suffisante pour que C soit une copule est que les θi soient croissants, et supérieurs à 0. 81
  • 82. Arthur CHARPENTIER, JES 2010, copules 4.5 Les copules extrêmes Soient Xk , k = 1, · · · , n un échantillon i.i.d. de vecteurs aléatoires de loi jointe F (supposée continue), de copule C et de lois marginales F1, · · · , Fd. On note Mn le vecteur des maximums, composante par composantes, Mn = (max{X1 1 , · · · , Xn 1 }, · · · , max{X1 d , · · · , Xn d }) Soit Cn la copule associée à Mn , alors Cn(u1, · · · , ud) = C u 1 n 1 , · · · , u 1 n d n Définition21 Une copule C est une copule extrême s’il existe une copule Γ telle que Γ u 1 n 1 , · · · , u 1 n d n → C(u1, · · · , ud) lorsque n → ∞ pour tout (u1, · · · , ud) ∈ [0, 1]d . On dira de plus que Γ est dans le domaine d’attraction de C. 82
  • 83. Arthur CHARPENTIER, JES 2010, copules L’ensemble des copules extrêmes coïncide avec l’ensembles des copules max-stables, i.e. qui vérifient ∀n ∈ N∗ , ∀(u1, · · · , ud) ∈ [0, 1]d . C u 1 n 1 , · · · , u 1 n d n = C(u1, · · · , ud) Il est possible de réécrire le théorème de Pickands-Balkema-de Haan sous la forme suivante, afin de caractériser l’ensemble des copules extrêmes, Théorème4 Une copule C : [0, 1]d → [0, 1] est une copule extrême si et seulement si il existe une mesure finie H sur le simplexe de Rd , Sd, appelée mesure spectrale, telle que C(u1, · · · , ud) = exp[− (− log u1, · · · , − log ud)] où la fonction de dépendance de queue est donnée par (x1, · · · , xd) = Sd max{ω1x1, · · · , ωdxd}dH(ω1, · · · , ωd) pour tout (x1, · · · , xd) ∈ Rd +. On suppose que Sd ωidH(ω1, · · · , ωd) = 1 pour i = 1, · · · , n. 83
  • 84. Arthur CHARPENTIER, JES 2010, copules Notons que (x1, · · · , xd) = lim t→0 [1 − C(1 − tx1, · · · , 1 − txd)] Cette fonction de dépendance de queue est convexe, homogène de degré 1 (i.e. (tx1, · · · , txd) = t (x1, · · · , xd) pour tout t > 0) et vérifie max{x1, · · · , xd} ≤ (x1, · · · , xd) ≤ x1 + · · · + xd. Comme tenu de cette propriété d’homogénéité, on peut aussi écrire (x1, · · · , xd) = [x1 + · · · + xd]A x1 x1 + · · · + xd , · · · , xd x1 + · · · + xd où A est une fonction Sd → [d−1 , 1] appelée fonction de dépendance de Pickands ([51] et [52]). 84
  • 85. Arthur CHARPENTIER, JES 2010, copules La copule extrême s’écrit alors C(u1, · · · , ud) = exp d i=1 log ui A u1 d i=1 log ui , · · · , ud d i=1 log ui Cette fonction A est convexe, et vérifie max{ω1, · · · , ωd} ≤ A(ω1, · · · , ωd) ≤ 1 pour tout (ω1, · · · , ωd) ∈ Sd. Cette dernière propriété caractérise l’ensemble des fonctions de dépendance en dimension d = 2 (mais pas au delà). Dans ce cas, on peut alors écrire C(U1, U2) = [uv]A(log v/ log uv) où, par abus de notation, A : [0, 1] → [1/2, 1] est convexe et vérifie max{ω, 1 − ω} ≤ A(ω) ≤ 1. 85
  • 86. Arthur CHARPENTIER, JES 2010, copules Exemple25 Si C est une copule Archimédienne de générateur φ, tel qu’il existe une limite lim s→0 sφ (1 − s) φ(1 − s) = −θ ∈ (−∞, −1] alors C est dans le domaine d’attraction de la copule dont la fonction de dépendance est (x1, · · · , xd) = [xθ 1 + · · · + xθ d] 1 θ . La copule limite est alors C(u1, · · · , ud) = exp − [− log u1]θ + · · · + [− log u1]θ 1 θ qui correspond à la copule de Gumbel. 86
  • 87. Arthur CHARPENTIER, JES 2010, copules Exemple26 En dimension 2, la copule de Student t de corrélation r et à ν s’écrit T −1 ν (u1) −∞ T −1 ν (u2) −∞ 1 πν √ 1 − r2 Γ ν 2 + 1 Γ ν 2 1 + x2 − 2rxy + y2 ν(1 − r2) − ν 2 +1 dxdy. Cette copule est dans le domaine d’attraction de la copule extrême dont la fonction de dépendance de Pickands est définie par A(ω) = ωTν+1(zω) + (1 − ω)Tν+1(z1−ω) où zω = 1 + ν 1 − r2 ω 1 − ω 1 ν − r pour tout ω ∈ [0, 1]. 87
  • 88. Arthur CHARPENTIER, JES 2010, copules 4.6 La copule de Clayton Commençons par le cas d = 2 afin de simplifier la présentation. 4.6.1 La copule de Pareto Supposons que X et Y soient conditionnellement indépendante, sachant Θ, et avec P(X > x|Θ = θ) = exp(−θx) et P(Y > y|Θ = θ) = exp(−θy). Supposons de plus que Θ suive une loi Gamma, alors P(X > x, Y > y) = ∞ 0 exp(−θ[x+y]) θγ−1 exp(−θ/β) βγΓ(γ) dθ = (1+βx+βy)−γ . (14) On notera tout d’abord que les lois marginales (non conditionnelles) sont des lois de Pareto, P(X > x) = (1 − βx)−γ et P(Y > y) = (1 − βy)−γ . De plus, la copule de survie du couple (X1, X2) est C (U1, U2) = (u−1/γ + v−1/γ − 1)−γ , avec γ > 0, appelée copule de Pareto. 88
  • 89. Arthur CHARPENTIER, JES 2010, copules 4.6.2 L’approche par vieillissement (frailty model) Ces modèles ont été introduits à la fin des années 70, et popularisée par [50]. On suppose que l’on veut modéliser deux durées de vie, X et Y , indépendantes conditionnellement à un facteur exogène Θ. On assume aussi que les lois conditionnelles de X et Y sachant Θ sont de la forme FX|Θ(x|θ) = P(X > x|Θ = θ) = GX(x)θ , pour une fonction de référence GX, pour tout θ, et de manière similaire pour la loi de Y sachant Θ = θ. Alors P(X > x, Y > y) = E(P(X > x, Y > y|Θ)) = E(P(X > x|Θ)P(X > x|Θ)), c’est à dire, P(X > x, Y > y) = E(exp[−Θ(− log P(X > x))] exp[−Θ(− log P(Y > y))]), d’où finalement, si ψ correspond à la transformée de Laplace de Θ, i.e. 89
  • 90. Arthur CHARPENTIER, JES 2010, copules ψ(t) = E(exp(−tΘ)), on peut écrire P(X > x, Y > y) = ψ(−logP(X > x) − logP(Y > y)). Compte tenu de l’écriture des lois marginales, P(X > x) = ψ(− log GX(x)) la coule de survie de (X1, X2) est alors donnée par C∗ (U1, U2) = ψ(ψ−1 (u) + ψ−1 (v)), qui est une copule Archimédienne de générateur φ = ψ−1 . Dans le cas particulier où le facteur exogène Θ suit une loi Gamma, ψ(t) = (1 + t)1/α , alors C∗ est la copule de Clayton. 90
  • 91. Arthur CHARPENTIER, JES 2010, copules 0 5 10 15 05101520 Conditional independence, two classes !3 !2 !1 0 1 2 3 !3!2!10123 Conditional independence, two classes Figure 8 – Deux classes de risque (Xi, Yi) et (Φ−1 (FX(Xi)), Φ−1 (FY (Yi))). 91
  • 92. Arthur CHARPENTIER, JES 2010, copules 0 5 10 15 20 25 30 010203040 Conditional independence, three classes !3 !2 !1 0 1 2 3 !3!2!10123 Conditional independence, three classes Figure 9 – Trois classes de risque, (Xi, Yi) et (Φ−1 (FX(Xi)), Φ−1 (FY (Yi))). 92
  • 93. Arthur CHARPENTIER, JES 2010, copules 0 20 40 60 80 100 020406080100 Conditional independence, continuous risk factor !3 !2 !1 0 1 2 3 !3!2!10123 Conditional independence, continuous risk factor Figure 10 – Continuum de classes de risques, (Xi, Yi) et (Φ−1 (FX(Xi)), Φ−1 (FY (Yi))). 93
  • 94. Arthur CHARPENTIER, JES 2010, copules 4.6.3 Propriété de la copule de Clayton, en dimension d = 2 Définition22 Soit θ ≥ −1, la copule de Clayton de paramètre θ ≥ −1 est définie sur [0, 1] × [0, 1] par C(u1, u2) = (u −1/θ 2 + u −1/θ 2 − 1)−θ . Notons que θ → −1, θ → 0 et θ → ∞, C correspond respectivement au cas anticomonotone (si d = 2), au cas indépendant, et la copule comonotone. De plus, si 0 ≤ θ1 ≤ θ2, notons que C1(u1, u2) ≤ C2(u1, v2) pour tout u1, u2 ∈ [0, 1]. 94
  • 95. Arthur CHARPENTIER, JES 2010, copules Figure 11 – Exemples de densités de la copule de Clayton, avec θ = à gauche (ρ = 0, 5) et θ = à droite (ρ = 0, 8). 95
  • 96. Arthur CHARPENTIER, JES 2010, copules 4.6.4 Copule de Clayton en dimension d > 2 La copule de Clayton étant Archimédienne (de générateur φ(t) = t−θ − 1) on peut aisément l’étendre à la dimension d > 2, à condition de se restreindre au cas θ ≥ 0. Définition23 Pour tout θ ≥ 0, la copule de Clayton de paramètre θ est définie sur [0, 1] × · · · × [0, 1] par C(x1, ..., xd) = (x −1/θ 1 + ... + x −1/θ d − (d − 1))−θ . (15) Cette copule peut être obtenue de la manière suivante : posons Ui = 1 + Yi Z −θ , i = 1, ..., d, où les Yi sont des variables exponentielles E(1) indépendantes, indépendante de Z ∼ G(θ, 1). Alors (U1, ..., Ud) admet pour loi jointe C donnée par 15. 96
  • 97. Arthur CHARPENTIER, JES 2010, copules 4.7 Le modèle de Marshall et Olkin 4.7.1 Le modèle à choc commun La classe des copules dite de Marshall et Olkin est dérivée du modèle à choc commun introduit par [44]. Soient X1 et X2 deux durées de vies, associés à deux composants. Suppposons que 3 chocs penvent affecter ces composantes : deux associés aux composants x1 et x2, indépendament, et un dernier qui affecte les deux. Supposons que ces chocs sont modélisés par des processus de Poisson, avec une durée avant le premier choc Z1 (exponentielle, de paramètre λ1), qui afffecte x1, Z2 (exponentielle, de paramètre λ2), qui afffecte x2, et Z12 (exponentielle, de paramètre λ12), qui affecte x1 et x2. Les dates de survenance des chocs sont supposés indépendantes. Si les chocs sont fatals pour les deux composants, la durée de vie des composants 97
  • 98. Arthur CHARPENTIER, JES 2010, copules (X1, X2) admet pour fonction de survie F(X1, X2) = P(X1 > x1, X2 > y > x2) = P(Z1 > x1)P(Z2 > x2)P(Z12 > min{x1, x2}). P(X1 > x1, X2 > x2) = exp (−λ1x1 − λ2x2 − λ12 max{x1, x2}) , ∀x1, x2 > 0. On notera que les lois marginales X1 et X2 suivent des lois exponentielles de paramètre λ1 + λ12 et λ2 + λ12, respectivement. Proposition7 F satisfait une propriété faible d’absence de mémoire, au sens où F(x1 + t, x2 + t) = F(x1, x2)F(t, t). Si on note α = λ12 λ1 + λ12 et β = λ12 λ2 + λ12 , la copule de survie du couple (X1, X2) est donnée par C (u1, u2) = u1u2 min{u−α 1 , u−β 2 } = min{u1−α 1 u2, u1u1−β 2 }. 98
  • 99. Arthur CHARPENTIER, JES 2010, copules 4.7.2 Copule induite par le modèle de Marshall et Olkin Définition24 Etant donnés α, β ∈ (0, 1), la copule de Marshall-Olkin de paramètre (α, β) est C(u1, u2) = min{u1−α 1 u2, u1u1−β 2 }. Cette copule est parfois appelée copule de Cuadras-Augé dans le cas α = β, [16]. Remarque11 Notons que ces copules possèdent une composante singulière, de masse strictement positive sur C = {(u1, u2) ∈ [0, 1] × [0, 1], uα 1 = uβ 2 }. De plus, la masse de cette courbe est P(U1 = U2) = P( le premier choc affecte les deux composantes ) = λ12 λ1 + λ2 + λ12 > 0. 99
  • 100. Arthur CHARPENTIER, JES 2010, copules On notera que pour cette copule, le τ de Kendall et le ρ de Spearman sont respectivement τ = αβ α + β − αβ et ρ = 3αβ 2α + 2β − αβ , et les indices de dépendance de queue sont donnés par λL = lim u→0 C(u, u) u = lim u→0 u2 min{uα , uβ } u = lim u→0 u min{uα , uβ } = 0, et λU = lim u→1 C(u, u) 1 − u = lim u→1 1 − 2u + u2 min{uα , uβ } 1 − u = lim u→1 1 − 2u + u2 uα 1 − u = α, en supposant que α < β. Plus générallement, λL = 0 et λU = min{α, β}. 100
  • 101. Arthur CHARPENTIER, JES 2010, copules 4.7.3 Intérêt de la copule de Marshall et Olkin Ce modèle à choc commmun présente l’avantage de le rendre facilement interprétable, et pratique pour la programmation. En assurance vie, [28] et [9] ont montré son intérêt, (pratique) : si on note Tx et Ty les durées de vie résiduelles d’un mari et de son épouse à la signature d’un contrat d’assurance vie (ils sont alors respectivement l’âge x et y), on note classivement kpxy la probabilité conditionnelle qu’au moins un des deux survive k années, kpxy = 1 − P(Tx ≤ k, Ty ≤ k). Si l’on suppose ces duréées de vie résiduelles exponentielles, alors kpxy =k px +k py − exp(−λxyk)kpx ·k py. L’annuité pour un contrat au dernier survivant s’écrit alors axy = ∞ k=1 vk P(Tx > k or Ty > k) = ∞ k=1 vk kpxy. 101
  • 102. Arthur CHARPENTIER, JES 2010, copules En posant kp∗ x = exp(λxyk)kpx et kp∗ y = exp(λxyk)kpy, les annuités s’écrivent alors as axy = ∞ k=1 e−(δ+λxy)·k kp∗ x +k p∗ y −k p∗ x ·k p∗ y , correspondant à un calcul fait en supposant l’indépendance entre les durées de vie, et en actualisant avec un facteur δ + λxy. On note que plus la dépendance est forte, plus faible sera le montant de l’annuité. 102
  • 103. Arthur CHARPENTIER, JES 2010, copules 4.8 Le modèle de Gumbel La copule de Gumbel a été introduite dans [34]. Elle est parfois appelée copule de Gumbel-Hougaard, suite à son utilisation dans [35], ou encore la distribution logistique extrême. 4.8.1 Une loi logistique bivariée Considérons la fonction de répartition F(X1, X2) = exp −(x−θ 1 + x−θ 2 )1/θ , ∀x1, x2 > 0, où θ ≥ 1. Cette fonction peut se réécire sous la forme F(X1, X2) = exp − [− log(e−1/x1 )]θ + [− log(e−1/x2 )]θ 1/θ , x1, x2 > 0. 103
  • 104. Arthur CHARPENTIER, JES 2010, copules Les lois marginales de cette distribution sont des loi de Fréchet standard (Fi(xi) = e−1/xi for xi > 0). La copule associée à cette loi bivariée est alors C(u1, u2) = exp − [− log u1]θ + [− log u2]θ 1/θ , ∀u1, u2 ∈ [0, 1], où θ ≥ 1. 4.8.2 Properiétés de la copule de Gumbel Définition25 Soit θ ≥ 1, la copule de Gumbel de paramètre θ est définie sur [0, 1] × [0, 1] par C(u1, u2) = exp − [− log u1]θ + [− log u2]θ 1/θ , u1, u2 ∈ [0, 1]. 104
  • 105. Arthur CHARPENTIER, JES 2010, copules Figure 12 – Exemples de densités de la copule de Gumbel, avec θ = à gauche (ρ = 0, 5) et θ = à droite (ρ = 0, 8). 105
  • 106. Arthur CHARPENTIER, JES 2010, copules Le τ de Kendall d’une copule de Gumbel de paramètre θ ≥ 1 est τ = θ − 1 θ , ([49]), et les indices de dépendance de queue sont λL = 0 et λU = 2 − 21/θ . Remarque12 La copule de Gumbel est max-stable, au sens où ∀t > 0, Ct (u1, u2) = C(ut 1, ut 2), ∀u1, u2 ∈ [0, 1], 106
  • 107. Arthur CHARPENTIER, JES 2010, copules 4.9 La copule Gaussienne La copule est obtenue dès lors que l’on Définition26 Pour tout r ∈ [−1, 1], la copule Gaussienne est définie par C(u1, u2) = 1 2π √ 1 − r2 Φ−1 (u1) −∞ Φ−1 (u2) −∞ exp x2 − 2rxy + y2 2(1 − r2) dxdy Pour une copule Gaussienne dont le vecteur Gaussien sous-jacent a pour corrélation r ∈ [−1, +01], le τ de Kendall et le ρ de Spearman sont respectivement τ = 2 π sin−1 (r) et ρ = 6 π sin−1 r 2 107
  • 108. Arthur CHARPENTIER, JES 2010, copules Figure 13 – Exemples de densités de la copule de Gaussienne, avec θ = à gauche (ρ = 0, 5) et θ = à droite (ρ = 0, 8). 108
  • 109. Arthur CHARPENTIER, JES 2010, copules 5 Mesurer et comparer des dépendance 5.0.1 Mesures de dépendance [56] a proposé une axiomatique sur les propriétés fondamentales que devrait satisfaire une mesure de concordance κ. Pour cela, il convient que la mesure soit cohérente avec une relation d’ordre sur les paires de variables aléatoire, l’ordre naturel étant l’ordre P QD (de dépendance positive par quadrant, parfois appelé aussi ordre de concordance), défini par X = (X1, X2) P QD (Y1, Y2) = Y si et seulement si P(FX1 (X1) ≤ u1, FX2 (X2) ≤ u2) ≤ P(FY1 (Y1) ≤ u1, FY2 (Y2) ≤ u2), pour tout 0 ≤ u1, u2 ≤ 1. Ou de manière équivalente, si CX est la copule associée à X, et CY est la copule associée à Y , X = (X1, X2) P QD (Y1, Y2) = X si et seulement si CX(u1, u2) ≤ CY (u1, u2). 109
  • 110. Arthur CHARPENTIER, JES 2010, copules Définition27 κ est une mesure de concordance si et seulement si κ vérifie les propriétés suivantes 1. κ est définie pour toute paire de variables continues (X1, X2), 2. −1 ≤ κ (X1, X2) ≤ +1, κ (X1, X1) = +1 et κ (X1, −X1) = −1, 3. κ (X1, X2) = κ (X2, X1), 4. si X1 et X2 sont indépendantes, alors κ (X1, X2) = 0, 5. κ (−X1, X2) = κ (X1, −X2) = −κ (X1, X2), 6. si (X1, X2) P QD (Y1, Y2), alors κ (X1, X2) ≤ κ (Y1, Y2), 7. si X1 1 , X1 2 , X2 1 , X2 2 , ... est une suite de vecteurs qui converge en loi vers (X1, X2) alors κ (Xn 1 , Xn 2 ) → κ (X1, X2) lorsque n → ∞. Remarque13 La corrélation par exemple ne satisfait pas le premier. On peut définir une dépendance positive 110
  • 111. Arthur CHARPENTIER, JES 2010, copules Remarque14 [53] avait proposé de finir les mesures de dépendance sous la forme de distance à l’indépendance, ne permettant pas de distinguer dépendance positive et négative. [53] imposait en particulier que δ (X, ±X) = +1, et des propriétés de linéarité de la mesure, i.e. δ(aX + b, cY + d) = δ(X1, X2) pour tout a, c > 0 et b, d. En supposant que δ est compris entre 0 et 1, [53] avoir défini une mesure. [59] ont noté que ces hypothèses étaient beaucoup trop contraignantes. Proposition8 Si κ est une mesure de concordance, et si f, g : R → R sont deux fonctions croissantes κ(f(X), g(Y )) = κ(X1, X2). De plus, κ(X1, X2) = 1 s’il existe f presque sûrement strictement croissante telle que Y = f(X) with f ; et de manière analogue κ(X1, X2) = −1 si Y = f(X) où f presque sûrement strictement décroissante. On déduit de cette proposition que les mesures de concordance sont fonction de la copule uniquement, au sens où si (X1, X2) et (Y1, Y2) ont la même copule (notée C), alors κ(X1, Y1) = κ(X2, Y2) = κ(C). 111
  • 112. Arthur CHARPENTIER, JES 2010, copules Exemple27 Le q de Blomqvist, parfois appelé coefficient de corrélation médiane, est défini par q = P((X − médiane(X))(Y − médiane(Y )) > 0) − P((X − médiane(X))(Y − médiane(Y )) < 0), qui peut aussi s’écrire q = 4C 1 2 , 1 2 − 1. 112
  • 113. Arthur CHARPENTIER, JES 2010, copules 5.1 La corrélation comme mesure standard de dépendance 5.1.1 La corrélation linéaire de Pearson Soient X1 et X2 deux variables aléatoires continues de variance finie, alors la corrélation linéaire (ou de Pearson) est définie par corr(X1, X2) = cov(X1, X2) V ar(X)V ar(Y ) = E([X − E(X)][X − Y(Y )]) E([X − E(X)]2)E([Y − E(Y )]2) . On parle de corrélation linear au sens où corr(X1, X2) = +1 si et seulement s’il existe a > 0 et b tels que Y = aX + b presque sûrement. De plus, cet coefficient est invariant par transformations affines, i.e. corr(aX1 + b, cX2 + d) = corr(X1, X2) si a et c sont de même signe. 113
  • 114. Arthur CHARPENTIER, JES 2010, copules Exemple28 Comme corr(X1, X2) peut s’écrire sous la forme E(φ(X1, X2)) où φ : R2 R supermodulaire, alors corr(X1, X2) vérifie l’inégalité de Tchen ([62]), corr(X− , Y − ) = corr(F−1 X (U), F−1 X (1 − U)) ≤ corr(X1, X2) ≤ corr(F−1 X (U), F−1 X (U)) = corr(X+ , Y + ), où U est uniformément distribué sur [0, 1]. En conséquence, le coefficient de corrélation ne décrit pas nécessairement l’intervalle [−1, 1]. E.g., si X et Y suivent une loi lognormale, de paramètre de variance 1 et σ, respectivement, eσ − 1 √ eσ2 − 1 √ e − 1 ≤ corr (X, Y ) ≤ eσ − 1 √ eσ2 − 1 √ e − 1 . (16) (cf. [54]). Ceci implique en particulier qu’un coefficient de corrélation proche de 0 peut parfaitement correspondre à un cas de comonotonie. 114
  • 115. Arthur CHARPENTIER, JES 2010, copules 0 1 2 3 4 5 SIGMA -1.0 -0.5 0.0 0.5 1.0 BORNE INFERIEURE BORNE SUPERIEURE -0,0901 0,6657 Figure 14 – Bornes de la corrélation pour des variables lognormales. 115
  • 116. Arthur CHARPENTIER, JES 2010, copules Exemple29 Ce coefficient de corrélation apparaît naturellement dans les modèles de régression. Si on considère la régression de Y sur X, les estimateurs des coefficients de la régression a et b qui minimisent E(Y − (aX + b))2 sont a = cov(Y, X) V ar(X) et b = E(Y ) − aE(X). 116
  • 117. Arthur CHARPENTIER, JES 2010, copules 5.2 Le tau de Kendall et le rho de Spearman Le ρ de Spearman entre deux variables continues est la corrélation (au sens de Pearson) entre U1 = F1(X1) et U2 = F2(X2). Comme U1 et U2 sont uniformément répartie sur [0, 1], E(U1) = E(U2) = 1/2, and V ar(U1) = V ar(U2) = 1/12, et donc ρ(X1, X2) = corr(U1, U2) = E(U1U2 − 1/4 1/12 = 12E(U1U2) − 3. Définition28 Soit (X1, X2) un couple de variables aléatoire de copule C, et de lois marginales continues. Alors le ρ de Spearman est ρ(X1, X2) = 12 1 0 1 0 C(u1, u2)du1du2 − 3 = 12 R R [F(x1, x2) − F1(x1)F2(x2)]dx1dx2. 117
  • 118. Arthur CHARPENTIER, JES 2010, copules Comme le note [20], l’expression à droite est une distance moyenne entre F et F⊥ . Ce coefficient a été introduit sous sa forme empirique par Spearman en 1904. Il est possible de noter que ρ(X1, X2) = 3[P((X1 − Y1)(Y2 − Z3) > 0) − P((X1 − Y2)(X2 − Z3) < 0)], où (X1, X2), (Y1, Y2) et (Z1, Z2) sont trois versions indépendantes de (X1, X2) ([49]). Définition29 Soit (X1, X2) un couple de variables aléatoires continues, de copule C, alors de τ de Kendall est défini par τ(X1, X2) = 4 1 0 1 0 C(u1, u2)dC(u1, u2) − 1 = 4E(C(U1, U2)) − 1. 118
  • 119. Arthur CHARPENTIER, JES 2010, copules Là encore, intiallement, le τ de Kendall n’a pas été défini, initialement, à l’aide des copules, mais comme une probabilité de concordance à laquelle on soustrait la probabilité de discordancedu vecteur (X1, X2), i.e. τ(X1, X2) = 3[P((X1 − Y1)(X2 − Y2) > 0) − P((X1 − Y1)(X2 − Y2) < 0)], où (X1, X2) and (Y1, Y2) sont deux versions indépendantes de (X1, X2) ([49]). Proposition9 Si X1 et X2 sont continues, alors le τ de Kendall et le ρ de Spearman sont des mesures de concordance. En particulier pour des vecteurs comonotones, ρ(X1, X2) = 1 et τ(X1, X2) = 1, alors que pour des vecteurs anticomonotones ρ(X1, X2) = −1 and τ(X1, X2) = −1. Et la réciproque est vraie. 119
  • 120. Arthur CHARPENTIER, JES 2010, copules Exemple30 Pour la copule min-max présentée dans l’Exemple 6, on notera que τ(X1:n, Xn:n) = 1 2n − 1 . Exemple31 Si X1 et X2 forment un couple de copule Archimédienne, de générateur φ, alors le τ de Kendall s’écrit τ(X1, X2) = 1 + 4 1 0 φ(t) φ (t) dt. 120
  • 121. Arthur CHARPENTIER, JES 2010, copules Exemple32 Comme le montre [37], considérons pour θ ∈ [0, 1] une mélange entre la copule indépendante et la borne supérieure de Fréchet-Hoeffding, C(u1, u2) = (1 − θ)C⊥ (u1, u2) + θC+ (u1, u2), pour tout (u1, u2) ∈ [0, 1] × [0, 1]. Alors si (X1, X2) a pour copule C, ρ(X1, X2) = θ. Plus généralllement, si l’on rajoute la borne inférieure de Fréchet-Hoeffding, comme suggéré par [27], avec comme paramètres de mélange α, β > 0 tels que α + β ≤ 1, C(u1, u2) = αC− (u1, u2)+(1−α−β)C⊥ (u1, u2)+βC+ (u1, u2), ∀(u1, u2) ∈ [0, 1]×[0, 1]. Alors ρ(X1, X2) = β − α. Les Tableaux 1 et 2 montrent l’évolution du τ de Kendall et du ρ de Spearman en fonction du paramètre sous jacent (noté ici θ), 121
  • 122. Arthur CHARPENTIER, JES 2010, copules Kendall’s τ 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 Gaussian θ 0.00 0.16 0.31 0.45 0.59 0.71 0.81 0.89 0.95 0.99 1.00 Gumbel θ 1.00 1.11 1.25 1.43 1.67 2.00 2.50 3.33 5.00 10.0 +∞ Plackett θ 1.00 1.57 2.48 4.00 6.60 11.4 21.1 44.1 115 530 +∞ Clayton θ 0.00 0.22 0.50 0.86 1.33 2.00 3.00 4.67 8.00 18.0 +∞ Frank θ 0.00 0.91 1.86 2.92 4.16 5.74 7.93 11.4 18.2 20.9 +∞ Joe θ 1.00 1.19 1.44 1.77 2.21 2.86 3.83 4.56 8.77 14.4 +∞ Galambos θ 0.00 0.34 0.51 0.70 0.95 1.28 1.79 2.62 4.29 9.30 +∞ Morgenstein θ 0.00 0.45 0.90 - - - - - - - - Table 1 – τ de Kendall en fonction du paramètre θ de la copule sous-jacente. 122
  • 123. Arthur CHARPENTIER, JES 2010, copules Spearman’s ρ 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 Gaussian θ 0.00 0.10 0.21 0.31 0.42 0.52 0.62 0.72 0.81 0.91 1.00 Gumbel θ 1.00 1.07 1.16 1.26 1.38 1.54 1.75 2.07 2.58 3.73 +∞ A.M.H. θ 1.00 1.11 1.25 1.43 1.67 2.00 2.50 3.33 5.00 10.0 +∞ Plackett θ 1.00 1.35 1.84 2.52 3.54 5.12 7.76 12.7 24.2 66.1 +∞ Clayton θ 0.00 0.14 0.31 0.51 0.76 1.06 1.51 2.14 3.19 5.56 +∞ Frank θ 0.00 0.60 1.22 1.88 2.61 3.45 4.47 5.82 7.90 12.2 +∞ Joe θ 1.00 1.12 1.27 1.46 1.69 1.99 2.39 3.00 4.03 6.37 +∞ Galambos θ 0.00 0.28 0.40 0.51 0.65 0.81 1.03 1.34 1.86 3.01 +∞ Morgenstein θ 0.00 0.30 0.60 0.90 - - - - - - - Table 2 – ρ de Spearman en fonction du paramètre θ de la copule sous-jacente. 123
  • 124. Arthur CHARPENTIER, JES 2010, copules -1.0 -0.5 0.0 0.5 1.0 Tau de Kendall -1.0 -0.5 0.0 0.5 1.0 RhodeSpearman Figure 15 – Région d’admissibilité pour le tau de Kendall et le rho de Spearman 124
  • 125. Arthur CHARPENTIER, JES 2010, copules Remarque15 En analyse canonique nonlinéaire, on cherche les transformations (nonlinéaires) qui maximisent la corrélation entre deux variables, r (X1, X2) = max{a(X), b(Y )} où a, b : R → R sont des fonctions mesurables telles que Var(a(X)) et Var(b(X)) soient finis. On parle alors de de corrélation maximale. On notera que cette mesure peut être intéressante, en particulier car r (X1, X2) = 0 si et seulement si les variables X et Y sont indépendantes. De plus, dans le cas Gaussie, comme l’a montré [39], r (X1, X2) = r(X1, X2), autrement dit la corrélation est maximale avec des transformations affines. [38] avaient suggéré de se limiter aux fonctions a et b monotones, introduisant ainsi la corrélation monotone. 125
  • 126. Arthur CHARPENTIER, JES 2010, copules 5.3 Autres mesures de corrélation Parmi les autres mesures intéressantes, car ne dépendant que des rangs, on pourra introduire l’indice γ de Gini, le β de Blomqvist, ou encore la classe de Schweizer et Wolff. Définition30 Soit (X1, X2) un couple de copule C. L’indice γ de Gini est défini par γ(X1, X2) = 4 1 0 C(s, 1 − s)ds − 1 0 |s − C(s, s)|ds . [8] a proposé un test dit que quadrant, consistant évaluer la probabilité que X et Y dépassent conjointement la valeur médiane. 126
  • 127. Arthur CHARPENTIER, JES 2010, copules Définition31 Soit (X − 1, X2) un couple de copule C. L’indice β de Blomqvist est défini par β(X−1, X2) = 2P X1 > F−1 1 1 2 X2 > F−1 2 1 2 > 0 −1 = C 1 2 , 1 2 −1. Enfin, [59] et [? ] ont proposé d’étendre la définition du ρ de Spearman, ρ(X1, X2) = 12 1 0 1 0 |C(u1, u2) − C⊥ (u1, u2)|du1du2 en changeant la norme utilisée pour mesurer la distance entre C et C⊥ , k(X1, X2) = κ 1 0 1 0 C(u1, u2) − C⊥ (u1, u2) du1du2, où · désigne une norme, et κ une constante de normalisation (de manière à avoir k(X1, X1) = 1). 127
  • 128. Arthur CHARPENTIER, JES 2010, copules Définition32 Soit (X1, X2) un couple de copule C. L’indice Φ2 de Hoeffding est défini par k(X1, X2) = 90 1 0 1 0 [C(u1, u2) − C⊥(u1, u2)]2du1du2. Définition33 Soit (X1, X2) un couple de copule C. Le κ est défini par κ(X1, X2) = 4 sup [0,1]2 |C(u1, u2) − C⊥ (u1, u2)| . Peut se rapprocher d’une distance de Kolmogorov-Smirnov par rapport à l’indépendance. 128
  • 129. Arthur CHARPENTIER, JES 2010, copules 5.4 Dépendance locale, dans les queues Pour étudier la dépendance dans les queues de distribution [63] avait suggéré d’introduire des fonctions de concentrations dans les queues. Définition34 Pour la queue inférieure, L(z) = P(U < z, V < z)/z = C(z, z)/z = P(U < z|V < z) = P(V < z|U < z), et pour la queue supérieure, R(z) = P(U > z, V > z)/(1 − z) = P(U > z|V > z). [36] avait définie le paramètre de dépendance de queue supérieure et de queue inférieure, respectivement, en posant λU = R(1) = lim z→1 R(z) et λL = L(0) = lim z→0 L(z). 129
  • 130. Arthur CHARPENTIER, JES 2010, copules Définition35 Soit (X1, X2) un couple aléatoire dans R2 . Les indices de dépendance de queue inférieure (L) et supérieure (U) sont définis respectivement, dès lors que les limites existent, par λL = lim u→0 P X ≤ F−1 X (u) |Y ≤ F−1 Y (u) , et λU = lim u→1 P X > F−1 X (u) |Y > F−1 Y (u) . Proposition10 Soit (X1, X2) un couple de copule C, alors les indices de dépendance de queue, s’ils existent, sont définis par λL = lim u→0 C(u, u) u et λU = lim u→1 C∗ (u, u) 1 − u . 130
  • 131. Arthur CHARPENTIER, JES 2010, copules Exemple33 Considérons le cas de copules Archimédiennes (comme dans [49], [12] ou [1]), λU = 2 − lim x→0 1 − φ−1 (2x) 1 − φ−1(x) et λL = lim x→0 φ−1 (2φ(x)) x = lim x→∞ φ−1 (2x) φ−1(x) . [41] ont proposé une approche alternative pour quantifier la dépendance dans les queues. Supposons que X1 L = X2. – sous hypothèse d’indépendance, P(X > t, Y > t) = P(X > t) × P(Y > t) = P(X > t)2 , – sous hypothèse de comonotonie, P(X > t, Y > t) = P(X > t) = P(X > t)1 , On peut alors supposer que P(X > t, Y > t) ∼ P(X > t)1/η as t → ∞, où η ∈ (0, 1] sera appelée indice de dépendance de queue. On peut alors définir un indice de queue inférieure et de queue supérieure, respectivmenet notés ηU et ηL. 131
  • 132. Arthur CHARPENTIER, JES 2010, copules Aussi, suivant l’idée de [14] on utiliser la définition suivante Définition36 Soit χU (z) = 2 log(1 − z) log C (z, z) − 1 et χL(z) = 2 log(1 − z) log C(z, z) − 1 Alors ηU = (1 + limz→0 χU (z))/2 et ηL = (1 + limz→0 χL(z))/2 sont appelés indices de queue supérieure et inférieure, respectivement. Exemple34 Si (X1, X2) a une copule de Gumbel, et des marges Fréchet de paramètre 1, P(X ≤ x, Y ≤ y) = exp(−(x−α + y−α )1/α ), où α ≥ 0, alors ηU = 1 alors que ηL = 1/2α . On peut montrer que dans le cas d’une copule de Clayton, ηU = 1/2 et ηL = 1. Dans le cas d’une copule Gaussienne de corrélation r ηU = ηL = (1 + r)/2. 132
  • 133. Arthur CHARPENTIER, JES 2010, copules Gaussian copula 0.0 0.2 0.4 0.6 0.8 1.0 0.00.20.40.60.81.0 q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q qq q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q 0.0 0.2 0.4 0.6 0.8 1.0 0.00.20.40.60.81.0 L and R concentration functions L function (lower tails) R function (upper tails) GAUSSIAN q q Student t copula 0.0 0.2 0.4 0.6 0.8 1.0 0.00.20.40.60.81.0 q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q 0.0 0.2 0.4 0.6 0.8 1.0 0.00.20.40.60.81.0 L and R concentration functions L function (lower tails) R function (upper tails) STUDENT (df=3) q q Clayton copula 0.0 0.2 0.4 0.6 0.8 1.0 0.00.20.40.60.81.0 q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q qq qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q 0.0 0.2 0.4 0.6 0.8 1.0 0.00.20.40.60.81.0 L and R concentration functions L function (lower tails) R function (upper tails) CLAYTON q q Gumbel copula 0.0 0.2 0.4 0.6 0.8 1.0 0.00.20.40.60.81.0 q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q 0.0 0.2 0.4 0.6 0.8 1.0 0.00.20.40.60.81.0 L and R concentration functions L function (lower tails) R function (upper tails) GUMBEL q q Figure 16 – Fonctions cumulative L (sur [0, 1/2]) et R (sur [1/2, 1] avec dans la partie supérieure, le cas Gaussien et le cas Student t à droite, et dans la partie133
  • 134. Arthur CHARPENTIER, JES 2010, copules Gaussian copula 0.0 0.2 0.4 0.6 0.8 1.0 0.00.20.40.60.81.0 q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q 0.0 0.2 0.4 0.6 0.8 1.0 0.00.20.40.60.81.0 Chi dependence functions lower tails upper tails GAUSSIAN q q Student t copula 0.0 0.2 0.4 0.6 0.8 1.0 0.00.20.40.60.81.0 q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q 0.0 0.2 0.4 0.6 0.8 1.0 0.00.20.40.60.81.0 Chi dependence functions lower tails upper tails STUDENT (df=3) q q Clayton copula 0.0 0.2 0.4 0.6 0.8 1.0 0.00.20.40.60.81.0 q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q 0.0 0.2 0.4 0.6 0.8 1.0 0.00.20.40.60.81.0 Chi dependence functions lower tails upper tails CLAYTON q q Gumbel copula 0.0 0.2 0.4 0.6 0.8 1.0 0.00.20.40.60.81.0 q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q q qq q q q q q q q q q q q q q q q q q q q q q q q q q q 0.0 0.2 0.4 0.6 0.8 1.0 0.00.20.40.60.81.0 Chi dependence functions lower tails upper tails GUMBEL q q Figure 17 – Fonctions cumulative χL (sur [0, 1/2]) et χU (sur [1/2, 1] avec dans la partie supérieure, le cas Gaussien et le cas Student t à droite, et dans la partie134
  • 135. Arthur CHARPENTIER, JES 2010, copules 5.5 Quantifier la dépendance en dimension d > 2 En dimension d > 2, le cas Gaussien nous invite à étudier la dépendance par paires, en regarder des matrices de mesures de dépendance. On posera ainsi R = [r(Xi, Xj)], pour i, j = 1, · · · , d. Nous avions noté que les mesures de dépendance naturelles pouvaient parfois de voir comme des distances entre la copule sous-jacente C et la copule indépendante C⊥ , normalisé de manière à avoir 1 dans le cas comonotone. En particulier, ρ(X1, X2) = [0,1]×[0,1] C(u1, u2) − C⊥ (u1, u2)dudv [0,1]×[0,1] C+(u1, u2) − C⊥(u1, u2)dudv (17) En suivant les idées de [66] il est possible d’étendre cette définition en dimension 135
  • 136. Arthur CHARPENTIER, JES 2010, copules d > 2, ρ(X) = [0,1]d C(u) − C⊥ (u)du [0,1]×[0,1] C+(u) − C⊥(u)du = d + 1 2d − (d + 1) 2d [0,1]d C(u)du − 1 (18) pour le ρ de Spearman, et pour le τ de Kendall τ(X) == 1 2d−1 − 1) 2d [0,1]d C(u)dCu − 1 (19) Exemple35 On peut également définir un q de Blomqvist multivarié, q = 2d−1 2d−1 − 1 C 1 2 , · · · , 1 2 + C 1 2 , · · · , 1 2 − 21−d 136
  • 137. Arthur CHARPENTIER, JES 2010, copules 6 De l’aggrégation des risques multiples 6.1 Espérance de fonctions nonlinéaires Rappelons tout d’abord que, peut importe la structure de dépendance entre X1 et X2, deux variables d’espérance finie, par linéarité de l’espérance, E(h(X1, X2)) = h(X1, X2) si h est linéaire. De manière générale, on a le résultat suivant Proposition11 Soit h : R2 → R une fonction 2-croissante, i.e. h(x2, y2) + h(x1, y1) − h(x1, y2) − h(y1, x2) ≥ 0, pour tout x1 ≤ y1 et x2 ≤ y2. Alors pour tout (X1, X2) ∈ F(F1, F2), E h(X− 1 , X− 2 ) ≤ E (h(X1, X2)) ≤ E h(X+ 1 , X+ 2 ) , 137
  • 138. Arthur CHARPENTIER, JES 2010, copules Cette proposition peut se généraliser en dimension plus grand, mais la notion de croissance n’est alors plus la d-croissance, mais la supermodularité, Proposition12 Soit φ : Rd → R une fonction supermodulaire, i.e. φ(max{x1, y1}, · · · , max{xd, yd})+φ(min{x1, y1} · · · , min{xd, yd})−φ(x1, · · · , xd)−φ(y1, pour tout x = (x1, · · · , xd) et y = (y1, · · · , yd). Alors pour tout X = (X1, · · · , Xd) ∈ F(F1, · · · , Fd), E φ(X− 1 , · · · , X− d ) ≤ E (φ(X1, · · · , Xd)) ≤ E φ(X+ 1 , · · · , X+ d ) . Remarque16 Si φ est suffisement dérivable, la d croissance est équivalente à ∂d φ/∂x1 · · · ∂xd positive partout, alors que la supermodularité est équivalente à ∂d φ/∂xi∂xj positive. Exemple36 Le prime (pure) stop-loss d’un traité de réassurance s’écrit comme l’espérance d’une fonction supermodulaire dès lors que l’on somme des risques :φ(x1, · · · , xd) = (x1 + · · · + xd − k)+ est une fonction supermodulaire. 138
  • 139. Arthur CHARPENTIER, JES 2010, copules Exemple37 Pour une assurance vie jointe sur n années, l’annuité s’écrit axy:n = n k=1 vk P(Tx > k and Ty > k) = n k=1 vk kpxy, où v est le facteur d’actualisation, et (Tx, Ty) les durées de vie résiduelles des deux assurés. Alors a− xy:n ≤ axy:n ≤ a+ xy:n , où a− xy:n = n k=1 vk max{kpx + kpy − 1, 0}( cas anticomonotone ), a+ xy:n = n k=1 vk min{kpx, kpy}( cas comonotone ). 139
  • 140. Arthur CHARPENTIER, JES 2010, copules Exemple38 Dans le cas d’une assurance au dernier survivant, sur n années, l’annuité s’écrit axy:n = n k=1 vk P(Tx > k or Ty > k) = n k=1 vk kpxy, où kpxy = P(Tx > k or Ty > k) = kpx + kpy − kpxy. Alors a− xy:n ≤ axy:n ≤ a+ xy:n , où a− xy:n = n k=1 vk (1 − min{kqx, kqy}) ( cas comonotone ), a+ xy:n = n k=1 vk (1 − max{kqx + kqy − 1, 0}) ( cas anticomonotone ). 140
  • 141. Arthur CHARPENTIER, JES 2010, copules Exemple39 L’annuité d’une pension de veuvage s’écrit ax|y = ay − axy = ∞ k=1 vk kpy − ∞ k=1 vk kpxy. Aussi, a− x|y ≤ ax|y ≤ a+ x|y, où a− x|y = ay − axy = ∞ k=1 vk kpy − ∞ k=1 vk min{kpx, kpy}.( cas comonotone ), a+ x|y = ay −axy = ∞ k=1 vk kpy − ∞ k=1 vk max{kpx +kpy −1, 0}.( cas anticomonotone ). 141
  • 142. Arthur CHARPENTIER, JES 2010, copules 6.2 Comparer des sommes de risques On dira que X corr Y CX ≤ CY , ou X corr Y , i.e. corr(g(X1), h(X2)) ≤ corr(g(Y1), h(Y2)) pour toutes fonctions croissantes g, h : R → R telles que les variances soient finies. Proposition13 Soient X = (X1, X2), Y = (Y1, Y2) ∈ F(F1, F2). – si X corr Y , alors X1 + X2 ≤CX Y1 + Y2. – si X corr Y , alors pour toute fonction h : R2 → R 2-croissante, h(X1, X2) ≤TVaR h(Y1, Y2) En dimension plus grande, Proposition14 Soient X = (X1, · · · , Xd), Y = (Y1, · · · , Yd) ∈ F(F1, · · · , Fd)). Si X SM Y , alors pour toute fonction h : Rd → R supermodulaire, h(X1, · · · , Xd) ≤TVaR h(Y1, · · · , Yd). 142
  • 143. Arthur CHARPENTIER, JES 2010, copules 6.3 Mesures de risques pour la somme de risques En dimension d = 2, si des versions comonotones et anticomontones permettent d’obtenir des bornes à certains quantités, cela n’est en général pas le cas pour une mesure de risque quelconque, R, i.e. R− ≤ R(X− 1 + X− 2 )≤R(X1 + X2)≤R(X+ 1 + X+ 2 ) ≤ R+ , où la borne supérieure R+ peut excéder le cas comonotone, par exemple. Dans le cas où R désigne la Value-at-Risk pour un seuil q ∈]0, 1[, rappelons que R(X1 + X2) = VaRq[X1 + X2] = F−1 X1+X2 (q) = inf{x ∈ R|FX1+X2 (x) ≥ q}. Exemple40 Si X1 ∼ E(α) et Y1 ∼ E(β), P(X2 > x1) = exp(−x1/α), P(X2 > x2) = exp(−x2/β)∀x1, x2 ∈ R+ . Les inégalités exp(−x/ max{α, α}) ≤ Pr[X1 + X2 > x] ≤ exp(−(x − ξ)+/(α + β)) 143
  • 144. Arthur CHARPENTIER, JES 2010, copules sont alors valides pour tout x ∈ R+ , quelle que soit la dépendance entre X1 et X2, où ξ = (α + β) log(α + β) − α log α − β log β. De plus, on a − max{α, β} log(1 − q) ≤ VaRq[X1 + X2] ≤ ξ − (α + β) log(1 − q) pour tout niveau q ∈ (0, 1). Si α = β = 1, rappelons que sous hypothèse d’indépendance X1 + X2 ∼ G(2, 1) alors que sous hypothèse de comonotonie, X1 + X2 ∼ E(2). Exemple41 De manière générale, quelles que soient les lois F1 et F2, il est possible (au moins numériquement) de calculer les bornes inférieures et supérieures. La Figure 18 montre la Value-at-Risk pour la somme de deux risques Gaussien, alors que la Figure 19 montre la Value-at-Risk pour la somme de deux risques suivant des lois Gamma. 144
  • 145. Arthur CHARPENTIER, JES 2010, copules 0.0 0.2 0.4 0.6 0.8 1.0 !4!2024 Bornes de la VaR d’un portefeuille Somme de 2 risques Gaussiens 0.90 0.92 0.94 0.96 0.98 1.00 0123456 Bornes de la VaR d’un portefeuille Somme de 2 risques Gaussiens Figure 18 – Value-at-Risk pour la somme de 2 variables gaussiennes N(0, 1), avec le cas indépendant en pointillé, et le cas comontone en trait plein. Les courbes en bas et en haut étant les bornes inférieures et supérieures. Le graphique de droite correspond à un agrandissement pour les quantiles excédant le niveau 90%. 145
  • 146. Arthur CHARPENTIER, JES 2010, copules 0.0 0.2 0.4 0.6 0.8 1.0 05101520 Bornes de la VaR d’un portefeuille Somme de 2 risques Gamma 0.90 0.92 0.94 0.96 0.98 1.00 05101520 Bornes de la VaR d’un portefeuille Somme de 2 risques Gamma Figure 19 – Value-at-Risk pour la somme de 2 variables gaussiennes G(3, 1), avec le cas indépendant en pointillé, et le cas comontone en trait plein. Les courbes en bas et en haut étant les bornes inférieures et supérieures. Le graphique de droite correspond à un agrandissement pour les quantiles excédant le niveau 90%. 146
  • 147. Arthur CHARPENTIER, JES 2010, copules Dans un cadre général, et plus théorique, [58] étudiait les bornes possibles pour la Value-at-Risk (ou plutôt la loi jointe) de h(X1, X2) où h : R2 → R et (X1, X2) ∈ F(F1, F2), introduisant le concept de convolutions supremal et infimal, Fsup (F1, F2) (z) = sup {C (F1 (x1) , F2 (x2)) , ψ (x1, x2) = z} (20) Finf (F1, F2) (z) = inf {C (F1 (x1) , F2 (x2)) , ψ (x1, x2) = z} (21) [65] a proposé des algorithmes numériques pour calculer ces bornes. Dans le cas de la somme, l’idée est de noter que la distribution des bornes correspond à la distribution de Smin and Smax, où P(Smax < s) = sup x∈R max{P(X1 < x) + P(X2 < s − x) − 1, 0} et P(Smin ≤ s) = inf x∈R min{P(X1 ≤ x) + P(X2 ≤ s − x), 1}. On obtient alors le résultat suivant 147
  • 148. Arthur CHARPENTIER, JES 2010, copules Proposition15 Soit X = (X1, X2) ∈ F(F1, F2) alors pour tout s ∈ R, τC− (F1, F2)(s) ≤ P(X1 + X2 ≤ s) ≤ ρC− (F1, F2)(s), où τC(F1, F2)(s) = sup x1,x2∈R {C(F1(x1), F2(x2)), x1 + x2 = s} et si ˜C(u1, u2) = u1 + u2 − C(u1, u2), ρC(F1, F2)(s) = inf x1,x2∈R { ˜C(F1(x1), F2(x2)), x1 + x2 = s}. 148
  • 149. Arthur CHARPENTIER, JES 2010, copules 7 Inférence statistique 7.1 Méthodes paramétriques Considérons un vecteur aléatoire X, absolument continu, telle que la densité jointe s’écrive f(x1, · · · , xd) = c(F1(x1), · · · , Fd(xd))) · d i=1 fi(xi) où c : [0, 1]d → R+ est la densité de la copule associée à X, et où fi est la densité de la variable Xi. La log-vraisemblance log L associée à un échantillon X1 , · · · , Xn i.i.d. s’écrit log Ln = n k=1 log c(F1(xk 1), · · · , Fd(xk d))) + d i=1 n k=1 log fi(xk i ) et peut se décomposer en deux termes : celui de gauche est associé à la structure 149
  • 150. Arthur CHARPENTIER, JES 2010, copules de dépendance, et le second aux lois marginales. Notons que le second terme est le seul qui apparaît si l’on suppose que les composantes du vecteur X sont indépendantes. On supposera que la copule C appartient à une famillee paramétrique C = {Cθ, θ ∈ Θ} et que les lois marginales sont également dans des familles paramétriques, Fi ∈ Fi = {Fαi , αi ∈ Ai}. Sous les conditions usuelles de régularités, l’estimateur du maximum de vraisemblance (θ, α), solution de (θ, α) = argmax{log Ln(θ, α)} est consistant et asymptotiquement Gaussien, au sens où √ n (θ, α) − (θ, α) L → N (0, Σ) où Σ = − lim n→∞ ∂2 log Ln ∂(θ, α)∂(θ, α) (θ,α) −1 150
  • 151. Arthur CHARPENTIER, JES 2010, copules 7.2 Méthodes semi-paramétriques Ici, seule la copule est paramétrique, et l’on utilise les fonction de répartition empiriques des lois marginales pour estimer le paramètre de la copule. En l’occurence, θ = argmin n k=1 log c(F1(xk 1), · · · , Fd(xk d))) 151
  • 152. Arthur CHARPENTIER, JES 2010, copules 7.3 Méthodes nonparamétriques d’estimation de copule [11] a proposé un survey sur l’estimation nonparamétrique de densités de copules, en insistant sur l’estimation à noyau. Mais l’estimation a noyau étant biaisé (multiplicativement) sur les bords, il peut être intéressant de s’adapter pour obtenir un estimateur sans biais partout sur [0, 1]d . Par la suite, on se limitera au cas d = 2 pour la simplicité de l’exposé. On suppose disposer d’observations (U1,i, U2,i), i.i.d., distribuées suivant C, de densité c. Une première piste est de transformer les variables, en considérant (X1,i, X2,i) = (G−1 (U1,i), G−1 (U2,i)), où G est une fonction strictement croissante R → [0, 1], tel que le couple (X, Y ) admette une densité. Pour tout (x1, x2) ∈ R2 , posons f(x1, x2) = 1 nh2 n i=1 K x1 − X1,i h K x2 − X2,i h . Or comm f(x1, x2) = g(x1)g(x2)c[G(x1), G(x2)]. (22) 152
  • 153. Arthur CHARPENTIER, JES 2010, copules on peut réécrire c(u1, u2) = f(G−1 (u1), G−1 (u2)) g(G−1(u1))g(G−1(u2)) , pour (u1, u2) ∈ [0, 1] × [0, 1], (23) ce qui donne, en subsituant f dans (23), on onbtient c(u1, u2) = 1 nh · g(G−1(u1)) · g(G−1(u2)) n i=1 K G−1 (u1) − G−1 (U1,i) h , G−1 (u2) − G−1 ( h 153
  • 154. Arthur CHARPENTIER, JES 2010, copules 0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8 0 1 2 3 4 5 Estimation of Frank copula 0.2 0.4 0.6 0.8 0.20.40.60.8 Figure 20 – Estimation d’une densité de copule de Frank, à partir de n = 250 simulation d’une copule de Frank, à l’aide d’une tranformation Gaussienne (G = Φ), et un noyau Gaussien bivarié. 154
  • 155. Arthur CHARPENTIER, JES 2010, copules Un autre estimateur classique est l’estimateur par noyau Beta de la densité de la copule au point (u1, u2), est obtenu à l’aide de produits de noyaux Beta, c(u1, u2) = 1 n n i=1 K Xi, u1 b + 1, 1 − u1 b + 1 · K Yi, u2 b + 1, 1 − u2 b + 1 , où K(·, α, β) est la densité de la loi Beta de paramètres α et β. 155
  • 156. Arthur CHARPENTIER, JES 2010, copules Beta (independent) bivariate kernel , x=0.0, y=0.0 Beta (independent) bivariate kernel , x=0.2, y=0.0 Beta (independent) bivariate kernel , x=0.5, y=0.0 Beta (independent) bivariate kernel , x=0.0, y=0.2 Beta (independent) bivariate kernel , x=0.2, y=0.2 Beta (independent) bivariate kernel , x=0.5, y=0.2 Beta (independent) bivariate kernel , x=0.0, y=0.5 Beta (independent) bivariate kernel , x=0.2, y=0.5 Beta (independent) bivariate kernel , x=0.5, y=0.5 156
  • 157. Arthur CHARPENTIER, JES 2010, copules 0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8 0.0 0.5 1.0 1.5 2.0 2.5 3.0 Estimation of the copula density (Beta kernel, b=0.1) Estimation of the copula density (Beta kernel, b=0.1) 0.0 0.2 0.4 0.6 0.8 1.0 0.00.20.40.60.81.0 Figure 22 – Estimation de la densité de copule par noyaux Beta, b = 0.1 (simu- lation suivant une copule de Frank). 157
  • 158. Arthur CHARPENTIER, JES 2010, copules 0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8 0.0 0.5 1.0 1.5 2.0 2.5 3.0 Estimation of the copula density (Beta kernel, b=0.05) Estimation of the copula density (Beta kernel, b=0.05) 0.0 0.2 0.4 0.6 0.8 1.0 0.00.20.40.60.81.0 Figure 23 – Estimation de la densité de copule par noyaux Beta, b = 0.05 158
  • 159. Arthur CHARPENTIER, JES 2010, copules 0.0 0.2 0.4 0.6 0.8 1.0 01234 Standard Gaussian kernel estimator, n=100 Estimation of the density on the diagonal Densityoftheestimator 0.0 0.2 0.4 0.6 0.8 1.0 01234 Standard Gaussian kernel estimator, n=1000 Estimation of the density on the diagonal Densityoftheestimator 0.0 0.2 0.4 0.6 0.8 1.0 01234 Standard Gaussian kernel estimator, n=10000 Estimation of the density on the diagonal Densityoftheestimator Figure 24 – Estimation de la densité sur la diagonale, par noyaux Gaussiens. 159
  • 160. Arthur CHARPENTIER, JES 2010, copules 0.0 0.2 0.4 0.6 0.8 1.0 01234 Transformed kernel estimator (Gaussian), n=100 Estimation of the density on the diagonal Densityoftheestimator 0.0 0.2 0.4 0.6 0.8 1.0 01234 Transformed kernel estimator (Gaussian), n=1000 Estimation of the density on the diagonal Densityoftheestimator 0.0 0.2 0.4 0.6 0.8 1.0 01234 Transformed kernel estimator (Gaussian), n=10000 Estimation of the density on the diagonal Densityoftheestimator Figure 25 – Estimation de la densité sur la diagonale, transformation puis trans- formation inverse. 160
  • 161. Arthur CHARPENTIER, JES 2010, copules 0.0 0.2 0.4 0.6 0.8 1.0 01234 Beta kernel estimator, b=0.05, n=100 Estimation of the density on the diagonal Densityoftheestimator 0.0 0.2 0.4 0.6 0.8 1.0 01234 Beta kernel estimator, b=0.02, n=1000 Estimation of the density on the diagonal Densityoftheestimator 0.0 0.2 0.4 0.6 0.8 1.0 01234 Beta kernel estimator, b=0.005, n=10000 Estimation of the density on the diagonal Densityoftheestimator Figure 26 – Estimation de la densité sur la diagonale, par noyaux Beta. Dans le cas Archimédien, nous avions noté dans la Remarque 10 qu’on pouvait caractériser une copule Archimédienne à l’aide de la fonction de Kendall K. L’estimateur nonparamétrique simple de cette fonction est K(t) = 1 n n i=1 1(Zi ≤ t) 161
  • 162. Arthur CHARPENTIER, JES 2010, copules où Zi = 1 n − 1 j=i 1(X1,j < X1,i, X2,j < X2,i). L’estimateur du générateur associé est alors φ(t) = exp t t0 ds s − K(s) . 162
  • 163. Arthur CHARPENTIER, JES 2010, copules 7.4 Tests d’ajustement Supposons que l’on cherche à tester C ∈ C, où C est une famille de copules (l’hypothèse alternative étant C /∈ C. Dans le cas univarié, on pense au test d’Anderson-Darling, ou à l’approche graphique du QQ-plot. Mais en dimension supérieure, c’est plus compliqué. Si la famille C est une famille paramétrique, [25] ou [32] ont suggéré d’utiliser le test de Cramér-von Mises, avec comme statistique T = n [0,1]d C(u) − Cθ (u) 2 dC(u), où C(·) est la copule empirique, i.e. C(1, · · · , ud) = 1 n + 1 n i=1 1(Ui 1 ≤ u1, · · · , Ui d ≤ ud). Une approche un peu plus simple est d’utiliser la fonction de Kendall K(t) = P(C(U) ≤ t). Si on suppose que cette fonction appartient à une famille 163
  • 164. Arthur CHARPENTIER, JES 2010, copules paramétrique, alors la statistique précédante peut s’écrire T = n [0,1] K(t) − Kθ (t) 2 dKθ (t), comme suggéré par [31]. Une autre idée peut être de revenir à la transformation de [55]. Supposons que U ait pour copule C, alors V défini par    V1 = U1 V2 = C2|1(U2|U1) V3 = C3|2,1(U3|U2, U1) · · · Vd = Cd|d−1,··· ,2,1(Ud|Ud−1, · · · , U2, U1) est un vecteur dont la loi est C⊥ (on utilise ici la méthode de simulation évoquée dans la section ??, à l’envers). Il suffit alors de faire des tests d’indépendance. Toutefois, il convient de faire plusieurs tests, en testant toutes les permutations 164
  • 165. Arthur CHARPENTIER, JES 2010, copules possibles d’indices. [10] a adapté le test présenté auparavant dans ce cas, à l’aide de la statistique de Cramér-von Mises, T = n [0,1]d C(v) − C⊥ (v) 2 dC(v), où C est ici la copule empirique associée à V . Pour certaines familles de lois, il existe des tests spécifiques (en particulier des tests de normalité multivariés peuvent être utilisés pour tester l’ajustement d’une copule Gaussienne). 165
  • 166. Arthur CHARPENTIER, JES 2010, copules [1] Charpentier A. and Segers J. Tails of multivariate archimedean copulas. Journal of Multivariate Analysis, 100(7) :1521 – 1537, 2009. [2] C. Alsina, M. J. Frank, and B. Schweizer. Associative Functions : Triangular Norms And Copulas. World Scientific Publishing Company, 2006. [3] Nelsen R.B. Alsina, C. and B. Schweizer. On the characteristic function of a class of binary operations on distribution functions. Statistic and Probability Letters, 7 :85–89, 1993. [4] de Finetti B. La prévision : ses lois logiques, ses sources subjectives. Annales de l’Institut Henri Poincarré, 7 :1–68, 1937. [5] Bruno Bassan and Fabio Spizzichino. Relations among univariate aging, bivariate aging and dependence for exchangeable lifetimes. Journal of Multivariate Analysis, 93(2) :313 – 339, 2005. [6] N. Bäuerle and A. Müller. Modelling and comparing dependencies in multivariate risk portfolios. Astin Bulletin, 28 :59–76, 1998. [7] T. Bayes. An essay towards solving a problem in the doctrine of chances. Philosophical Transactions of the Royal Society of London, 54, 1763. 166
  • 167. Arthur CHARPENTIER, JES 2010, copules [8] N. Blomqvist. On a measure of dependence between two random variables. The Annals of Mathematical Statistics, 21 :593–600, 1950. [9] N.L. Bowers, H.U. Gerber, J.C. Hickman, D.A. Jones, and C.J. Nesbitt. Actuarial mathematics. The Society of Actuaries, 1997. [10] Genest C., Rémillard B., and Beaudoin D. Goodness-of-fit tests for copulas : A review and a power study. Insurance : Mathematics and Economics, 44 :199–213, 2009. [11] A. Charpentier, J.-D. Fermanian, and O. Scaillet. The Estimation of Copulas : Theory and Practice. In J. Rank, editor, Copulas : From theory to application in finance, pages 35–62. Risk Books, 2007. [12] A. Charpentier and J. Segers. Lower tail dependence for archimedean copulas : Characterizations and pitfalls. Insurance : Mathematics and Economics, 40(3) :525 – 532, 2007. [13] Arthur Charpentier and Johan Segers. Convergence of archimedean copulas. Statistics & Probability Letters, 78(4) :412 – 419, 2008. 167
  • 168. Arthur CHARPENTIER, JES 2010, copules [14] J. Coles, S. Heffernan and J.A. Tawn. Dependence measures for multivariate extremes. Extremes, 2 :339–365, 1999. [15] KMV Corporation. Modelling default risk. KMV Corporation Technical document, 1997. [16] C. M. Cuadras and J. Augé. A continuous general multivariate distribution and its properties. Communications in Statistics-Theory and Methods, 10(4) :339–353, 1981. [17] P. Deheuvels. La fonction de dépendance empirique et ses propriétés . Académie Royale de Belgique (Bulletin de la Classe des Sciences), 65 :274–292, 1940. [20] D. Drouet-Mari and S. Kotz. Correlation and dependence. World Scientific Publishing Company Inc., 2001. [21] Fabrizio Durante, José Quesada-Molina, and Carlo Sempi. A generalization of the archimedean class of bivariate copulas. Annals of the Institute of Statistical Mathematics, 59 :487–498, 2007. 10.1007/s10463-006-0061-9. 168
  • 169. Arthur CHARPENTIER, JES 2010, copules [22] P. Embrechts, A. J. McNeil, and D. Straumann. Correlation and Dependence in Risk Management : Properties and Pitfalls. In M. Dempster, editor, Risk Management : Value at Risk and Beyond, pages 176–223. Cambridge University Press, 2002. [24] K.-T. Fang, S. Kotz, and K.-W. Ng. Symmetric Multivariate and Related Distributions. Chapman & Hall/CRC, 1989. [25] J.-D. Fermanian. Goodness of fit tests for copulas. Journal of Multivariate Analysis, 95(1) :119–152, 2005. [26] M. J. Frank. On the simultaneous associativity of F(x, y) and x + y − F(x, y). Aequationes Mathematicae, 19 :194–226, 1979. [27] M. Fréchet. Remarques au sujet de la note précédante. Comptes Rendus de l’Académie des Sciences de Paris, 249 :2719–2720, 1958. [28] W.E. Frees, J. Carriere, and E.A Valdez. Annuity valuation with dependent mortality. The Journal of Risk and Insurance, 63 :229–261, 1996. [29] C. Genest and R. J. MacKay. Copules archimédiennes et familles de lois 169
  • 170. Arthur CHARPENTIER, JES 2010, copules bidimensionnelles dont les marges sont données. The Canadian Journal of Statistics, 14 :145–159, 1986. [30] C. Genest, J. J. Quesada Molina, and J. A. Rodríguez Lallena. De l’impossibilité de construire des lois à marges multidimensionnelles données à partir de copules. Comptes rendus de l’Académie des sciences de Paris, 320 :723–726, 1995. [31] C. Genest and L.-P. Rivest. Statistical Inference Procedures for Bivariate Archimedean Copulas. Journal of the American Statistical Association, 88(423) :1034–1043, 1993. [32] C. Genest and B. Rémillard. Validity of the parametric bootstrap for goodness-of-fit testing in semiparametric models. Annales de l’Institut Henri Poincaré : Probabilités et statistiques, 44 :1096–1127, 2008. [33] CreditMetrics Group. Creditmetrics technical document. JP Morgan, 1997. [34] E. J. Gumbel. Bivariate exponential distributions. Journal of the American Statistical Association, 55 :698–707, 1960. 170
  • 171. Arthur CHARPENTIER, JES 2010, copules [35] P. Hougaard. Survival models for heterogeneous populations derived from stable distributions. Biometrika, 73(2) :387–396, 1986. [36] H. Joe. Families of min-stable multivariate exponential and multivariate extreme value distributions. Statistical and Probability Letters, 9 :75–81, 1990. [37] H. Joe. Multivariate Models and Dependence Concepts. Chapman & Hall/CRC, 1997. [38] G. Kimeldorf and A. Sampson. One-parameter families of bivariate distributions with fixed marginals. Communications in Statististics, 4 :293–301, 1975. [39] H.O Lancaster. The structure of bivariate distributions. Annals of Mathematical Statistics, 29 :719–736, 1958. [40] P.-S. Laplace. Théorie Analytique des Probabilités. Paris, Ve. Courcier, Paris, 1812. [41] A.W. Ledford and J.A. Tawn. Statistics for Near Independence in Multivariate Extreme Values. Biometrika, 83 :169–187, 1996. 171
  • 172. Arthur CHARPENTIER, JES 2010, copules [42] Stéphane Loisel. A trivariate non-Gaussian copula having 2-dimensional Gaussian copulas as margins. [43] K. V. Mardia. Mardia’s test of multinormality. In S. Kotz & N. L. Johnson, editor, Encyclopedia of statistical sciences (Vol. 5), pages 217–221. Wiley, 1985. [44] A. W. Marshall and I. Olkin. A generalized bivariate exponential distribution. Journal of Applied Probability, 4 :291–302, 1967. [45] Patricia Mariela Morillas. A method to obtain new copulas from a given one. Metrika, 61 :169–184, 2005. 10.1007/s001840400330. [47] A. Müller and M. Scarsini. Archimedean copulae and positive dependence. Journal of Multivariate Analysis, 93 :434–445, 2004. [48] R. B. Nelsen. Dependence Modeling with Archimedean Copulas. http ://www.lclark.edu/ mathsci/brazil2.pdf (2010-03-16), 2005. [49] R. B. Nelsen. An Introduction to Copulas. Springer, 2007. [50] D. Oakes. Bivariate survival models induced by frailties. Journal of the American Statistical Association, 84,406 :487–493, 1989. 172
  • 173. Arthur CHARPENTIER, JES 2010, copules [51] J. Pickands. Multivariate extreme value distributions. M. Bull. Internat. Statist. Inst. Proc. 43d. Session (Buenos Aires), pages 859–878, 1981. [52] J. Pickands. Multivariate negative exponential and extreme value distributions. In J. Hüssler and R.D. Reiss, editors, Extreme Value Theory. Springer Verlag, 1989. [53] A. Rényi. On measures of dependence. Acta Mathematica Hungarica, 10 :441–451, 1959. [54] J.P. Romano and A.F. Siegel. Counterexamples in Probability and Statistics. Wadsworht and Brooks, 1996. [55] M. Rosenblatt. Remarks on a Multivariate Transformation. The Annals of Mathematical Statistics, 23(3) :470–472, 1952. [56] M. Scarsini. On measures of concordance. Stochastica, 8(3) :201–218, 1984. [57] V. Schmitz. Revealing the dependence structure between x(1) and x(n). Journal of Statistical Planning and Inference, 123(1) :41 – 47, 2004. [58] B. Schweizer and A. Sklar. Probabilistic Metric Spaces. North-Holland, New York, 1983. 173
  • 174. Arthur CHARPENTIER, JES 2010, copules [59] B. Schweizer and E. F. Wolff. Sur une mesure de dépendance pour les variables aléatoires. Comptes Rendus de l’Académie des Sciences de Paris, 283 :659–661, 1976. [60] A. Sklar. Fonctions de répartition à n dimensions et leurs marges. Publications de L’Institut de Statistique de L’Université de Paris, 8 :229–231, 1959. [61] A. Sklar. Random variables, distribution functions, and copulas—a personal look backward and forward. Distributions with Fixed Marginals and Related Topics, 28 :1–14, 1996. [62] A.H. Tchen. [63] G. Venter. Tails of copulas. Procedings of the Casualty Actuarial Society, 2002. [65] R.C. Williamson. Probabilistic arithmetic, 1989. PhD thesis. [66] E.F. Wolff. n-dimensional measures of dependence,. Stochastica, 4 :175–188, 1980. 174