0% ont trouvé ce document utile (0 vote)
1K vues53 pages

01-Exercices Optimisation

Ce document présente des exercices corrigés sur l'optimisation et l'analyse convexe et différentielle pour les étudiants en ingénierie mathématique à l'Université Alioune Diop de Bambey. Les exercices couvrent divers sujets, y compris la détermination des points critiques, l'utilisation de la matrice hessienne, et l'application des méthodes de Lagrange. Il est destiné aux étudiants de licence et de master pour renforcer leur compréhension des concepts d'optimisation.

Transféré par

Abou Sow
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
1K vues53 pages

01-Exercices Optimisation

Ce document présente des exercices corrigés sur l'optimisation et l'analyse convexe et différentielle pour les étudiants en ingénierie mathématique à l'Université Alioune Diop de Bambey. Les exercices couvrent divers sujets, y compris la détermination des points critiques, l'utilisation de la matrice hessienne, et l'application des méthodes de Lagrange. Il est destiné aux étudiants de licence et de master pour renforcer leur compréhension des concepts d'optimisation.

Transféré par

Abou Sow
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

REPUBLIQUE DU SÉNÉGAL

Ministère de l’enseignement supérieur


et de la recherche

Université Alioune Diop de Bambey

Exercices corrigés d’optimisation et


d’analyse convexe et différentielle

Ingénierie Mathématiques (IM)


Statistique et Informatique Decisionnelles
(S.I.D.)

Dr ALASSANE SY

Professeur assimilé

Année Académique 2016 - 2017


Table des matières

1 Exercices corrigés pour la licence 3

2 Exercices corrigés pour le Master 42

2
Chapitre 1

Exercices corrigés pour la licence

Exercise 1 Soit
3
f (x, y, z) = 2x2 + y 2 + z 2 + 2xy + 2xz + yz
2
1) Determiner les points candidats à l’extremalité.
2) Determiner la matrice hessienne de f .
3) En déduire la nature des points critiques.
Exercise 2 Chercher les extrémas des fonctions suivantes :
f (x, y, z) = x3 z + y 3 − 3x2 y − 2z 2
f (x, y) = x3 + y 3 − 3xy
f (x, y) = xy − x2 − y 2
f (x, y) = y 4 − 2xy 2 + 2x2 + 2y 2 + 4xy − 2x − 8y + 4
f (x, y, z) = 4x2 + y 2 + 3z 2 − 4xz − 2yz − 4x + 2
Exercise 3 La fonction d’utilité d’un consomateur est donnée par
U (x, y) = xa y b avec a > 0 et b > 0.
Montrer que l’ensemble des paniers de biens tels que
D = {(x, y) ∈ R2+ : U (x, y) ≥ U0 > 0, U0 donnée}
est convexe.
Exercise 4 Soit f (x, y) = arctan( xy ), x 6= 0.
Montrer que f est homogène de degré 0. Vérifier le théorème d’Euler.
Exercise 5 1) Determiner les points critiques de la fonction f (x, y) = x2 y sous la
contrainte g(x, y) = 3x2 + 3y 2 − 6y − 5 = 0 puis, à l’aide d’une étude suplémentaire
leur nature.
2) Determiner la nature des extêma de la fonction f (x, y, z) = z sous les contraintes

g(x, y, z) = x2 + y 2 − 2 = 0
h(x, y, z) = x + y + z = 0

3
4 Dr. Alassane Sy

Solution 6
  
3 g(x, y, z) = x2 + y 2 − 2 = 0
K = (x, y, z) ∈ R tels que
h(x, y, z) = x + y + z = 0

1. Soient
C = {(x, y, z) ∈ R3 tels que x2 + y 2 − 2 = 0}. C est un cercle donc un convexe férmé.
P = {(x, y, z) ∈ R3 tels que z = −x − y}. P est un plan donc un convexe férmé.
K = P ∩ C est donc un convexe férmé comme intersection de convexes férmés.
2. Le lagrangien du problème s’écrit

L(x, y, z, p1 , p2 ) = z + p1 (x2 + y 2 − 2) + p2 (z + x + y)

Les conditions du premier ordre donnent le système



∂L(x,y,z,p1 ,p2 )


 ∂x
= 2p1 x + p2 = 0
∂L(x,y,z,p1 ,p2 )
= 2p1 y + p2 = 0


∂y

(x∗1 , y1∗ , z1∗ , p∗1.1 , p∗2 ) = (1, 1, −2, 12 , −1)
 
∂L(x,y,z,p1 ,p2 )
= 1 + p 2 = 0 =⇒
∂z
∂L(x,y,z,p1 ,p2 ) 2 2
(x∗2 , y2∗ , z2∗ , p∗1.2 , p∗2 ) = (−1, −1, 2, − 12 , −1)




 ∂p1
= x + y 2 = 0

 ∂L(x,y,z,p1 ,p2 ) = x + y + z = 0

∂p2

Les conditions du second ordre donnent la matrice Hessienne, et on utilise les résultats
du cours pour conclure quant à la nature des points.

Exercise 7 Soit

f (x, y) = exp(−x2 − y 2 − 2x + y), s/c : x2 + y 2 = 2

1- Determiner les extema de f directement en utilisant le Lagrangien.


2- La contrainte x2 + y 2 = 2 correspond à l’équation d’un cercle. En paramétrant cette
équation √ √
par x = 2 cos(t) et y = 2 sin(t) ; on raméne au problème de recherche, d’extremum
d’une
fonction d’une seule variable. Retrouver les résultats du 1-.

Solution 8

f (x, y) = exp(−x2 − y 2 − 2x + y), s/c : x2 + y 2 = 2

La fonction exp(u) étant continue et strictement croissant, donc chercher les extrema
de exp(u(x, y)) sous contraintes est équivalent à chercher les extrema de u(x, y) sous les
même contraintes. Donc le problème revient à chercher les extrema de

u(x, y) = −x2 − y 2 − 2x + y, s/c : x2 + y 2 = 2


Optimisation convexe et/ou différentielle 5

1. Le lagrangien du problème s’écrit

L(x, y, λ) = −x2 − y 2 − 2x + y − λ(x2 + y 2 )

Les conditions du premier ordre donnent le système :



∂L(x,y,λ)

 ∂x
= −2x − 2 − 2λx = 0
∂L(x,y,λ)
∂y
= −2y + 1 − 2λy = 0
 ∂L(x,y,λ)

∂λ
= x2 + y 2 − 2 = 0

La résolution du système donnent les solutions


r √ !
2 5
A∗ (x∗1 , y1∗ , λ∗1 ) = 2 ,,− √ − 1
5 2 2
r r √ !
2 2 5
B ∗ (x∗2 , y2∗ , λ∗2 ) = −2 , , √ −1
5 5 2 2
Les matrices hessiennens en A∗ et B ∗ sont
 q   q 
1 5 1 5
0 0 0 0
 2 2 q 2 2
∆(A∗ ) = 2  ∆(B ∗ ) = −2 
  q 
 0 1 5
0 , 0 1 5
0 
 
2 2  5 2
0 0 0 0 0 0

L’étude des conditions du second ordre montre que u, donc f admet un minimum en A∗
et un maximum en B ∗ et f (A∗ ) = 0.0057, f (B ∗ ) = 3, 1972.
√ √
2. Posons x = 2 cos(t) et y = 2 sin(t), on se ramène à un problème d’optimisation
sans contrainte. √
u(x, y) = g(t) = e−2 e 2(sin(t)−2 cos(t))

Posons h(t) = sin(t) − 2 cos(t) alors, h et g on les mêmes extrema.


sin(t∗ )
 
0 ∗ ∗ ∗ ∗ 1 ∗ 1
h (t ) = cos(t ) + 2 sin(t ) = 0 =⇒ ∗
= tan(t ) = − =⇒ t = arctan −
cos(t ) 2 2
On obtient
√ √
r r
∗ 1 2 ∗ 1 2
x = 2 cos(arctan(− )) = 2 ; y = 2 sin(arctan(− )) = −
2 5 2 5
L’autre point est obtenu en utilisant la parité de la fonction tan(t).

Exercise 9 On considère le problème suivant :


 
3 x+y+z = 1
f (x, y, z) = xyz s/c (x, y, z) ∈ ∆ = (x, y, z) ∈ R /
y−z =1
6 Dr. Alassane Sy

i) Montrer que tous les points de l’ensemble ∆ des contraintes sont régulier.
ii) Trouver les points de ∆ qui vérifient les conditions nécessaire d’optimalité du premier
ordre.
iii) Determiner leur nature en étudiant les conditions du second ordre.

Solution 10 On a deux contraintes, pour montrer que M (x, y, z) ∈ ∆ est régulier,


il suffit de montrer que {∇g1 (x, y, z), ∇g2 (x, y, z)} est un
système libre avec g1 (x, y, z) = x + y + z − 1, g2 = y − z − 1
∂g1 ∂g1 ∂g1 ∂g1 ∂g1 ∂g1
∇g1 (x, y, z) = ( , , ) = (1, 1, 1), ∇g2 (x, y, z) = ( , , ) = (0, 1, −1)
∂x ∂y ∂z ∂x ∂y ∂z
que l’on montre est un système libre pour tout (x, y, z) ∈ ∆ d’où tout les point de ∆ sont
réguliers.
Le lagrangien du problème s’écrit L(x, y, z, λ1 , λ2 ) = xyz−λ1 (x+y+z−1)−λ2 (y−z−1)
Les conditions néccessaires du premier ordre donnent le système
 ∂L 
 ∂x
 ∂L = yz − λ 1 = 0 
 yz = λ1
 ∂L = xz − λ1 − λ2 = 0 xz − yz − λ2 = 0

 


∂L
∂z
= xy − λ 1 + λ 2 = 0 ⇔ xy − yz + zx − yz = 0
∂L

 = x + y + z − 1 = 0 
 x + y + z = 1
 ∂λ

 1


∂L
= y−z−1 = 0 y = z+1

∂λ2

On obtient alors 

 λ1 = yz
λ2 = z(x − y)



xy − yz + zx − yz = 0
x = 1−y−z




y = z+1

On calcul les variables x et y en fonction de z et on trouve x = −2z, y = z + 1


L’équation xy − yz + zx − yz = 0 devient −6z 2 − 4z = −2z(3z + 2) = 0 dont les racines
sont z1 = 0 et z = − 32
si z = 0 alors, x = 0, y = 1, λ1 = 0, λ2 = 0
Si z = − 23 alors,x = 43 , y = 31 , λ1 = − 92 , λ2 = − 23
Le point critique est A1 (0, 1, 0) et les multiplicateurs de Lagrange associé sont : λ1 =
0, λ2 = 0
La matrice Hessienne bordée est
 
0 0 1 1 1
 0 0 0 1 −1 
 
M =  1 0 0 0 1 

 1 1 0 0 0 
1 −1 1 0 0

Les résultats du cours permettent de montrer que A1 (0, 1, 0) est un maximum local strict.
Optimisation convexe et/ou différentielle 7

Le point critique est A2 ( 34 , 13 , 23 ) et les multiplicateurs de Lagrange associé sont : λ1 =


− 92 , λ2 = − 23
La matrice Hessienne bordée est
 
0 0 1 1 1
 0 0
 0 1 −1  
2 1 
M =  1 0 0 − 3 3 
 1 1 −2 0 4 
3 3
1 −1 13 4
3
0

Les résultats du cours permettent de montrer que A2 ( 43 , 13 , 23 ) est un minimum local strict.

Exercise 11 On considère la fonction f définie sur R3+ par :

f (x, y, z) = xy 2 z

les variables x, y, z sont liées par la relations

8x + 4y + 4z = 4a

a étant une paramétre réel positif.


Etudier l’existence et la nature des extrema de f suivant les valeur de a.

Exercise 12 Soit

f (x1 , x2 , x3 ) = −(x1 x2 x3 )1/3 , x1 > 0, x2 > 0, x3 > 0

1) Ecrire log[−f (x1 , x2 , x3 )], puis la matrice des dérivées secondes (ou matrice hessienne)
de f , que l’on notera A.
2) Soit a = (a1 , a2 , a3 ). Montrer que
 !2 
3  2 3
f X ai X ai 
f 00 (x)(a)(a) = − 3 −
9 i=1
xi x
i=1 i

3) En déduire que f est convexe. On pourra utiliser l’inégalité de Schwartz.


On rappelle que (Inégalité de Schwartz)

n n
!1/2
X √ X
λi ≤ n λ2i
i=1 i=1

4) Géréraliser le résultats à l’ordre n.

Solution 13
1
x1 > 0, x2 > 0, x3 > 0, f (x1 , x2 , x3 ) = −(x1 x2 x3 ) 3
8 Dr. Alassane Sy

1)
1
log(−f (x1 , x2 , x3 )) = [log x1 + log x2 + log x3 ]
3
∂ log(−f (x1 , x2 , x3 )) 1 1 f 0 (x) ∂f (x) f (x)
= . = ⇒ =
∂xi 3 xi f (x) ∂xi 3xi
∂ 2f
     
∂ ∂f ∂ f ∂f 1 2f
2
= = = 3xi − 3f . 2 = − 2
∂xi ∂xi ∂xi ∂xi 3xi ∂xi 9xi 9xi
∂ 2 f (x)
   
∂ ∂f (x) ∂ f (x) 1 ∂f (x) f (x)
= = = . =
∂xi ∂xj ∂xj ∂xi ∂xj 3xi 3xi ∂xj 9xi xj
 2f
− 9x2 9xf1 x2 9xf1 x3
 2
− x2 x11x2 x11x3
 
 f 1 2f f  f  11 2 1
Hf (x1 , x2 , x3 ) =  9x2 x1 − 9x22 9x2 x3  =  x2 x1 − x22 x2 x3 

9 1 1
f
9x x
f
9x x
2f
− 9x 2 x3 x1 x3 x2
− x22
3 1 3 2 3 3

2) Soit a = (a1 , a2 , a3 )

− x22 1 1
   
x1 x2 x1 x3 a1 a1
f 1
1
Hf (x1 , x2 , x3 )(a)(a) = x2 x1
− x22 1
x2 x3  a2   a2 

9
 2
1 1
x3 x1 x3 x2
− x22 a3 a3
3

 
  a1
f 2a1 a2 a3 a1 2a2 a3 a1 a2 2a3
= − 2 + + , − 2 + , + − 2  a2 
9 x1 x1 x2 x1 x3 x1 x2 x2 x2 x3 x1 x3 x2 x3 x3
a3

2a21 a2 a1 2a22 a3 a3 2a23


 
f a3 a1 a1 a2 a1 a3 a2 a3
= − 2 + + + − 2 + + + − 2
9 x1 x1 x2 x1 x3 x1 x2 x2 x2 x3 x1 x3 x2 x3 x3
  2
a1 2a22 2a23
  
f a2 a1 a3 a1 a2 a3
= −2 + 2 + 2 +2 + +
9 x21 x2 x3 x1 x2 x1 x3 x2 x3
or !2
3 3  2
X ai X ai X ai aj
= +2
i=1
xi i=1
xi i6=j
xi xj
 !2 
3  2 3
f X ai X ai
Hf (x1 , x2 , x3 )(a)(a) = −3 + 
9 i=1
xi i=1
xi

En utilisant l’inégalité de Schwatz,

n n
!1/2
X √ X ai
λi ≤ n λ2i , avec n = 3 et λi =
i=1 i=1
xi
Optimisation convexe et/ou différentielle 9

on obtient !2
3  2 3
X ai X ai
3 − ≥0
i=1
xi i=1
xi

et comme f < 0 alors − f9 > 0 par conséquent

∀ a ∈ R3 , f 00 (x)(a)(a) ≥ 0 =⇒ f est convexe


1
f (x1 , x2 , ..., xn ) = − (x1 x2 ...xn ) n , xi > 0, i = 1 : n
Comme f est deux fois dérivables sur R˙∗+ , pour montrer que f est convexe, il suffit de
calculer la dérivée seconde et de montrer que c’est une forme bilinéaire.

∂f f ∂ 2f (n − 1)f ∂ 2f f
= ; 2
= − 2 2
; =− 2 ; i 6= j
∂xi nxi ∂xi n xi ∂xi ∂xj n xi xj

Donc " #
n 2
f X a X ai aj
f 00 (X)(a, a) = − 2 (n − 1) i

n i=1 i
x2 i6=j
xi xj
 
n  2  !2
f X ai X ai
= − 2 n − 
n i=1
x i i
x i

On obtient f 00 (X)(a, a) ≥ 0 à l’aide de l’inégalité de Schwarz.

Exercise 14 Soit
1
J(x) = a(x, x) − L(x)
2
où a(., .) est une forme bilinéaire symétrique et coercive (ou elliptique) et L(.) une forme
linéaire.
1) Calculer les dérivées première et seconde de J
2) En déduire que J est convexe.

Solution 15
1
J(x) = a(x, x) − L(x)
2
Soit h ∈ H ⊆ Rn
J(x + θh) − J(x)
J 0 (x)(h) = lim
θ→0 θ
1
J(x + θh) = a(x + θh, x + θh) − L(x + θh)
2
1
= [a(x, x) + 2a(x, θh) + a(θh, θh)] − L(x) − L(θh)
2
1
= [a(x, x) + 2θa(x, h) + θ2 a(h, h)] − L(x) − θL(h)
2
10 Dr. Alassane Sy

J(x + θh) − J(x)


= a(x, h) + θa(h, h) − L(h)
θ
=⇒ J 0 (x)(h) = a(x, h) − L(h)
Soit k ∈ H,
J 0 (x + θk)(h) − J 0 (x)(h)
J 00 (x)(h)(k) = lim
θ→0 θ
J 0 (x + θk)(h) = a(x + θk, h) − L(h) = a(x, h) − θa(h, k) − L(h)
J 00 (x)(h)(k) = lim a(h, k) = a(h, k)
θ→0

D’où
J 00 (x)(h)(h) = a(h, h) ≥ α||h||2 , avec α > 0, pour h 6= 0
=⇒ J est strictement convexe.

Solution 16 f (x, y) = x2 − 3xy + y 2

f (tx, ty) = (tx)2 − 3t2 xy + (ty)2 = t2 (x2 − 3xy + y 2 ) = t2 f (x, y)


donc f est homogène de degré 2.

∂f (x, y) ∂f (x, y)
x +y = 2(x2 − 3xy + y 2 ) = 2f (x, y)
∂x ∂y

Solution 17 f (x, y) = x3 + 3xy 2 − 15x − 12y


1) Points critiques de f
(
∂f (x,y)
∂x
= 3x2 + 3y 2 − 15 = 0 ⇔ x2 + y 2 = 5 (1)
∂f (x,y)
∂y
= 6xy − 12 = 0 ⇔ xy = 2 (2)

x2 + y 2 = (x + y)2 − 2xy = (x + y)2 − 4 = 5 ⇒ (x + y)2 = 9



x + y = ±3
=⇒ A∗1 = (2, 1), A∗2 = (1, 2), A∗3 = (−1, −2), A∗4 = (−2, −1)
xy = 2
 
6x 6y
2) La matrice hessienne de f est Hf (x, y) =
6y 6x
(*) En A∗1 = (2, 1), la matrice hessienne admet deux valeurs propres pisitives, donc elle
est définie positive, par conséquent A∗1 est un minimum relatif.
(*) En A∗2 = (1, 2), la matrice hessienne admet deux valeurs propres de signes contraires,
donc elle est indéfinie, par conséquent A∗2 est un point col.
(*) En A∗3 = (−1, −2), la matrice hessienne admet deux valeurs propres de signes contraires,
donc elle est indéfinie, par conséquent A∗3 est un point col.
(*) En A∗4 = (−2, −1), la matrice hessienne admet deux valeurs propres négatives, donc
elle est définie négative, par conséquent A∗1 est un maximum relatif.
Optimisation convexe et/ou différentielle 11

Solution 18 f (x, y, z) = 4x3 + 12 y 3 − 6xyz + 5z 3 − 3z


1) Un point A(x∗ , y ∗ , z ∗ ) est un point critique de f si et seulement si
∂f ∗ ∗ ∗ ∂f ∗ ∗ ∗ ∂f ∗ ∗ ∗
(x , y , z ) = (x , y , z ) = (x , y , z ) = 0
∂x ∂y ∂z
2) Recherche de points critiques de f
 ∂f (x,y,z)

 ∂f
= 12x2 − 6yz = 0 ⇐⇒ x2 − yz = 0
∂f (x,y,z)
∂y
= 23 y 2 − 6xz = 0 ⇐⇒ y 2 − 4xz = 0
 ∂f (x,y,z)

∂z
= 15z 2 − 6xy − 3 = 0 ⇐⇒ 5z 2 − 2xy − 1 = 0
Pour y = 0 alors x = 0 et z = ± √15 ⇒ A∗1 = (0, 0, √15 ), A∗2 = (0, 0, − √15 ).
2 y
Pour y 6= 0, z = 2xy , en remplaçant dans les différentes équations, on trouve x = 2
puis
= (1, 2, 1) et A∗4 = (−1,
y = ±2, d’où A∗3   −2, −1).
24x −6z −6y
3) Hf (x, y, z) =  −6z 3y −6x  pour tout (x, y, z) ∈ R3 .
−6y −6x 30z
i)  
0 − √65 0
30 6 2
Hf (A∗1 ) =  − √65 0 0  ∗ 2
 , det(Hf (A1 )) = (X − √ )(X − ( √ ) )

0 0 30

5 5
5

donc admet comme valeurs propres X1 = √305 , X2 = √65 X3 = − √65 , par conséquent A∗1 est
un point col.
ii)
 
0 √65 0
30 6 2
Hf (A∗2 ) =  √65 0 0  ∗ 2
 , det(Hf (A1 )) = −(X + √ )(X − ( √ ) )

0 0 − √305 5 5

donc admet comme valeurs propres X1 = − √305 , X2 = √65 X3 = − √65 , par conséquent A∗1
est un point col.
iii)
 
24 −6 −12
Hf (A∗3 ) =  −6 6 −6  , ∆1 = 24 > 0, ∆2 = 108 > 0, ∆3 = 1080 > 0
−12 −6 30
∆i > 0 pour i = 1, 2, 3 =⇒ A∗3 est un minimum global
iv)
 
−24 6 12
Hf (A∗4 ) =  6 −6 6  , ∆1 = −24 < 0, ∆2 = −108 < 0, ∆3 = −1080 < 0
12 6 −30
∆i < 0 pour i = 1, 2, 3 =⇒ A∗4 est un maximum global
12 Dr. Alassane Sy

Problème 19 (Estimateur de maximum de vraisemblence des paramétres µ et σ 2 )


On rappelle que :
n n
1X 2 1X
x= xi , Sx = (xi − x)2
n i=1 n i=1
La vraisemblence de (µ, σ 2 ) lorsqu’on a pu observer n réalisations indépendantes d’une
variable aléatoire normale d’espèrence µ et de variance σ 2 .
 n n
n 1 1 X
L(x1 , x2 , · · · xn , µ, σ ) = √ exp(− 2 (xi − µ)2 )
σ 2π 2σ i=1

L’estimateur de maximum de vraisemblence des paramétres µ et σ 2 est le couple (b b2 )


µ, σ
qui réalise le maximum de L considéré comme fonction de deux variables µ b et σ
b.
2
1) En posant u = µ et v = σ , écrire la fonction objectif F (u, v).
2) Montrer qu’il n’y a qu’un seul point candidat à l’optimum qui sera exprimer en fonction
des statistiques x et Sx2 .
3) Montrer que ce point correspond à maximum local de vraisemblence.
4) Calculer le maximum de la vraisemblence ainsi que le maximum de son logarithme.
5) Démontrer que ce maximum est un maximum global.

Solution 20 La vraisemblence de (µ, σ 2 ) lorsqu’on a pu observer n réalisations indépendantes


d’une variable aléatoire normale d’espèrence µ et de variance σ 2 .
 n n
n 1 1 X
L(x1 , x2 , · · · xn , µ, σ ) = √ exp(− 2 (xi − µ)2 )
σ 2π 2σ i=1

Posant u = µ et v = σ 2 , on obtient une fonction de (u, v)


 n " n
#
1 n 1 X
F (u, v) = √ (v)− 2 exp − (xi − µ)2
2π 2v i=1

n
n n 1 X
ln F (u, v) = − ln(2π) − ln v − (xi − µ)2
2 2 2v i=1
F (u, v) admet un maximum en (u∗ , v ∗ ) si et seulement si

∀ (u, v) ∈ R2 F (u, v) ≤ F (u∗ , v ∗ )

La fonction logarithme étant croissante, ceci équivaut à

∀ (u, v) ∈ R2 ln F (u, v) ≤ ln F (u∗ , v ∗ )

Ce qui exprime que la fonction log-vraisemblence ln F (u, v) admet un maximum global en


(u∗ , v ∗ ). On a donc :
arg max F (u, v) = arg max ln F (u, v)
(u,v) (u,v)
Optimisation convexe et/ou différentielle 13

2) Recherche de points candidats : si un point est candidat à l’extrêmalité alors les dérivées
partielles de F en ce point sont sont nulles, ce qui se traduit par le système suivant :

(−2) ni=1 (x
 ∂F 1
P n
∂u
(u, v) = − 2v Pi n− u) = v (x2 − u) = 0
∂F n 1
∂v
(u, v) = − 2v − 2v2 i=1 (xi − u) = 0

u = Pn x
⇐⇒ 1 2 il y a donc un seul point candidat
v = n i=1 (xi − u)

n
1X
u∗ = x, v∗ = (xi − u)2 = Sx2
n i=1

3) Condition suffisantes du second ordre :


n
∂ 2 F (u, v) n ∂ 2 F (u, v) n 1 X
=− , =− 2 − 3 (xi − u)2
∂u2 v ∂v 2 2v v i=1

∂ 2 F (u, v) ∂ 2 F (u, v) n
= = 2 (x − u)
∂u∂v ∂v∂u v
La matrice hertzienne dépend de (u, v); en (u∗ , v ∗ ), elle est donnée par
!
n
− 2 0
H ln f (u∗ , v ∗ ) = D2 ln F (u∗ , v ∗ ) = Sx
0 − 2Sn4
x

2
det H ln f (u∗ , v ∗ ) = 2S
n n n
6 > 0 et ses valeurs propores sont : λ1 = − S 2 < 0 et λ2 = − 2S 4 < 0
x x x
par conséquent elle est défine négative et donc la fonction de vraisemblence admet donc
un maximum local en (u∗ , v ∗ ).
Pour démontrer que ce maximum est global, il faut examiner directement le signe de
ln F (u∗ , v ∗ ) − ln F (u, v).
n
∗ ∗ n n 2 1 X
ln F (u , v ) = − ln(2π) − ln Sx − 2 (xi − x)2
2 2 2Sx i=1

n n n
= − ln(2π) − ln Sx2 −
2 2 2
n
n n 1 X
ln F (u, v) = − ln(2π) − ln v − (xi − u)2
2 2 2v i=1

On a donc
n
∗ ∗ n Sx2 n 1 X
ln F (u , v ) − ln F (u, v) = − ln − + (xi − u)2
2 v 2 2v i=1
14 Dr. Alassane Sy

Pn
La somme i=1 (xi − u)2 peut s’écrire :
n
X n
X n
X n
X
2 2 2
(xi − u) = (xi − x + x − u) = (xi − x) + (x − u)2
i=1 i=1 i=1 i=1

car les doubles produits (xi − x)(x − u) sont de somme nulle. On obtient donc :
n
X n
X n
X
(xi − u)2 = (xi − x)2 + (x − u)2 = nSx2 + n(x − u)2
i=1 i=1 i=1

Nous devons finalement étudier le signe de

Sx2 Sx2 (x − u)2


 
∗ ∗ n
ln F (u , v ) − ln F (u, v) = − ln −1+ + .
2 v v v

Or on sait que pour tout z > 0, ln z < z − 1. On a donc pour tout (u, v)

ln F (u∗ , v ∗ ) − ln F (u, v) ≥ 0,

ce qui montre que ln F (u, v) et donc F (u, v) admet en (u∗ , v ∗ ) un maximum global.

Problème 21 On dispose des réponses (xi , yi )(1≤i≤n) de n individus à deux questions


quantitatives. L’ensemble des points de coordonnées (xi , yi ) constituent en statistique ce
que l’on appelle le nuange de points des individus. On donne :
n n
1X 1X
x= xi , y= yi
n i=1 n i=1

n n n
1X 1X 1X
Sxy = (xi − x)(yi − y), Sx2 = (xi − x)2 , Sy2 = (yi − y)2
n i=1 n i=1 n i=1
Nous nous proposons ici de trouver l’équation de la droite des moindres carrés, c’est-à-dire
de chercher les valeurs de b
a et bb solution du problème
n
X
min Φ(a, b), avec Φ(a, b) = (yi − axi − b)2
(a,b)
i=1

1) Trouver le seul point candidats à l’optimalité en fonction de x, y, Sx2 et Sxy


2) Montrer qu’il s’agit d’un minimum global de Φ.
3) Calculer Φ(ba, bb). en fonction du coefficient de corrélation empirique rxy . On rappelle
que
2
2
Sxy
rxy = 2 2 .
Sx Sy
Optimisation convexe et/ou différentielle 15

Solution 22 1) La fonction
n
X
Φ(a, b) = (yi − axi − b)2
i=1

est un polynôme en (a, b) donc de classe C 2 sur R2 .


- Conditions néccessaires du premier ordre :
( Pn
∂Φ(a,b)
∂a
= −2 i=1 xi (yi − axi − b) = 0
∂Φ(a,b)
= −2 ni=1 (yi − axi − b) = 0
P
∂b

En faisant apparaı̂tre les deux statistiques x et y,


 Pn 2 Pn
i=1 x i a + nxb = i=1 xi yi
ax + b = y
On voit apparaı̂tre 2 statistiques : la variance empirique des xi et la covariance empirique
entre les xi et les yi .
n
! n
2 1 X
2 2 1X
Sx = x − nx = (xi − x)2
n i=1 i n i=1
n
! n
1 X 1X
Sxy = xi yi − nxy = (xi − x)(yi − y)
n i=1 n i=1
On sait que si les xi ne sont pas tous égaux, Sx2 6= 0, on obtient
Sxy bb = y − b Sxy
a= , ax = y − x 2
Sx2
b
Sx
2) Conditions suffisantes du second ordre :
n
∂ 2Φ X
= 2 x2i = 2n(Sx2 + (x)2 )
∂a2 i=1

n
∂ 2Φ ∂ 2Φ ∂ 2Φ X
= 2n, = 2 xi = 2nx
∂b2 ∂a∂b ∂b∂a i=1
 2 
2 Sx + x2 x
HΦ(b
a, b) = D Φ(b
b a, b) = 2n
b
x n
indépendant de (b a, bb).
On a une forme quadratique définie positive, donc Φ est une fonction convexe et atteint
en (ba, bb) un minimum global.
En effet pour tout H = (h1 , h2 )

D2 Φ(b
a, bb)(H)(H) = H t D2 Φ(b
a, bb)H = h1 Sx2 + (xh1 + h2 )2 ≥ 0
16 Dr. Alassane Sy

3)
n n  2
X
2
X S xy
Φ(b
a, bb) = (yi − baxi − bb) = yi − y − 2 (xi − x)
i=1 i=1
Sx
2 2 2 
Sxy Sxy
 
2 Sxy 2 2
= nSy − 2n 2 − n Sx = nSy 1 − 2 2
Sx Sx2 Sx Sy
Soit
Sxy
rxy =
Sx Sy
le coefficient de corrélation empirique de x et y, alors

a, bb) = nSy2 (1 − rxy


Φ(b 2
)

Problème 23 On considère le problème d’optimisation suivant :

min − log 1 − ||x||2 + ha, xi



x∈C

avec
1
C = {x ∈ Rn / ||x|| ≤ , ha, xi ≤ 0}
2
n
où ||.|| est la norme euclidienne de R et h., .i, le produit scalaire associé.
1) Montrer que l’on a un problème d’optimisation convexe (C convexe).
2) Calculer les solutions optimales suivant les valeurs de a.

Solution 24 Montrons que

fa : Ω = {x ∈ Rn /||x|| < 1} −→ R
x 7−→ fa (x) = − log (1 − ||x||2 ) + ha, xi

est strictement convexe. On rappelle que

fa (x + θh) − fa (x)
fa0 (x)(h) = lim
θ→0 θ
Soit f (x) = ||x − a||2 , alors

||x + θh − a||2 − ||x − a||2


fa0 (x)(h) = lim
θ→0 θ
hx + θh − a, x + θh − ai − hx − a, x − ai
= lim
θ→0 θ
hx − a, x − ai + 2hx − a, θhi + hθh, θhi − hx − a, x − ai
= lim
θ→0 θ
2θhx − a, hi + θ2 ||h||2
= lim = 2hx − a, hi
θ→0 θ
Optimisation convexe et/ou différentielle 17

2x
=⇒ f 0 (x) = 2(x − a) =⇒ fa0 (x) = +a
1 − ||x||2
2(1 − ||x||2 ) + 4x2
fa00 (x) = > 0 car x > 0 =⇒ f strictement convexe
(1 − ||x||2 )

minx∈C fa (x) = − log (1 − ||x||2 ) + ha, xi
Ca = {x ∈ Rn / ||x|| ≤ 21 , ha, xi ≤ 0}
a) a = 0    
n 1 n 2 1
C0 = x ∈ R / ||x|| ≤ = x ∈ R / ||x|| ≤
2 4
1
- Conditions néccessaire du premier ordre, soit a1 (x) = ||x|| − 2
 2x
+ 2px = 0
1−||x||2
p(||x|| − 12 ) = 0
1
* Contrainte a1 non saturée, ||x|| < 2
⇒p=0

2x
= 0 ⇐⇒ x = 0 est l’optimum
1 − ||x||2

* Contrainte a1 saturée, ||x|| = 12 ⇒ x 6= 0, p = − 58 impossible.


Donc si a = 0, S = {0}.
- a 6= 0  2
 fa (x) = − ln(1 − ||x|| ) + ha, xi
ha, xi ≤ 0
s/c
||x||2 − 14 ≥ 0

Le lagrangien est :
1
L(x, p1 , p2 ) = − ln(1 − ||x||2 ) + ha, xi + p1 ha, xi + p2 (||x||2 − )
4
Conditions néccessaires d’optimalité du premier ordre :
 2x
2 + a + p1 a + 2p2 x = 0 (1)
 1−||x||


ha, xi = 0 (2)

 ||x||2
− 41 = 0 (3)
pi ≥ 0 i = 1, 2 (4)

ha, xi = 0 ⇔ x = 0 (1) ⇒ a + p1 a = 0 ⇒ p1 = −1 impossible d’après 4. D’où ha, xi < 0


donc p1 = 0.
cas ||x||2 = 12
2x 8
1 + a + 2p2 x = 0 ⇐⇒ a + x( + 2p2 ) = 0
1− 4 3
18 Dr. Alassane Sy

8 8 1 4
( + 2p2 )x = −a ⇐⇒ ( + 2p2 )||x|| = ||a||, ||x|| = , p2 ≥ 0 =⇒ ||a|| ≥
3 3 2 3
4 a
p2 = ||a|| − =⇒ x = −
3 2||a||
1
||x|| < 2
=⇒ p2 = 0

2x 2||x||
2
+ a = 0 ⇐⇒ 2
= ||a|| ⇐⇒ −||a||||x||2 + ||a|| = 2||x||
1 − ||x|| 1 − ||x||
p
2 −1 + 1 + ||a||2
∆ = 1 + ||a|| =⇒ ||x|| = ,
||a||
p
2(1 − 1 + ||a||2 ) x 2x||a||2
1 − ||x||2 = , = p = −a
||a||2 1 − ||x||2 2( 1 + ||a||2 − 1)
p
a(1 − 1 + ||a||2 )
x=
||a||2
Condition sur
p
1− 1 + ||a||2 p
ha, xi = < 0 ⇐⇒ 1 − 1 + kxk2 < 0 ⇔ 1 < 1 + ||a||2
||a||

vraie pour tout a > 0


p
1 −1 + 1 + ||a||2 1 p ||a||
||x|| < =⇒ < ⇐⇒ −1 + 1 + ||a||2 <
2 ||a|| 2 2

3||a||2 4
< ||a|| ⇐⇒ ||a|| <
4 3
Récapitulation :


 a=0 x =√0
4 a(1− 1+||a||2 )
0<a< 3
x= ||a||2
−a
a ≥ 43

x=

2||a||

Problème 25 A d km d’une voie ferrée, se trouve le village B.


Où faut-il instaurer un arret C pour que le voyage de la gare A au village B par la
voie ferree AC et la route CB prenne le temps minimum ?
Le train roule à vkm/h, le transport routier roule à αv km/h de moyenne (α > 1).
Calculer le temps minimum pour aller de A à B et la vitesse moyenne du trajet de A à
B.
Application numerique : d = 20km, v = 80km/h, α = 4, AD = 40km.
Optimisation convexe et/ou différentielle 19

20km

A C x D

Solution 26 Soit x la distance de C à D


Le temps mis pour aller de A à C est AD−x

v
Le temps mis pour aller de C à D est αv d2 + x2
Le mis au total pour faire le trajet ACD est
AD − x α √ 2
t= + d + x2
v v
Le dérivée de t par rapport à x est

dt 1 α x 1 αx − d2 + x2
=− + √ = √
dx v v d 2 + x2 v d 2 + x2
Cette dérivèe est nulle lorsque

αx − d2 + x2 = 0 ⇐⇒ (α2 − 1)x2 = d2 x ≥ 0
soit
d
x∗ = √
2
α −1
Cela suppose que α > 1 c’est-à dire que le train va plus vite que le transport routier.
La dérivée seconde de t par rapport à x est
d2 t x2 d2
 
α 1 α
= √ 1 − = √ >0
dx2 v d2 + x2 d2 + x2 v d2 + x2 d2 + x2
20 Dr. Alassane Sy

La dérivée seconde étant toujours positive, l’extremum est donc un minimum relatif,
comme il est unique, c’est un minimum global.
Le temps minimum de parcours est alors tmin = t(x∗ )

AD − x∗ α √ 2 1 1 p
t(x∗ ) = + d + x∗2 = (AD + (α2 − 1)x∗ ) = (AD + d (α2 − 1))
v v v v
Comme la distance parcouru est


r
α−1
AD − x∗ + d2 + x∗2 = AD + (α − 1)x∗ = AD + d ,
α+1
la vitesse moyenne est alors :
q
AD + d α−1
α+1
vmoy =v× p
AD + d (α2 − 1)

Application numérique :
r
d 5
x∗ = √ =5 ≈ 5, 16km ' 5, 2km
α2 − 1 3

1 p 1 √ 1 √
tmin = t(x∗ ) = (AD + d (α2 − 1)) = (40 + 20 15) = (2 + 15) ≈ 1 h 28 mn
v 80 4
La distance parcourue est :
r r
α−1 3
AD + d = 40 + 20 ≈ 55, 5km, dont 34, 8km en train et 20, 7km par la route
α+1 5
La vitesse moyenne est :
q q
AD + d α−1
α+1 40 + 20 35
vmoy =v× p = 80 × √ ≈ 38km/h.
AD + d (α2 − 1) 40 + 20 15

Exercise 27 Soient
x+y x
i) f (x, y) = p 1 , ii) f (x, y) = xα g( )
( x2 + y 2 ) 3 y

1- Montrer que f est homogène (on donnera le degré d’homogénéité).


2- Vérifier le thèoréme d’Euler.

Solution 28 1. a
x+y
f (x, y) = p 1
( x2 + y 2 ) 3
Optimisation convexe et/ou différentielle 21

tx + ty 2/3 x+y 2/3


f (tx, ty) = p 1 = t p 1 = t f (x, y)
2 2
( (tx) + (ty) ) 3 2 2
( x + y )3
1.b
     
α x α tx α α x
f (x, y) = x g ⇒ f (tx, ty) = (tx) g =t x g = tα f (x, y)
y ty y
Donc f est homogène de degré α

Théorème 29 (d’Euler) Si f est homogène de degré α sur (R∗+ )n , on a en tout point


X = (x1 , x2 , · · · , xn ) de (R∗+ )n où f est différentiable :
n
X
xi fx0 i (X) = αf (X) (∗)
i=1

Réciproquement si f est différentiable et vérifie (∗) en tout point de (R∗+ )n alors f est
homogène de degré α sur (R∗+ )n .

2. a
∂f (x, y) p 1 1 p 7
= ( x2 + y 2 )− 6 − (x + y)2x( x2 + y 2 )− 6
∂x 6
∂f (x, y) p 1 1 p 7
= ( x2 + y 2 )− 6 − (x + y)2y( x2 + y 2 )− 6
∂y 6
∂f (x, y) ∂f (x, y) p 1 1 p
x +y = (( x2 + y 2 )− 6 )(x − (x + y)( x2 + y 2 )−1 (x2 + y 2 ) + y)
∂x ∂y 3
 
∂f (x, y) ∂f (x, y)  p
− 1
 1 2
x +y = ( x2 + y 2 ) 6 (x + y) 1 − = f (x, y)
∂x ∂y 3 3
2.b
xα 0 x
   
∂f (x, y) x
= αxα−1 g + g
∂x y y y
xα+1
 
∂f (x, y) x
= − 2 g0
∂y y y
 
∂f (x, y) ∂f (x, y) x
x +y = αxα g = αf (x, y), cqf d
∂x ∂y y

Solution 30
f (x, y, z) = 4x2 + y 2 + 3z 2 − 4xz − 2yz − 4x + 2
Les conditions du premier ordre donnent le système

∂f (x,y,z)

 ∂x
= 8x − 4z − 4 = 0
∂f (x,y,z)
∂y
= 2y − 2z = 0 ⇒ (x∗ , y ∗ , z ∗ ) = (1, 1, 1)
 ∂f (x,y,z)

∂z
= 6z − 4z − 2y = 0
22 Dr. Alassane Sy

(x∗ , y ∗ , z ∗ ) = (1, 1, 1) est le seul point candidat à l’optimalité.


Les conditions du second ordre donnent la matrice Hessienne
 
8 0 −4
Hf =  0 2 −2  , ∆1 = 8 > 0, ∆2 = 16 > 0, ∆3 = 32 > 0
0 −2 6

(x∗ , y ∗ , z ∗ ) = (1, 1, 1) est un mimimum globgal

f (x∗ , y ∗ , z ∗ ) = 0

Exercise 31 Etudier la nature des extréma de la fonction f (x, y) sous la contrainte


g(x, y) = 0
√ p √ p
f (x, y) = x + 1e−y + y + 1e−x , g(x, y) = x + 1 + y + 1 − 4

Solution 32 La formule du lagrangien donne


√ p √ p
L(x, y) = x + 1e−y + y + 1e−x + λ( x + 1 + y + 1 − 4)

On cherche les points stationnaire avec les condition du premier ordre :


∂L e−y p λ
= √ − ex y + 1 + √ =0
∂x 2 x+1 2 x+1
∂L e−x √ λ
=− √ + ey x + 1 + √ =0
∂y 2 y+1 2 y+1
∂L √ p
= x+1+ y+1−4=0
∂λ
En réduisant au même dénominateur, les deux premières équations donnent
p
e−y − 2e−x (x + 1)(y + 1) + λ = 0
p
e−x − 2e−y (x + 1)(y + 1) + λ = 0
En faisant la différence entre les deux équations, on en déduit que x = y. En reportant
dans la troisième équation, on trouve y = x = 3 qui est le seul point stationnaire et le
multiplicateur de Lagrange λ associé vaut −7e−3
Les conditions du second ordre donnent
e−y p λ
L00x2 = − 3/2
+ e−x y + 1 −
4(x + 1) 4(x + 1)3/2
e−x √ λ
L00y2 = − 3/2
+ e−y x + 1 −
4(y + 1) 4(y + 1)3/2
e−y e−x
L00yx = L00xy = − √ − √
2 x+1 2 y+1
Optimisation convexe et/ou différentielle 23

1 1
gx0 = √ , gy0 = √
2 x+1 2 y+1
Leurs valeurs au point (3, 3) sont :
7 1 1
L00x2 = L00y2 = e−3 , L00yx = L00xy = − e−3 , gx0 = gy0 =
4 2 4
La matrice Hessienne en (3, 3) est
7 −3
− 12 e−3 1
 
4
e 4
1 −3 7 −3 1
HL (3, 3) =  −2e 4
e 4

1 1
4 4
0

On obtient alors
7 −3
e − 12 e−3 1
4 4 9 −3
∆3 (3, 3) = − 12 e−3 7 −3
4
e 1
4
=− e <0
1 1 32
4 4
0

Donc il y a un minimum en (3, 3).

Exercise 33 Déterminer la fonction d’offre associée, en concurrence parfaite, à la fonc-


tion de production (xy)1/3 avec x et y les inpout de prix respectifs px et py .
(On pourra supposer que les prix sont strictement positifs et poser p le prix du produit
fini).

Solution 34 Soit p le prix de l’outpout et px , py ceux des impout. Alors

f (x, y) = p(xy)1/3 − xpx − ypy

Les conditions du second ordre donnent


p −2/3 1/3
x y − px = 0
3
p 1/3 −2/3
x y − py = 0
3
Soit
p3 p3
x∗ = p2x py , y ∗ = px p2y
27 227
La production optimale correspondante est
1/3
p3 p3 p2

∗ ∗ 2
f (x , y ) = . p p
x y =
27p2x py 227 9px py
C’est la fonction d’offre recherchée
p2
S(p, px , py ) =
9px py
24 Dr. Alassane Sy

Exercise 35 On suppose que les variables x, b appartiennent à un espace de Hilbert E


dont le produit scalaire est noté h., .i et la norme par k.k. On se donne deux nombre p et
q plus grand que 1 vérifiant p1 + 1q = 1. Soit

1
f (x) = hx, bi − kxkp
p
1- Montrer que
1
∀b ∈ E : kbkq = sup f (x)
q x∈E
1
t
2- On rappelle que t p−1 = p−2 , résoudre le problème
ktk p−1

max f (x), sous la contrainte {ha, xi ≤ 0}

Solution 36 1- Montrons que


 
1 q 1 p
∀y ∈ E : kyk = sup hx, yi − kxk
q x∈E p
n o
1 p
Soit f (x) = hx, yi − p kxk alors 1- est équivalent à chercher le maximum de f (x), x ∈
E
1
f 0 (x) = y − kxkp−1 = 0 ⇐⇒ y = kx∗ kp−1 =⇒ x∗ = y p−1
est le seul point critique de f . Montrons que x∗ est un maximum.
p−2
f 00 (x) = −(p − 1)kxkp−2 =⇒ f 00 (x∗ ) = −(p − 1)y p−1 ≤ 0, (car p ≥ 1)

=⇒ x∗ est un maximum pour f


 
1 1 1 1 1 p 1 p

f (x ) = hy p−1 , yi − ky p−1 kp = kyk1+ p−1 − kyk p−1 = 1− kyk p−1
p p p
p 1 1 1
or p−1
= p−1 = 1− p1
= q
car ( 1q = 1 − p1 ).
p
d’où  
∗ 1 1 1 p
f (x ) = kyk q = sup hx, yi − kxk
q x∈E p
2- a) Montrons que
1 y
y p−1 = p−2
kyk p−1
b) Le lagrangien du systéme s’écrit
 
1
L(x, λ) = hx, yi − kxkp + λha, xi
p
Optimisation convexe et/ou différentielle 25

Les conditions d’optimalité du premier ordre s’éscrivent :


 ∂L
∂x
= y − kxkp−1 + λa = 0
∂L
∂λ
= ha, xi = 0

λha, xi = 0
- Si la contrainte n’est pas saturée, alors ha, xi < 0 par conséquent λ = 0, d’après 1-, on
a
1 y
x∗ = y p−1 = p−2
kyk p−1
- Si la contrainte est saturée, le systéme donne

1 y − λa D 1
E
kxk = (y − λa) p−1 = p−2 , et λ a, (y − λa) p−1 =0
ky − λak p−1

comme λ 6= 0, on obtient
ha, yi
λ=
kak2
et
y − λa
x∗ = p−2
ky − λak p−1

Solution 37 On se ramène facilement à une optimisation sans contrainte à deux variable


z = a − 2x − y4 ; on étudie les extrema du

y y
g(x, y) = f (x, y, a − 2x − ) = xy 2 (a − 2x − ).
4 4
Les conditionns du premier ordre :

gx = y 2 (a − 4x − y4 ) = 0
 0

gy0 = xy(2a − 4x − 3y4


) = 0

dont les points stationnaires : (0, 4a), ( a8 , 2a), (λ, 0), λ ∈ R


Sur R3+ , f (x, y, z) ≥ 0, donc les points (0, 4a, 0), (λ, 0, a − 2λ) correspondent à des
minimums absolus.
3 3
gx002 = 4y 2 , gxy
00
= y(2a − 8x − y), gy002 = x(2a − 4x − y);
4 2
a
∆(x, y) = gx002 + gy002 − (gxy
00 2
); ∆( , 2a) = 2a4 > 0;
8
comme gx002 < 0, f présente un maximum au point ( a8 , 2a, a4 ).
26 Dr. Alassane Sy

Problème 38 1. Résoudre le problème


" n # 
X x ≥0 i = 1, ..., n
infn xi log(xi ) s/c Pn i
x∈R x
i=1 i ≤ 1
i=1

(on supposera que x log(x) = 0 si x = 0)


2. Application : Résoudre le problème

 inf[x1 log(x1 ) + x2 log(x2 ) + x3 log(x3 )]
x1 , x 2 , x 3 ≥ 0
s/c
2x1 + x2 + x3 ≤ 1

Solution 39 1.
" n
# 
Pnxi ≥ 0 i = 1, ..., n
X
infn xi log(xi ) s/c
x∈R
i=1 i=1 xi ≤ 1

Le lagrangien du système s’écrit


n
X Xn
L(x1 , x2 , ...., xn , λ) = xi log(xi ) − λ( xi − 1)
i=1 i=1

∂L
= log(xi ) + 1 − λ = 0
∂xi
Xn
λ( xi − 1) = 0
i=1

- si lacontrainte n’est pas saturée, alors λ = 0 et log(xi ) + 1 = 0 =⇒ xi = e−1 . Donc on


obtient un seul point extrêmal
A∗ (e−1 , e−1 , ..., e−1 )
avec λ = 0 comme multiplicateur de Lagrange associé.

xi = 1, log(xi ) = λ − 1 =⇒ xi = e−1 eλ
P
- si la contrainte est saturée,
n
X e 1
1= xi = ne−1 eλ =⇒ eλ = =⇒ xi =
i=1
n n

Donc on obtient un seul point extrêmal


1 1 1
B ∗ ( , , ..., )
n n n
avec λ = log ne comme multiplicateur de Lagrange associé.
Optimisation convexe et/ou différentielle 27

2. 
 inf[x1 log(x1 ) + x2 log(x2 ) + x3 log(x3 )]
x1 , x 2 , x 3 ≥ 0
s/c
2x1 + x2 + x3 ≤ 1

Le lagrangien du système s’écrit


L(x1 , x2 , x3 , λ) = x1 log(x1 ) + x2 log(x2 ) + x3 log(x3 ) − λ(2x1 + x2 + x3 − 1)
Les conditiond d’optimalité du premier ordre s’écrivent :
 ∂L
= log(x1 ) + 1 − 2λ = 0
 ∂x 1

∂L

∂x2
= log(x2 ) + 1 − λ = 0
∂L
= log(x3 ) + 1 − λ = 0
 ∂x3


λ(2x1 + x2 + x3 − 1) = 0

- si lacontrainte n’est pas saturée, alors λ = 0 et log(xi ) + 1 = 0 =⇒ xi = e−1 . Donc


on obtient un seul point extrêmal
A∗ (e−1 , e−1 , e−1 )
avec λ = 0 comme multiplicateur de Lagrange associé.

- si la contrainte est saturée, 2x1 + x2 + x3 =√ 1 √


En résolvant le système, on trouve, x1 = 2e 1
− 1+2e2e
1
x2 = x3 = − 2e + 1+2e
2e
Donc on
obtient un seul point extrêmal
√ √ √
1 1 + 2e 1 1 + 2e 1 1 + 2e
B∗( − ,− + ,− + )
2e 2e 2e 2e 2e 2e

1+2e
avec λ = log(− 21 + 2
) comme multiplicateur de Lagrange associé.

Exercise 40 Etant donné un convexe férmé non vide D de (Rn , h., .i), on note pD l’opérateur
de projection su D.
Soit C un convexexe férmé non vide de Rn et f : Rn → R une fonction convexe et
différentiable. Soit x ∈ C; montrer l’équivalence des assertions suivantes :
— (i) x minimise f sur C ;
— (ii) h∇f (x), x − xi ≥ 0, pour tout x ∈ C
— (iii) x = pC (x − t∇f (x), t étant quelconque dans R+ ∗ ;
— (iv) pT (C,x) (−∇f (x) = 0;
— (v) h∇f (x), pT (C,x) (−∇f (x)i ≥ 0.

Exemple 41
x21 x22


 Maximiser [x1 + 2x2 + 2x1 x2 − 2
− 2
]
x1 + x2 ≤ 1


 x1 ≥ 0
x2 ≥ 0

28 Dr. Alassane Sy

x21 x22
L(x1 , x2 , p1 , p2 , p3 ) = −x1 − 2x2 − 2x1 x2 + + + p1 (x1 + x2 − 1) − p2 x1 − p3 x2
2 2

a1 (x1 , x2 ) = x1 + x2 − 1
a1 (x1 , x2 ) = −x1
a2 (x1 , x2 ) = −x2

NB K 6= ∅ −
théorème4
−−−−−−→ tout les points de K sont qualifiés
CNO
∂L

 0 = ∂x1 = x1 − 1 − 2x2 + p1 − p2
∂L
0 = ∂x 2
= x2 − 2 − 2x1 + p1 − p3
pi ai = 0; i = 1, 2, 3, pi ≥ 0


1er cas si x ∈ K
a1 (x) < 0 =⇒ p1 = 0 
x1 − 1 − 2x2
a2 (x) < 0 =⇒ p2 = 0 =⇒ −3x1 = 5 =⇒ x1 < 0 impossible
x2 − 2 − 2x1
a3 (x) < 0 =⇒ p3 = 0
2iéme cas sur ]A, B[
a1 (x) < 0 =⇒ p1 = 0
a2 (x) = 0

x1 − 1 − 2x2 − p2 = 0
x2 − 2 = 0

 a2 = 0 =⇒ x1 = 0
=⇒ x2 = 2
−1 − 4 = p2 < 0 impossible

a3 (x) < 0 =⇒ p3 = 0
3iéme cas sur ]A, C[
a1 (x) = 0
a2 (x) < 0 =⇒ p2 = 0

x1 − 1 − 2x2 − p1 = 0
=⇒ (xb1 , xb2 , p1 ) = (1/3, 2/3, 1)
x2 − 2 − 2x1 + p1 = 0

a3 (x) < 0 =⇒ p3 = 0
4iéme cas sur ]C, B[
a1 (x) < 0 =⇒ p1 = 0 
x1 − 1 = 0
a2 (x) < 0 =⇒ p2 = 0 =⇒ x1 = 1, p3 < 0 impossible
x1 − 1 − 2x2 − p3 = 0
a3 (x) = 0
5iéme Cas en B a1 = a3 = 0 et p1 = −p2 < 0 impossible
6iéme cas en A a1 = a2 = p3 = 0
Optimisation convexe et/ou différentielle 29


 −1 − 2x2 + p1 − p2 = 0
x2 − 2 + p 1 = 0 =⇒ p1 = 1 et p2 < 0 impossible
x2 = 1

7iéme cas en C a1 = a3 = p2 = 0

 x2 + x2 = 1
x2 = 0

=⇒ (x1 , x2 , p1 ) = (1, 0, 0) et p3 < 0 impossible

 p1 = 0
−2 − 2 + p3 = 0

x
b = (b x1 , x
b2 ) = (1/3, 2/3)
f est continue
(P ) a au moins une solution qui vérifie la CNOP car touts les
K est compact
points de K
sont qualifiés. Donc x b est la solution
30 Dr. Alassane Sy

UNIVERSITÉ ALIOUNE DIOP DE BAMBEY


UFR-SATIC - Départements de Mathématiques L-3 MATH

U.E : Optimisation 2 : Durée 2h.


Module : Optimisation et Analyse convexe. Examen I

Exercise 42 Soit
  
3 g(x, y, z) = x2 + y 2 − 2 = 0
K = (x, y, z) ∈ R tel que
h(x, y, z) = x + y + z = 0

Montrer que K est un convexe férmé.

Exercise 43 Soit dans R2 le problème de minimisant suivant :



M in fa (x1 , x2 ) := x21 + ax22 + x1 x2 + x1 ,
Pa (a ∈ R)
x1 + x2 − 1 ≤ 0.

1.) Quand (P)a est-il in problème de minisation convexe ?


2.) Résoudre (Pa ) suivant les valeurs de a.

Problème 44 Soit O un ouvert de Rn et f : O −→ R+ ∗ . On dit que f est logarithmique-


ment convexe (sur O) lorsque la fonction ln f est convexe.
1.) a- Monter que si ϕ : O −→ R est convexe, il en est de même que la fonction exp(ϕ).
b- En déduire qu’une fonction logatithmiquement convexe est nécessairement convexe.
2.) a- On suppose ici que f est deux fois différentiable sur O. Montrer l’équivalence des
assertions suivantes :
i) f est logarithmiquement convexe ;
ii) f (x)∇2 f (x) ≥ ∇f (x)[∇f (x)]> pour tout x ∈ O;
iii) La fonction x 7−→ eha,xi f (x) est convexe pour tout a ∈ Rn .
b- En déduire que si f1 et f2 sont logarithmiquement convexes et deux fois différentiables
sur O, il en de même de leur somme f1 + f2 .

Bonne chance
Optimisation convexe et/ou différentielle 31

Correction de l’examen d’optimisation et Analyse convexe.

Solution 45 Soit C = {(x, y) ∈ R2 tel que g(x, y, z) = x2 + y 2 − 2 = 0}, C est un cercle


donc convexe fermé.
Soit P = {(x, y, z) ∈ R3 tel que h(x, y, z) = x + y + z = 0}, P est un demi espace fermé,
donc convexe fermé.
On en déduit que K = C ∩ P est convexe fermé, comme intersection de convexe fermé.

Solution 46 1. La fonction g : (x1 , x2 ) 7→ g(x1 , x2 ) := x1 + x2 − 1 définissant la seule


contrainte de type égalité dans (Pa ) est convexe et même affine. Pour étudier la convexité
de fa , considérons ∇2 f − a(x1 , x2 ) :
 
2 2 1
∇ fa (x1 , x2 ) = pour tout (x, y) ∈ R2
1 2a

∇2 fa (x1 , x2 ) est semi-définie positive si et seulement si a ≥ 41 .


Donc, le problème (Pa ) n’est un problème d’minisation convexe qur lorsque a ≥ 41 .
2.
– si a < 0, sachant que (0, x2 ) ∈ C = {(x, y) ∈ R2 | x1 + x2 − 1 ≤ 0} avec x2 < 0,
arbitraire, fa n’est pas bornée inférieurement sur C.
– si a = 0, sachant qu’il y a dans C des éléments ( 21 , x2 ) avec x2 → −∞, fa n’est pas
bornée inférieurement.
On n’étudiera donc (Pa ) que pour a > 0.
1 cas : a ≥ 14 .
er

Ici x = (x1 , x2 ) ∈ C est solution de (Pa ) si et seulement si :



∇f (x) + λ∇g(x) = 0
∃ λ ≥ 0 tel que
λg(x) = 0,
Soit encore : 
  x1 + x2 − 1< 0; 
2x1 + x2 + 1 0 (1.1)
=
x1 + 2ax2 0


  x1 + x2 −1 =0; 
2x1 + x2 + 1 + λ 0 (1.2)
= ; λ≥0
x1 + 2ax2 + λ 0

L’éventualité (1) ne se produit que lorsque a > 13 ; auquel cas x = − 4a−1


2 1

, 4a−1
L’éventualité (2) ne se produit que lorsque 41 ≤ a ≤ 13 ; auquel cas
x = 1 − a1 , a1 et λ = 1−3a

a
.
e 1
2 cas : 0 < a < 4 . Il y a deux points de C vérifiant les condition nécessaires de
minimalité du 1er ordre, à savoir
 
1 1
x1 = 1 − , sur la frontière de C
a a
32 Dr. Alassane Sy

 
2a 1
x2 = ,− à l’intérieur de C
1 − 4a 1 − 4a
Quid des conditions nécessaires de minimalité du 2e ordre ?
– En x1 , le sous espace à considérer est H = {(d1 , d2 ) ∈ R2 | : h∇g(x1 ), di = 0},
soit H = {(d1 , d2 ) ∈ R2 | : d2 = −d1 } Alors :

∀ d = (d1 , d2 ) ∈ H h∇2xx L(x1 , µ)d, di = h∇2 fa (x1 , µ)d, di = 2ad21 .

D’où ∇2 fa (x1 , µ)d, di > 0 pour tout d 6= 0 dans H : Le point x1 est donc un
minimum local strict de fa sur C.
– En x2 , le sous espace à considérer est HR2 , et on a déjà vu que ∇2 fa (x2 ) n’était
pas semi défini positive. Donc x2 ne saurait être un minimum local de fa sur C.
Reste à savoir si x1 est un minimum global de fa sur C.
En fait, fa est une fonction quadratique dont la valeur en x = (x1 , x2 ) peut être
décomposée comme suit :
x2 2 1
fa (x1 , x2 ) = (x1 + ) + (a − )x22 + x1
2 4
Quand x1 −→ −∞, (x1 , −2x1 ) reste dans C et fa (x1 , −2x1 ) = 4(a − 14 )x21 + x1
tend vers −∞. Donc fa n’est pas bornée inférieurement sur C.

En résumé :
a solution valeur optimale
a < 41 ∅ −∞
1 1 1 1 2a−1
4
≤a≤ 3
(1 − a , a ) a
1 2a 1 a
3
<a ( 1−4a , − 1−4a ) 1−4a

Solution 47 1) a- La fonction ϕ : x ∈ O 7→ ϕ(x) est convexe par hypothèse ; la fonction


y ∈ R 7→ exp(y) est crossante et convexe. Par suite la composée qui à x ∈ O associe
exp(ϕ(x)) est convexe ; en effet :

∀ α ∈]0, 1[, ∀ x0 ∈ O, ϕ(αx + (1 − αx0 ) ≤ αϕ(x) + (1 − α)ϕ(x0 ),

doù :

(exp ϕ)(αx + (1 − α)x0 ) ≤ exp(αϕ(x) + (1 − α)ϕ(x0 )) ≤ α exp ϕ(x) + (1 − α) exp ϕ(x0 )

b- Appliquons le résultat précédent à ϕ := ln ; il vient que f = exp(ln f ) est convexe.


2) a- [(i) ⇐⇒ (ii)]. On sait que la fonction (deux fois différentiable) ϕ := ln f est
convexe si et seulement si :

∇2 ϕ(x) est semi-définie positive pour tout x ∈ O

Mais
f (x)∇2 f (x) − ∇f (x)[∇f (x)]T
∇2 ϕ(x) = pour tout x ∈ O;
f 2 (x)
Optimisation convexe et/ou différentielle 33

l’équivalence annoncé s’ensuit.


[(i) ⇐⇒ (ii)]. Soit ga : x ∈ O 7→ ga (x) = eha,xi f (x). La fonction ga est deux fois
différentiable sur O avec

∇2 ga (x) = eha,xi {f (x)aaT + ∇f (x)aT + a[∇f (x)]T + ∇2 f (x)} pour tout x ∈ O.

Par conséquent, ce qui exprime (iii) est exactement :

f (x)(ha, hi)2 +2h∇f (x), hiha, hi+h∇2 f (x)h, hi ≥ 0 pour tout x ∈ O tout a ∈ Rn et tout h ∈ Rn .

Soit encore

f (x)u2 + 2h∇f (x), hiu + h∇2 f (x)h, hi ≥ 0 pour tout x ∈ O tout a ∈ Rn et tout h ∈ Rn .

Le trinôme de second degré mis en évidence ci-dessus est positif si et seulement si sur R
son discriminant est négatif ; cela se traduit par

(h∇f (x), hi)2 − f (x)h∇2 f (x)h, hi ≤ 0.

b- Si f1 et f2 sont logarithmiquement convexes, toutes les fonctions x 7→ eha,xi f1 (x) et


x 7→ eha,xi f2 (x) sont convexes d’après [(i) → (ii)] dans la question précédente ; par suite,
toute les fonctions x 7→ eha,xi (f1 + f2 )(x) sont convexes, et donc f1 + f2 est logarithmique-
ment convexes d’après [(iii) → (i)] dans la question précédente.
34 Dr. Alassane Sy

UNIVERSITÉ ALIOUNE DIOP DE BAMBEY


UFR-SATIC, Département de Mathématiques
L-III MATHEMATISUES & SID
Semestre 5 : Session 1.
OPTIMISATION : Analyse convexe et optimisation. Durée : 3h

Exercise 48 (Commun MATH&SID) On considère dans R2 le problème de minimi-


sation suivant : 
min f (x1 , x2 ) = x31 + x22
(P)
g(x1 , x2 ) = x21 + x22 − 9 ≤ 0.
1) Déterminer les points vérifiants les conditions nécessaires de minimalité du 1er ordre.
2) En déduire les solutions de P.

Exercise 49 (SID uniquement) 1. On considère n points fixés (xi , yi ), i = 1, · · · , n,


dans R2 .
Déterminer le point où la fonction R définie par
n
X
(xi − x)2 + (yi − y)2
 
R(x, y) =
i=1

atteint son minimum.

a, bb) de R2 où la fonction S : R2 −→ R2 définie par


2. Déterminer le point (b
n
X
S(a, b) = (axi + b − yi )2
i=1

atteint son minimum. Quelle interpretation pouvez-vous faire de ce résultat ?

Exercise 50 (Math uniquement) On considére la fonction f définie sur (R∗+ )3 par :

f (x, y, z) = x log x + y log y + z log z.

Les variables x, y et z étant liées par

g(x, y, z) = x + y + z = a2 , a ∈ R∗

1. Ecrire le Lagrangien du système. En déduire le seul point candidat à l’optimalité.


2. Dans toute la suite, ce point sera notée A et a pour coordonnées A(x, y, z)
Soit M de coordonnées M (x + h, y + k, z + l).
Nous voulons étudier le signe de f (M ) − f (A).
i) Ecrire f (M ) − f (A).
Optimisation convexe et/ou différentielle 35

ii) En effectuant le développement limité à l’ordre 2 de log (x + h) , pour h appartenant


au voisinage de 0, montrer que
1
f (M ) − f (A) = (k + l + h)(log x + 1) + (k 2 + l2 + h2 ) + h2 ε1 (h) + k 2 ε2 (k) + l2 ε3 (l)
2x

1
iii) En déduire que f (M ) − f (A) ≈ (k 2 + l2 + h2 ) 2x ≥ 0 et donc A est un minimum de f .
iv) Calculer f (A).
3. Ecrire la matrice hessinne du Lagrangien et retrouver le résultat de 2.
4. A partir de la contrainte, ramener le problème en un probléme d’optimisation de deux
variables et retrouver le résultat de 2.

Bonne chance.
36 Dr. Alassane Sy

UNIVERSITÉ ALIOUNE DIOP DE BAMBEY


UFR-SATIC, Département de Mathématiques
L-III MATHEMATIQUES & SID
Semestre 5 : Session 2.

ANALYSE CONVEXE ET OPTIMISATION : Durée : 2h

Exercise 51 Dans R2 , on considère le problème de minimisation suivant :



M in : f (x1 , x2 ) = (x1 − 1)2 + x22
(Pα )
s/c : h(x1 , x2 ) = −x1 + αx22 = 0

1) Montrer que x = (0, 0) vérifie les conditions nécessaires d’optimalité du premier ordre.
2) À l’aide des conditions nécessaires de minimalité du deuxiè ordre, discuter en fonction
de α quand x est minimum local et quand il ne l’est pas.

Exercise 52 Dans R2 , on considère le problème d’optimisation suivant :

f (x, y) = x1 + y1

(Pa )
s/c : h(x, y) = x12 + y12 = a12 , a ∈ R∗

1) Déyerminer et préciser la nature des extrema éventuels de (Pa ) en étudiant directement


les conditions nécessaires d’optimalité du premier et du second ordres.
2) Retrouver le résultat du 1) en effectuant le changement de variables x1 = a1 cos(t) et
1
y
= a1 sin(t); t ∈ [0, 2π[.

Bonne chance.
Optimisation convexe et/ou différentielle 37

UNIVERSITÉ ALIOUNE DIOP DE BAMBEY


UFR-SATIC - Départements de Mathématiques L-3 MATH
Examen d’optimisation et d’analyse convexe durée : 2 heures

Exercise 53 On considère la fonction définie sur R2 par :

f (x, y) = x4 + y 4 − 2(x − y)2 .

1. Montrer qu’il existe (α, β) ∈ R2+ (et les déterminer) tels que :

f (x, y) ≥ αk(x, y)k2 + β

pour tous (x, y) ∈ R2 , où la notation k.k désigne la norme euclidienne de R2 . En déduire
que le problème
inf 2 f (x, y), (P)
(x,y)∈R

possède au moins une solution.


2. La fonction f est-elle convexe sur R2 ?
3. Déterminer les points critiques de f , et préciser leur nature (minimum local, maximum
local, point selle, ...). Résoudre alors le problème (P).

Exercise 54 Dans tout l’exercice Sn+ (R) désigne l’ensemble des matrices symétriques
définie positive d’ordre n sur R.
Soit A ∈ Sn+ (R). On considère la fonction f : Rn \ {0Rn } → R définie par :
hAx, xi
f (x) = .
kxk2
où h., .i est le produit scalaire enclidien de Rn et k.k la norme induite.
1. Montrer que f est C ∞ sur son ensemble de définition.
2. Montrer que les problèmes d’optimisation

inf f (x) et sup f (x)


x∈Rn \{0Rn } x∈Rn \{0Rn }

posséde une solution.


3. Déterminer l’ensemble des points critiques de la fonction f
4. Résoudre les deux problèmes ci-dessus.
5. Démontrer que la matrice hessienne de f en un point critique x∗ ∈ Rn \ {0Rn } est
2
Hf (x∗ ) = (A − f (x∗ )In ),
kx∗ k2
où In désigne la matrice unité de taille n.
6. En déduire que tous les points qui ne sont pas solution d’un des problèmes ci-dessus
sont des points-selles.
38 Dr. Alassane Sy

UNIVERSITÉ ALIOUNE DIOP DE BAMBEY


UFR-SATIC - Départements de Mathématiques
L-3 SID
Examen d’optimisation et d’analyse convexe Durèe : 2 heures

Exercise 55 Soit a ∈ R. On éfinie fa : (x, y) 7→ x2 + y 2 + axy − 2x − 2x.


1. Pour quelles valeurs de a, la fonction fa est-elle convexe ? Et strictement convexe ?
2. Discuter en fonction des valeurs du paramétre a de l’existence de solutions au problème
d’optimisation inf{f (xa (x, y), (x, y) ∈ R2 }.
3. Résoudre le problème précédent lorsque a ∈] − 2, 2[.

Exercise 56 Une entreprise fabrique deux modèles de petits voitures, les modèles X et
Y . Le modèle X est plus abordable, se vend 1F pièce. Quant au modèle Y , il se vend à
3F. Le coût de fabrication, exprimé en F est donné par la fonction suivante :

C(x, y) = 5x2 + 5y 2 − 2xy − 2x − 1000

où x est le nombre de petites voitures du modèle X et y est le nombre de petites voitures
du modèle Y . On suppose que les jouets sont tous écoulés sur le marché.
Dans toute la suite de l’exercice, on notera C+ = (R∗+ )2 .
1. Soit (x, y) ∈ C+ . Déterminer le profil P (x, y) réalisé par l’entreprise lorsqu’elle a vendu
x jouets du modèle X et y jouets du modèle Y .
2. Etudier la convexité de la fonction P sur C+ .
3. La capacit totale de production de l’entreprise est de 20 jouets par jours. En supposant
que l’entreprise tourne en plein régime, trouver la partition optimale entre les modèles de
types X et Y permettant de maximiser le profil quotidient. Calculer dans ce cas le profil
réalisé.
4. Le conseil d’administration de l’entreprise décide, s’intérroge sur la pertinence de vou-
loir produire à pleine capacité. Il se demande s’il ne peut pas augmenter le profil en
produisant autrement. Pouver-vous aider le conseil d’administration ?
Optimisation convexe et/ou différentielle 39

UNIVERSITÉ ALIOUNE DIOP DE BAMBEY


UFR-SATIC - Départements de Mathématiques L-3 MATH

U.E : Optimisation 2 : Durée 2h.


Extrait de l’exament d’optimisation et Analyse convexe.

Exercise 57 Soient a et b deux éléments fixés dans Rn et α ∈ R.


On considère le problème suivant :

inf fi (x, y); i = 1, 2


(x,y)∈K

où
f1 (x, y) = hx, xi + hy, yi + hx, yi − 2ha, xi − 2hb, yi;
et
f2 (x, y) = hx, xi + hy, yi − 2ha, xi − 2hb, yi;
et
K = {(x, y) ∈ Rn × Rn / ha, xi + hb, yi ≤ α}
et h., .i désigne le produit scalaire sur Rn .
1. Montrer que le problème est convexe.
2. Résoudre le problème.

Solution 58 1.) Pour tout i = 1; 2, la matrice hessienne de fi est une forme quadra-
tique définie positive donc fi est strictement convexe. De plus K est un demi-espace donc
convexe. Ce que fait que le problème est un problème d’optimisation convexe.
fi étant strictement convexe donc le problèle admet une solution unique. c’est-à -dire que
chaque minimum local est un minimum global.
2.) Le lagrangien du problème correcpondant à f1 s’écrit :

L1 (x, y, λ) = hx, xi + hy, yi + hx, yi − 2ha, xi − 2hb, yi + λ(ha, xi + hb, yi − α)

= kxk2 + kyk2 + hx, yi − 2ha, xi − 2hb, yi + λ(ha, xi + hb, yi − α).


Les conditions d’optimalité du premier ordre s’écrivent :

∂L(x,y,λ)

 ∂x
= 2x + y − 2a + λa;
∂L(x,y,λ)
∂y
= 2y + x − 2b + λb;

 λ(ha, xi + hb, yi − α) = 0; λ ≥ 0.

1.i : La contrainte est non saturée : =⇒ λ = 0 ; ha, xi + hb, yi < α


On trouve  ∗ 4b−2a
x = 3 ;
y ∗ = 4a−2b
3
;
40 Dr. Alassane Sy

Vérifions la condition de saturation :


4b − 2a 4a − 2b 4
ha, i + hb, i = (−kak2 − kbk2 + ha, bi) > α
3 3 3
Donc si
4
α < (ha, bi − kak2 − kbk2 )
3
alors on a  ∗ 4b−2a
 x = 3 ;
y ∗ = 4a−2b
3
;
λ∗ = 0

est le minimum global du problème d’optimisation.


[Link] : la contrainte est saturée : ha, xi + hb, yi = α, λ ∈ Rn∗

x = 13 [2b − 4a + λ(2a − b)];


 
2x + y − 2a + λa = 0;
⇐⇒
2y + x + 2b + λb = 0. y = 13 [2a − 4b + λ(2b − a)].

1 1
ha, xi + hb, yi = ha, [2b − 4a + λ(2a − b)]i + hb, [2a − 4b + λ(2b − a)]i
3 3
1
= [4(ha, bi − kak2 − kbk2 ) + 2λ(kak2 + kbk2 − ha, bi)] = α.
3
Soit
3α − 4(ha, bi − kak2 − kbk2 ) 3α
λ∗ = 2 2
= +2≥0
2(kak + kbk − ha, bi) 2(kak + kbk2 − ha, bi)
2

Ce qui correspond à
4
α ≥ (−kak2 − kbk2 + ha, bi)
3
et (
x∗ = 13 [2b − 4a + (2a − b) 2(kak2 +kbk

2 −ha,bi) + 2];
∗ 1 3α
y = 3 [2a − 4b + (2b − a) 2(kak2 +kbk2 −ha,bi) + 2].
qui est le minimum global.

2.
f2 (x, y) = kxk2 + kyk2 − 2ha, xi − 2hb, yi.
Le lagrangien du système s’écrit :

L2 (x, y, λ) = kxk2 + kyk2 − 2ha, xi − 2hb, yi + λ(ha, xi + hb, yi − α)

Les conditions d’optimalité du premier ordre s’écrivent :



∂L(x,y,λ)

 ∂x
= 2x − 2a + λa;
∂L(x,y,λ)
∂y
= 2y − 2b + λb;

 λ(ha, xi + hb, yi − α) = 0; λ ≥ 0.
Optimisation convexe et/ou différentielle 41

2.i : La contrainte est non saturée : =⇒ λ = 0 ; ha, xi + hb, yi < α


On trouve  ∗
x = a;
y ∗ = b;
La contrainte non saturée donne ha, xi + hb, yi < α soit : kak2 + kbk2 < α.
[Link] : la contrainte est saturée : ha, xi + hb, yi = α, λ ∈ Rn∗

ha, xi − kak2 + λ2 kak2 = 0;


 
2x − 2a + λa = 0;
⇐⇒
2y + 2b + λb = 0. hb, yi − kbk2 + λ2 kbk2 = 0;

En sommant les deux équation et en utilisant ha, xi + hb, yi = α, on obtient :

λ 2α
α = −kak2 − kbk2 + (kak2 + kbk2 ) =⇒ λ = −2≥0
2 kak + kbk2
2

Donc si α ≥ kak2 + kbk2 alors :


(
x∗ = kak−αa
2 +kbk2 ;

y = kak−αb

2 +kbk2
Chapitre 2

Exercices corrigés pour le Master

Exercise 59 Soit l(x, y) ∈ Rn × Rm 7→ l(x, y) une fonction différentiable sur Rn × Rm ,


X ⊂ Rn et Y ⊂ Rm deux convexes férmes non vides.
1) Montrer l’équivalence des deux assertions suivantes :
— (i) lest convexe-concave sur X × Y.
h∇x l(x1 , y1 ) − ∇x l(x2 , y2 ), x1 − x2 i ≥ h∇y l(x1 , y1 ) − ∇y l(x2 , y2 ), y1 − y2 i
— (ii)
pour tout (x1 , y1 ) et (x2 , y2 ) dans Rn × Rm
Application : Soit P ∈ Sn (R), Q ∈ Sm (R) et R ∈ Mn,m (R).
Donner une condition suffisante portant sur P et Q assurant que la fonction
l : (x, y) 7→ l(x, y) = 12 hP x, xi + 12 hQy, yi + 12 hRx, yi est convexe-concave sur Rn × Rm .

2) On suppose que l est convexe-concave sur X × Y. Montrer l’équivalence des asser-


tions suivantes concernant (x, y) ∈ X × Y :

 y) est un point-selle de l sur X × Y.


— (j) (x,
 h∇x l(x, y), x − xi ≥ 0 pour tout x ∈ X
— (jj) et
h∇y (x, y), y − yi ≤ 0 pour tout y ∈ Y

— (jjj) h∇x l(x, y), x − xi − h∇y (x, y), y − yi ≥ 0 pour tout (x, y) ∈ X × Y
Solution 60 1) - (i) =⇒ (ii). Soient (x1 , y1 ) et (x2 , y2 ) dans X × Y. Puisque l(., y2 ) est
convexe sur X et l(x1 , .) est concave sur Y , on a :
l(x1 , y2 ) − l(x2 , y2 ) ≥ h∇x l(x2 , y2 ), x1 − x2 i
et
l(x1 , y2 ) − l(x1 , y1 ) ≤ h∇y l(x1 , y1 ), y2 − y1 i
Il s’en suit que
(∗) l(x1 , y1 ) − l(x2 , y2 ) ≥ h∇x l(x2 , y2 ), x1 − x2 i + h∇y l(x1 , y1 ), y1 − y2 i
Comme l(., y1 ) est convexe sur X et l(x2 , .) est concave sur Y , on a de la même manière :
(∗∗) l(x2 , y2 ) − l(x1 , y1 ) ≥ h∇x l(x1 , y1 ), x2 − x1 i + h∇y l(x2 , y2 ), y2 − y1 i
L’addition membre à membre de (*) et (**) conduit à
0 ≥ h∇x l(x2 , y2 ) − ∇x l(x1 , y1 ), x1 − x2 i + h∇y l(x1 , y1 ) − ∇y l(x2 , y2 ), y1 − y2 i

42
Optimisation convexe et/ou différentielle 43

ce qui conduit à (ii)


(ii) =⇒ (i). Soit y ∈ Y . Faisons y1 = y2 = y dans (ii) ; il vient
h∇x l(x1 , y) − ∇x l(x2 , y), x1 − x2 i ≥ 0 pour tout x1 et x2 dans X.
Ce qui implique (en fait caractérise) la convexité de la fonction l(., y) sur X.
Parallélement, soit x ∈ X. En faisant x1 = x2 = x dans (ii), il vient
0 ≥ h∇y l(x, y1 ) − ∇y l(x, y2 ), y1 − y2 i pour tout y1 et y2 dans Y .
Ce qui implique la concavité de la fonction l(x, .) sur Y .
Dans l’exemple proposé dans l’application, en tout point (xi , yi ) ∈ Rn × Rm ,

∇x l(xi , yi ) = P xi + RT yi et ∇y l(xi , yi ) = Qyi + Rxi


La condition (ii) de convexe-concavité de l sur Rn × Rm se traduit par

hP (x1 − x2 ), x1 − x2 i − hQ(y1 − y2 ), y1 − y2 i ≥ 0
pour tout (x1 , y1 ) et (x2 , y2 ) dans Rn × Rm
Ce qui est certainement vrai lorsque P est semi-définie positive et Q semi-définie négative.
2) (j) ⇐⇒ (jj). (x, y) ∈ X × Y est un point selle de l sur X × Y signifie que
x est un minimum de la fonction convexe différentiable l(., y)
et
y est un maximum de la fonction concave différentiable l(x, .).
Ce qu’expriment les inégalité de (jj) ne sont que des conditions nécessaires et suffisantes
d’optimalité correspondantes.
(jj) ⇐⇒ (jjj) est imédiat.
TD Optimisation Numérique et Algorithmes : Série 02

Exercise 61 On note h., .i le produit scaliare usuel de Rn et k.k la norme euclidienne


associée. Soient a ∈ Rn et A ∈ Sn (R) définie positive. On définit :
X = {x ∈ Rn | hA(x − a), x − ai ≤ 1};
Y = {y ∈ Rn | kyk ≤ 1};
l : (x, y) ∈ Rn × Rn 7−→ l(x, y) = hx, yi.
1) a) Indiquer rapidement pourquoi l a des points selles sur X × Y.
b) Soit (x, y) un point selle de l sur X × Y
— Montrer qe x est la projection de l’origine sur X ;
— Quelle est la valeur selle de l sur X × Y ?
— En déduire y.
2) Etant donné y ∈ Y, on considère le problème de minimisation suivant

M inimiser l(x, y)
(Py )
x∈X
Résoudre complétement (Py ).
On suppose que 0 ∈ / X. Déduire de ce qui précéde
44 Dr. Alassane Sy

— h p i
−1
min kxk = max ha, yi − hA y, yi
x∈X kyk≤1

x
— le maximum de l’expression de droite ci-dessus est atteint en y = kxk
, où x dédigne
la projection orthogonale de 0 sur X.

Exercise 62 Etant donné s ∈ Rn \{0} et c ∈ Rn , on considère le problème de minimisa-


tion suivant
 
1 2
(P) M inimiser kxk − hc, xi ; sous la contrainte hs, xi ≤ 0.
2

1) Déterminer la fonction duale µ ∈ R+ 7−→ ψ(µ) associée au lagrangien

1
L(x, µ) 7−→ L(x, µ) = kxk2 − hc, xi + µhs, xi
2

2) Résoudre le problème dual (D) associé à (P), c’est-à-dire celui de la maximisation de


ψ sur R+ . (On sera amener à consiérer plusieurs cas suivant le signe de hc, si.
3) Utiliser le résultat précédent pour résoudre effectivement (P).

Exercise 63 1) Considérons le problème de minimisation (de base) suivant :



min f (x);
(P)
h1 (x) = 0, ..., hm (x) = 0.
Pm
Pour tout r > 0, on pose fr = f + 2r i=1 h2i et on considère la version modifiée (Pr ) de
(P) ci-dessous

min fr (x);
(Pr )
h1 (x) = 0, ..., hm (x) = 0.
a) Vérifier que les problèmes (P) et (Pr ) sont équivalents.
b) Soit
m
X
× m
Lr : (x, λ) ∈ R R 7−→ Lr (x, λ) = fr (x) + λi hi (x)
i=1

m m
rX X
= f x) + [hi (x)]2 + λi hi (x)
2 i=1 i=1

le lagrangien usuel pour le problème (Pr ). On l’appelle lagrangien augmenté du problème


(P).
— Comparer Lr et le lagrangien usuel L du problème (P).
— Ecrire le problème dual (Dr ) dit augmenté dérivé de Lr .
Optimisation convexe et/ou différentielle 45

2) On désire écrire un lagrangien augmenté pour le problème de minimisation avec des


contraintes dy type inégalité ci-dessous

min f (x)
(Q)
g1 (x) ≤ 0, ..., gp (x) ≤ 0.

b suivant, prolongement de (Q) dans Rn × Rp :


Pour ce faire, on considère le problème (Q)

min f (x)
(Q)
b 2
gj (x) + yj (x) = 0, j = 1...p.

Soit Lbr : ((x, y), λ) ∈ (Rn × Rp ) × Rp 7−→ Lbr ((x, y), λ) le lagrangien augmenté associé à
(Qbr ) suivant la définition précédente. Comme l’expression de la fonction duale dérivée de
Lbr conduit à calculer

λ ∈ Rp 7−→ inf Lbr (x, y, λ) = infn [ infp Lbr (x, y, λ)]


(x,y)∈Rn ×Rp x∈R y∈R

On se propose de définir directement un lagrangien augmenté associé à (Q) en posant

Lr (x, λ) ∈ Rn × Rp 7−→ Lr (x, λ) = infp Lbr (x, y, λ)


y∈R

a) Démonter que
p
X
Lr (x, λ) = f (x) + ϕr (λj , gj (x))
j=1
1
o‘u ϕr : (α, t) ∈ R × R 7−→ ϕr (α, t) = 2r
{[max{0, α+ rt}]2 − α2 }.
b) - Déduire du comportement de ϕr (α, t), lorsque r −→ 0+ , ce que devient Lr (x, λ) quand
r −→ 0+
- Donner quelques premiers éléments de comparaison ente la fonction duale Θr de Lr et
la fonction duale usuelle Θ.
- Quelles propriétés de Lr peut-on déduire des hypothèses de type convexité ou différentiabilité
des données du problème (Q).

TD Optimisation Numériques et Algorithmes : Série 03

Exercise 64 Soit θ ∈ Γ0 (R) paire et f ∈ Γ0 (Rn ) définie par f (x) = θ(kxk).


a) Exprimer f ∗ en fonction de θ∗ .
b) En déduire l’expression suivante de ∂f (x).

∂f (x) = {s ∈ Rn | ksk ∈ ∂θ(kxk) et hx, si = [Link]}.

Exercise 65 Soit A ∈ Sn (R) définie positive. Montrer à l’aide d’un calcul simple de
conjuguée de fonction convexe, l’égalité suivante

A + A−1 ≥ 2In
46 Dr. Alassane Sy

Exercise 66 On se propose de trouver une primitive de la fonction s 7−→ Argshs (notée


aussi (sh)−1 (s)) par l’intermédiare de la transformation de Legendre-Fenchel.
1) Soit f : x ∈ R 7−→ f (x) = ch(x). Déterminer f ∗ .
2) Indiquer pourquoi f ∗ est une primitive de la fonction Argsh.

Exercise 67 Soit f ∈ Γ0 (R) définie de la façon suivante :


 2
x ln x + x2 − x six ≥ 0 (avec 0 ln 0 = 0)
f (x) =
+∞ si x < 0.

Ici f ∗ ne peut être exprimée analytiquement à l’aide de fonctions usuelles.


Considérons la fonction : R+ −→ R+ , dite de Lambert, définie comme l’inverse de la
fonction x 7−→ xex (c’est-à-dire : pour tout u ≥ 0, x = l(u) est solution de xex = u).
Exprimer f ∗ à l’aide de l et des fonctions usuelles.

Exercise 68 Soient f et g dans Γ0 (R) telles que f + g soit une fonction affine sur Rn .
Monter que f g sont nécessairement affines sur Rn .
Indication : Calculer (f + g)∗ .

Exercise 69 Soit f Rn −→ R telle que ∂f (x) 6= ∅ pour tout x ∈ Rn .


Montrer qu’une tlle fonction est nécessairement convexe sur Rn

Problème 70 Soit f ∈ Γ0 (Rn ). Soit θ ∈ Γ0 (Rn ) vérifiant les hypothèses suivantes :


θ(x)
θ est finie en 0; lim = +∞ (2.1)
kxk−→0 kxk

On se propose dans cet exercice de donner les formes explicites des solutions d’équations
aux dérivées partielles (dites de Halilton-Jacobi) suivantes :

+ θ∗ (∇x F ) = 0 sur Rn ×]0, +∞[


 ∂F
∂t
F (x, 0) = f (x) pour tout x ∈ Rn .

(Dans cette écriture, ∂F/∂t et ∇x désignent respectivement la dérivée partielle par rap-
port à t et le vecteur gradient par rapport à x = (x1 , ..., xn ) de la fonction F ; (x, t) ∈
Rn ×]0, +∞[7−→ F (x, t) ∈ R.)
1. Préliminaires : a) Soit
 ∗
n f (y) si θ∗ (y) ≤ s
H : (y, s) ∈ R × R 7−→ H(y, s) =
+∞ sinon .

Vérifier que H ∈ Γ0 (R) et déterminer sa conjuguée H ∗ .


b) Posons

 inf u∈Rn {f (u) + tθ x−u

t
} si t > 0
F : (x, t) ∈ Rn × R 7−→ F (x, t) = f (x) si t = 0
+∞ sit < 0.

Optimisation convexe et/ou différentielle 47

Vérifier que pour tout x ∈ Rn ,

F (x, t) −→ f (x) quand t −→ 0+ .

2) Outre les hypothèses de (2.1), on suppose que ;


θ est différentiable en tout point où elle admet des sous-gradients.
Montrer qu’alors F est différentiable en tout point (x, t) de int(domF )(⊂ Rn ×]0, +∞[)
et y vérifie
∂F
(x, t) + θ∗ (∇x F (x, t)) = 0.
∂t
3) Donner des formes explicites de solutions d’équations d’Hamilton-Jacobi suivantes :
∂F
+ 12 k∇x F k2 = 0

∂t
limt−→0+ F (., t) = F (., 0) = f.
 ∂F
p
∂t
+ 1 + k∇x F k2 = 0
limt−→0+ F (., t) = F (., 0) = f.
(Dans ces équations, k.k désigne la norme euclidienne usuelle de Rn ).

Solution 71 a)X et Y sont des convexes compacts non vides de Rn ,la fonction l est
convexe-concave sur Rn × Rn ,par consquent il ya bien des points selles de l sur X × Y .
b)soit (x, y) un point selle de l sur X × Y ,alors
(*) l(x, y) = min[max l(x, y)] = max[min l(x, y)]
x∈X y∈Y y∈Y x∈X
(**) x minimise la fonction φ(x) = max l(x, y) sur X et y maximise la fonction ψ(y) =
y∈Y
min sur Y.
x∈X
Ici φ(x) = max < x, y > ; n’est rien d’autre que norme de kxk c’est--dire x = kxk est la
kyk≤1
projection de l’origine sur X. La valeur selle de la X × Y est kxk, c’est--dire la distance
x
de l’origine X. Par suite < x, y >= kxk, ce qui conduit y = kxk si kxk =6 0 c’est--dire
lorsque 0 ∈/ X et y élément quelconque de Y lorsque 0 ∈ X
2) lénsemble des contraintes de la minimisation (Py ) est dcrite sous la forme g(x) ≤ 0 óu
g : x 7−→< A(x − a), x − a >−1 est convexe différentiable et ∃ x0 / g(x0 < 0)
La fonction objective dans (Py ) est lin’ere,ce qui fait que lorsque y 6= 0,les solutions xy de
(Py ) sont sur ∂X


Y = x ∈ Rn /kyk2 ≤ 1L(x, y) =< x, y > +λ(kyk2 − 1) (2.2)

∂L x

 ∂y
= x + 2λ = 0 , y = − 2λ (λ 6= 0)
(2.3)
2
λ(kyk − 1) = 0

Cas1 7−→ contrainte non saturé alors λ = 0 (x=0 impossible contrainte saturé)
kyk = 1 =⇒ x = −2λy
48 Dr. Alassane Sy

kxk = 2λkyk =⇒ kxk = 2λ ⇐⇒ λ = kxk 2


x x
y = − 2λ = − kxk
x
φ(x) = − kxk
l(x, y) =< x y >= <x;x>
kxk
= kxk
Si y 6= 0,une solution xy de (Py ) est caracterise par :

 A(xy − a = 1)

∃µ > 0; y + 2µA(xy − a) = 0

−1
(2)=⇒ xy − a = − A2µ y
−1 A−1 y
xy dans (1) =⇒ µ = a − √ A y =⇒ xy = a − √
<A−1 y,y> <A−1 y,y>
Si y = 0 tout x ∈ X est solution de (P0 )
3) En injectant xy dans ψ(y) on obtient :
ψ(y) = min l(x, y) =< xy , y >
x∈X p
ψ(y) =< a, y > − < A−1 y, y > ce qui donne le resultat.
Les y ∈ Y maximisant ψ sur Y sont exactement les y tels que x, y est un point selle de
sur X × Y
x
Donc y = kxk

A−1 kxk
x
A−1 x
x=a− q =a− p
x
< A−1 kxk x
, kxk> < A−1 x, x >

Solution 72 1) par définition ψ(µ) = infn L(x, µ), L(·, µ) est une fonction quadratique
x∈R
strictement convexe sur Rn . Son minimum est solution de ∇x L(x, µ) = 0
soit
x − c + µs = 0 ⇐⇒ x(µ) = c − µ

Donc ψ(µ) = 12 kc − µsk2 − < c, µs > +µ < s, c − µs >= − 12 kc − µsk2

2) ψ est une fonction concave que l’on doit maximiser (problème dual).
ψ est un polynôme de degré 2 en µ et on a :

ψ 0 (µ) =< c − µs, s >=< c, s > −µksk2

On distingue 2 cas :
<c,s>
• < c, s >> 0, au quel cas la solution de (D) est µ = ksk2

1 (< c, s >)2 1
ψ(µ) = − kc − µsk2 = − kck2
2 2ksk2 2

• < c, s >< 0 au quel cas le supremum est atteint pour µ = 0 =⇒ ψ(µ) = 21 kck2
3) Le problème P admet une seule solution x, la minimisation de la fonction strictement
Optimisation convexe et/ou différentielle 49

convexe L(·, µ) sur Rn donne automatiquement la solution x chercher


• < c, s >< 0, L(x, µ) = 21 kxk2 − < c, s > et le minimum de L(x, µ) est atteint

1
x = x =⇒ L(x, µ) = f (x) = ψ(µ) = − kck2
2
• < c, s >> 0 alors L(x, µ) = 21 kxk2 − < c, x > + <c,s>
ksk2
< s, x > la fonction L(·, µ) est
minimisé par
< c, s >
x=c− s = c − µs.
ksk2
(< c, s >)2 1
f (x) = L(x, µ) = ψ(µ) = − kck2
2ksk2 2

Solution 73 f ∗ (s) = sup {< s, x > −f (x)} = sup {< s, x > −θ(kxk)}
x∈Rn x∈Rn

θ (ksk) = sup {< s, x > −θ(kxk)}
x∈Rn

=⇒ f ∗ (s) = θ∗ (kxk)

•s ∈ ∂f ⇐⇒ f (x) + f ∗ (s) =< s, x >

⇐⇒ θ(kxk) + θ∗ (ksk) =< s, x >⇐⇒ θ(kxk) + θ∗ (ksk) = kskkxk

et
< s, x >= kskkxk

Solution 74 Soit f : x ∈ Rn 7−→ f (x) = 12 < Ax, x >,


alors f ∗ : s ∈ Rn 7−→ f ∗ (s) = 12 < A−1 s, s >
On a : f (x) + f ∗ (s) >< s, x >
=⇒ 12 < Ax, x > + 21 < A−1 s, s >>< s, x >
En prenant s = x, on obtient

< Ax, x > + < A−1 x, x >> 2 < x, x >⇐⇒ A + A−1 > 2In

Solution 75 1) par definition f ∗ (s) = sup sx − ch(x) dont le supremum est atteint
x∈Rn
x = Argsh(s). √
d’ou f ∗ (s) = s(Arqsh(s) − ch(Argsh(x))) = s(Argsh(s) − 1 − s2 )
0 0 0
2) f = sh d’ou (f ∗ ) = (f )−1 : s ∈ R −→ Argsh(s)
Donc f ∗ est la primitive de Argsh qui prend en o la valeur f ∗ (0) = − inf f (x) = −1
x∈R

Remarque 76 ce cas est une illustration de la formule de Legendre :


0 0
f ∗ (s) = s(f )−1 (s) − f [(f )−1 (s)] .
50 Dr. Alassane Sy

Solution 77 Puisque f|x| (x)


−→ +∞ on en deduit que f ∗ est partout finie sur R
soit s ∈ R ,par definition :
x2
f ∗ (s) = sup(sx − x ln(x) − + x)
x≥0 2
2
la fonction strictement convexe x ≥ 0 7→ θs (x) = sx − x ln(x) − x2 + x s’ annule en 0 .Elle
0
est derivable sur R∗ et θs (x) = s − ln(x) − x pour x > 0
0
Comme θs (x) s’annule en l’ unique point x(s) = l(es ), le supremum de θs sur R+ est
atteint en x(s)
s)
Ainsi f ∗ (s) = s(les ) − l(es )(s − l(es )) − (le2 2 + l(es )
Optimisation convexe et/ou différentielle 51

2016
Pr. ASY.

UNIVERSITÉ ALIOUNE DIOP DE BAMBEY


UFR-SATIC, Département de Mathématiques
M-I MATHEMATIQUES ET APPLICATIONS
Semestre 1 : Session 1.

Optimisation et Analyse convexe. Durée : 3h


Exercise 78 Définir la notion de cône
Soit Sn++ l’ensemble des matrices définies positives
Sn++ = X ∈ Sn : wT Xw > 0, ; w ∈ Rn , ; w 6= 0


et Sn+ l’ensemble des matrices semi-définies positives


Sn+ = X ∈ Sn : wT Xw ≥ 0, ; w ∈ Rn


a) Montrer que Sn++ et Sn+ sont des ensembles convexes. Montrer que Sn+ est un cône.
Qu’en est-il de Sn++ ?
b) Montrer que Sn+ est fermé. Quelle est l’adhérence de Sn++ ?
c) Montrer que Sn+ = {X ∈ Sn : λmax (−X) ≤ 0}. Déduire la convexité la Sn+ par un autre
argument.
Exercise 79 Soit f : Rn → R ∪ {+∞}, une fonction quelconque.
a) Rappeler les définitions de :
- domaine de f (dom(f )) ;
- conjuguée de f (f ∗ ).
2
b) Soit f1 (x) = kxk
2
, le carrée de la norme euclidienne de Rn , montrer que f1∗ = f1 (x).
c) Soit f2 (x) = |x|, x ∈ R la valeur absolue de x, montrer que

∗ 0; si x ∈ [−1, 1];
f2 =
+∞, sinon
qui est la fonction indicatrice de [−1, 1]
En déduire f3∗ pour f3 (y) = kyk1 ,la norme l1 sur Rn .
d)Soit un réel c > 0 fixé pour toute la question.
Considèrons d’abord le problème 
min g(y);
0≤y≤c
avec g : [0, c[→ R différentiable etlimx→c = +∞.
soit y ∗ = 0 et g 0 (0) ≥ 0
Montrer que y ∗ est solution ⇐⇒
soit y ∗ > 0 et g 0 (y ∗ ) = 0
En déduire que la fonction fc : R → R ∪ {+∞} définie par
 y
c−y
si 0 ≤ y < c;
fc (y) =
+∞ sinon
52 Dr. Alassane Sy

admet comme conjuguée


1

(cx − 1)2 , si x ≥
fc∗ (x) = c
0 sinon

Exercise 80 On suppose que les variables x, b appartiennent à un espace de Hilbert E


dont le produit scalaire est noté h., .i et la norme par k.k. On se donne deux nombre p et
q plus grand que 1 vérifiant p1 + 1q = 1. Soit

1
f (x) = hx, bi − kxkp
p
1- Montrer que
1
∀b ∈ E : kbkq = sup f (x)
q x∈E
1
t
2- On rappelle que t p−1 = p−2 , résoudre le problème
ktk p−1

max f (x), sous la contrainte {ha, xi ≤ 0}


Bibliographie

[1] A. SY. Cours et Exercices d’Algèbre pour la licence 1. - [Link] - Presse Univer-
sitaire de Bambey 2008.
[2] A. SY. Cours et Exercices d’Algèbre pour la licence 2. - [Link] - Presse Univer-
sitaire de Bambey 2008.
[3] E. AZOUALY M. MESSERI M. SERFATI. Exercices de Mthématiques evec rappel
de cours. M.P- P.C. - [Link] - U.I.T. TOME 5 Algbre 2eme partie 1969.
[4] J. DIXMIER : Cours de Mathématiques du premier cycle. Gauthier-Villars Paris
1969.
[5] A. WADE Les mathématiques de l’analyse économique modernes, Economica 2007.
[6] E. RAMS C. DESCHAMPS J. DOUX Cours de Mathématiques spéciales, Masson
1993.
[7] M. QUEYSANNE Algèbre 1er cycle scientifique préparation aux grandes école. Ar-
mand Colin Collection U 1964.
[8] V. SMIRNOV Cours de Mathématiques tome II, Edition Mir. Moscou. 1970.
[9] Bernard DUPONT Algèbre pour les sciences économiques, Armand-Colin 1991-1997.
[10] Phillipe MICHEL. Cours de Mathématiques pour économiques, Economica 1989.

53

Vous aimerez peut-être aussi