0% ont trouvé ce document utile (0 vote)
58 vues48 pages

Poly Math L3 Mag

Transféré par

konatesamchoudine3
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
58 vues48 pages

Poly Math L3 Mag

Transféré par

konatesamchoudine3
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Mathématiques avancées

L3 Physique – 1ère année Magistère


UFR PHITEM

Mourad I SMAIL
[email protected]
http://www-liphy.ujf-grenoble.fr/Mourad-Ismail

2016-09-26 15:34:23 +0200


Révision : eedca8d (2016-09-26)

1
Table des matières

1 Notations et quelques rappels 4

2 Discrétisation d’un problème aux limites 1D 6


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Exemples simples de problèmes aux limites et aux valeurs initiales . . 7
2.3 Un problème de convection-diffusion stationnaire . . . . . . . . . . . . 8
2.4 Méthode de Galerkin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.4.1 Problème discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.5 Méthode des éléments finis . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.5.1 Méthode des éléments finis de degré 1 . . . . . . . . . . . . . . . 11
2.5.2 Résolution du système linéaire A~u = ~f . . . . . . . . . . . . . . . 13
2.6 Estimation d’erreur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.6.1 Cas général de la méthode de Galerkin . . . . . . . . . . . . . . 14
2.6.2 Cas des éléments finis de degré 1 . . . . . . . . . . . . . . . . . . 16
2.7 Quelques résultats numériques . . . . . . . . . . . . . . . . . . . . . . . 17

3 Distributions et espaces de Sobolev 21


3.1 L’espace des fonctions tests D(Ω) . . . . . . . . . . . . . . . . . . . . . . 21
3.2 L’espace dual D0 (Ω) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3 Dérivées des distributions . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.4 Traces et formules de Green . . . . . . . . . . . . . . . . . . . . . . . . . 26

4 Problèmes aux limites elliptiques 28


4.1 Problème de Dirichlet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.2 Problème de Neumann . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.3 Problèmes variationnels abstraits . . . . . . . . . . . . . . . . . . . . . . 29
4.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2
5 Calcul des variations 33
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.2.1 Chemin le plus court dans un plan euclidien . . . . . . . . . . . 34
5.2.2 Mécanique analytique . . . . . . . . . . . . . . . . . . . . . . . . 34
5.3 Calcul des variations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.3.1 Différentiation d’une fonctionnelle . . . . . . . . . . . . . . . . . 35
5.3.2 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.4 Optimisation sous contraintes . . . . . . . . . . . . . . . . . . . . . . . . 37
5.4.1 Multiplicateurs de Lagrange . . . . . . . . . . . . . . . . . . . . . 39
5.5 Généralisation aux fonctionnelles . . . . . . . . . . . . . . . . . . . . . . 40
5.5.1 Minimisation sous contraintes (d’égalité) . . . . . . . . . . . . . 41
5.5.2 Application aux équations de Stokes. Formulation point-selle . 42

Annexes 45

A Formulation variationnelle des équations de Stokes 46

[email protected] 3 eedca8d (2016-09-26)


CHAPITRE 1

Notations et quelques rappels

Définition 1.1 (Espace vectoriel sur R)


Un espace vectoriel sur R (ou un R-espace vectoriel) est un ensemble E muni de deux
lois de compositions :
— une loi de composition interne + : E × E −→ E appelée addition
— une loi de composition externe · : R × E −→ E appelée multiplication par un
scalaire
telles que :
1. (E, +) est un groupe commutatif
2. ∀α, β ∈ R et ∀u, v ∈ E :
1u = u
(α + β)u = αu + βu
β(αu) = (βα)u
α(u + v) = αu + αv

Définition 1.2 (Forme linéaire)


Soit E un R−espace vectoriel. On appelle une forme linéaire sur E toute application
linéaire ` de E dans R.

Définition 1.3 (Forme bi-linéaire)


On appelle une forme bi-linéaire sur E toute application a : E × E −→ R linéaire par
rapport à chacune de ses deux variables.

Définition 1.4 (Produit scalaire)


On appelle produit scalaire sur E une forme bi-linéaire (·, ·) sur E définie positive.
C’est-à-dire
(u, u) ≥ 0 ∀u ∈ E et (u, u) = 0 ⇐⇒ u = 0. (1.1)

4
Définition 1.5 (Norme)
Une norme sur E est une application k · k de E dans R+ telle que :
— ∀u ∈ E, kuk = 0 =⇒ u = 0,
— ∀(λ, u) ∈ R × E, kλuk = |λ|kuk,
— ∀(u1 , u2 ) ∈ E × E, ku1 + u2 k ≤ ku1 k + ku2 k.

Remarque 1.1 Un produit scalaire


p définit sur E une structure d’espace vectoriel
normé pour la norme u 7−→ kuk = (u, u).

Théorème 1.1 (Inégalité de Cauchy-Schwarz)


Si (V, < ·, · >) est un espace préhilbertien (un espace vectoriel V muni d’un produit
scalaire < ·, · >), alors on a l’inégalité suivante, dite de Cauchy-Schwarz :

| < u, v > | ≤ kukkvk, ∀u, v ∈ V. (1.2)

Définition 1.6 (Espace de Banach)


Un espace de Banach est un espace vectoriel normé complet.

Définition 1.7 (Espace de Hilbert)


Un espace de Hilbert est un espace vectoriel muni d’un produit scalaire, complet pour
la norme associée.

Définition 1.8 (Espace dual)


Soit E un espace vectoriel normé. On appelle dual topologique de E, et l’on note E 0 ,
l’ensemble des formes linéaires continues sur E, c’est-à-dire l’ensemble des applica-
tions linéaires de E dans R bornées sur BE = {x ∈ E, kxk ≤ 1}. Pour f ∈ E 0 , on
utilisera la notation < f, x > pour désigner f (x). L’espace E 0 est un e.v.n. pour la
norme
kf kE 0 = sup < f, x > . (1.3)
x∈BE

[email protected] 5 eedca8d (2016-09-26)


CHAPITRE 2

Discrétisation d’un problème aux limites


unidimensionnel

2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Exemples simples de problèmes aux limites et aux valeurs
initiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3 Un problème de convection-diffusion stationnaire . . . . . . . 11
2.4 Méthode de Galerkin . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4.1 Problème discret . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.5 Méthode des éléments finis . . . . . . . . . . . . . . . . . . . . . . . 14
2.5.1 Méthode des éléments finis de degré 1 . . . . . . . . . . . . . . 14
2.5.2 Résolution du système linéaire A~u = ~f . . . . . . . . . . . . . . 16
2.6 Estimation d’erreur . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.6.1 Cas général de la méthode de Galerkin . . . . . . . . . . . . . 17
2.6.2 Cas des éléments finis de degré 1 . . . . . . . . . . . . . . . . . 19
2.7 Quelques résultats numériques . . . . . . . . . . . . . . . . . . . . 20

L’objectif de ce chapitre est de donner une introduction succincte à la formula-


tion variationnelle d’une équation aux dérivées partielles, sa discrétisation et sa ré-
solution numérique. Nous essayons autant que possible de contourner les concepts
mathématiques avancés qui feront l’objet de prochains chapitres.
Le processus général présenté ici consiste à mettre en équations un problème
physique, leur discrétisation, la résolution numérique du système algébrique sous-
jacent et enfin l’erreur d’approximation, son contrôle et sa mise en évidence grâce
aux simulations numériques.

6
2.1 Introduction
La plupart des phénomènes physiques, chimiques ou biologiques sont régis par
des systèmes complexes d’équations aux dérivées partielles. La résolution analy-
tique de tels systèmes est souvent très difficile à réaliser voire impossible. D’où l’un
des intérêts de la résolution numérique à l’aide d’ordinateurs. Pour ce faire, ces
équations doivent être discrétisées pour se placer en dimensions finies. Cela per-
mettra l’écriture d’un système algébrique sous-jacent.
L’objectif de ce chapitre est d’expliquer un tel processus en se basant sur un
problème simple en une dimension de l’espace.
Commençons d’abord par deux définitions regroupant deux grands types de pro-
blèmes modélisant des phénomènes physiques :
— Les problèmes aux limites sont des problèmes différentiels posés sur un
intervalle ]a, b[ de la droite réelle, ou sur un ouvert à plusieurs dimensions
(Ω ⊂ Rd ) et qui nécessitent des informations sur la solution au bord du do-
maine. Ainsi, les valeurs de l’inconnue (ou de ses dérivées) sont fixées aux
extrémités a et b de l’intervalle ]a, b[ ou sur le bord ∂Ω dans le cas multidimen-
sionnel. Dans ce dernier cas, le problème différentiel met en jeu les dérivées
partielles de la solution par rapport aux coordonnées de l’espace.
— Les équations dépendant du temps (noté t) sont appelées problèmes aux
valeurs initiales. Pour ce type d’équations, on doit aussi fournir la valeur
de la solution à l’instant initial t = 0.

2.2 Exemples simples de problèmes aux limites et aux


valeurs initiales
— Équation de Poisson :

−u00 (x) = f (x), x ∈]a, b[, (2.1)

ou (en dimensions supérieures)

−∆u(x) = f (x), x = (x1 , · · · , xd ) ∈ Ω, (2.2)

où f est une fonction donnée et ∆ est l’opérateur de Laplace :


d
X ∂ 2u
∆u = . (2.3)
i=1
∂x2i

— Équation de la chaleur :

∂u ∂ 2u
(x, t) − µ 2 (x, t) = f (x, t), x ∈]a, b[, t > 0, (2.4)
∂t ∂x
[email protected] 7 eedca8d (2016-09-26)
ou (en dimensions supérieures)
∂u
(x, t) − µ∆u(x, t) = f (x, t), x ∈ Ω, t > 0, (2.5)
∂t
où µ > 0 est un coefficient donné, correspondant à la conductivité thermique,
et f une fonction donnée.
— Équation des ondes :
∂ 2u ∂ 2u
(x, t) − c (x, t) = f (x, t), x ∈]a, b[, t > 0, (2.6)
∂t2 ∂x2
ou (en dimensions supérieures)
∂ 2u
(x, t) − c∆u(x, t) = f (x, t), x ∈ Ω, t > 0, (2.7)
∂t2
où c > 0 est une constante donnée.

2.3 Un problème de convection-diffusion stationnaire


Soient f : x ∈ [0, 1] 7−→ f (x) ∈ R et c : x ∈ [0, 1] 7−→ c(x) ∈ R deux fonctions
continues données et soit µ > 0 fixé. Nous cherchons une fonction u : x ∈ [0, 1] 7−→
u(x) ∈ R satisfaisant :

−µu00 (x) + c(x)u0 (x) = f (x) ∀x ∈]0, 1[, (2.8)


u(0) = u(1) = 0. (2.9)
Le problème (2.8)-(2.9) est appelé problème de convection-diffusion station-
naire. Le terme de diffusion est −µu00 (x) alors que le terme de convection est c(x)u0 (x).
Si c(x) = 0, ∀x ∈ [0, 1], le problème (2.8)-(2.9) modélise la diffusion de la chaleur
stationnaire (c’est-à-dire le problème (2.4) avec ∂u∂t
= 0). Si nous choisissons µ = 0
dans (2.8), nous obtenons alors un problème de transport stationnaire. L’exemple
typique d’une situation physique régie par les équations (2.8)-(2.9) est le problème
de la propagation de chaleur stationnaire dans un fluide (unidimensionnel) soumis
à des mouvements de convection stationnaire. Dans ce cas, u représente la tempé-
rature du fluide et c sa vitesse.
Remarquons que l’équation (2.8) est une équation différentielle du deuxième
ordre dont l’intégration doit faire apparaître deux constantes. Celles-ci peuvent être
déterminées grâce aux conditions aux limites de type celles données par l’équa-
tion (2.9). Le problème aux limites ainsi obtenu admet une solution unique.
D’une manière générale, et en dehors de quelques exemples simples, on ne sait
pas calculer explicitement la solution u(x) d’un problème aux limites. Il convient
donc de trouver un moyen d’approcher les valeurs de la solution d’un tel problème

[email protected] 8 eedca8d (2016-09-26)


d’aussi près que l’on veut. Pour ce faire, on peut discrétiser notre problème, c’est-
à-dire le transformer en un problème qui lui est proche et qui comprend un nombre
fini de valeurs à calculer.

2.4 Méthode de Galerkin


Considérons le problème (2.8)-(2.9) et multiplions sa première équation par une
fonction v ∈ C 1 ([0, 1]). Si nous intégrons sur l’intervalle [0, 1], nous obtenons :
Z 1 Z 1 Z 1
00 0
−µ u (x)v(x)dx + c(x)u (x)v(x)dx = f (x)v(x)dx. (2.10)
0 0 0

En intégrant par partie le premier terme, nous avons :


Z 1 Z 1 Z 1
0 0 0 0 0
µ u (x)v (x)dx − µu (1)v(1) + µu (0)v(0) + c(x)u (x)v(x)dx = f (x)v(x)dx.
0 0 0
(2.11)
Si nous imposons à la fonction v d’être nulle en x = 0 et x = 1, alors nous en
déduisons l’égalité :
Z 1 Z 1 Z 1
0 0 0
µ u (x)v (x)dx + c(x)u (x)v(x)dx = f (x)v(x)dx. (2.12)
0 0 0

Définition 2.1 Soit maintenant V l’ensemble de toutes les fonctions g continues, de


première dérivée g 0 continue par morceaux, 1 et telles que g(0) = g(1) = 0.
Exercice 2.1 Vérifier que V est un espace vectoriel.
Nous allons maintenant chercher u ∈ V qui satisfait (2.12) pour toute fonction v ∈ V .
Ainsi, on obtient le problème suivant :

trouver u ∈ V telle que :


Z 1 Z 1 Z 1
0 0 0
µ u (x)v (x)dx + c(x)u (x)v(x)dx = f (x)v(x)dx, ∀v ∈ V. (2.13)
0 0 0

Le problème (2.13) est appelé problème faible ou problème variationnel. A


priori, les fonctions u solutions du problème (2.13) sont moins régulières que celles
solutions du problème différentiel (2.8)-(2.9) (appelé aussi formulation forte). En
effet, le problème faible (2.13) contient une dérivée première de la solution u alors
que le problème différentiel (2.8) contient une dérivée seconde.
1. Ici l’expression « g 0 continue par morceaux » signifie que g 0 existe et est continue sauf éven-
tuellement en un nombre fini de points de l’intervalle [0, 1] où elle pourrait ne pas être définie mais
posséderait des limites à gauche et à droite de ces points. Voir figure 2.3 page 13 pour un exemple
d’une telle fonction.

[email protected] 9 eedca8d (2016-09-26)


Remarque 2.1 Il est évident que toute solution u du problème différentiel est solu-
tion du problème faible. On peut aussi montrer que sous certaines conditions sur c,
le problème faible a une et une seule solution u qui est celle du problème différentiel
(on reviendra à ce dernier résultat dans les chapitres suivants).

2.4.1 Problème discret


Si ϕ1 , ϕ2 , · · · , ϕN sont N fonctions de V linéairement indépendantes, on peut
construire un sous-espace vectoriel de V , noté Vh , engendré par les combinaisons
linéaires des fonctions ϕi . Ainsi, Vh sera l’ensemble de toutes les fonctions g qui
peuvent s’exprimer sous la forme
N
X
g(x) = gi ϕi (x), (2.14)
i=1

où gi est un nombre réel pour tout i ∈ {1, 2, · · · , N }. Il est donc naturel de formuler
une approximation du problème (2.13) de la manière suivante : trouver une fonction
uh ∈ Vh telle que

Z 1 Z 1 Z 1
µ u0h (x)vh0 (x)dx + c(x)u0h (x)vh (x)dx = f (x)vh (x)dx, ∀vh ∈ Vh .
0 0 0
(2.15)

Définition 2.2 On dira que (2.15) est une approximation de Galerkin de (2.13).

Puisque uh est cherchée dans Vh , on peut écrire :


N
X
uh (x) = ui ϕi (x), (2.16)
i=1

où u1 , u2 , · · · , uN sont N nombres réels à déterminer. En prenant vh = ϕj , 1 ≤


j ≤ N , dans le problème discret (2.15), ce dernier est alors équivalent à chercher
u1 , u2 , · · · , uN telles que
N
X  Z 1 Z 1  Z 1
ui µ ϕ0i (x)ϕ0j (x)dx + c(x)ϕ0i (x)ϕj (x)dx = f (x)ϕj (x)dx, (2.17)
i=1 0 0 0

pour tout j = 1, 2, · · · , N .
Si A est la matrice N × N de coefficients
Z 1 Z 1
0 0
Aji = µ ϕi (x)ϕj (x)dx + c(x)ϕ0i (x)ϕj (x)dx, (2.18)
0 0

[email protected] 10 eedca8d (2016-09-26)


si ~u est le vecteur de composantes u1 , u2 , · · · , uN et si ~f est le vecteur dont la j ème
composante est Z 1
f (x)ϕj (x)dx, (2.19)
0
alors les problèmes (2.15) et (2.17) sont équivalents à chercher ~u tel que
A~u = ~f . (2.20)
Nous dirons que (2.15), (2.17) et (2.20) sont une discrétisation du problème continu
(2.8)-(2.9). Notons qu’après avoir construit la matrice A et le vecteur ~f , la méthode
de Galerkin nécessite la résolution d’un système linéaire.

2.5 Méthode des éléments finis


Dans la suite nous étudions en détail une méthode de Galerkin particulière, la
méthode des éléments finis, qui revient à faire un choix judicieux des fonctions
ϕ1 , ϕ2 , · · · , ϕN définissant Vh , de sorte que les propriétés suivantes soient vérifiées :
— La matrice A doit être une matrice creuse au sens où elle contient un grand
nombre de coefficients nuls.
— La solution uh du problème (2.15) doit converger, dans un certain sens, vers la
solution u du problème (2.13) lorsque le nombre N de fonctions linéairement
indépendantes de V devient grand.

2.5.1 Méthode des éléments finis de degré 1


Pour des raisons de simplicité, nous nous plaçons dans le cadre d’une seule di-
mension de l’espace et nous considérons l’intervalle [0, 1]. Nous commençons par
diviser [0, 1] en N + 1 parties et nous posons h = N1+1 et xi = ih avec i = 1, · · · , N + 1.
Voir figure 2.1.

x0 x1 x2 ··· ··· xN xN +1
x
0 h 2h ··· ··· Nh 1

F IGURE 2.1 – Points de discrétisation.

Pour i = 1, 2, · · · , N , on définit la fonction suivante :


x − xi−1

 si xi−1 ≤ x ≤ xi ,
xi − xi−1







ϕi (x) = x − xi+1 (2.21)
si xi ≤ x ≤ xi+1 ,
 xi − xi+1






0 si x ≤ xi−1 ou x ≥ xi+1 .

[email protected] 11 eedca8d (2016-09-26)


Le graphe de la fonction ϕi est représenté dans la figure 2.2. Clairement la fonction
ϕi est telle que : 
1 si i = j
— ϕi (xj ) = δij = , 0 ≤ j ≤ N + 1,
0 si i 6= j
— ϕi |[xi−1 ,xi ] est un polynôme de degré un, 1 ≤ i ≤ N ,
— ϕi |[xi ,xi+1 ] est un polynôme de degré un, 1 ≤ i ≤ N .
En outre,
— ϕi ∈ V pour i = 1, 2, · · · , N ,
— ϕ1 , ϕ2 , · · · , ϕN sont linéairement indépendantes.

Exercice 2.2 Justifier que les fonctions ϕ1 , ϕ2 , · · · , ϕN sont effectivement linéaire-


ment indépendantes.

ϕi (x)

x
0 x1 ··· xi−1 xi xi+1 ··· xN 1

F IGURE 2.2 – Le graphe de la fonction ϕi .

Nous choisissons ces fonctions ϕi pour engendrer l’espace Vh . Nous dirons ainsi
que :
— x0 , x1 , x2 , · · · , xN +1 sont les nœuds de la discrétisation,
— [x0 , x1 ], [x1 , x2 ], · · · , [xN , xN +1 ] sont les éléments géométriques,
— ϕ1 , ϕ2 , · · · , ϕN sont les fonctions de base du sous-espace Vh de type éléments
finis de degré 1 associés aux nœuds intérieurs x1 , x2 , · · · , xN .
Si g ∈ Vh , alors g est une combinaison linéaire des ϕi
N
X
g= gi ϕi (x), (2.22)
i=1

et le graphe de g est représenté dans la figure 2.3 page suivante.


En particulier, nous remarquons que pour tout j ∈ {1, 2, · · · , N } on a g(xj ) = gj ,
que g(0) = g(1) = 0 et que g est une fonction affine sur chaque élément géométrique.
Rappelons que le système linéaire (2.20) est une discrétisation du problème continu
(2.8)-(2.9). À présent, nous disposons de toutes les informations nécessaires pour

[email protected] 12 eedca8d (2016-09-26)


g(x)

g4
g3
gN
g1
g2

x
0 x1 x2 x3 x4 ··· ··· xN 1

F IGURE 2.3 – Graphe d’une fonction g ∈ Vh .

construire la matrice A et le vecteur ~f . En se plaçant dans le cas simple où c(x) = c0


et f (x) = f0 , avec c0 et f0 deux constantes, nous vérifions que la matrice A et le
vecteur ~f sont définis par les expressions suivantes :
 

2µ µ c0
 f0 h
− +  .. 
 h h 2   . 
   . 

 µ c0
  .. 
.. .. 
 − − . .  
 . 

 h 2  .
 . 
A=  et ~f = 
 ..  . (2.23)
  
 . .. . .. µ c 0
 .
− +
   
 . 
 h 2   . 
   . 
   . 
 µ c0 2µ   .. 
− −
h 2 h f0 h

Exercice 2.3 Retrouver le calcul des coefficients de la matrice A et des composantes


du vecteur ~f .

2.5.2 Résolution du système linéaire A~u = ~f


Dans le cas où c(x) = 0 pour tout x ∈ [0, 1], µ = 1 et f (x) = f0 pour tout x ∈ [0, 1],
le problème de convection-diffusion devient alors un problème de diffusion pure. Le

[email protected] 13 eedca8d (2016-09-26)


système linéaire sous-jacent est A~u = ~f , où

2 −1
   
f0
..
.
   
. ..
   
−1 . . . ..
   
1 1
 
~

.

A = tridiag(−1, 2, −1) =   et f = h  . (2.24)
  
h h ..
... ...   . 

 −1 


 ..


   . 
−1 2 f0
On obtient ainsi une matrice A tridiagonale 2 , symétrique et définie positive et donc
inversible.
Exercice 2.4 Vérifier qu’une matrice symétrique et définie positive est inversible.
Bien que notre matrice A soit d’une forme très simple, il n’est évidemment pas
question de calculer son inverse mais d’utiliser une méthode de résolution de sys-
tème linéaire. On sait que dans notre cas A admet une factorisation LU (A = LU )
avec L une matrice triangulaire inférieure à diagonale unité et U une matrice trian-
gulaire supérieure. En particulier, dans notre cas, L et U doivent être bidiagonales
et elles sont données par ces expressions :
α1 −1
   
1 0 0
.
α2 . .
 β2 1  1 
L= et U = . (2.25)
   
. . . . . . . −1 
. . h
 
 
0 βN 1 0 αN
Les coefficients inconnus αi et βi sont déterminés en écrivant l’égalité LU = A. Ce
qui conduit aux relations de récurrence :
1
α1 = 2, βi = − , αi = 2 + βi , i = 2, · · · , N. (2.26)
αi−1
Avec (2.26), il est facile de résoudre le système linéaire A~u = f~ en résolvant les deux
systèmes bidiagonaux obtenus en remplaçant A par LU . Cette technique est connue
sous le nom d’algorithme de Thomas. Son coût est de l’ordre de N opérations.

2.6 Estimation d’erreur


2.6.1 Cas général de la méthode de Galerkin
Afin de simplifier l’analyse, on suppose que nous sommes toujours dans le cas où
c(x) = 0 pour tout x ∈ [0, 1] et µ = 1. Munissons l’espace vectoriel V de la norme k · k1
2. Les seuls éléments non nuls sont sur la diagonale principale et sur les premières sur- et sous-
diagonale

[email protected] 14 eedca8d (2016-09-26)


définie par : s
Z 1
kgk1 = (g 0 (x))2 dx si g ∈ V. (2.27)
0

Nous obtenons alors le résultat suivant :

Proposition 2.1 Si u est solution du problème faible (2.13) et si uh est solution du


problème discret (2.15), nous avons l’estimation d’erreur

ku − uh k1 ≤ min ku − vh k1 . (2.28)
vh ∈Vh

Démonstration. Si u est solution du problème (2.13) et si uh est solution du pro-


blème (2.15), nous obtenons, par soustraction de ces deux relations :
Z 1
(u0 (x) − u0h (x))vh0 (x)dx = 0, ∀vh ∈ Vh . (2.29)
0

En posant e(x) = u(x)−uh (x), qui représente l’erreur entre u et uh au point x, l’égalité
(2.29) devient : Z 1
e0 (x)vh0 (x)dx = 0, ∀vh ∈ Vh . (2.30)
0

Par définition de la norme k · k1 et de l’erreur e, nous avons


Z 1 Z 1
0
2
kek1 = 2
(e (x)) dx = e0 (x)(u0 (x) − u0h (x))dx. (2.31)
0 0

En tenant compte de (2.30), nous obtenons donc :


Z 1 Z 1
0 0
2
kek1 = e (x)u (x)dx = e0 (x)(u0 (x) − vh0 (x))dx, (2.32)
0 0

où vh est un élément quelconque de Vh . En utilisant l’inégalité de Cauchy-Schwarz


dans cette dernière expression, nous obtenons :
Z 1  12 Z 1  21
kek21 ≤ (e0 (x))2 dx (u0 (x) − vh0 (x))2 dx , (2.33)
0 0

c’est-à-dire
kek21 ≤ kek1 ku − vh k1 . (2.34)
Il suffit de simplifier par kek1 et de prendre le minimum sur vh ∈ Vh pour obtenir
(2.28). 

[email protected] 15 eedca8d (2016-09-26)


2.6.2 Cas des éléments finis de degré 1
Si u ∈ V , alors la fonction définie par
N
X
rh u = u(xi )ϕi (2.35)
i=1

est l’interpolant de degré 1 par intervalle de la fonction u. C’est-à-dire rh u(xi ) = u(xi )


pour tout 1 ≤ i ≤ N et rh u|[xi ,xi+1 ] est un polynôme de degré 1.
Par construction, rh u ∈ Vh et nous avons bien évidemment :

min ku − vh k1 ≤ ku − rh uk1 . (2.36)


vh ∈Vh

Ainsi, l’estimation d’erreur (2.28) devient :

ku − uh k1 ≤ ku − rh uk1 . (2.37)

Cette dernière inégalité montre que l’erreur entre u et uh dans la norme k · k1 peut
être contrôlée si nous savons estimer l’erreur d’interpolation entre u et rh u. Nous
démontrons le résultat suivant :

Théorème 2.1 On suppose que c(x) = 0 pour tout x ∈ [0, 1] et µ = 1. Soit u la solution
du problème faible (2.13) et soit uh la solution du problème discret (2.15) lorsque Vh
est engendré par les fonctions de base (2.21). Alors nous avons l’estimation d’erreur :

ku − uh k1 ≤ Ch. (2.38)

où C est une constante indépendante de N (et donc de h).

Démonstration. L’estimation d’erreur (2.38) est une conséquence de (2.37) à condi-


tion de montrer que
ku − rh uk1 ≤ Ch, (2.39)
où C est une constante indépendante de N . Posons donc maintenant w = u − rh u.
Puisque nous avons rh u(xi ) = u(xi ) pour tout 0 ≤ i ≤ N + 1, nous avons donc w(xi ) =
0. En utilisant le théorème de Rolle, nous en déduisons qu’il existe ξi ∈]xi , xi+1 [ tel
que w0 (ξi ) = 0 pour tout 0 ≤ i ≤ N . Ainsi, puisque rh u est un polynôme de degré 1
sur chaque élément géométrique [xi , xi+1 ] nous obtenons, pour tout x ∈ [xi , xi+1 ] :
Z x Z x
0 00
w (x) = w (s)ds = u00 (s)ds. (2.40)
ξi ξi

Nous déduisons de cette égalité que, pour x ∈ [xi , xi+1 ] :


Z xi+1
0
|w (x)| ≤ |u00 (s)|ds. (2.41)
xi

[email protected] 16 eedca8d (2016-09-26)


En appliquant l’inégalité de Cauchy-Schwarz nous avons donc, pour x ∈ [xi , xi+1 ] :
Z xi+1  21 Z xi+1  21
0 2 00 2
|w (x)| ≤ 1 ds |u (s)| ds (2.42)
xi xi
Z xi+1  21
1
00 2
≤ h 2 |u (s)| ds . (2.43)
xi

En élevant au carré cette dernière inégalité et en l’intégrant sur l’élément géomé-


trique [xi , xi+1 ], nous obtenons :
Z xi+1 Z xi+1
0 2
|w (x)| dx ≤ h2
|u00 (s)|2 ds. (2.44)
xi xi

Il suffit maintenant de sommer sur l’indice i pour avoir :


Z 1
2 2
ku − rh uk1 = kwk1 = |w0 (x)|2 dx (2.45)
0
N Z
X xi+1 N Z
X xi+1
0
= |w (x)| dx ≤ h 2 2
|u00 (s)|2 ds (2.46)
i=0 xi i=0 xi
Z 1
= h2 |u00 (s)|2 ds. (2.47)
0
Z 1
Ce qui achève la démonstration avec C = |u00 (s)|2 ds. 
0

Exercice 2.5 Pourquoi on a utilisé w00 = u00 dans l’équation (2.40) ?

Remarque 2.2 Le résultat du théorème précédent nous indique clairement que l’er-
reur d’approximation de la solution u par la fonction uh dépend de C et de h. Ce qui se
traduit par une dépendance de la régularité de la solution u et du nombre de points
de discrétisation.

2.7 Quelques résultats numériques


Afin de vérifier que l’on peut retrouver numériquement les résultats théoriques
présentés dans les sections précédentes, nous nous intéressons ici à un exemple
simple : l’équation de Poisson avec des conditions aux limites de type Dirichlet ho-
mogène en une dimension de l’espace :

−u00 (x) = 2, ∀x ∈]0, 1[, (2.48)


u(0) = u(1) = 0. (2.49)

[email protected] 17 eedca8d (2016-09-26)


Nous connaissons bien évidemment la solution analytique de ce problème. Il s’agit
du polynôme de second degré :

u(x) = x(1 − x), ∀x ∈ [0, 1]. (2.50)

Ce problème est discrétisé en utilisant des éléments finis de degré 1 avec diffé-
rentes valeurs du pas de maillage
1 1 1 1 1 1 1 1 1 1 1 1 1
h= ∈{ , , , , , , , , , , , }.
N +1 5 10 20 40 80 100 160 320 640 1280 2560 5120
La solution exacte (2.50) ainsi que les solutions calculées en résolvant le système
1 1
linéaire (2.24) pour h ∈ { 15 , 10 1
, 20 , 100 } sont représentées dans les figures 2.4 et 2.5.

Remarque 2.3 On remarque que plus le pas de maillage h est petit plus la solution
calculée est proche de la solution exacte.

0.25 0.25
Solution calculee Solution calculee
Solution exacte Solution exacte

0.2 0.2

0.15 0.15

0.1 0.1

0.05 0.05

0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1

1 1
F IGURE 2.4 – Solution exacte et solution calculée pour h = 5
et h = 10
.

0.25 0.25
Solution calculee Solution calculee
Solution exacte Solution exacte

0.2 0.2

0.15 0.15

0.1 0.1

0.05 0.05

0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1

1 1
F IGURE 2.5 – Solution exacte et solution calculée pour h = 20
et h = 100
.

[email protected] 18 eedca8d (2016-09-26)


Pour avoir une idée plus précise sur la vitesse de convergence de la solution
calculée vers la solution exacte, nous présentons en échelle logarithmique dans la
figure 2.6 l’erreur en norme k · k1 (appelée aussi erreur H 1 ) en fonction de h. Cette
courbe est bien évidemment en accord avec l’estimation d’erreur (2.38).

-1
1×10
pente = 1

-2
1×10
erreur H1 (log)

-3
1×10

-4
1×10 -4 -3 -3 -2 -1
3,2×10 1,6×10 8,0×10 4,0×10 2,0×10
h (log)

F IGURE 2.6 – Erreur kuExacte − uCalculée k1 en fonction de h.

Exercice 2.6 Pourquoi résout-on un système linéaire au lieu de calculer l’inverse de


la matrice A ?

Méthode beaucoup plus coûteuse en nombre d’opérations.


Exercice 2.7 Comment résoudre A~u = ~f en utilisant la factorisation LU ?
~
 
L~
v = f v1 = f1 , vi = fi − βi vi−1 , i = 2, · · · , N
A~u = f~ ⇔ LU~u = f~ ⇒ ⇒
U~u = ~v uN = αvNN , ui = vi +u
αi
i+1
, i = N − 1, · · · , 1
Exercice 2.8 Pourquoi la matrice A est-elle creuse ? Pourquoi est-elle tridiagonale
dans l’exemple présenté ?
A contient beaucoup de coefficients nuls parce que l’intersection des supports des
fonctions ϕi est souvent vide. Dans notre exemple, pour une fonction ϕi , seuls les
supports de ϕi−1 et de ϕi+1 ont une partie commune avec celui de ϕi .

[email protected] 19 eedca8d (2016-09-26)


Exercice 2.9 De quoi dépend la constante C dans l’estimation d’erreur :ku − uh k1 ≤
Ch ? Peut-on avoir une approximation de mauvaise qualité de la solution même si on
prenait h très petit ?
R1
On a C = 0 |u00 (s)|2 ds. Donc C dépend de la régularité de u. On peut avoir une mau-
vaise approximation de la solution même si h  1. Il suffit que la dérivée seconde
de u oscille beaucoup.

Exercice 2.10 Que doit-on changer pour avoir une méthode des éléments finis d’ordre
2?

On prend des polynômes de degré 2 comme fonctions de base. On aura besoin de


trois points de discrétisation par élément géométrique : les deux extrémités et le point
milieu de chaque segment.

Exercice 2.11 Que gagne-t-on avec des éléments finis de degré 2 ? quel est le prix à
payer ? donner l’allure des courbes des figures 2.5 et 2.6 dans ce cas.

Si on utilise des éléments finis de degré 2, les courbes de la solution calculée et celle de
la solution exacte de la section 6 seront superposées même avec un seul point intérieur
(N = 1). L’erreur commise sera de l’ordre du zéro machine. Par contre si on choisit
une solution analytique qui n’est pas un polynôme de degré 2, la courbe d’erreur en
échelle logarithmique sera une droite de pente égale à 2. Le prix à payer réside dans
le fait que la matrice du système linéaire est moins creuse et le calcul numérique est
légèrement plus coûteux.

Exercice 2.12 Écrivez l’analogue 2D du problème de convection-diffusion présenté


dans le texte.

−µ∆u(x) + c(x) · ∇u(x) = f (x), ∀x ∈ Ω.

[email protected] 20 eedca8d (2016-09-26)


CHAPITRE 3

Distributions et espaces de Sobolev

3.1 L’espace des fonctions tests D(Ω) . . . . . . . . . . . . . . . . . . . 25


3.2 L’espace dual D0 (Ω) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3 Dérivées des distributions . . . . . . . . . . . . . . . . . . . . . . . 28
3.4 Traces et formules de Green . . . . . . . . . . . . . . . . . . . . . . 31
Le but de ce chapitre est de rappeler (ou introduire) quelques notions élémen-
taires sur les distributions et les espaces de Sobolev. Ces notions seront d’une grande
utilité pour la généralisation de la méthodologie introduite dans le chapitre 2.
Tout au long de ce chapitre, Ω désigne un ouvert non vide de Rn .

3.1 L’espace des fonctions tests D(Ω)


Définition 3.1 L’espace D(Ω) désigne l’espace vectoriel des fonctions C ∞ sur Ω à sup-
port compact 1 inclus dans Ω.

Définition 3.2 (Convergence dans D(Ω))


Soit (ϕn )n∈N une suite d’éléments de D(Ω). On dit que ϕn converge vers 0 dans D(Ω)
si :
— il existe un compact K ⊂ Ω tel que supp(ϕn ) ⊂ K, ∀n ∈ N,
— pour tout α ∈ Nn , la suite Dα ϕn converge uniformément vers 0. C’est-à-dire

sup |Dα ϕn (x)| −→ 0, n → ∞. (3.1)


x∈Ω
1. Un compact est un ensemble K tel que de tout recouvrement ouvert, on peut extraire un sous-
recouvrement ouvert fini. Dans le cas des espaces vectoriels normés de dimension finie, les compacts
sont les ensembles fermés et bornés.

21
Avec
— α est le multi-indice α = (α1 , · · · , αn ),
— |α| = α1 + · · · + αn ,
α ∂ |α| ϕn
— D ϕn = .
∂xα1 1 · · · ∂xαnn

Exemple 3.1 On peut vérifier que l’ensemble D(Ω) n’est pas vide. En effet, considé-
rons la fonctions
(
− 1 2
n
J : R −→ R : x 7−→ e 1−|x| si |x| < 1, (3.2)
0 si |x| ≥ 1.

On vérifie facilement que J ∈ D(Rn ) et que son support est exactement la boule fermée
B(0, 1). Grâce à cette fonction J, on peut construire une infinité d’éléments de D(Ω).

0.4

0.3

0.2

0.1

0
−1 −0.5 0 0.5 1

F IGURE 3.1 – Exemple d’une fonction de D(R).

Pour x0 ∈ Ω et ε > 0 suffisamment petit, il est clair que ϕ : x 7−→ J( x−x


ε
0
) appartient à
D(Ω) et a un support égal à B(0, ε).

3.2 L’espace dual D0(Ω)


Définition 3.3 D0 (Ω) est le dual topologique de D(Ω). C’est-à-dire l’ensemble des
formes linéaires continues sur D(Ω). Ainsi, T ∈ D0 (Ω) si et seulement si T : ϕ ∈
D(Ω) 7−→< T, ϕ >∈ R satisfait
— T est une application linéaire,
— T est continue. C’est-à-dire si ϕn converge vers 0 dans D(Ω), alors < T, ϕn >
converge vers 0 dans R.
T est appelé distribution.

[email protected] 22 eedca8d (2016-09-26)


Exemple 3.2 (Masse de Dirac)
Si a ∈ Ω, δa désigne la distribution δa : ϕ ∈ D(Ω) 7−→ ϕ(a) ∈ R.
Proposition 3.1 (voir R AVIART et T HOMAS, Introduction à l’analyse numérique
des équations aux dérivées partielles)

— D(Ω) est dense dans L2 (Ω).


— L2 (Ω) ⊂ D0 (Ω).
Rappelons que L2 (Ω) est l’espace des fonctions à carré sommable sur Ω. C’est-à-
dire Z
2
L (Ω) = {f : Ω −→ R; |f (x)|2 dx < +∞}. (3.3)

Il s’agit d’un espace de Hilbert pour le produit scalaire
Z
(f, g)0,Ω = f g. (3.4)

On note aussi par k · k0,Ω la norme induite par le produit scalaire (·, ·)0,Ω . C’est-à-dire
Z  12
1
2
kf k0,Ω = (f, f )0,Ω =
2
f . (3.5)

Étant donnée une fonction f ∈ L2 (Ω), on lui associe Tf , la distribution sur Ω,


définie par Z
< Tf , ϕ >= f ϕ, ∀ϕ ∈ D(Ω). (3.6)

Remarque 3.1 De la même façon, on peut identifier l’espace L1loc (Ω) des fonctions
localement intégrables sur Ω à un sous-espace de D0 (Ω) mais pour des raisons de sim-
plification nous nous contenterons ici de l’espace L2 (Ω) (qui est inclus dans L1loc (Ω)).
Remarque 3.2 Les physiciens utilisaient la masse de Dirac bien avant l’élaboration
de la théorie des distributions (par Laurent Schwartz). Ils la définissaient comme une
fonctions égale à zéro sauf en 0 où elle valait +∞. Il est évident que cette définition
ne correspond pas à celle d’une fonction au sens mathématique. En outre, il n’existe
aucune fonction f telle que la masse de Dirac coïncide avec la distribution associée à
f . En effet, on a le résultat suivant
Proposition 3.2 6 ∃f ∈ L1loc (R) telle que δ0 = Tf dans D0 (R).
Démonstration. Supposons qu’une telle fonction existe. On aurait alors
Z
f ϕ = ϕ(0), ∀ϕ ∈ D(R). (3.7)
R

Prenons ϕ ∈ D(]0, +∞[) ∩ D(] − ∞, 0[). Ceci implique que f est nulle presque partout.
Or, en utilisant à nouveau l’équation (3.7) on a ϕ(0) = 0 pour tout ϕ ∈ D(R). Ce qui
bien évidemment absurde. 

[email protected] 23 eedca8d (2016-09-26)


3.3 Dérivées des distributions
∂T
Si T est une distribution sur Ω, on définit ∂xi
par : ∀ϕ ∈ D(Ω),

∂T ∂ϕ
< , ϕ >= − < T, >. (3.8)
∂xi ∂xi
∂ϕ ∂T
Puisque ϕ 7−→< T, ∂x i
> est une forme linéaire continue sur D(Ω), ceci définit ∂xi
en
tant que distribution sur Ω.

Remarque 3.3 Notons que, si f est une fonction de classe C 1 (Ω), sa dérivée au sens
∂f
classique ∂x i
coïncide avec sa dérivée au sens des distributions. En effet, par défini-
tion de la dérivée des distributions, on a
Z
∂Tf ∂ϕ ∂ϕ
∀ϕ ∈ D(Ω), < , ϕ >= − < Tf , >= − f , (3.9)
∂xi ∂xi Ω ∂xi

ce qui devient à l’aide d’une intégration par parties


Z Z
∂f ∂ϕ
∀ϕ ∈ D(Ω), < T ∂ϕ , ϕ >= ϕ=− f . (3.10)
∂xi
Ω ∂xi Ω ∂xi

Notons que l’intégrale sur “le bord de Ω” n’apparaît pas dans cette intégration par
parties parce que ϕ est à support compact dans Ω.

D’une manière générale, si T est une distribution sur Ω et si α ∈ Nn , on définit la


dérivée au sens des distributions
∂ |α| T
Dα T = (3.11)
∂xα1 1 · · · xαnn
de T par : ∀ϕ ∈ D(Ω),
< Dα T, ϕ >= (−1)|α| < T, Dα ϕ > . (3.12)
Ainsi, une distribution sur Ω est indéfiniment dérivable au sens des distributions.

Exemple 3.3 On définit la fonction de Heaviside H sur R par



1 pour x > 0,
H(x) = (3.13)
0 pour x < 0.
La dérivée au sens des distributions de H est la masse de Dirac à l’origine. C’est-à-
dire
DTH = δ0 . (3.14)
En effet, ∀ϕ ∈ D(R),
Z Z +∞
0
< DTH , ϕ >= − Hϕ = − ϕ0 = ϕ(0). (3.15)
R 0

[email protected] 24 eedca8d (2016-09-26)


Remarque 3.4 Remarquons que la dérivée H 0 (au sens usuel) est nulle sauf en 0.
Dans ce cas on a DTH 6= TH 0 .

Exemple 3.4 Soit f une fonction définie sur R et admettant une dérivée f 0 continue

et bornée dans l’ouvert R \ ∪kj=1 {xj }. Soit sj = f (x+
j ) − f (xj ) le saut de f au point xj .
Alors le résultat précédent se généralise en
k
X
DTf = Tf 0 + s j δx j . (3.16)
j=1

En effet, on a : ∀ϕ ∈ D(Ω),
Z Z k
X
0 0
< DTf , ϕ >= − fϕ = f ϕ+ sj ϕ(xj ). (3.17)
R R j=1

Exemple 3.5 On prend Ω = R et f (x) = |x|. Vérifier que DTf = T2H−1 et D2 Tf = 2δ0 .

Théorème 3.1 Soit T ∈ D0 (Ω) satisfaisant ∂x


∂T
i
= 0, ∀i ∈ {1, · · · , n}. Alors T est
constante sur chaque composante connexe de Ω.

Définition 3.4 (Gradient)


Soit ϕ une fonction de classe C 1 de Ω dans R. On appelle gradient de ϕ la fonction de
Ω dans Rn définie par  
∂ϕ ∂ϕ
∇ϕ = ,··· , . (3.18)
∂x1 ∂xn
Définition 3.5 On définit l’espace de Sobolev H 1 (Ω) comme l’ensemble des fonctions
u dans L2 (Ω) telles qu’il existe v = (v1 , · · · , vn ) ∈ L2 (Ω)n vérifiant
Z Z
∂ϕ
u = − ϕvi , ∀ϕ ∈ D(Ω), ∀i = 1, · · · , n. (3.19)
Ω ∂xi Ω

On notera alors v = ∇u.

La fonction ∇u de R dans Rn est ainsi définie comme l’unique fonction vectorielle à


composantes dans L2 (Ω) telle que l’identité entre vecteurs de Rn
Z Z
u∇ϕ = − ϕ∇u (3.20)

soit vérifiée pour toute fonctions test ϕ ∈ D(Ω).

Proposition 3.3 L’espace H 1 (Ω) muni de la norme


Z Z
2
kvk1,Ω = u + |∇u|2
2
(3.21)
Ω Ω

est un espace de Hilbert.

[email protected] 25 eedca8d (2016-09-26)


D’une manière générale, L’espace
H m (Ω) = u ∈ L2 (Ω); Dα u ∈ L2 (Ω), ∀α ∈ Nn ; |α| ≤ m

(3.22)
muni du produit scalaire
X Z
(u, v)m,Ω = Dα uDα v (3.23)
|α|≤m Ω

et la norme   21
X Z
kukm,Ω =  |Dα u(x)|2 dx (3.24)
|α|≤m Ω

est un espace de Hilbert.

Remarque 3.5 H 2 (Ω) peut être défini comme l’ensemble des fonctions de H 1 (Ω) dont
toutes les dérivées partielles par rapport à l’une des composantes sont elles-même
dans H 1 (Ω). On peut aussi définir de façon analogue les espaces H m (Ω) pour m =
3, 4, · · ·

Exemple 3.6 Prenons Ω =] − 1, 1[ et f : x 7−→ |x|. On a DTf = T2H−1 (voir l’exemple


3.5). La fonction 2H − 1 n’est pas continue sur [−1, 1] mais elle appartient bien à
L2 (] − 1, 1[) et on vérifie que
Z 1 Z 1
2
|2H(x) − 1| dx = 1dx = 2. (3.25)
−1 −1

Ainsi, la fonction f est bien dans H 1 (]−1, 1[). Par contre elle n’est pas dans H 2 (]−1, 1[)
car D2 Tf = 2δ0 et on sait qu’il n’existe pas de fonction g dans L2 (] − 1, 1[) telle que
δ0 = Tg (voir proposition 3.2).

Proposition 3.4 si u ∈ C 1 (Ω) ∩ L2 (Ω) et ∇u ∈ L2 (Ω)n , alors u ∈ H 1 (Ω) et le gradient


de u au sens classique s’identifie au gradient au ses des distributions.

3.4 Traces et formules de Green


Nous avons considéré jusqu’à présent des ouverts réguliers notés génériquement
par Ω. Les frontières de tels ouverts étant de mesure nulle, on ne peut donc parler
de restriction de fonctions au bords de Ω (noté ∂Ω ou Γ). Néanmoins, nous allons voir
dans cette section qu’on peut donner un sens à cette notion de traces dès lors que
les fonctions considérées sont suffisamment régulières.

Proposition 3.5 Si Ω est une ouvert borné de frontière Γ Lipschitzienne alors D(Ω̄)
est dense dans H 1 (Ω). En outre, l’application γ0 : ϕ ∈ D(Ω̄) 7−→ ϕ|Γ se prolonge par
continuité en une application linéaire de H 1 (Ω) dans L2 (Ω).

[email protected] 26 eedca8d (2016-09-26)


1
Définition 3.6 (L’espace H 2 (Γ))
1
On note H 2 (Γ) ⊂ L2 (Γ) l’image de l’application γ0 : H 1 (Ω) −→ L2 (Γ). Il s’agit d’un
espace de Banach pour la norme

kgkH 21 (Γ) = inf kvk1,Ω . (3.26)


γ0 v=g

Proposition 3.6 Si on note par H01 (Ω) l’adhérence de D(Ω) dans H 1 (Ω), on montre
(voir R AVIART et T HOMAS, Introduction à l’analyse numérique des équations aux
dérivées partielles) que cet espace est constitué des fonctions de H 1 (Ω) dont la trace
sur Γ est nulle. Plus précisément

H01 (Ω) = u ∈ H 1 (Ω); γ0 u = 0 sur Γ .



(3.27)

Définition 3.7 (Dérivée normale)


Soit Ω un domaine de frontière Lipschitzienne. On note n le vecteur normal à Γ dirigé
vers l’extérieur de Ω. Pour toute fonction ϕ ∈ D(Ω̄), on définie sa dérivée normale par

∂ϕ
= ∇ϕ · n. (3.28)
∂n
Définition 3.8 Pour u ∈ H 2 (Ω), sa dérivée normale sur Γ est définie par

∂u
γ1 u = , (3.29)
∂n
où γ1 est l’application

γ1 : u ∈ H 2 (Ω) 7−→ ∇u · n ∈ L2 (Γ). (3.30)

Proposition 3.7 (Première formule de Green)


Si Ω est un ouvert borné de frontière Lipschitzienne, et si u et v sont dans H 1 (Ω), alors
on a Z Z Z
v∇u = − u∇v + uvn. (3.31)
Ω Ω Γ

Proposition 3.8 (Deuxième formule de Green)


Si Ω est un ouvert borné de frontière Lipschitzienne, et si u ∈ H 2 (Ω) et v ∈ H 1 (Ω),
alors on a Z Z Z
∂u
− ∆uv = ∇u · ∇v − v. (3.32)
Ω Ω Γ ∂n

[email protected] 27 eedca8d (2016-09-26)


CHAPITRE 4

Problèmes aux limites elliptiques

4.1 Problème de Dirichlet . . . . . . . . . . . . . . . . . . . . . . . . . . 33


4.2 Problème de Neumann . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.3 Problèmes variationnels abstraits . . . . . . . . . . . . . . . . . . 35
4.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

4.1 Problème de Dirichlet


Soit Ω un ouvert borné de Rn de frontière Γ Lipschitzienne. Étant donné une
fonction f ∈ L2 (Ω), trouver une fonction u définie dans Ω et solution de
−∆u = f dans Ω, (4.1)
u = 0 sur Γ. (4.2)
On suppose que la solution u de (4.1)-(4.2) est suffisamment régulière (u ∈ H 2 (Ω)
par exemple). En multipliant l’équation (4.1) par une fonction test v ∈ H01 (Ω) et en
intégrant sur Ω on a Z Z
− ∆uv = f v. (4.3)
Ω Ω
En utilisant la deuxième formule de Green (??) et en tenant compte du fait que la
trace de v sur Γ est nulle on obtient
Z Z
∇u · ∇v = f v, ∀v ∈ H01 (Ω). (4.4)
Ω Ω

D’autre part, la condition aux limites (4.2) et la proposition 3.6 nous donnent u ∈
H01 (Ω).

28
Proposition 4.1 Le problème (4.1)-(4.2) est remplacé par la formulation variation-
nelle suivante : étant donné f ∈ L2 (Ω), trouver u ∈ H01 (Ω) vérifiant (4.4).
Démonstration. Par construction de la formulation variationnelle, si u ∈ H 2 (Ω) est
solution du problème (4.1)-(4.2) alors u vérifie (4.4). Inversement, si u ∈ H01 (Ω) est
solution de (4.4), alors on a
Z Z
∇u · ∇v = f v, ∀v ∈ D(Ω). (4.5)
Ω Ω

En effet, par définition, H01 (Ω) est l’adhérence de D(Ω) dans H 1 (Ω) 

4.2 Problème de Neumann


On garde les mêmes hypothèses que dans le cas du problème de Dirichlet et on
considère le problème suivant : étant donné f ∈ L2 (Ω), trouver une solution u définie
dans Ω et solution de
−∆u + u = f dans Ω, (4.6)
∂u
= 0 sur Γ. (4.7)
∂n
En faisant le même calcul que dans le cas du problème de Dirichlet, on obtient
Proposition 4.2 Le problème (4.6)-(4.7) est remplacé par la formulation variation-
nelle suivante : étant donné f ∈ L2 (Ω), trouver u ∈ H 1 (Ω) vérifiant
Z Z Z
∇u · ∇v + uv = f v, ∀v ∈ H 1 (Ω). (4.8)
Ω Ω Ω

4.3 Problèmes variationnels abstraits


Le but de cette section est de donner un cadre général pour les formulations
variationnelles. Pour ce faire, on se donne
— un espace de Hilbert H,
— une forme bilinéaire a(·, ·) continue sur H×H. C’est-à-dire il existe une constante
strictement positive M telle que
|a(u, v)| ≤ M kukH kvkH , ∀(u, v) ∈ H × H, (4.9)
— une forme linéaire ` : v 7−→ `(v) continue sur H.
On considère alors le problème variationnel général : trouver u ∈ H tel que
a(u, v) = `(v), ∀v ∈ H. (4.10)
L’existence d’une solution au problème (4.10) est basée sur la coercivité de la
forme bilinéaire a :

[email protected] 29 eedca8d (2016-09-26)


Définition 4.1 On dit qu’une forme bilinéaire a est coercive sur H (ou H-elliptique)
si et seulement si il existe une constante α strictement positive tel que

a(u, u) ≥ αkuk2H , ∀u ∈ H. (4.11)

Théorème 4.1 (Lemme de Lax-Milgram)


Si la forme bilinéaire a est coercive, alors le problème (4.11) admet une solution
unique u ∈ H. De plus on a l’estimation
1
kukH ≤ k`kH 0 . (4.12)
α
En outre, si a est symétrique, u est l’unique élément de H qui réalise le minimum de
la fonctionnelle
1
v 7−→ J(v) = a(v, v) − `(v). (4.13)
2

4.4 Exercices
Exercice 4.1 Soient I =]a, b[ un intervalle ouvert borné et f ∈ L2 (I). On se propose
de trouver une fonction u ∈ H 2 (I) telle que

−u00 =

 f dans I,
u0 (a) =

 0,
0 (4.14)
 R b u (b) =
 0,
u(x)dx = 0.

a

1. Vérifier que si (4.14) a une solution, alors le second membre f satisfait aussi
Z b
f (x)dx = 0. (4.15)
a

2. On introduit l’espace
Z b
1
H = {v ∈ H (I); v(x)dx = 0}, (4.16)
a

muni du produit scalaire de H 1 (I).


Vérifier que H est une espace de Hilbert.
3. Donner la formulation variationnelle du problème (4.14). C’est-à-dire, définir
la forme bilinéaire a sur H et la forme linéaire ` telles que (4.14) soit équivalent
(du moins formellement) à : trouver u ∈ H tel que

a(u, v) = `(v), ∀v ∈ H. (4.17)

[email protected] 30 eedca8d (2016-09-26)


4. Montrer que la forme bilinéaire a est continue et coercive et que la la forme
linéaire ` est continue. En déduire l’existence et l’unicité de la solution u ∈ H
de (4.17).
5. Établir la décomposition H 1 (I) = H ⊕V0 , où V0 désigne l’ensemble des fonctions
constantes.
6. On suppose maintenant que f satisfait (4.15). Montrer que la solution u de
(4.17) satisfait alors
Z b Z b
0 0
u (x)v (x)dx = f (x)v(x), ∀v ∈ H 1 (I). (4.18)
a a

En déduire que u ∈ H 2 (I) et est solution de (4.14).

Indication : pour montrer la coercivité de la forme bilinéaire, on pourra utiliser le


résultat général suivant : si Ω est un ouvert borné connexe de Rn à bord lipschitzien
alors il existe une constante C > 0 telle que pour tout v ∈ H 1 (Ω), on a
 Z 
kvk0,Ω ≤ C |v|1,Ω + | v(x)dx| . (4.19)

Avec | · |1,Ω désigne la semi norme de H 1 (Ω) définie par


Z
2
|v|1,Ω = |∇v|2 . (4.20)

Exercice 4.2 Soit Ω =]a, b[×]c, d[ un rectangle ouvert et borné de R2 . Mettre sous
forme variationnelle le problème suivant

 ∆u = 1 dans Ω,
u(a, y) = 0, ∂u
∂x
(b, y) = 0 si c < y < d, (4.21)
 ∂u ∂u
∂y
(x, c) = 1, ∂y
(x, d) = x si a < x < b.

Exercice 4.3 Soit Ω un ouvert borné connexe de Rn à frontière suffisamment régu-


lière. Pour (u, v) ∈ H 1 (Ω) × H 1 (Ω), on pose
Z  Z  Z 
a(u, v) = ∇u · ∇v + u v . (4.22)
Ω Ω Ω

1. Montrer que a est coercive.


2. En déduire que pour tout f ∈ L2 (Ω), il existe une solution unique u ∈ H 1 (Ω)
au problème Z
a(u, v) = f v, ∀v ∈ H 1 (Ω). (4.23)

[email protected] 31 eedca8d (2016-09-26)


Montrer alors que Z Z
1
u= f, (4.24)
Ω |Ω| Ω

où |Ω| désigne la mesure de Ω.


Z
|Ω| = 1dx. (4.25)

R
3. En particulier, si Ω
f = 0, quelle l’équation aux dérivées partielles vérifiée
par u.

Exercice 4.4 Formulation variationnelle des équations de Stokes


Voir annexe A page 46

[email protected] 32 eedca8d (2016-09-26)


CHAPITRE 5

Calcul des variations

5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.2.1 Chemin le plus court dans un plan euclidien . . . . . . . . . . 39
5.2.2 Mécanique analytique . . . . . . . . . . . . . . . . . . . . . . . 40
5.3 Calcul des variations . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.3.1 Différentiation d’une fonctionnelle . . . . . . . . . . . . . . . . 41
5.3.2 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.4 Optimisation sous contraintes . . . . . . . . . . . . . . . . . . . . 43
5.4.1 Multiplicateurs de Lagrange . . . . . . . . . . . . . . . . . . . . 44
5.5 Généralisation aux fonctionnelles . . . . . . . . . . . . . . . . . . 45
5.5.1 Minimisation sous contraintes (d’égalité) . . . . . . . . . . . . 47
5.5.2 Application aux équations de Stokes. Formulation point-selle 48

5.1 Introduction
On s’intéresse dans ce chapitre à des fonctionnelles J (fonctions de fonctions)
qu’on cherche à minimiser (ou à maximiser). Par exemple, si on prend J : C(0, 1) −→
R telle que Z 1
J(f ) = [f (x)2 + f 0 (x)2 ]dx, (5.1)
0

et on cherche une fonction f pour laquelle J(f ) est maximale. À titre d’exemple, si
on prend f : x 7−→ sin(x), J(f ) = 1 et si on prend f : x 7−→ ex , J(f ) = e2 − 1.

33
5.2 Exemples
5.2.1 Chemin le plus court dans un plan euclidien
Pour trouver le chemin le plus court entre les deux points (x1 , y1 ) et (x2 , y2 ), il
suffit de minimiser la fonctionnelle
Z x2 r
dy
J(f ) = 1 + ( )2 dx. (5.2)
x1 dx
Z x2 Z y2
En effet, on prend J = ds où s désigne l’abscisse curviligne et on remplace
r x1 y1
p dy
ds = dx2 + dy 2 par 1 + ( )2 dx.
dx

5.2.2 Mécanique analytique


Prenons une particule de masse m qui part du point x = 0 à l’instant t = 0 et
arrive au point x = x1 à l’instant t = t1 . Cette particule est soumise à un potentiel
V (x).
La fonction qui minimise
Z t1 h
m 2 i
J(x) = ẋ (t) − V (x(t)) dt (5.3)
0 2
est la trajectoire suivie par la particule. C’est-à-dire, on considère toutes les tra-
jectoires possibles reliant (0, 0) et (t1 , x1 ) et on choisit celle minimisant la fonction-
nelle J.
Cette formulation est bien évidemment équivalente à la formulation Newto-
d2 x
nienne dans laquelle nous résolvons l’équation différentielle ma = F (où a = 2
dt
dV
et F = − ) pour remonter à la trajectoire x(t) (voir exercice 5.1).
dx

5.3 Calcul des variations


D’une manière générale, on considère la fonctionnelle
Z b
J(f ) = L[f (t), f 0 (t), t]dt (5.4)
a

et on cherche une fonction f pour laquelle J(f ) est maximale (ou minimale). Ainsi
la fonction f est dite un extremum de la fonctionnelle J.
Pour que ce problème soit bien posé, on a besoin des conditions de type f (a) = y0
et f (b) = y1 . La fonction L est appelé le Lagrangien.

[email protected] 34 eedca8d (2016-09-26)


Par exemple, si L(x, y) = x2 + y 2 , on L[f (t), f 0 (t)] = f (t)2 + f 0 (t)2 . En plus, nous
pouvons calculer les dérivées partielles de L. Ainsi, dans cet exemple, ∂L ∂x
= 2x et
∂L ∂L ∂L
∂y
= 2y. Il est usuel de noter ces dérivées partielles par ∂f et ∂f 0 (cela veut simple-
ment dire qu’on dérive L par rapport au premier et au deuxième arguments). Plus
précisément
∂L ∂L
= 2f (t) et = 2f 0 (t). (5.5)
∂f ∂f 0
∂L
Comme ∂f 0
est une fonction de t, on peut aussi calculer sa dérivée

d ∂L
( ) = 2f 00 (t). (5.6)
dt ∂f 0

5.3.1 Différentiation d’une fonctionnelle


Pour trouver une extremum de J, nous avons besoin de donner un sens à la
“dérivée d’une fonctionnelle”. Rappelons que pour une fonction f , on peut écrire
df = f (x + h) − f (x) = hA(x) + o(h). La fonction A (le terme de proportionnalité entre
df et h) n’est autre que f 0 (x) et on sait que x est un extremum de f si f 0 (x) = 0.
D’une manière analogue, nous essayons de suivre la même méthodologie pour
une fonctionnelle J. Si nous pouvons écrire

J(f + hg) = J(f ) + A[f, g]h + o(h) (5.7)

nous dirons que f est un extremum de J si A[f, g] = 0 pour toute fonction (test) g.
Dans le cas qui nous intéresse, les fonctions f que nous cherchons doivent vérifier
f (a) = y0 et f (b) = y1 . Par conséquent, nous choisissons comme fonctions (test) g
celles qui vérifient g(a) = g(b) = 0. Ainsi,
Z b
J(f + hg) = L[f (t) + hg(t), f 0 (t) + hg 0 (t)]dt (5.8)
a
Z b Z b
∂L ∂L 0
= J(f ) + h g(t)dt + h 0
g (t)dt + o(h), (5.9)
a ∂f a ∂f

où nous avons utilisé


∂L ∂L
L(x + h, y + k) = L(x, y) + h (x, y) + k (x, y) + o(h, k). (5.10)
∂x ∂y
En intégrant par parties la deuxième intégrale de l’équation (5.9), on a
Z b  b Z b  
∂L 0 ∂L d ∂L
g (t)dt = g(t) − g(t)dt (5.11)
a ∂f 0 ∂f 0 a a dt ∂f 0
Z b  
d ∂L
= − g(t)dt (car g(a) = g(b) = 0). (5.12)
a dt ∂f 0

[email protected] 35 eedca8d (2016-09-26)


Ainsi, Z b  
∂L d ∂L
J(f + hg) = J(f ) + h − g(t)dt + o(h). (5.13)
a ∂f dt ∂f 0
ou encore Z b  
∂L d ∂L
A[f, g] = − g(t)dt. (5.14)
a ∂f dt ∂f 0
Or, nous voulons que A[f, g] = 0 pour toute fonction g vérifiant g(a) = g(b) = 0. Ce
qui implique  
∂L d ∂L
− = 0. (5.15)
∂f dt ∂f 0
L’équation (5.15) s’appelle l’équation d’Euler-Lagrange.

5.3.2 Exercices
Exercice 5.1 Mécanique analytique
Reprenons l’exemple de la mécanique analytique de la section 5.2.2 et écrivons l’équa-
tion d’Euler-Lagrange correspondante. D’une part, dans le cadre de cet exemple, le
langrangien est donné par
m 2
L(x, ẋ) = ẋ (t) − V (x(t)). (5.16)
2
D’autre part, l’équation d’Euler-Lagrange s’écrit
 
∂L d ∂L
− = 0, (5.17)
∂x dt ∂ ẋ
ou encore  
dV d
− − mẋ = 0. (5.18)
dx dt
C’est-à-dire
F − mẍ = 0 (5.19)
car F = − dV
dx
. On retrouve ainsi l’équation différentielle

ma = F (5.20)

où a = ẍ.

Exercice 5.2 Chemin le plus court dans un plan euclidien


Reprenons l’exemple de la section 5.2.1 dans lequel on cherchait le chemin le plus
court entre deux points (x1 , y1 ) et (x2 , y2 ) dans un plan euclidien. Le Lagrangien est
défini par p
L(y, y 0 , x) = 1 + (y 0 )2 (5.21)

[email protected] 36 eedca8d (2016-09-26)


dy
où l’on a noté y 0 = . L’équation d’Euler-Lagrange correspondante est donnée par
dx
 
∂L d ∂L
− = 0. (5.22)
∂y dx ∂y 0

C’est-à-dire  
d ∂L
− = 0, (5.23)
dx ∂y 0
ou encore !
d y0
− p = 0. (5.24)
dx 1 + (y 0 )2
Ce qui implique
y0
p = C. (5.25)
1 + (y 0 )2
L’équation (5.25) peut être réécrite

y 02 = C 2 (1 + y 02 ), (5.26)

ou encore y 0 = a. On retrouve ainsi l’équation y = ax + b qui montre que le chemin le


plus court entre deux points dans un plan euclidien est un segment de droite.

5.4 Optimisation sous contraintes


Laissons de côté les fonctionnelles et revenons au cas plus simple de fonctions
à plusieurs variables. En particulier les fonctions à deux variables réelles (la gé-
néralisation aux fonctions à plusieurs variables se fait sans beaucoup de difficultés
supplémentaires).
Considérons une fonction f : (x, y) 7−→ f (x, y) pour laquelle on cherche un extre-
mum. Nous rappelons qu’au point extremum les termes linéaires des variations de
f doivent s’annuler. Plus précisément, si on écrit
   
∂f ∂f
df = f (x + h, y + k) − f (x, y) = h+ k + o(h, k) (5.27)
∂x ∂y

on sait qu’on doit avoir au point extremum ∂f ∂x


= ∂f
∂y
= 0.
Supposons maintenant que nous ne cherchons pas un extremum absolu de f
mais un point (x∗ , y ∗ ) satisfaisant en plus une contrainte g(x∗ , y ∗ ) = 0. Par exemple,
nous savons que le minimum de la fonction f (x, y) = x2 + y 2 est le point (0, 0).
Par contre, si en plus nous imposons à notre extremum de satisfaire la contrainte
y = ax + b (avec b 6= 0), il est clair que (0, 0) n’est plus l’extremum recherché. Par
contre, dans ce cas simple, on peut très bien trouver un point (x∗ , y ∗ ) tout en res-
tant assujetti à la contrainte y = ax + b. En effet, il suffit de minimiser la fonction

[email protected] 37 eedca8d (2016-09-26)


`(x) = x2 + (ax + b)2 dans la quelle nous prenons en compte la fonction f et la
contrainte g.
Dans le cas général, il n’est pas toujours possible d’expliciter y en fonction de x
grâce à la contrainte g. Dans ces cas, on utilise les variations de f et g pour calculer
l’extremum (x∗ , y ∗ ). Ainsi, au lieu d’imposer à ce que les variations de f doivent être
nulles pour tout déplacement (h, k), on se restreint uniquement aux déplacements
compatibles 1 avec la contrainte g(x, y) = 0. De ce fait, vu que g(x+h, y+k) = g(x, y) =
0 (déplacements compatibles avec la contrainte g(x, y) = 0), h et k doivent satisfaire

∂g ∂g
h+ k = 0. (5.28)
∂x ∂y

Par ailleurs, nous savons qu’un extremum de f doit aussi satisfaire


∂f ∂f
h+ k=0 (5.29)
∂x ∂y

pour tout déplacement (h, k) et en particulier ceux qui sont compatibles avec la
contrainte g(x, y) = 0 (les déplacements h et k vérifiant (5.28)).
Nous écrivons k en fonction de h en utilisant l’équation (5.28) et nous la rempla-
çons dans l’équation (5.29) nous obtenons
  −1 
∂f ∂f ∂g ∂g
h+ − h = 0, ∀h. (5.30)
∂x ∂y ∂y ∂x
C’est-à-dire
∂f ∂g ∂f ∂g
− = 0. (5.31)
∂x ∂y ∂y ∂x
Ainsi l’équation (5.31) constitue une condition supplémentaire pour trouver l’extre-
mum (x∗ , y ∗ ).

Exemple 5.1 Nous reprenons l’exemple de minimisation de la fonction f (x, y) = x2 +


y 2 sous la contrainte g(x, y) = y − ax − b = 0. L’équation (5.31) nous donne

x + ay = 0 (5.32)

que nous associons avec la contrainte y = ax + b pour obtenir l’extremum


ab b
x∗ = − , y∗ = . (5.33)
1 + a2 1 + a2
1. Méthode des travaux virtuels

[email protected] 38 eedca8d (2016-09-26)


5.4.1 Multiplicateurs de Lagrange
Nous présentons dans cette section la méthode des multiplicateurs de Lagrange
qui est très utile dans le cadre de l’optimisation sous contraintes. Le problème mo-
dèle consiste toujours à minimiser une fonction f (x, y) sous la contrainte g(x, y) = 0.
La méthode du multiplicateur de Lagrange consiste à introduire une variable
supplémentaire λ (le multiplicateur de Lagrange) et de considérer la fonction

F (x, y, λ) = f (x, y) − λg(x, y).

Le problème d’optimisation sous contraintes devient un problème d’optimisation


libre (sans contraintes) de la fonction F . Ainsi, on a
∂F ∂f ∂g
= −λ = 0, (5.34)
∂x ∂x ∂x
∂F ∂f ∂g
= −λ = 0, (5.35)
∂y ∂y ∂y
∂F
= −g(x, y) = 0. (5.36)
∂λ
Exemple 5.2 Nous reprenons encore une fois l’exemple de minimisation de la fonc-
tion f (x, y) = x2 + y 2 sous la contrainte g(x, y) = y − ax − b = 0. La fonctions F est
définie par F (x, y, λ) = x2 + y 2 − λ(y − ax − b).
Les équations (5.34)-(5.34) nous donnent

2x + λa = 0, (5.37)
2y − λ = 0. (5.38)

On retrouve ainsi l’équation (5.32) et par suite le même extremum (x∗ , y ∗ ) (voir (5.33)).
On peut même calculer le multiplicateur de Lagrange correspondant
2b
λ∗ = 2y ∗ = . (5.39)
1 + a2
Exemple 5.3 Mécanique quantique. Particule dans une boite.
Nous considérons une particule de masse m dans une boite parallélépipédique de
côtés a, b et c. Nous savons que l’énergie de la particule est donnée par cette expression

~2 1
 
1 1
E= + + . (5.40)
8m a2 b2 c2
Le problème consiste à trouver la forme optimale de la boite (une condition sur a, b et
c) en minimisant l’énergie E sous la contrainte du volume constant (V (a, b, c) = abc =
V0 ).

[email protected] 39 eedca8d (2016-09-26)


5.5 Généralisation aux fonctionnelles
Nous essayons de donner dans cette section une brève présentation de la gé-
néralisation du concept de l’optimisation avec et sans contraintes dans le cas où
s’intéresse à des fonctionnelles quelconques. Pour ce faire, nous considérons une
fonctionnelle J : H −→ R où H désigne un espace de Hilbert.

Définition 5.1 On dit que J est différentiable (au sens de Fréchet) en u ∈ H s’il
existe ϕ ∈ H 0 (H 0 étant le dual de H) tel que l’on ait, pour tout h ∈ H au voisinage de
0,
J(u + h) = J(u)+ < ϕ, h > +o(h). (5.41)
Si un tel ϕ existe, on le note J 0 (u) qu’on peut l’identifier à un élément de H appelé
gradient de J en u. On peut aussi le noter ∇J(u).
On dira que J est différentiable si elle admet une différentielle en tout point, et
que J est de classe C 1 si l’application u 7−→ J 0 (u) est continue.
En pratique, il est plus simple de calculer la dérivée directionnelle

j 0 (0) =< J 0 (u), w >, où j(t) = J(u + tw) avec u, w ∈ H et t ∈ R. (5.42)

Exemple 5.4 Soient a(·, ·) une forme bilinéaire symétrique, continue et coercive, et
`(·) une forme linéaire continue. On définit une fonctionnelle J par l’expression sui-
vante
1
J : v ∈ H 7−→ J(v) = a(v, v) − `(v) (5.43)
2
et on considère le problème de minimisation

J(u) = inf J(v). (5.44)


v∈H

Il est facile de vérifier que le problème de minimisation (5.44) est équivalent à la


formulation variationnelle (5.45)

a(u, w) = `(w), ∀w ∈ H. (5.45)

En effet,
t2
J(u + tw) = a(w, w) + t (a(u, w) − `(w)) + J(u). (5.46)
2
Ainsi,
j 0 (t) = ta(w, w) + a(u, w) − `(w). (5.47)
Et par conséquent
< J 0 (u), w >= j 0 (0) = a(u, w) − `(w). (5.48)
L’équation J 0 (u) = 0 (équation d’Euler) donne la formulation variationnelle (5.45).

[email protected] 40 eedca8d (2016-09-26)


Réciproquement, pour tout u ∈ H et pour tout w ∈ H,
1 1
J(u + w) = a(u, u) + a(u, w) − `(w) + a(w, w) − `(u) (5.49)
2 2
1
= J(u) + a(u, w) − `(w) + a(w, w) (5.50)
2
> J(u) + a(u, w) − `(w), si w 6= 0. (5.51)
Ce qui donne en particulier,
J(u) = inf J(v). (5.52)
v∈H

Exercice 5.3 Pour tout v ∈ L2 (Ω), on définit la fonctionnelle J par


Z Z
1 2
J(v) = v − f v. (5.53)
2 Ω Ω

Retrouver la formulation variationnelle dont u = inf J(v) est solution.


v∈L2 (Ω)

Exercice 5.4 Pour tout v ∈ H01 (Ω), on définit la fonctionnelle J par


Z Z
1 2
J(v) = |∇v| − f v. (5.54)
2 Ω Ω

Retrouver la formulation variationnelle dont u = inf J(v) est solution.


v∈H01 (Ω)

5.5.1 Minimisation sous contraintes (d’égalité)


Ajoutons au problème de minimisation d’une fonctionnelle J la contrainte g(v) =
0 avec g : v ∈ H 7−→ g(v) = (g1 (v), · · · , gn (v)) ∈ Rn est une application différentiable.
C’est-à-dire, nous nous intéressons au problème suivant : trouver u ∈ H tel que
u= inf J(v). (5.55)
v∈H, g(v)=0

Ce problème peut être réécrit sous la forme


u = inf J(v). (5.56)
v∈K

Avec K = {v ∈ H, g(v) = 0} = kerg est un sous-ensemble de H appelé l’ensemble des


fonctions admissibles. Nous nous limitons ici au cas où K est un sous-espace vecto-
riel fermé de H (sous cette hypothèse, le lemme de Lax-Milgram assure l’existence
et l’unicité d’un solution au problème (5.56)).
Pour généraliser la notion des multiplicateurs de Lagrange au cas de la fonc-
tionnelle J, nous introduisons une nouvelle variable µ ∈ Rn (multiplicateur de La-
grange) et nous définissons le lagrangien du problème (5.55) comme suit
n
X
L(v, µ) = J(v) + µi gi (v) = J(v) + µ · g(v), ∀(v, µ) ∈ H × Rn . (5.57)
i=1

[email protected] 41 eedca8d (2016-09-26)


Théorème 5.1 On suppose que J et g sont continûment dérivables au voisinage de
u ∈ H tel que g(u) = 0. Si u est un minimum local et si (gi0 (u))1≤i≤n sont linéairement
indépendants, alors il existe un multiplicateur de Lagrange λ = (λi , · · · , λn ) ∈ Rn ,
tels que
∂L ∂L
(u, λ) = J 0 (u) + λ · g 0 (u) = 0 et (u, λ) = g(u) = 0. (5.58)
∂v ∂µ

Le couple (u, λ) ∈ H × Rn défini par (5.58) peut être calculé en tant que point-selle
de L sur H × Rn . C’est-à-dire vérifiant (5.59)

∀µ ∈ Rn , L(u, µ) ≤ L(u, λ) ≤ L(v, λ), ∀v ∈ H. (5.59)

En effet, la condition de point-selle (5.59) nous donne

∀µ ∈ Rn , J(u) + µ · g(u) ≤ J(u) + λ · g(u) ≤ J(v) + λ · g(v), ∀v ∈ H. (5.60)

Par conséquent, la première inégalité de (5.60) implique que u vérifie la contrainte


g(u) = 0. Ensuite, la deuxième inégalité de (5.60) se réduit à

J(u) ≤ J(v) + λ · g(v), ∀v ∈ H, (5.61)

ou encore
J(u) ≤ J(v), ∀v ∈ K. (5.62)
C’est-à-dire u est un minimum de J sur K (donc solution des problèmes (5.55) et
(5.56)). Ainsi, on la relation suivante

inf J(v) = inf J(v) = inf sup L(v, µ). (5.63)


v∈H, g(v)=0 v∈K v∈H µ∈Rn

5.5.2 Application aux équations de Stokes. Formulation point-selle


Nous donnerons dans cette section différentes formulations des équations de
Stokes sans trop s’attarder sur les détails mathématiques.
On considère un écoulement d’un fluide incompressible et visqueux (de viscosité
ν) régit par les équations de Stokes. On suppose que cet écoulement se fait dans
un domaine borné Ω (assez régulier). Ainsi, le champ de vitesses u et la pression p
vérifient le problème suivant

−ν∆u + ∇p = f in Ω, (5.64)
∇ · u = 0 in Ω, (5.65)
u = 0 on ∂Ω. (5.66)

Avec ∂Ω désigne le bord de Ω et f une force extérieure (la gravité par exemple).

[email protected] 42 eedca8d (2016-09-26)


On admet dans le cadre de ce cours que le problème (5.64)-(5.65)-(5.66) admet
une unique solution (u, p) ∈ H01 (Ω)2 × L20 (Ω). Dans la suite on utilisera les espaces
fonctionnels suivants :
Z
L (Ω) = {f : Ω → R; |f |2 < +∞},
2
(5.67)
Z Ω
2 2
L0 (Ω) = {f ∈ L (Ω); f = 0}, (5.68)

H (Ω) = {f ∈ L (Ω); ∇f ∈ L2 (Ω)},
1 2
(5.69)
H01 (Ω) = {f ∈ H 1 (Ω); f = 0 on ∂Ω}. (5.70)

La première étape consiste à écrire la formulation variationnelle du problème


(5.64)-(5.65)-(5.66). Avant de le faire, nous introduisons le tenseur des taux de dé-
formations τ qui va nous être utile dans la suite
1
∇u + (∇u)t .

τ (u) = (5.71)
2
Remarquons que grâce à la contrainte d’incompressibilité ∇ · u = 0, on a

∆u = 2∇ · τ (u). (5.72)

(En effet, on peut vérifier facilement que ∇ · (∇u + t (∇u)) = ∆u + ∇(∇ · u))
Ainsi, le problème (5.64)-(5.65)-(5.66) peut être réécrit de la manière suivante :
Trouver (u, p) ∈ H01 (Ω)2 × L20 (Ω) tel que :

−2ν∇ · τ (u) + ∇p = f in Ω, (5.73)


∇ · u = 0 in Ω. (5.74)

À l’aide d’un calcul simple (voir annexe A pour les détails) on peut montrer que
le problème (5.73)-(5.74) est équivalent à la formulation variationnelle : Trouver
(u, p) ∈ H01 (Ω)2 × L20 (Ω) such that :
Z Z Z
2ν τ (u) : τ (v) − p∇ · v = f · v, ∀v ∈ H01 (Ω)2 , (5.75)
Ω ZΩ Ω

q∇ · u = 0, ∀q ∈ L20 (Ω). (5.76)


On introduite deux formes bilinéaires a(·, ·) et b(·, ·) définies respectivement sur


H × H et H × M et une forme linéaire `(·) définie sur H de sorte le problème (5.75)-
(5.76) s’écrit sous cette forme

a(u, v) + b(v, p) = `(v), ∀v ∈ H, (5.77)


b(u, q) = 0, ∀q ∈ M. (5.78)

Dans notre cas H = H01 (Ω)2 , M = L20 (Ω)

[email protected] 43 eedca8d (2016-09-26)


La forme bilinéaire b introduit implicitement deux applications linéaires. La pre-
mière, que nous noterons B, est définie sur H à valeurs dans M 0 (le dual de M ) par
B : v ∈ H 7−→ Bv ∈ M 0 . Plus précisément,
Z
< Bv, q >= b(v, q) = − q∇ · v, ∀q ∈ M. (5.79)

On peut vérifier qu’il s’agit bien d’une forme linéaire continue sur M et dont le noyau
est défini par
kerB = {v ∈ H; Bv = 0} (5.80)
Z
1 2
= {v ∈ H0 (Ω) ; − q∇ · v = 0, ∀q ∈ M } (5.81)

= {v ∈ H01 (Ω)2 ; ∇ · v = 0}. (5.82)
La deuxième forme linéaire donnée par b, que nous noterons B T , est définie sur
M à valeurs dans H 0 par B T : q ∈ M 7−→ B T q ∈ H 0 . Plus précisément,
Z
T
< v, B q >= b(v, q) = − q∇ · v, ∀v ∈ H. (5.83)

Il est alors évident que


Z
T
< Bv, q >=< v, B q >= − q∇ · v, ∀v ∈ H, ∀q ∈ M. (5.84)

De même, le noyau de B T est donné par


kerB T = {q ∈ M ; B T q = 0} (5.85)
Z
= {q ∈ M ; − q∇ · v = 0, ∀v ∈ H01 (Ω)2 } (5.86)
Z Ω
= {q ∈ M ; ∇q · v = 0, ∀v ∈ H01 (Ω)2 } (5.87)

= {q ∈ M ; ∇q = 0}. (5.88)
Notons que pour avoir l’expression (5.87), on a fait une intégration par parties en
utilisant le fait que les fonctions de H01 (Ω)2 s’annulent au bord ∂Ω. Cette dernière
expression implique en particulier que le noyau de B T est constitué des fonctions
constantes sur Ω.
Remarque 5.1 On peut chercher directement le champ de vitesse u en se mettant
dans le noyau de B (5.82). C’est-à-dire en considérant des fonctions à divergence
nulle. Dans ce cas, le problème de Stokes peut être formulé de la manière suivante :
Trouver u ∈ kerB tel que
a(u, v) = `(v), ∀v ∈ kerB, (5.89)
ou encore
1
J(u) = inf J(v). Avec J(v) = a(v, v) − `(v). (5.90)
v∈kerB 2

[email protected] 44 eedca8d (2016-09-26)


Quant à la formulation point-selle, il suffit de considérer le langrangien défini
par
1
L(v, q) = a(v, v) + b(v, q) − `(v). (5.91)
2
Le point-selle (u, p) est caractérisé par les équations suivantes :

∂L
< (u, p), v >= 0, ∀v ∈ H (5.92)
∂v
∂L
< (u, p), q >= 0, ∀q ∈ M, (5.93)
∂q

qui sont équivalentes à la formulation variationnelle (5.77)-(5.78). Ainsi, la solu-


tion (u, p) du problème de Stokes (5.77)-(5.78) est caractérisé par le point-selle du
lagrangien L. C’est-à-dire

L(u, p) = inf sup L(v, q). (5.94)


v∈H q∈M

Exercice 5.5 Vérifier qu’on retrouve bien (5.77)-(5.78) à partir des équations (5.92)-
(5.93).

[email protected] 45 eedca8d (2016-09-26)


ANNEXE A

Formulation variationnelle des équations de Stokes

La formulation variationnelle du problème (5.73)-(5.74) est obtenue en prenant


le produit scalaire de l’équation (5.73) avec une fonction test v ∈ H01 (Ω)2 et en mul-
tipliant l’équation (5.74) par une fonction test function q ∈ L20 (Ω). Ce qui donne le
problème suivant : trouver (u, p) ∈ H01 (Ω)2 × L20 (Ω) tel que :
Z Z Z
−2ν (∇ · τ (u)) · v + ∇p · v = f · v, ∀v ∈ H01 (Ω)2 , (A.1)
Ω ZΩ Ω

q∇ · u = 0, ∀q ∈ L20 (Ω). (A.2)


L’intégration par parties de l’équation (A.1) donne


Z Z
2ν τ (u) : ∇v − 2ν τ (u)n · v
Ω Z ∂Ω Z Z
− p∇ · v + pv · n = f · v, (A.3)
Ω ∂Ω Ω

où l’on a noté par n le vecteur normal sortant à ∂Ω. Or, sachant que v est nulle sur le
bord ∂Ω (v ∈ H01 (Ω)2 ), le problème (A.1)-(A.2) est maintenant équivalent à : trouver
(u, p) ∈ H01 (Ω)2 × L20 (Ω) tel que :
Z Z Z
2ν τ (u) : ∇v − p∇ · v = f · v, ∀v ∈ H01 (Ω)2 , (A.4)
Ω ZΩ Ω

q∇ · u = 0, ∀q ∈ L20 (Ω). (A.5)


Notons que τ (u) est symétrique (τ (u) : ∇v = τ (u) : (∇v)t ) qui implique en particulier
τ (u) : ∇v = τ (u) : τ (v). Finalement, la formulation variationnelle de notre problème

46
initial (5.64)-(5.65) s’écrit : trouver (u, p) ∈ H01 (Ω)2 × L20 (Ω) tel que :
Z Z Z
2ν τ (u) : τ (v) − p∇ · v = f · v, ∀v ∈ H01 (Ω)2 , (A.6)
Ω ZΩ Ω

q∇ · u = 0, ∀q ∈ L20 (Ω). (A.7)


Remarque A.1 Comme on a


1 1
τ (u) : τ (v) = τ (u) : ∇v = ∇u : ∇v + (∇u)t : ∇v, (A.8)
2 2
la première intégrale de l’équation (A.6) peut être réécrite sans utiliser le tenseur des
déformations en utilisant cette identité
Z Z
1
τ (u) : τ (v) = ∇u : ∇v. (A.9)
Ω 2 Ω

En effet, en faisant une intégration


Z par parties et en utilisant la contrainte d’incom-
pressibilité ∇ · u = 0, on a (∇u)t : ∇v = 0.

[email protected] 47 eedca8d (2016-09-26)


Bibliographie

A RFKEN, G-B. et H-J. W EBER. Mathematical Methods for Physicists. Elsevier, 2005.
B REZIS, H. Analyse fonctionnelle. Dunod, 1999.
H OUCHMANDZADEH, B. “Cours de Mathématiques pour la Physique”. Polycopié.
2013. URL : http://www-liphy.ujf-grenoble.fr/pagesperso/bahram/
Math/M4Phys2016.pdf.
M AURY, B. “Méthode des éléments finis en élasticité”. Cours de l’école polytech-
nique. URL : http://www.math.u-psud.fr/~maury.
N ICAISE, S. Analyse numérique des équations aux dérivées partielles. Dunod, 2000.
R APPAZ, J et M P ICASSO. Introduction à l’analyse numérique. Presses polytech-
niques et universitaires romandes, 2004.
R AVIART, P.-A. et J.-M. T HOMAS. Introduction à l’analyse numérique des équations
aux dérivées partielles. Dunod, 1993.

48

Vous aimerez peut-être aussi