Chapitre 33
Notions de géométrie affine et application
aux systèmes linéaires
1 Hyperplans
Dans ce paragraphe, on se fixe un corps K et un K-espace vectoriel E.
1.1 Formes linéaires
Rappelons qu’une forme linéaire sur E est une application linéaire de E dans K, i.e. un élément
de E ∗ = L(E, K).
Proposition 1.1
Une forme linéaire sur E est soit nulle, soit surjective, et dans ce dernier cas, elle est de rang 1.
Définition 1.2 (Formes coordonnées)
Soit (ei )i∈I une base de E. Pour tout i ∈ I, on définit la forme coordonnée d’indice i e∗i par
e∗i (ej ) = δij .
Proposition 1.3
Soit (ei )i∈I une base de E. Soit x ∈ E et i ∈ I. Alors e∗i (x) est la coordonnée d’indice i de x, et
Ker(e∗i ) est le sous-espace vectoriel des vecteurs dont la coordonnées d’indice i est nulle.
Remarque.
Attention : les formes coordonnées de chaque vecteur de la base dépendent non seulement du vecteur
en question, mais aussi de toute la base. Par exemple, dans R2 , si (e1 , e2 ) est la base canonique, et
(f1 , f2 ) = ((1, 1), (0, 1)), on a e2 = f2 , mais e∗2 6= f2∗ , car (1, 1) = e1 + e2 = f1 , donc e∗2 ((1, 1)) = 1 et
f2∗ ((1, 1)) = 0.
363
H. Thys, MP2I du lycée Victor Hugo de Besançon
1.2 Hyperplans
Définition 1.4 (Hyperplan)
Un hyperplan de E est le noyau d’une forme linéaire non nulle.
Proposition 1.5
Soit H un hyperplan de E, et D une droite vectorielle non contenue dans H. Alors E = H ⊕ D.
Plus généralement, si x 6∈ H, alors E = H ⊕ vect(x).
Remarque.
Attention : si F est un sous-espace vectoriel , et (e1 , . . . , en−p ) est une famille libre telle que ei 6∈ F
pour tout i = 1, . . . , n − p, on n’a pas nécessairement F ∩ vect(e1 , . . . , en−p ) = {0}.
Proposition 1.6
Soit H un sous-espace vectoriel de E. Alors H est un hyperplan de E si et seulement s’il existe une
droite vectorielle D telle que E = H ⊕ D.
Proposition 1.7
Deux formes linéaires sur E non nulles sont proportionnelles si et seulement si elles ont même noyau.
1.3 Hyperplans en dimension finie
Dans ce paragraphe, on suppose que E est de dimension finie n.
Proposition 1.8
Un sous-espace vectoriel H de E est un hyperplan si et seulement s’il est de dimension n − 1.
Proposition 1.9 (Matrices des formes linéaires)
Les matrices des formes linéaires sur E sont les matrices lignes de longueur dim(E).
Proposition 1.10 (Équations d’hyperplan en dimension finie)
Soit H est un hyperplan de E, et B = (e1 , . . . , en ) une base de E. Il existe (a1 , . . . , an ) ∈ K n , non
tous nuls, tels que, si x ∈ E et (x1 , . . . , xn ) sont ses composantes dans B, alors
n
X
x ∈ H ⇐⇒ ai xi = 0.
i=1
C’est une équation cartésienne de H dans la base B.
Proposition 1.11
Deux équations d’un même hyperplan dans une même base sont proportionnelles. Réciproquement,
deux hyperplans qui ont des équations dans une même base proportionnelles sont égaux.
364
H. Thys, MP2I du lycée Victor Hugo de Besançon
Proposition 1.12 (Intersection d’un hyperplan et d’un sous-espace vectoriel)
Soit F un sous-espace vectoriel de E de dimension p, et H un hyperplan de E. Alors
1. Si F 6⊂ H, F ∩ H est un sous-espace vectoriel de E de dimension p − 1.
2. Sinon, H ∩ F = F .
Proposition 1.13
Soit m ∈ [ 0, n]]. Alors
1. L’intersection de m hyperplans est un sous-espace vectoriel de E de dimension au moins n − m.
2. Tout sous-espace vectoriel de E de dimension n − m est l’intersection de m hyperplans.
Remarque.
Cette proposition peut aussi se démontrer à l’aide des systèmes, cf. le dernier paragraphe.
2 Sous-espaces affines
Dans tout ce paragraphe, on fixe un corps K (R ou C en général), et un K-espace vectoriel E.
On notera les éléments de E avec des lettres latines majuscules lorqu’on les considère comme des
points (par exemple A, B), et des lettres minuscules surmontées d’une flèche lorsqu’on les considère
comme des vecteurs (par exemple − →u, −
→v ).
À tout moment vous devez vous souvenir de ce que vous faîtes naturellement dans le plan muni
d’une origine O : vous avez des points, mais chacun de ces points est l’extrémité d’un vecteur d’origine
O.
2.1 Généralités
Rappelons que si x ∈ E et un sous-espace vectoriel de E, alors x + G = {x + u, u ∈ G}.
Lemme 2.1
Soient A, A′ ∈ E et F, F ′ des sous-espaces vectoriels de E.
1. On a A + F = A + F ′ ⇐⇒ F = F ′ .
2. Pour tout M ∈ A + F , on a M + F = A + F.
3. On a A + F = A′ + F ′ =⇒ F = F ′ .
Définition 2.2 (Sous-espace affine)
Un sous-espace affine F de E est un sous-ensemble de E du type A + F , où A ∈ E et F est un
sous-espace vectoriel de E. Le sous-espace vectoriel F (unique d’après le lemme) s’appelle la direction
de F , et F est dirigé par F .
365
H. Thys, MP2I du lycée Victor Hugo de Besançon
Remarque.
Le point A n’est pas unique.
Proposition 2.3
Soit F un sous-espace affine de E dirigé par F . Pour tout M ∈ F , on a
F = M + F = {M + −
→
u, →
−
u ∈ F }.
Définition 2.4
−→ −→
Soient A, B ∈ E. On définit le vecteur AB par AB = B − A.
Remarque.
Ici, B − A signifie B + (−A) dans l’espace vectoriel E.
Proposition 2.5
Soient A, B, C, M, →
−u ∈ E. Alors
−→ − →
1. AB = 0 si et seulement si A = B.
−→ −→
2. BA = −AB.
−→ →
3. B = A + → −x si et seulement si AB = −
x.
−→ −−→ −→
4. Relation de Chasles : AB + BC = AC.
−−→
5. On a M = A + AM .
Proposition 2.6
Soit F un sous-espace affine de E dirigé par un sous-espace vectoriel F de E, et A ∈ F . Alors
−−→
1. F = {AM , M ∈ F },.
−−→
2. Pour tout M ∈ E, M ∈ F ⇐⇒ AM ∈ F .
Définition 2.7 (Hyperplan affine)
Un hyperplan affine de E est un sous-espace affine dont la direction est un hyperplan de E.
2.2 Translations
Définition 2.8 (Translation)
Soit −
→
u ∈ E. La translation de vecteur →
−
u , notée t−
u , est l’application
→
t−
u : E
→ −→ E
M 7−→ M + →
−
u.
366
H. Thys, MP2I du lycée Victor Hugo de Besançon
Remarque.
Une translation n’est pas une application linéaire, sauf la translation de vecteur nul, qui est alors
idE .
Proposition 2.9
Soient −
→
u ,−
→
v ∈ E.
1. On a t−
u ◦ t−
→ → v ◦ t−
v = t−
→ u = t−
→ v.
u +−
→ →
2. Une translation est une bijection et t−1
→
−
u
= t−−
u.
→
Proposition 2.10 (Image d’un sous-espace affine par une translation)
1. Soit F un sous-espace vectoriel de E et −
→
u ∈ F . Alors t−
→ (F ) = F.
u
2. L’image d’un sous-espace affine par une translation est un sous-espace affine de même direction.
3. Reciproquement, deux sous-espaces affines de même direction sont images l’un de l’autre par une
translation. En particulier, un sous-espace affine est l’image de sa direction par une translation.
2.3 Intersection
Proposition 2.11 (Intersection de sous-espaces affines)
L’intersection de deux sous-espaces affines de directions respectives F et G est soit vide, soit un
sous-espace affine de direction F ∩ G.
Proposition 2.12
Soient F et G deux sous-espaces affines de E de directions respectives F et G.
1. Si E = F + G, alors F ∩ G 6= ∅.
2. Si E = F ⊕ G, alors F ∩ G est réduit à un point.
3 Systèmes linéaires
On fixe dans ce paragraphe deux entiers n, p ∈ N∗ , A ∈ Mn,p (K), r = rang(A), b = (b1 , . . . , bn ) ∈
K n et
b1
..
B = . ∈ Mn,1 (K).
bn
Définition 3.1 (Système linéaire)
1. Le système à n lignes et p inconnues de matrice A et de second membre B est le système
a11 x1 + · · · + a1p xp = b1
(S) : ..
.
a x +···+a x = b
n1 1 np p n
367
H. Thys, MP2I du lycée Victor Hugo de Besançon
d’inconnue (x1 , . . . , xp ) ∈ K p .
2. Le système est homogène si B = 0.
3. Le système homogène associé (S0 ) est le système obtenu en remplaçant B par 0.
4. Le rang du système est le rang de A.
5. Le système est compatible s’il admet au moins une solution.
Remarque.
Rappelons que deux systèmes linéaires sont équivalents s’ils admettent même ensemble de solutions.
Proposition 3.2 (Différentes façons d’interpréter un système)
On fixe x = (x1 , . . . , xp ) ∈ K p .
1. x est une solution de (S) si et seulement si AX = B, où
x1
..
X = . ∈ Mp,1(K).
xp
2. Soit u ∈ L(K p , K n ) l’application linéaire canoniquement associée à A. Alors x est une solution
de (S) si et seulement si u(x) = b, et (S) est compatible si et seulement si b ∈ Im(u).
3. Soient C1 , . . . , Cp ∈ K n les colonnes de A vues comme vecteurs de K n . Alors x est solution de
(S) si et seulement si
p
X
xj Cj = B,
j=1
et (S) est compatible si et seulement si B ∈ vect(C1 , . . . , Cp ).
∗
4. Soient f1 , . . . , fn ∈ K p les formes linéaires canoniquement associées aux lignes L1 , . . . , Ln de
A. Alors x est solution de (S) si et seulement si
∀ k = 1, . . . , n, fk (x) = bk .
Proposition 3.3 (Structure de l’ensemble des solutions)
1. L’ensemble G0 des solutions de (S0 ) est le noyau de u. C’est un sous-espace vectoriel de K p de
dimension p − r.
2. L’ensemble G des solutions de (S) est soit vide, soit un sous-espace affine de K p de direction G0 ,
i.e. si G 6= ∅, et si x ∈ K p est une solution de (S), alors
G = x + G0 .
Définition 3.4 (Système de Cramer)
Le système (S) est de Cramer si n = p et s’il admet exactement une solution.
368
H. Thys, MP2I du lycée Victor Hugo de Besançon
Proposition 3.5
1. Le système (S) est de Cramer si et seulement n = p et si A est inversible.
2. Si u est injective (resp. surjective, bijective), (S) admet au plus (resp. au moins, exactement) une
solution.
3. Si les colonnes C1 , . . . , Cp de A sont linéairement indépendantes, (S) admet au plus une solution.
Proposition 3.6
Le sous-espace vectoriel G0 est l’intersection de r hyperplans de K p .
Proposition 3.7
Si n = p et A est triangulaire, le système (S) est de Cramer si et seulement si les éléments de la
diagonale de A sont tous non nuls.
Proposition 3.8
1. Si r = n � p, le système (S) est équivalent à un système du type
′ ′ ′ ′
a11 xi1 + · · · + a1r xir + · · · + a1p xip = b1
.. ,
.
′ ′ ′
arr xir + · · · + arp xip = br
avec
∀ i = 1, . . . , r, a′ii 6= 0.
Le système est alors compatible et les solutions s’expriment en fonction des inconnues x ir+1 , . . . , xip ,
qui deviennent des paramètres.
2. Si r < n, le système (S) est équivalent à un système du type
′
a11 xi1 + · · · + a′1r xir + · · · + a′1p xip = b′1
..
.
a′rr xir + · · · + a′rp xip = b′r
,
0 = b′r+1
..
.
0 = b′n
et le système est compatible si et seulement si b′r+1 = · · · = b′n = 0.
Remarques.
1. Cette démonstration est en fait ce qu’on fait systématiquement pour résoudre un système !
2. Les deux cas n’en font en fait qu’un : le cas 2, s’il ne finit pas avec une (ou des) ligne nulle, est
en fait le cas 1. C’est un algorithme qui peut se programmer, et dont on peut donner l’expression en
pseudo-langage.
369
H. Thys, MP2I du lycée Victor Hugo de Besançon
4 Compétences
Pour résuidre un système, on utilisera impérativement la technique de manipulation sur les lignes.
Pour un système à n équations et p inconnues, on procède ainsi :
1. On choisit tout d’abord une inconnue et une équation : cette équation est la ligne pivot. On
place cette équation en premier, et également l’inconnue choisie, et ce dans toutes les équations. Le
coefficient de cette inconnue est le pivot.
2. Pour chacune des équations restantes, on élimine l’inconnue choisie en faisant une combinaison
linéaire entre cette équation et la ligne pivot.
3. Il reste alors l’équation pivot, et un système de n − 1 équations à p − 1 inconnues. On recommence
alors le procédé avec ce système.
4. Finalement, il reste un système triangulaire, dans le sens où le nombre d’inconnues dans chaque
équation diminue de 1 à chaque équation, ou passe à 0.
— S’il y a une ou plusieurs équations où toutes les inconuues ont été éliminées, et il ne reste que
des seconds membres, ces équations deviennent des conditions nécessaires et suffisantes pour
que le système admette des solutions. Si ces conditions sont vérifiées (ou on discute pour qu’elles
le soient), on continue la résolution comme ce qui suit.
— Sinon, si dans une équation (la dernière !) il reste une et une seule inconnue, cette équation
donne la valeur de l’inconnue on question, et on résout le système de proche en proche en
remontant les équations.
— Si dans toutes les équations restantes il y a au moins deux inconnues, certaines inconnues vont
jouer le rôle de paramètres, les autres s’exprimant en fonction de ces paramètres. On considère
la dernière équation (i.e. celles qui a le moins d’inconnues), on exprime une des inconnues en
fonctions des autres, qui deviennent les paramètres du système, et on continue la résolution de
proche en proche, toutes les inconnues qui restent s’exprimeront en fonctions des paramètres.
— Lorsque le système contient des paramètres, on ne fait pas de manipulations qui entraînent des
cas particuliers : par exemple l’opération L1 ← L1 + mL2 donnera un système équivaent même
pour m = 0, mais pas l’opération L1 ← mL1 + L2 .
Attention : on ne choisit jamais comme pivot un coefficientvun paramètre qui peut s’annuler. De
même, on ne divise jamais une équation par un paramètre sans avoir au préalable étudié le cas où il
est nul.
370