0% ont trouvé ce document utile (0 vote)
330 vues59 pages

MEU152 Algebre - Lineaire Cours

Ce document présente les définitions et propriétés de base des espaces vectoriels. Il introduit les notions d'addition et de multiplication par un scalaire dans un espace vectoriel, et donne plusieurs exemples dont les espaces vectoriels R, Rn et l'espace des vecteurs du plan ou de l'espace.

Transféré par

AmineHadjout
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
330 vues59 pages

MEU152 Algebre - Lineaire Cours

Ce document présente les définitions et propriétés de base des espaces vectoriels. Il introduit les notions d'addition et de multiplication par un scalaire dans un espace vectoriel, et donne plusieurs exemples dont les espaces vectoriels R, Rn et l'espace des vecteurs du plan ou de l'espace.

Transféré par

AmineHadjout
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

École universitaire Paris-Saclay Année 2020–2021

Licence de Mathématiques 1ère année

MEU152 – Algèbre linéaire


Anne Moreau & Valentin Hernandez

d’après les notes de Guy Henniart et Thierry Ramond

[email protected]
https://www.imo.universite-paris-saclay.fr/~moreau/

Johann Carl Friedrich Gauss, né le 30 avril 1777 à Brunswick et mort le 23 février 1855 à Göttingen, est
un mathématicien, astronome et physicien allemand. Doté d’un grand génie, il apporte de très importantes
contributions à ces trois sciences. Surnommé «le prince des mathématiciens», il est considéré comme l’un
des plus grands mathématiciens de tous les temps.
Table des matières

Chapitre 1. Espaces vectoriels 5


1. Définitions et exemples 5
2. Sous-espaces vectoriels 7
2.1. Généralités 7
2.2. L’espace vectoriel des polynômes 8
3. Combinaisons linéaires 10
4. Familles génératrices 10
5. Familles libres 11
6. Bases d’un espace vectoriel 12
6.1. Définition, exemples 12
6.2. Dimension d’un espace vectoriel 13
6.3. Le théorème de la base incomplète 15
7. Bases et équations d’un sous-espace vectoriel 16
7.1. Comment trouver un système d’équations d’un sous-espace vectoriel donné par une famille
génératrice ? 16
7.2. Comment trouver une base d’un sous-espace vectoriel donné par un système d’équations ? 17
8. Intersection et somme de sous-espaces vectoriels 17
8.1. Intersection de sous-espaces 18
8.2. Somme de sous-espaces 19
8.3. Somme directe 20
8.4. Formule de la dimension 20
8.5. Comment construire une base de l’intersection de deux sous-espaces vectoriels ? 21

Chapitre 2. Matrices 23
1. L’espace vectoriel des matrices 23
2. Produit de matrices 25
3. Opérations sur les lignes d’une matrice 27
4. Inverse d’une matrice carrée 28
4.1. Définition 28
4.2. Existence 30
4.3. Calcul pratique de l’inverse 30

Chapitre 3. Applications linéaires 33


1. Généralités 33
1.1. Définition 33
1.2. Exemples 33
1.3. Somme et composition d’applications linéaires 34
2. Noyau et Image 34
2.1. Injection, surjection, bijection 34
2.2. Noyau d’une application linéaire 35
2.3. Image d’une application linéaire 36
2.4. Applications linéaires bijectives 36
3
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

2.5. Le théorème du rang 37


3. Dérivation et arithmétique dans R[X] 38
3.1. Dérivation 38
3.2. Arithmétique dans R[X] et racines d’un polynôme 39
4. Matrices d’une application linéaire 41
4.1. Définition 41
4.2. Liens entre une application linéaire et sa matrice dans des bases données 42
4.3. Rang d’une application linéaire et rang de sa matrice 43
4.4. Matrice d’une bijection 44
5. Changement de base 44
5.1. Matrice de passage d’une base dans une autre 44
5.2. Matrices semblables 46
6. Projections et symétries vectorielles 47
6.1. Projections 47
6.2. Symétries 48

Chapitre 4. Déterminant d’une matrice 51


1. Introduction 51
2. Definition et calcul pratique du déterminant 52
2.1. Définition 52
2.2. Calcul d’un déterminant par la méthode du pivot 52
3. Déterminant d’un produit de matrices 54
4. Déterminant et matrice transposée 55
5. Développement par rapport à une ligne ou une colonne 56
6. Existence de la fonction déterminant 57
7. Une formule explicite pour le déterminant 59

4
1
Espaces vectoriels

1. Définitions et exemples
Soit E un ensemble. On suppose que l’on sait additionner deux éléments de E, et qu’on obtient alors un
élément de E. On note
a+b
la somme des éléments a et b de E. On suppose aussi que l’on sait multiplier un élément de E quelconque
par un réel, et que l’on obtient ainsi un élément de E. On note λ.a le produit du réel λ et de a ∈ E. Dans ces
conditions, on dit que «+» est une loi de composition interne sur E, et que «.» est une loi de composition
externe sur R × E.

Exemple 1. Soit E = R. On sait ajouter deux éléments de R, et multiplier un élément de R par un élément
de R.

Exemple 2. Soit E = Rn , c’est-à-dire l’ensemble des n-uplets (x1 , . . . , xn ) d’éléments de R. Les réels
x1 , . . . , xn sont appelées les composantes du n-uplets (x1 , . . . , xn ). Soient (x1 , . . . , xn ) et (y1 , . . . , yn ) deux
n-uplets, et λ ∈ R. On note
(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , x1 + yn ),
le n-uplet obtenu en ajoutant les deux n-uplets composante par composante, et
λ.(x1 , . . . , xn ) = (λx1 , . . . , λxn ),
le n-uplet obtenu en multipliant chacune des composantes par λ.

Exemple 3. Soit V l’ensemble des vecteurs du plan ou de l’espace. On rappelle qu’un vecteur non nul est la
donnée d’une direction, d’un sens et d’une longueur. Si ~v est le vecteur nul, λ.~v est le vecteur nul pour tout
λ ∈ R. Pour λ ∈ R et ~v ∈ V non nul, le vecteur λ.~v est le vecteur nul si λ = 0, et pour λ 6= 0 le vecteur
— de même direction que ~v ,
— de même sens que ~v si λ > 0 et de sens opposé si λ < 0,
— de longueur |λ| fois la longueur de ~v .
On sait aussi ajouter deux vecteurs ~u et ~v de V : on trace un représentant de ~v en partant de l’extrémité
d’un représentant de ~u.

~v
~u + ~v

~u

Exemple 4. Soit X un ensemble quelconque, et F (X, R) l’ensemble des fonctions de X dans R. La somme
f + g de deux éléments f et g de F (X, R) est la fonction de X dans R définie par
h : X → R, x 7→ f (x) + g(x).
5
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Le produit k = λ.f de la fonction f par un réel λ st la fonction de X dans R définie par


k : X → R, x 7→ λf (x).
Ces définitions sont les définitions usuelles dans le cas X = R.

Définition 1 – espace vectoriel

Soit (E, +, .) un triplet constitué d’un ensemble E, d’une loi de composition interne «+» et d’une
loi de composition externe «.» sur E. On dit que (E, +, .) est un espace vectoriel lorsque les lois
«+» et «.» vérifient les huit propriétés suivantes :
(1) pour tous a, b ∈ E, a + b = b + a,
(2) pour tous a, b, c ∈ E, a + (b + c) = (a + b) + c,
(3) il existe un élément e de E tel que pour tout a ∈ E, a + e = e + a = a,
(4) pour tout a ∈ E, il existe un élément b de E tel que a + b = b + a = e,
(i) pour tout a ∈ E, 1.a = a,
(ii) pour tous réels λ, µ et tout a ∈ E, λ.(µ.a) = (λµ).a,
(iii) pour tous réels λ, µ et tout a ∈ E, (λ + µ).a = λ.a + µ.a,
(iv) pour tous a, b ∈ E et tout réel λ, λ.(a + b) = λ.a + λ.b.

Lorsque la propriété (1) est vérifiée, on dit que la loi «+» est commutative. Si la propriété (2) est vérifiée, on
dit que la loi «+» est associative.

Exercice de cours 1 (unicité de l’élément neutre et du symétrique).


1. Démontrer que l’élément e de la propriété (3) est unique. On l’appelle l’élément neutre pour la
loi «+». On le note la plupart du temps 0E ou simplement 0, et on l’appelle aussi le vecteur nul
de E.
2. Démontrer que l’élément b de la propriété (4) est lui aussi unique s’il existe. Le cas échéant, on
l’appelle le symétrique ou l’opposé de a, et on le note b = −a.

Définition 2 – groupe commutatif

Lorsque les propriétés (1) à (4) sont vérifiées, on dit que (E, +) est un groupe commutatif.

Lorsque la propriété (i) est vérifiée, on dit que le réel 1 est l’élément neutre pour la loi externe. On dit que la
loi externe est associative lorsque (ii) est vraie. Les deux dernières propriétés (iii) et (iv) sont des propriétés
de distributivité.

Proposition 3 – règles de calcul dans un espace vectoriel

Pour tout x ∈ E, notant 0E l’élément neutre de l’addition dans (E, +, .), on a


0.x = 0E et (−1).x = −x.

Exercice de cours 2 (règles de calcul dans un espace vectoriel).


1. Démontrer la proposition 3.
2. En déduire que pour tous x, y ∈ E et tous rééls λ, µ,
λ.(x − y) = λ.x − λ.y,
(λ − µ).x = λ.x − µ.x,
λ.x = 0E ⇐⇒ λ = 0 ou x = 0E ,
où l’on note pour x, y ∈ E, x − y pour x + (−y).

6
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

On retiendra donc que dans un espace vectoriel, on peut effectuer les calculs selon les mêmes règles que
celles utilisées pour manipuler les vecteurs du plan ou de l’espace.

Exercice de cours 3 (exemples fondamentaux). Reprendre les exemples précédents 1–4 et démontrer
que ce sont bien des espaces vectoriels. Préciser pour chacun d’entre eux l’élément neutre et le symétrique
de tout élément.

L’exemple suivant généralise l’exemple 4.


Exemple 5. Si F est un espace vectoriel et X un ensemble, on peut définir sur l’ensemble F (X, F ) des
fonctions de X dans F les deux opérations sommes et produit par un réel comme dans l’exemple 4 en
utilisant les opérations dans F . On montre facilement, comme dans le cas de F (X, R), que F (X, F ) muni
de ces opérations est un espace vectoriel.

Exercice de cours 4. Vérifier les assertions de l’exemple précédent.

Voici un autre exemple d’espace vectoriel important.


Exemple 6. Soit S l’ensemble des suites de nombres réels. On définit la somme (un )n∈N + (vn )n∈N de
(un )n∈N et (vn )n∈N comme étant la suite (un + vn )n∈N , et le produit λ.(un )n∈N de la suite (un )n∈N par le réel
λ comme étant la suite (λun )n∈N . Comme dans les exemples précédents, il est facile de voir que (S , +, .) est
un espace vectoriel en se ramenant aux propriétés de l’addition et de la multiplication dans R. Son élément
neutre est la suite nulle, i.e., la suite (un )n∈N où un = 0 pour tout n ∈ N. On peut voir S comme F (N, R).
Remarque 1. 1. Un point de vocabulaire : en toute rigueur, il est abusif de dire ou d’écrire que E
est un espace vectoriel ; c’est le triplet (E, +, .) qui est un espace vectoriel, E désignant seulement
l’ensemble sous-jacent. Cependant, on s’autorisera bien souvent cet abus de langage, surtout dans
les exercices.
2. Dans la définition 1, les éléments λ, µ qui opèrent dans E pour la loi externe sont des réels. On dit
parfois que (E, +, .) est un espace vectoriel réel, ou encore que (E, +, .) est un R-espace vectoriel.
On définit de la même manière un espace vectoriel complexe, ou C-espace vectoriel, (E, +, .) en
remplaçant dans la définition 1 «réel» par «complexe».
Exemple 7. L’ensemble Cn des n-uplets (x1 , . . . , xn ) de nombres complexes muni des lois «+» et «.» définies
comme pour Rn forme un C-espace vectoriel.

2. Sous-espaces vectoriels
2.1. Généralités.

Définition 4 – sous-espace vectoriel

Soient (E, +, .) un espace vectoriel, et F une partie de E. On dit que F est un sous-espace vectoriel
de E lorsque les trois propriétés suivantes sont vérifiées :
1. le vecteur nul 0E de E appartient à F ,
2. pour tous éléments a et b de F , a + b est aussi un élément de F ,
3. pour tout réel λ et tout élément a de F , λ.v est aussi un élément de F .

Exemple 8. Dans (R, +, .) il n’y a pas beaucoup de sous-espaces vectoriels. Soit en effet F un sous-espace
vectoriel de E. Si F contient un élément non nul a, alors pour tout λ ∈ R, on sait que λa appartient à F .
Comme n’importe quel élément x de R peut s’écrire λa (prendre λ = x/a), on voit que F contient R tout
entier, donc F = R.
D’autre part le singleton (F = {0}, +, .) est un sous-espace vectoriel de R (les propriétés de la définition 4
sont faciles à vérifier). En conclusion, les seuls sous-espaces vectoriels de R sont {0} et R.

Exercice de cours 5. Vérifier que l’ensemble F = {(x, y) ∈ R2 : x + y = 0} est un sous-espace vectoriel


de R2 .

7
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

" Attention, l’ensemble G = {(x, y) ∈ R2 : x + y = 1} n’est pas un sous-espace vectoriel de R2 .


Il «ressemble» toutefois à un sous-espace vectoriel. En effet, le point A = (1, 0) appartient à G, et
l’ensemble
F = {(x, y) ∈ R2 : A + (x, y) ∈ G}
est un sous-espace vectoriel de R2 .

Exercice de cours 6.
1. Représenter F et G sur une même figure et vérifier les assertions précédentes. Dans ces conditions,
on dit que G = A + F est un espace affine de direction F .
2. Donner d’autres exemples de sous-espaces vectoriels de R2 , et d’autres exemples de sous-
ensembles de R2 qui ne sont pas des sous-espaces vectoriels de R2 .

Exemple 9. L’ensemble C 0 (R, R) des fonctions continues de R dans R est un sous-espace vectoriel de
F (R, R).
Exemple 10. L’ensemble S0 des suites de nombres réels qui convergent est un sous-espace vectoriel de S .
En revanche, l’ensemble S∞ des suites de nombres réels qui divergent n’est pas un sous-espace vectoriel
de S .

Exercice de cours 7. Vérifier les assertions des exemples précédents.

Remarque 2 (sous-espaces vectoriels triviaux). L’ensemble F = {0E } est toujours un sous-espace vectoriel
de n’importe quel espace vectoriel E. En effet 0E + 0E = 0E ∈ E et λ.0E = 0E ∈ E pour tout λ ∈ R. On
parle du sous-espace vectoriel nul. L’ensemble E est lui aussi toujours un sous-espace vectoriel de E.

Proposition 5 – structure de l’ensemble des solutions d’un système linéaire homogène

Soient n, p ∈ N. L’ensemble des solutions d’un système linéaire homogène (de n équations) à p
inconnues est un sous-espace vectoriel de Rp .

Exercice de cours 8. Démontrer la proposition précédente.

L’intérêt principal de la notion de sous-espace vectoriel réside dans la proposition suivante.

Proposition 6 – un sous-espace vectoriel est un espace vectoriel

Si F est un sous-espace vectoriel d’un espace vectoriel (E, +, .), alors «+» est une loi interne sur
F et «.» est une loi externe sur F . De plus (F, +, .) est un espace vectoriel.

Exercice de cours 9. Démontrer la proposition précédente.

Remarque 3. En pratique, pour démontrer qu’un ensemble muni de deux lois est un espace vectoriel, on a
toujours intérêt à démontrer que c’est un sous-espace vectoriel d’un espace vectoriel connu qui le contient. Il
n’y a alors que trois propriétés à démontrer, au lieu des huit propriétés de la définition 1.
2.2. L’espace vectoriel des polynômes. On rappelle qu’une fonction polynomiale, ou fonction poly-
nôme, est une fonction de la forme
f : R −→ R
x 7−→ a0 + a1 x + a2 x2 + · · · + an xn ,
où n ∈ N est un entier naturel et les coefficients a0 , . . . , an sont des réels éventuellement nuls.
Pour k ∈ N, on note X k la fonction polynomiale qui à x associe xk . Pour k = 0, X k est donc la fonction
constante égale à 1 que l’on note simplement 1 (on adopte la convention X 0 = 1). Ainsi, par définition, une
fonction polynomiale est une combinaison linéaire des X k (voir la définition 9) : une fonction polynôme est
8
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

une fonction de R dans R telle qu’il existe n ∈ N et a0 , . . . , an ∈ R tels que f = a0 + a1 X + a2 X 2 + · · · + an X n .


Une telle combinaison linéaire a0 + a1 X + a2 X 2 + · · · + an X n est également appelée un polynôme. On note
R[X] l’ensemble des polynômes (à coefficients réels).
La distinction entre «polynôme» et «fonction polynomiale» sera faite dans les cours d’algèbres au cours
des années années suivantes. Pour ce cours, on confondra les deux notions de sorte que R[X] est l’ensemble
des fonctions polynômiales.

Définition 7 – degré et coefficient dominant d’un polynôme

Soit P = a0 + a1 X + a2 X 2 + · · · + an X n ∈ R[X] un polynôme non nul. On appelle degré de P , et


on note deg P , le maximum des i ∈ {0, . . . , n} tels que ai 6= 0. Le coefficient adeg P est appelé le
coefficient dominant de P .
Par convention, le degré du polynôme nul (où tous les ai sont nuls) est −∞.

Par exemple, le degré des fonctions polynomiales x 7→ 3x + 2, x 7→ −x2 , x 7→ −x2 + 0 × x3 est 1, 2, 2


7 3x + 2, x 7→ −x2 , x 7→ −x2 + 0 × x3
respectivement. Le coefficient dominant des fonctions polynomiales x →
est 3, −1, et −1 respectivement.

Exercice de cours 10. Montrer que l’ensemble R[X] des polynômes à coefficients réels est un espace
vectoriel. Préciser la loi interne «+» et la loi externe «.» ainsi que l’élément neutre.
Indication : identifier R[X] à un sous-espace vectoriel de l’espace vectoriel F (R, R) des fonctions de R
dans R.

Proposition 8 – le degré de la somme de deux polynômes est inférieur au maximum des degrés

Pour tous P, Q ∈ R[X],


deg(P + Q) 6 max(deg(P ), deg(Q)).
De plus, si deg(P ) 6= deg(Q) alors deg(P + Q) = max(deg(P ), deg(Q)).

Exercice de cours 11. Démontrer la proposition.

" Il se peut que deg(P + Q) < max(deg P, deg Q) lorsque P et Q sont de même degré. Par exemple,
si P = X 2 + X et Q = −X 2 , alors deg(P + Q) = deg(X) = 1 < max(deg P, deg Q) = 2.
On peut aussi multiplier deux polynômes. Plus généralement, si f, g ∈ F (R, R) sont deux fonctions de
R dans R, la fonction h = f × g de R dans R est définie par : h(x) = f (x)g(x) pour tout x ∈ R.

Exercice de cours 12 (produit de deux polynômes).


1. Montrer que le produit de deux polynômes est encore un polynôme. Précisément, si P =
a0 + a1 X + a2 X 2 + · · · + an X n et Q = b0 + b1 X + b2 X 2 + · · · + bm X m , où m, n ∈ N,
a0 , . . . , an , b0 , . . . , bm ∈ R sont deux polynômes, exprimer les coefficients du polynôme P Q en
fonction des ai et des bj .
2. Que vaut deg(P Q) ?

" Nous avons vu au cours de l’exercice précédent qu’il existe dans l’espace vectoriel R[X] des poly-
nômes une autre loi interne, la multiplication entre polynômes (en plus de la loi interne «+»). Ceci
est très spécifique à cet espace vectoriel : en général, on ne peut pas multiplier deux éléments d’un
même espace vectoriel !
Remarque 4. Un espace vectoriel (E, +, .) muni d’une (autre) loi interne, E × E → E, (x, y) 7→ x × y,
notée «×» et appelée la multiplication, telle que la multiplication soit distributive par rapport à l’addition
et compatible avec la loi externe «.» est appelé une algèbre. Nous rencontrerons d’autres exemples d’algèbres
dans ce cours : l’espace vectoriel Mn (R) des matrices carrées réelles d’ordre n muni de la multiplication des
matrices, et l’espace vectoriel L (E) des endomorphismes d’un espace vectoriel E muni de la composition des
endomorphismes (voir le paragraphe 2.1).
9
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

3. Combinaisons linéaires
Nous allons généraliser la notion de combinaison linéaire vue à propos des polynômes à n’importe quel
espace vectoriel.

Définition 9 – combinaison linéaire

Soient u1 , u2 , . . . , un des vecteurs d’un espace vectoriel (E, +, .). On dit que v ∈ E est une combi-
naison linéaire de u1 , u2 , . . . , un lorsqu’il existe des réels λ1 , λ2 , . . . , λn tels que
v = λ1 u1 + λ2 u2 + · · · + λn un
n
X
= λ j uj .
j=1

Avec cette nouvelle terminologie, on a une version plus courte de la définition d’un sous-espace vectoriel :

Proposition 10 – sous-espace vectoriel et stabilité par combinaisons linéaires

Soit (E, +, .) un espace vectoriel. Une partie F de E est un sous-espace vectoriel de E si et


seulement si F contient 0E et F est stable par combinaison linéaire, c’est-à-dire :
∀ u, v ∈ F, ∀ λ, µ ∈ R, λu + µv ∈ F.

Exemple 11. Dans R3 , le vecteur u = (3, 3, 1) est-il combinaison linéaire de v1 = (1, 1, 0) et v2 = (1, 1, 1) ? Il
s’agit de savoir s’il existe deux réels λ1 et λ2 tels que λ1 .(1, 1, 0) + λ2 .(1, 1, 1) = (3, 3, 1). On est donc amené
à résoudre le système

 λ1 + λ2 = 3,
λ + λ2 = 3,
 1
λ2 = 1.
Ce système a une (unique) solution (λ1 , λ2 ) = (2, 1), donc u = 2v1 + v2 est bien combinaison linéaire de v1
et v2 .

Exercice de cours 13. À quelle condition le vecteur w = (a, b, c) est-il une combinaison linéaire de
u = (1, 2, −1) et v = (6, 4, 2) ?

4. Familles génératrices
On commence par un point de vocabulaire : une famille d’éléments d’un ensemble E est une liste, finie
ou non, d’éléments de E. Puisque des éléments de la liste peuvent être égaux, on ne doit pas confondre cette
notion de famille avec celle de sous-ensemble de E. On note
F = (u1 , u2 , . . . un ),
entre parenthèses, la famille constituée des éléments u1 , u2 , . . ., un . Dans le cadre des espaces vectoriels, on
prendra garde à ne pas confondre une famille de n vecteurs avec un élément de Rn même si la notation est
similaire.

Proposition 11 – les combinaisons linéaires de vecteurs donnés forment un sous-espace vectoriel

Soient u1 , u2 , . . . , un des vecteurs d’un espace vectoriel (E, +, .). L’ensemble de toutes les combi-
naisons linéaires de u1 , u2 , . . . , un est un sous-espace vectoriel de E. On le note Vect(u1 , u2 , . . . , un )
et on l’appelle le sous-espace vectoriel engendré par la famille (u1 , u2 , . . . , un ).

Exercice de cours 14. Démontrer la proposition précédente.

10
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Remarque 5. Le sous-espace vectoriel Vect(u1 , u2 , . . . , un ) est le plus petit (pour l’inclusion) des sous-espaces
vectoriels de E qui contient u1 ,. . ., un . En effet si F est un tel sous-espace vectoriel de E, comme il est stable
par combinaison linéaire, il contient toutes les combinaisons linéaires de u1 ,. . ., un , donc Vect(u1 , u2 , . . . , un ).

Définition 12 – famille génératrice

Soient (E, +, .) un espace vectoriel et G un sous-espace vectoriel de E. Soient u1 , . . . , un des


vecteurs de G. On dit que la famille de vecteurs (u1 , u2 , . . . , un ) engendre G, ou encore est une
famille génératrice de G, lorsque G = Vect(u1 , u2 , . . . , un ).

Exemple 12. Soient n ∈ N et Rn [X] l’ensemble des polynômes à coefficients réels de degré inférieur ou égal
à n. Nous avons vu lors de l’exercice 10 que R[X] était un sous-espace vectoriel de F (R, R). L’ensemble
Rn [X] est lui aussi un sous-espace vectoriel de F (R, R) (et de R[X]). En effet la fonction nulle est par
convention un polynôme de degré −∞, donc (par abus de langage) inférieur ou égal à n, et une combinaison
linéaire de polynômes de degré inférieur ou égal à n est bien un polynôme de degré inférieur ou égal à n
(voir la proposition 8). Autrement dit, Rn [X] est le sous-espace vectoriel de F (R, R) engendré par la famille
(1, X, . . . X n ) :
Rn [X] = Vect(1, X, . . . X n ).

Exercice de cours 15.


1. La famille ((1, 1, 2), (−1, 0, 1), (2, 1/3, −1)) engendre-t-elle R3 ?
2. Trouver une équation cartésienne de F = Vect((1, 1, 2), (−1, 0, 1), (2, 1/3, −1)).

5. Familles libres
Définition 13 – famille libre

On dit que la famille (u1 , u2 , . . . , un ) de vecteurs d’un espace vectoriel (E, +, .) est libre lorsque :
λ1 u1 + λ2 u2 + · · · + λn un = 0E =⇒ λ1 = λ2 = · · · = λn = 0.

Lorsqu’une famille de vecteurs d’un espace vectoriel (E, +, .) n’est pas libre, on dit qu’elle est liée.

Exercice de cours 16. Dans Rn [X], montrer que la famille (1, X, . . . , X n ) est libre.

Exercice de cours 17 (famille de polynômes non nuls de degrés deux à deux distincts). Montrer
qu’une famille de polynômes non nuls de degrés deux à deux distincts est libre.

" la réciproque de l’exercice précédent est fausse. Des polynômes peuvent parfaitement former une
famille libre sans être de degrés deux à deux distincts ; ils peuvent même former une famille libre tout
en étant tous de même degré, comme par exemple dans le cas de la famille (X n , X n + 1, X n + X, X n +
X 2 , . . . , X n + X n−1 ) de Rn [X].

Exemple 13. Dans l’espace vectoriel F des fonctions de R dans R, on considère la famille (cos, sin) constituée
des deux fonctions trigonométriques cosinus et sinus bien connues, et on se demande si elle est libre. On
suppose donc que pour deux réels λ1 , λ2 , on a
(1) λ1 . cos +λ2 . sin = 0 (= 0F ).
" Cette égalité est une égalité dans F , autrement dit entre fonctions ; en particulier le «0» qui figure
dans le membre de droite est la fonction nulle, pas le nombre 0.
L’équation (1) signifie :
∀ x ∈ R, λ1 cos(x) + λ2 sin(x) = 0.
En particulier en prenant x = 0, on trouve λ1 = 0, et pour x = π/2, on trouve λ2 = 0. Donc la famille
(cos, sin) est libre dans F .
11
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Exercice de cours 18. Soit a ∈ R. Dans R3 , montrer que famille ((1, 1, 2), (−1, 0, 1), (2, a, −1)) est
libre si et seulement si a 6= 1/3.

Remarque 6. Il est important de noter que pour déterminer si une famille est génératrice, on s’est posé la
question de l’existence de solutions pour un système linéaire, tandis que pour savoir si une famille est libre,
il s’est agit de savoir si un système linéaire admet une unique solution ou bien plusieurs.

6. Bases d’un espace vectoriel


6.1. Définition, exemples.

Définition 14 – base

On dit que la famille finie B = (u1 , u2 , . . . , un ) de vecteurs d’un espace vectoriel (E, +, .) est une
base de E lorsque B est libre et génératrice.

Exemple 14. Dans Rn on note e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . ., en = (0, . . . , 0, 1). La famille
(e1 , . . . , en ) est une base, qu’on appelle la base canonique de Rn . Prouvons en effet que cette famille est
génératrice. Soit (x1 , x2 , . . . , xn ) un vecteur de Rn . On cherche λ1 , . . . , λn dans R tels que
λ1 .e1 + · · · + λn .en = (x1 , x2 , . . . , xn ).
Puisque λ1 .e1 + · · · + λn .en = (λ1 , . . . , λn ), il suffit de prendre λj = xj pour tout j ∈ {1, . . . , n}. On montre
maintenant que (e1 , . . . , en ) est une famille libre. Supposons que
λ1 .e1 + · · · + λn .en = 0Rn = (0, . . . , 0).
Encore une fois puisque λ1 .e1 + · · · + λn .en = (λ1 , . . . , λn ), cette égalité entraine λ1 = · · · = λn = 0.
Exemple 15. Dans Rn [X], on a déjà vu que la famille (1, X, . . . , X n ) est génératrice (c’est la définition de
Rn [X]), et libre. C’est donc une base de Rn [X], appelée elle aussi la base canonique, de Rn [X] cette fois.

Proposition 15 – coordonnées dans une base

Soit B = (u1 , u2 , . . . , un ) une base de l’espace vectoriel (E, +, .). Pour chaque x ∈ E, il existe un
unique n-uplet (x1 , . . . , xn ) ∈ Rn tel que
X n
x= xj uj .
j=1

On note alors    
x1 x1
 x2   x2 
x =  .  , ou x =  .  ,
   
 ..   .. 
xn B xn
s’il n’y a pas d’ambiguïté, et l’on dit que x1 , x2 , . . . xn sont les coordonnées de x dans la base B.

Exercice de cours 19. Démontrer cette proposition.

Dans le cas de l’espace vectoriel Rn , les coordonnées du n-uplet x = (x1 , x2 , . . . , xn ) dans la base canonique
E = (e1 , e2 , . . . , en ) sont
 
x1
 .. 
x= . ,
xn E
puisque l’on voit facilement que x = x1 e1 + x2 e2 + · · · + xn en .
" Il est important de bien distinguer les composantes x1 , x2 , . . . , xn du n-uplet x = (x1 , x2 , . . . , xn )
de Rn et ses coordonnées dans une base donnée.
12
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Par exemple, dans R2 , on dispose de la base canonique E = (e1 , e2 ) avec e1 = (1, 0) et e2 = (0, 1), mais aussi
de la base B = (u1 , u2 ) avec u1 = (1, 1) et u2 = (1, −1). Pour le vecteur x = (2, 3) , on a
   5 
2 2
x= = ,
3E − 21 B

puisque x = 2e1 + 3e2 = 52 u1 − 12 u2 .

Exercice de cours 20. Donner les coordonnées du polynôme P (X) = 2X 2 − 3X + 1 dans la base
canonique de R2 [X], puis dans la base B = (Q1 , Q2 , Q3 ) avec Q1 (X) = X + 1, Q2 (X) = X 2 et Q3 (X) =
X − 1.

Exercice de cours 21. Donner les coordonnées des vecteurs de la base canonique E de Rn dans la
base E . Si B est une base quelconque, quelles sont les coordonnées des vecteurs de B dans B ?

6.2. Dimension d’un espace vectoriel. On commence par un résultat dont la preuve est un peu
longue, mais qui a de nombreuses conséquences importantes.

Proposition 16 – lien entre le nombre d’éléments d’une famille libre et d’une famille génératrice

Soit (E, +, .) un espace vectoriel. On suppose que E admet


— une famille génératrice (u1 , u2 , . . . , un ),
— une famille libre (v1 , v2 , . . . vp ).
Alors nécessairement p 6 n. De plus, si p = n, alors (u1 , u2 , . . . , un ) et (v1 , v2 , . . . vp ) sont des bases
de E.

Exercice de cours 22. Le but de cet exercice est de démontrer la proposition 16.
1. Soit v ∈ Vect(v1 , v2 , . . . vp ).
1.1 Montrer qu’il existe un unique p-uplet (λ1 , . . . , λp ) de Rp tel que
(2) λ1 v1 + λ2 v2 + · · · + λp vp = v.
1.2 Montrer qu’il existe des réels ai,j , i ∈ {1, . . . , p}, j ∈ {1, . . . , n}, et des réels x1 , . . . xn tels
que 

 v1 = a1,1 u1 + a1,2 u2 + · · · + a1,n un ,
 v2 = a2,1 u1 + a2,2 u2 + · · · + a2,n un ,

.. ..


 . .
vp = ap,1 u1 + ap,2 u2 + · · · + ap,n un ,

et v = x1 u1 + x2 u2 + · · · + xn un .
1.3 Remarquer que si le système

 a1,1 λ1 + a2,1 λ2 + · · · + ap,1 λp
 = x1 ,
 a1,2 λ1 + a2,2 λ2 + · · · + ap,2 λp

= x2 ,
(3) .. ..


 . .
a1,n λ1 + a2,n λ2 + · · · + ap,n λp

= xn ,
admet une solution (λ1 , . . . , λp ), c’est aussi une solution de l’équation (2). En déduire
que le rang de ce système est p puis que p 6 n.
2. Si p = n, déduire des questions précédentes que (v1 , v2 , . . . vp ) est une famille génératrice, donc
une base, et que (u1 , u2 , . . . , un ) est une famille libre, donc une base.

Proposition 17 – toutes les bases ont le même nombre d’éléments

Si E admet une base, alors toutes les bases de E ont le même nombre d’éléments.

13
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Exercice de cours 23. Démontrer la proposition à l’aide de la proposition 16.

Définition 18 – dimension

Soit (E, +, .) un espace vectoriel non nul. S’il existe une base de E, on appelle dimension de E, et
on note dim E, le nombre commun d’éléments de toutes les bases de E. Dans ce cas, on dit que E
est de dimension finie. Sinon on dit que E est de dimension infinie, et on note dim E = +∞.

Remarque 7. L’espace vectoriel E = {0E } n’admet pas de famille libre puisque toute famille de E contient
0E . Par convention, on dit pourtant que E a pour dimension 0.

Par analogie avec la situation dans E = R3 , les sous-espaces vectoriels de dimension 1 sont appelés
«droites», et les sous-espaces vectoriels de dimension 2 sont appelés «plans». Les sous-espaces vectoriels de
dimension n − 1 d’un espace de dimension n sont appelés hyperplans.

Exercice de cours 24. Soit (E, +, .) un espace vectoriel non nul. Montrer que les droites de E sont
les sous-espaces vectoriels de la forme Vect(u) où u est un vecteur non nul de E.

Exercice de cours 25. Montrer que Rn [X] est de dimension finie. Quelle est sa dimension ?

" Il existe des espaces vectoriels qui ne sont pas de dimension finie.
Par exemple l’espace R[X] des polynômes à coefficients réels. Supposons en effet qu’il existe une base
B = (P1 , P2 , . . . , Pk ) de R[X], et notons n le maximum des degrés des polynômes de B. Puisque X n+1 ∈ R[X],
il existe des réels λ1 , . . . , λk tel que

X n+1 = λ1 P1 + λ2 P2 + · · · + λk Pk .

Mais le polynôme du membre de droite est de degré inférieur ou égal à n, alors que celui du membre de
gauche est de degré n + 1, ce qui est absurde. On a donc

dim R[X] = +∞.

Exercice de cours 26 (un lemme utile sur les familles libres). Soient (v1 , v2 , . . . , vk ) une famille libre de
E et v un vecteur de E n’appartenant pas à Vect(v1 , v2 , . . . , vk ). Montrer que la famille (v1 , v2 , . . . , vk , v)
est encore libre.

Voici une autre conséquence importante de la proposition 16.

Proposition 19 – inclusion et dimension

Soit E un espace vectoriel de dimension finie. Soient V et W deux sous-espaces vectoriels de E,


tels que V ⊂ W . Alors V et W sont de dimension finie et dim V 6 dim W . De plus V = W si et
seulement si dim V = dim W .

Exercice de cours 27. Le but de l’exercice est de démontrer la proposition 19.


1. Démontrer qu’un sous-espace vectoriel V d’un espace E de dimension finie est de dimension
finie. Indication : remarquer que si V 6= {0E }, V admet des familles libres, et considérer une
famille libre avec un nombre maximal d’éléments.
2. Supposons maintenant que V ⊂ W soient des sous-espaces vectoriels de E. Montrer que dim V 6
dim W .
3. Montrer que si dim V = dim W , alors V = W . Conclure.

14
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

6.3. Le théorème de la base incomplète. On montre maintenant deux résultats importants pour les
espaces vectoriels de dimension finie. D’une part, on peut toujours extraire une base d’une famille génératrice,
et d’autre part, on peut toujours compléter une famille libre de manière à obtenir une base. C’est cette
deuxième propriété qui porte le nom de «théorème de la base incomplète».
On commence par un exercice.

Exercice de cours 28. Soient v1 = (1, 2, 3, 0), v2 = (0, 2, 2, 4) et v3 = (−1, a, 2a − 3, 4a) trois vecteurs
de R4 , et F = Vect(v1 , v2 , v3 ). Par définition, la famille (v1 , v2 , v3 ) est une famille génératrice de F . On
veut trouver une base de F .
1. Montrer que (v1 , v2 , v3 ) est une base de F si et seulement si a 6= 2.
2. Si a = 2, montrer que (v1 , v2 ) est une base de F .

Dans l’exercice précédent, on a obtenu une base à partir d’un système générateur, en gardant les vecteurs
correspondants aux inconnues principales. C’est un fait général :

Proposition 20 – de toute famille génératrice on peut extraire une base

Soient V un sous-espace vectoriel de Rn , et F = (v1 , . . . , vp ) une famille génératrice de V qui


n’est pas une base de V . On peut extraire de F une base de V : il suffit d’échelonner le système
correspondant à l’équation
(4) λ1 v1 + · · · + λp vp = 0,
d’inconnues λ1 , . . . , λp . Les vecteurs vj1 , . . . , vjr correspondant aux inconnues principales consti-
tuent alors une base de V . En particulier la dimension de V est égale au rang r du système.

On veut maintenant compléter une famille libre en une base. Le procédé vu ci-dessus permet de prouver
le résultat suivant, très important :

Théorème 21 – théorème de la base incomplète

Soient (E, +, .) un espace vectoriel de dimension finie et B une base de E. Toute famille libre de E
qui n’est pas une base peut être complétée en une base de E en lui adjoignant des vecteurs de B.

Exercice de cours 29. Le but de l’exercice est de démontrer le théorème de la base incomplète. Soient
(v1 , v2 , . . . , vk ) une famille libre de E, et B = (w1 , . . . , wn ) une base de E.
1. Pourquoi la famille F = (v1 , v2 , . . . vk , w1 , . . . , wn ) engendre-t-elle E ?
2. En considérant le système homogène de n équations à k + n inconnues dont les coefficients sont
les coordonnées des vecteurs de F dans la base B, associé à l’équation
x1 v1 + x2 v2 + · · · + xk vk + y1 w1 + · · · + yn wn = 0E ,
montrer que l’on peut trouver une base de E qui commence par les vj . Conclure.

Exercice de cours 30 (Une autre démonstration du théorème de la base incomplète). Démontrer le


théorème de la base incomplète par récurrence sur n − k, où k et n sont comme dans l’exercice précédent.

Voici une conséquence utile des deux résultats de ce paragraphe.

Proposition 22 – une condition suffisante pour qu’une famille libre/génératrice soit une base

Dans un espace vectoriel de dimension finie n, toute famille libre qui a n éléments est une base.
Toute famille génératrice qui a n éléments est une base.

15
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Exercice de cours 31. Démontrer cette proposition à l’aide des propositions 16 et 20.

Exercice de cours 32. Soit n un entier naturel. Pour tout k ∈ {0, . . . , n}, on suppose que Pk est un
polynôme à coefficients réels de degré k. Justifier que (P0 , . . . , Pn ) est une base de Rn [X].

7. Bases et équations d’un sous-espace vectoriel


Dans la pratique, un sous-espace vectoriel F peut être donné de deux manières : par la donnée d’un
système linéaire homogène dont l’ensemble des solutions est F , ou bien par la donnée d’une base de F ou
même seulement d’une famille génératrice. Il est vraiment essentiel de savoir passer d’un mode de définition
à l’autre.
7.1. Comment trouver un système d’équations d’un sous-espace vectoriel donné par une
famille génératrice ? Soit E un espace vectoriel de dimension n. Supposons qu’un sous-espace vectoriel V
de E soit donné comme l’espace engendré par une famille (v1 , v2 , . . . , vp ) de vecteurs de E. Par définition, un
vecteur v ∈ E appartient à V si et seulement s’il existe des réels λ1 , λ2 , . . . , λp tels que
v = λ1 v1 + λ2 v2 + · · · + λp vp .
Fixons une base B de E. Pour j = 1, . . . , p, on note a1,j , a2,j , . . . , an,j les coordonnées de vj dans la base B,
et x1 , x2 , . . . , xn celles de v. L’équation ci-dessus s’écrit alors


 a1,1 λ1 + a1,2 λ2 + · · · + a1,p λp = x1 ,
 a2,1 λ1 + a2,2 λ2 + · · · + a2,p λp =

x2 ,
.. ..


 . .
an,1 λ1 + an,2 λ2 + · · · + an,p λp =

xn ,
et le vecteur v ∈ E appartient à V si et seulement si ce système admet une solution. Procédons comme
d’habitude : pour savoir si c’est le cas, on écrit le système sous forme échelonnée réduite. On obtient un
système équivalent de la forme
+ a01,k(r)+1 λk(r)+1 + . . . + a01,p λp = x01 ,

 λk(1)

0 0
λk(2) + a2,k(r)+1 λk(r)+1 + . . . + a2,p λp = x02 ,




.. .. ..


 ..


 . . . .
λk(r) + a0r,k(r)+1 λk(r)+1 + ... + a0r,p λp = x0r ,
= x0r+1 ,




 0

 .. ..
. .




0 = x0n ,

où r est le rang du système, et les x0j des combinaisons linéaires des xj . Notons d’ailleurs bi,j , pour i ∈
{r + 1, r + 2, . . . , n}, les réels tels que
n
X
0
xi = bi,j xj .
j=1
Les bi,j sont parfaitement déterminés et ne dépendent que des ai,j . On a déjà vu que le système ci-dessus
admet des solutions si et seulement si les n − r dernières lignes, qui s’écrivent


 br+1,1 x1 + br+1,2 x2 + . . . + br+1,n xn = 0,
 br+2,1 x1 + br+2,2 x2 + . . . +

br+2,n xn = 0,
.. ..


 . .

bn,1 x1 + bn,2 x2 + ... + bn,n xn = 0,
sont vraies. Autrement dit, x = (x1 , . . . , xn ) appartient à V si et seulement si (x1 , . . . , xn ) est une solution
du système homogène ci-dessus, qui est donc ce que l’on cherche.
On peut remarquer que, compte tenu de la proposition 20 ou comme on le verra dans la proposition 23,
la dimension de V est r = n − (n − r), le rang du système initial, qui d’ailleurs est inférieur ou égal à n comme
il se doit pour un sous-espace vectoriel de E.

Exercice de cours 33. On reprend l’exercice 28. Soit a ∈ R. On considère v1 = (1, 2, 3, 0), v2 =
(0, 2, 2, 4) et v3 = (−1, a, 2a − 3, 4a), trois vecteurs de R4 , et V = Vect(v1 , v2 , v3 ). Trouver un système
d’équations pour V .

16
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

7.2. Comment trouver une base d’un sous-espace vectoriel donné par un système d’équa-
tions ? On sait que l’ensemble des solutions d’un système homogène de n équations à p inconnues est un
sous-espace vectoriel de Rp . On se pose la question d’en trouver une base, et, ainsi, de déterminer sa dimension.

Exemple 16. Soit V = {(x1 , x2 , x3 ) ∈ R3 , 2x1 + 3x2 = 0, x1 + x2 + x3 = 0}. L’ensemble V est l’ensemble
des solutions du système

2x1 + 3x2 = 0,
x1 + x2 + x3 = 0.

On l’échelonne avec la méthode du pivot. On obtient (L2 ← L2 − 21 L1 ) le système équivalent



2x1 + 3x2 = 0,
1
− 2 x2 + x3 = 0.

Les inconnues principales sont x1 et x2 . On peut les exprimer en fonction de l’inconnue secondaire x3 en
écrivant le système sous forme échelonnée réduite (L1 ← L1 + 6L2 , L1 ← 12 L1 , L2 ← −2L2 ) :

x1 + 3x3 = 0,
x2 − 2x3 = 0.

Le système est de rang 2, ses inconnues principales sont x1 et x2 , et la seule inconnue secondaire est x3 .
Le solutions s’obtiennent en donnant une valeur quelconque à x3 , disons s3 . En fonction de cette valeur, les
solutions s’écrivent
(x1 , x2 , x3 ) = (−3s3 , 2s3 , s3 ) = s3 (−3, 2, 1).

Autrement dit V = Vect((−3, 2, 1)), et V est de dimension 1 = p − r où p = 3 est le nombre d’inconnues et


r = 2 le rang du système.

Exemple 17. Soit V ⊂ R5 le sous-espace vectoriel des solutions du système



x2 − x4 − x5 = 0,
x3 − 2x4 + x5 = 0.

Ce sytème étant déjà sous forme échelonnée réduite, on voit que son rang est r = 2, que ses inconnues
principales sont x2 et x3 et que ses inconnues secondaires sont x1 , x4 et x5 . Les solutions s’obtiennent en
donnant des valeurs quelconques à x1 , x4 et x5 , disons s1 , s4 et s5 respectivement. En fonction de ces valeurs,
les solutions s’écrivent

(x1 , x2 , x3 , x4 , x5 ) = (s1 , s4 + s5 , 2s4 − s5 , s4 , s5 )


= s1 (1, 0, 0, 0, 0) + s4 (0, 1, 2, 1, 0) + s5 (0, 1, −1, 0, 1).

Autrement dit, les vecteurs v1 = (1, 0, 0, 0, 0), v4 = (0, 1, 2, 1, 0) et v5 = (0, 1, −1, 0, 1) forment une base de
V , qui est de dimension 3 = p − r, où p = 5 est le nombre d’inconnues du système et r = 2 son rang.

Tout cela est complètement général :

Proposition 23 – obtention d’une base de l’ensemble des solutions d’un système homogène

Soit V un sous-espace vectoriel de Rp donné comme l’ensemble des solutions d’un système homo-
gène à p inconnues. Pour trouver une base de V , il suffit d’écrire le système sous forme échelonnée
réduite. En particulier, la dimension de V est p − r, où r est le rang du système.

La table 2 fournit un récapitulatif des différents savoir-faire vus dans les sections 6 et 7.

8. Intersection et somme de sous-espaces vectoriels


Pour fixer les idées, on rappelle quelques définitions.

17
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Données Problème Méthode


1 Famille génératrice Extraire une base de Échelonner le système correspondant à λ1 u1 + · · · +
(u1 , . . . , un ) Vect(u1 , . . . , un ) λn un = 0. Identifier les inconnues principales.
2 Famille génératrice Trouver un système d’équations Échelonner le système correspondant à λ1 u1 + · · · +
(u1 , . . . , un ) pour Vect(u1 , . . . , un ) λn un = v. Trouver les conditions de compatibilité.
3 Système homogène Trouver une base de l’espace des Échelonner et réduire le système. Identifier les in-
solutions connues secondaires.
4 Famille libre F et base B Compléter F avec des vecteurs Appliquer le (1) à la famille génératrice F ∪ B.
de B pour obtenir une base

Table 2. Savoir-faire

Définition 24 – réunion et intersection de deux parties

Soient A et B deux parties d’un ensemble E.


— L’intersection de A et B est la partie A ∩ B de E définie par
A ∩ B = {x ∈ E : x ∈ A et x ∈ B}.
— La réunion de A et B est la partie A ∪ B de E définie par
A ∪ B = {x ∈ E : x ∈ A ou x ∈ B}.

8.1. Intersection de sous-espaces. On sait que l’ensemble des solutions d’un système linéaire homo-
gène à p inconnues est un sous-espace vectoriel de Rp . Cela vaut quel que soit le nombre d’équations : en
particulier l’ensemble des solutions d’une seule équation linéaire homogène à p inconnues est un sous-espace
vectoriel de Rp . La résolution d’un système de plusieurs équations consiste donc à trouver l’intersection des
espaces vectoriels définis par chacune de ces équations.
Dans le cas de Rp , on a donc pratiquement déjà prouvé la proposition suivante.

Proposition 25 – l’intersection de deux sous-espaces vectoriels est un sous-espace vectoriel

Soient (E, +, .) un espace vectoriel, et V , W deux sous-espaces vectoriels de E. Leur intersection


de V ∩ W est un sous-espace vectoriel de E.

Exercice de cours 34. Démontrer la proposition de façon «directe». Donner une interprétation géo-
métrique de ce résultat dans R3 .

Il n’est pas plus difficile de montrer qu’une intersection quelconque de sous-espaces vectoriels est encore
un sous-espace vectoriel.

Exercice de cours 35 (une caractérisation du sous-espace vectoriel engendré par une famille finie).
Soient (E, +, .) un sous-espace vectoriel, n un entier naturel non nul et (u1 , u2 , . . . , un ) une famille de
vecteurs de E. Montrer que le sous-espace vectoriel Vect(u1 , u2 , . . . , un ) est l’intersection de tous les sous-
espaces vectoriels de E contenant u1 , u2 , . . . , un . On retrouve ainsi que Vect(u1 , u2 , . . . , un ) est le plus
petit (pour l’inclusion) des sous-espaces vectoriels de E qui contient u1 ,. . ., un (voir la remarque 5).

Proposition 26 – majoration de la dimension de l’intersection de deux sous-espaces vectoriels

Soient (E, +, .) un espace vectoriel de dimension finie, et V , W deux sous-espaces vectoriels de E.


On a
dim(V ∩ W ) 6 min(dim V, dim W ).
De plus s’il y a égalité, c’est que l’un des sous-espaces V ou W est inclus dans l’autre.

18
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Exercice de cours 36. Démontrer la proposition à l’aide de la proposition 19.

8.2. Somme de sous-espaces.

" La réunion deux deux sous-espaces vectoriels n’est en général pas un sous-espace vectoriel.
Par exemple si D1 et D2 sont deux droites distinctes de l’espace des vecteurs du plan, u1 un vecteur non
nul de D1 et u2 un vecteur non nul de D2 , le vecteur u1 + u2 n’est pas dans D1 ∪ D2 : cet ensemble n’est
donc pas stable pour l’addition (voir la figure 1).

D2

u2 u1 + u2 6∈ D1 ∪ D2

u1 D1

Figure 1. La réunion de deux droites vectorielles n’est pas stable pour l’addition en général

On définit maintenant le plus petit sous-espace vectoriel qui contient la réunion de deux sous-espaces
vectoriels donnés.
Définition 27 – somme de deux sous-espaces vectoriels

Soient (E, +, .) un espace vectoriel, et V , W deux sous-espaces vectoriels de E. On appelle somme


de V et W , et on note V + W le sous-ensemble de E défini par
V + W = {x + y : x ∈ V, y ∈ W }.

Proposition 28 – la somme de deux sous-espaces vectoriels est un sous-espace vectoriel

Si V et W sont deux sous-espaces vectoriels de E, alors V + W est aussi un sous-espace vectoriel


de E. De plus, si F est un sous-espace vectoriel qui contient V et W , alors F contient V + W .

Exercice de cours 37. Démontrer cette proposition.

Exemple 18. Dans E = R3 , on note a = (0, 1, 2), b = (1, 0, 1) et c = (1, 1, 1). Soient aussi V = Vect(a, b) et
W = Vect(c). L’espace vectoriel V + W est constitué des vecteurs v qui s’écrivent
v = (λa + µb) + νc = λa + µb + νc.
Donc V + W est engendré par la famille (a, b, c). D’ailleurs puisque cette famille est libre, V + W = R3 :
l’espace R3 s’écrit comme somme du plan V et de la droite W .
Proposition 29 – majoration de la dimension de la somme de deux sous-espaces vectoriels

Si V = Vect(v1 , v2 , . . . vk ) et W = Vect(w1 , w2 , . . . w` ), alors V + W =


Vect(v1 , v2 , . . . vk , w1 , w2 , . . . w` ). En particulier, dim(V + W ) 6 dim V + dim W .

Exercice de cours 38. Notons Y = Vect(v1 , v2 , . . . , vk , w1 , w2 , . . . , w` ).


1. À l’aide de la proposition 28, montrer l’inclusion V + W ⊂ Y .
2. Montrer l’inclusion Y ⊂ V + W .

19
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

3. Démontrer la proposition 29.

Puisque (v1 , . . . vk , w1 , . . . w` ) est un système générateur de V +W , la proposition 20, permet de déterminer


une base de V + W (et sa dimension) :

Proposition 30 – construction d’une base de la somme de deux sous-espaces vectoriels

Soient (v1 , . . . vk ) une base du sous-espace vectoriel V , et (w1 , . . . , w` ) une base du sous-espace
vectoriel W . Les vecteurs correspondant aux inconnues principales du système
x1 v1 + x2 v2 + · · · + xk vk + y1 w1 + · · · + y` w` = 0E ,
forment une base de V + W .

8.3. Somme directe.

Proposition 31 – notion de composante lorsque cela a un sens

Soient (E, +, .) un espace vectoriel, et V , W deux sous-espaces vectoriels de E. Tout vecteur y de


V + W s’écrit de manière unique y = v + w avec v ∈ V et w ∈ W si et seulement si V ∩ W = {0E }.
Dans ce cas, on dit que v est la composante de y dans V et w la composante de y dans W .

Exercice de cours 39. Démontrer la proposition.

Définition 32 – somme directe

Soient (E, +, .) un espace vectoriel de dimension finie, et V , W deux sous-espaces vectoriels de E.


1. On dit que V et W sont en somme directe lorsque V ∩ W = {0E }. Dans ce cas on note
F = V ⊕ W le sous-espace vectoriel F = V + W .
2. Si de plus V ⊕ W = E, on dit que V et W sont supplémentaires dans E.

Le critère suivant sera très utile lorsque nous parlerons de projections (voir par exemple la section 6.1).

Proposition 33 – caractérisation pour que deux sous-espaces vectoriels soient en somme directe

Soient (E, +, .) un espace vectoriel de dimension finie, et V , W deux sous-espaces vectoriels de E.


Soit (v1 , v2 , . . . , vp ) une base de V et (w1 , w2 , . . . , wq ) une base de W .
1. V et W sont en somme directe si et seulement si (v1 , v2 , . . . , vp , w1 , w2 , . . . , wq ) est une
famille libre.
2. V et W sont supplémentaires dans E si et seulement si (v1 , v2 , . . . , vp , w1 , w2 , . . . , wq ) est
une base de E.

Exercice de cours 40. Démontrer cette proposition.

8.4. Formule de la dimension. La proposition suivante est parfois connue sous le nom de formule de
Grassmann.
20
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Hermann Günther Grassmann (1809-1877) est un mathématicien et indianiste


allemand. Polymathe, il était connu de ses contemporains en tant que linguiste.
Physicien, néo-humaniste, érudit mais aussi éditeur, Hermann Grassmann est avec
Niels Abel, Évariste Galois et Georg Cantor l’un des grands mathématiciens «mal-
heureux» du XIXe siècle. Il est considéré aujourd’hui comme le fondateur du calcul
tensoriel et de la théorie des espaces vectoriels.

Proposition 34 – formule de la dimension ou formule de Grassmann

Soient (E, +, .) un espace vectoriel de dimension finie, et V , W deux sous-espaces vectoriels de E.


On a toujours
dim(V + W ) = dim V + dim W − dim V ∩ W.

Exercice de cours 41. Démontrer cette proposition.

8.5. Comment construire une base de l’intersection de deux sous-espaces vectoriels ? La


preuve ci-dessus donne en fait un renseignement plus précis que la proposition : elle donne un procédé de
construction d’une base de V + W . On peut même en extraire un procédé de construction d’une base de
V ∩ W connaissant une base de V et une base de W , ce que nous faisons maintenant.
Soient BV = (v1 , v2 , . . . , vk ) une base de V , et BW = (w1 , w2 , . . . , w` ) une base de W . Un vecteur x ∈ E
appartient à V ∩ W si et seulement s’il appartient à V et à W , c’est-à-dire si et seulement s’il existe des réels
λ1 , λ2 , . . . , λk , µ̃1 , µ̃2 , . . . , µ̃` tels que
x = λ1 v1 + . . . λk vk et x = µ̃1 w1 + · · · + µ̃` w` .
Autrement dit, x ∈ V ∩ W si et seulement s’il existe des réels λ1 , λ2 , . . . , λk , µ1 , µ2 , . . . , µ` tels que (on notera
que l’on a remplacé les µ̃j par µj = −µ̃j ),
x = λ1 v1 + . . . λk vk et λ1 v1 + . . . λk vk + µ1 w1 + · · · + µ` w` = 0.
Soit alors (S) le système linéaire homogène associé à cette deuxième équation, dont les inconnues sont les λj
et les µj . On notera qu’il s’agit du même système que celui qui permet de trouver une base de V + W (cf. la
proposition 30).
On écrit (S) sous forme échelonnée réduite à l’aide de la méthode de Gauss, et l’on note e1 , . . . , er les
vecteurs correpondant aux inconnues principales π1 , . . . , πr , et er+1 , . . . , er+q les vecteurs correspondants aux
inconnues secondaires σr+1 , . . . , σr+q de (S). Il est important de remarquer que
— On a r + q = k + `, ou encore q = k + ` − r.
— Pour j ∈ {1, . . . , k}, ej = vj . En effet, si l’on s’arrête aux k premières colonnes, les vecteurs corres-
pondant aux inconnues principales donnent une base de V extraite de BV , qui ne peut donc être que
BV .
— Pour j ∈ {k + 1, . . . , k + `}, les ej sont donc des vecteurs de BW , rangés dans un ordre différent :
ceux qui correspondent aux inconnues principales d’abord, pour j ∈ {k + 1, . . . , r}, puis ceux qui
correspondent aux inconnues secondaires pour j ∈ {r + 1, . . . , k + `}.
En particulier, si (π1 , . . . , πr , σr+1 , . . . , σr+q ) est une solution de (S), il lui correspond l’élément x ∈ V ∩ W
donné par
X k X r r+q
X
x= πj ej = − πj e j − σj ej .
j=1 j=k+1 j=r+1
On sait que l’on obtient une solution de (S), donc un élément de V ∩ W, à chaque fois que l’on fixe la
valeur des inconnues secondaires σr+1 , . . . , σr+q . On note donc x1 , x2 , . . . , xq les éléments de V ∩ W qu’on
obtient en prenant successivement
(σr+1 , . . . , σr+q ) = (1, 0, 0, . . . , 0),
(σr+1 , . . . , σr+q ) = (0, 1, 0, . . . , 0),
..
.
(σr+1 , . . . , σr+q ) = (0, 0, . . . , 0, 1).
21
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Johann Carl Friedrich Gauss, né le 30 avril 1777 à Brunswick et


mort le 23 février 1855 à Göttingen, est un mathématicien, astronome
et physicien allemand. Doté d’un grand génie, il a apporté de très im-
portantes contributions à ces trois sciences. Surnommé «le prince des
mathématiciens», il est considéré comme l’un des plus grands mathé-
maticiens de tous les temps.

Proposition 35

La famille F = {x1 , . . . , xq } ainsi construite est une base de V ∩ W .

Exercice de cours 42. On considère les deux sous-espaces vectoriels V et W de R4 définis par
V = Vect((1, 0, 1, 1), (5, −1, 6, 1)) et W = Vect((1, 1, 2, 0), (1, 2, 2, 0), (3, 1, 6, 0)).
Donner une base de V , de W , puis une base de V + W et une base de V ∩ W .

22
Matrices
2
Ce chapitre est pour l’essentiel un chapitre de révisions sur les matrices vues au premier semestre.

1. L’espace vectoriel des matrices


Définition 36 – matrice

Rappelons qu’une matrice à n lignes et p colonnes est un tableau de nombres de la forme


 
a1,1 a1,2 . . . a1,p
 a2,1 a2,2 . . . a2,p 
A= . ..  .
 
..
 .. . . 
an,1 an,2 ... an,p
Les nombres ai,j sont appelés coefficients de la matrice A, et on note souvent
A = (ai,j )16i6n,16j6p ,
ou même A = (ai,j ) quand il n’y a pas de confusion possible. Les nombres n et p (dans cet ordre)
sont appelés dimensions de la matrice.

On note Mn,p (R) l’ensemble des matrices à n lignes et p colonnes de nombres réels. Si les dimensions
d’une matrice sont égales, i.e., s’il y a autant de lignes que de colonnes, on dit que la matrice est carrée, et on
dit que la matrice est d’ordre n. On note simplement Mn (R) l’ensemble des matrices à n lignes et n colonnes.

Exemple 19. 1. On appelle matrice nulle la matrice dont tous les coefficients sont nuls :
 
0 0 ... 0
0 0 . . . 0
0 = . ..  ,
 
..
 .. . .
0 0 ... 0

2. La matrice d’un système linéaire à n équations et p inconnues




 a1,1 X1 + a1,2 X2 + · · · + a1,p Xp = b1 ,
 a2,1 X1 + a2,2 X2 + · · · + a2,p Xp = b2 ,

.. .. ..


 . . .
an,1 X1 + an,2 X2 + · · · + an,p Xp = bn ,

est le tableau à n lignes et p colonnes dont les coefficients sont les ai,j :
 
a1,1 a1,2 . . . a1,p
 a2,1 a2,2 . . . a2,p 
A= . ..  .
 
..
 .. . . 
an,1 an,2 ... an,p
23
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

La matrice complète du système est la matrice à n lignes et p + 1 colonnes définie par


 
a1,1 a1,2 . . . a1,p b1
 a2,1 a2,2 . . . a2,p b2 
..  .
 
 .. .. ..
 . . . . 
an,1 an2 . . . an,p bp
On notera la présence de la barre verticale pour séparer les seconds membres du reste de la matrice.
3. On appelle matrice élémentaire toute matrice dont tous les coefficients sont nuls sauf l’un d’entre
eux qui vaut 1. On note
..
 
.
..
 
 
Ei,j = 
 . 

. . . . . . 1 . . .
 
..
.
la matrice élémentaire dont l’élément non nul est sur la ligne i et la colonne j.
4. Lorsqu’une matrice n’a qu’une ligne, on parle de matrice-ligne. Lorsqu’elle n’a qu’une colonne, on
parle de matrice-colonne. Par exemple on identifie souvent un vecteur v de Rn avec la matrice
colonne de ses coordonnées dans la base canonique (e1 , e2 , . . . , en ) de Rn : si v = (x1 , x2 , . . . , xn ), on
a v = x1 e1 + x2 e2 + · · · + xn en et on écrit (voir la proposition 15)
 
x1
 x2 
v =  . .
 
 .. 
xn

Définition 37 – somme de deux matrices

Soient A = (ai,j ) et B = (bi,j ) deux matrices de Mn,p (R). On note C = A + B la matrice de


Mn,p (R) définie par C = (ai,j + bi,j ). Plus explicitement
   
a1,1 a1,2 . . . a1,p b1,1 b1,2 . . . b1,p
 a2,1 a2,2 . . . a2,p   b2,1 b2,2 . . . b2,p 
..  +  .. ..  =
   
 .. .. ..
 . . .   . . . 
an,1 an,2 . . . an,p bn,1 bn,2 . . . bn,p
 
a1,1 + b1,1 a1,2 + b1,2 . . . a1,p + b1,p
 a2,1 + b2,1 a2,2 + b2,2 . . . a2,p + b2,p 
.
 
 .. .. ..
 . . . 
an,1 + bn,1 an,2 + bn,2 ... an,p + bn,p

On a ainsi défini une loi de composition interne «+» sur l’ensemble Mn,p (R). Comme il s’agit d’ajouter les
coefficients terme à terme (donc de faire des additions de nombres réels), il est très facile de vérifier que
cette loi «+» vérifie les quatre premières propriétés de la définition 1. En particulier l’élément neutre pour
l’addition des matrices est la matrice nulle, et la matrice symétrique d’une matrice A = (ai,j ) est la matrice,
notée −A, définie par

−a1,1 −a1,2 . . . −a1,p

 −a2,1 −a2,2 . . . −a2,p 
−A =  . ..  .
 
..
 .. . . 
−an,1 −an,2 ... −an,p
Pour résumer :
Proposition 38

(Mn,p (R), +) est un groupe commutatif.

24
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

On définit maintenant une loi de composition externe «.» sur l’ensemble Mn,p (R).

Définition 39 – loi externe sur l’ensemble des matrices

Soit A = (ai,j ) une matrice de Mn,p (R) et λ un réel. On note C = λ.A la matrice de Mn,p (R)
définie par C = (λai,j ). Plus explicitement
   
a1,1 a1,2 . . . a1,p λa1,1 λa1,2 ... λa1,p
 a2,1 a2,2 . . . a2,p   λa2,1 λa2,2 ... λa2,p 
λ . . ..  =  .. ..  .
   
.. ..
 .. . .   . . . 
an,1 an,2 . . . an,p λan,1 λan,2 ... λan,p

Comme il s’agit de multiplier chaque coefficient par λ, il est également facile de vérifier que cette loi «.»
vérifie les 4 dernières propriétés de la définition 1.

Proposition 40 – l’ensemble des matrices est un espace vectoriel de dimension finie

(Mn,p (R), +) est un espace vectoriel, de dimension np.

Exercice de cours 43. Démontrer la proposition.

Remarque 8. On notera que la famille (E1,1 , E1,2 , . . ., En,p−1 , En,p ) n’est pas indexée par une partie de N
mais par une partie de N × N. Ce n’est qu’une façon de l’écrire : l’énumération (E1,1 , E1,2 , . . . , En,p−1 , En,p ) =
(Ẽ1 , Ẽ2 , . . . , Ẽnp ) fournit une nouvelle numérotation de la famille pour des indices entre 1 et np. De manière
générale n’importe quel ensemble fini peut servir à énumérer une base.

2. Produit de matrices
On rappelle maintenant comment est défini le produit de deux matrices. Il est naturel de penser multiplier
terme à terme les coefficients de chacune, mais cette multiplication-là ne sert à rien (ou disons que c’est une
autre histoire). Ce que l’on veut, c’est retrouver le membre de gauche des équations du système


 a1,1 X1 + a1,2 X2 + · · · + a1,p Xp = b1 ,
 a2,1 X1 + a2,2 X2 + · · · + a2,p Xp = b2 ,

.. .. ..


 . . .
an,1 X1 + an,2 X2 + · · · + an,p Xp = bn ,

en multipliant sa matrice par la matrice colonne des symboles X1 , X2 , . . . Xp . Autrement dit, on veut que
    
a1,1 X1 + a1,2 X2 + · · · + a1,p Xp

a1,1 a1,2 . . . a1,p X1
 a2,1 a2,2 . . . a2,p  X2   a2,1 X1 + a2,2 X2 + · · · + a2,p Xp 
..  ×  ..  =  ,
     
 .. .. ..
 . . .   .   . 
an,1 an,2 ... an,p Xp an,1 X1 + an,2 X2 + · · · + an,p Xp
et c’est cela que l’on prend comme définition du produit d’une matrice par une matrice-colonne. Il est essentiel
de noter que le nombre de lignes de la matrice colonne doit être égal au nombre de colonnes de la matrice.
On étend ensuite cette définition au cas du produit d’une matrice A par une matrice B quelconque
(pourvu que le nombre de colonnes de A soit égal au nombre de lignes de B), en construisant la matrice dont
la j-ième colonne est le produit de A par la j-ième colonne de B. Le produit de deux matrices se fait donc
«ligne par colonne».
 
  1 −1
1 2 3
Exemple 20. Soit A = et B = 0 1 . Le produit A × B est bien défini puisque A a trois
0 −1 1
2 3
colonnes et B trois lignes. Comme A a deux lignes et B a 2 colonnes, le produit A × B sera une matrice à 2
lignes et 2 colonnes.
25
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Le produit de A par la première colonne de B est


 
  1    
1 2 3 1∗1 + 2∗0 + 3∗2 7
× 0 = = .
0 −1 1 0∗1 + (−1) ∗ 0 + 1∗2 2
2

Celui de A par la seconde colonne de B est


 
  −1    
1 2 3 1 ∗ (−1) + 2∗1 + 3∗3 10
× 1
  = = .
0 −1 1 0 ∗ (−1) + (−1) ∗ 1 + 1∗3 2
3

On obtient donc
 
7 10
A×B = .
2 2

On peut formaliser cette définition.

Définition 41 – produit de deux matrices

Soient A = (ai,j ) une matrice à n lignes et p colonnes, et B = (bi,j ) une matrice à p lignes et
m colonnes. On note C = A × B la matrice à n lignes et m colonnes dont les coefficients ci,j sont
donnés par
p
X
ci,j = ai,k bk,j = ai,1 b1,j + ai,2 b2,j + · · · + ai,p bp,j .
k=1

" Le produit de deux matrices n’est pas commutatif. Autrement dit, en général A × B 6= B × A.
Par exemple
           
1 0 0 1 0 0 0 0 0 1 0 0
= × 6= × =
0 0 0 0 1 0 1 0 0 0 0 1
D’ailleurs l’un des produits peut être bien défini alors que l’autre ne l’est pas en fonction des dimensions de
A et de B.

Dans la pratique, il est commode pour calculer le produit C = A × B de deux matrices de disposer les
calculs de la manière suivante
 
b1,1 . . . b1,j . . . b1,m
b2,1 . . . b2,j . . . b2,m 
 
 .. .. .. 
 . . . 
bp,1 . . . bp,j . . . bp,m

 
a1,1 a1,2 ... a1,p 
..

 .. .. ..  .
 . . .  
 p
X


  . . .
 ai,1
 ai,2 . . . ai,p 
  ai,k bk,j . . .

 . .. ..  
k=1

 .. . . 

..

an,1 an,2 . . . an,p .

Proposition 42 – associativité du produit de deux matrices

Le produit des matrices est associatif : si A ∈ Mm,n (R), B ∈ Mn,p (R) et C ∈ Mp,q (R), on a
A × (B × C) = (A × B) × C.

26
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Proposition 43 – distributivité du produit matriciel par rapport à l’addition

Le produit des matrices est distributif par rapport à l’addition, à gauche et à droite : si A ∈
Mn,p (R), B ∈ Mp,m (R) et C ∈ Mp,m (R), on a
A × (B + C) = A × B + A × C,
et, si B ∈ Mn,p (R), C ∈ Mn,p (R) et A ∈ Mp,m (R),
(B + C) × A = B × A + C × A.

Exercice de cours 44. Montrer que pour λ ∈ R, A ∈ Mn,p (R) et B ∈ Mp,q (R) on a
(λA) × B = λ(A × B) = A × (λB).

Dans les espaces de matrices carrées Mn (R), la multiplication est une loi interne. Ce n’est bien sûr pas
le cas dans Mn,p (R) quand n 6= p : la multiplication de deux éléments n’est alors même pas définie. Dans
Mn (R), la multiplication a un élément neutre :

Proposition 44 – existence d’un élément neutre pour le produit matriciel

Soit I ∈ Mn (R) la matrice dont les éléments sont tous nuls, sauf ceux qui se trouvent sur la
diagonale qui valent 1 :  
1 0 ... 0
0 1 . . . 0
I = . . .
 
 .. ..
. .. 
0 0 ... 1
Pour toute matrice A ∈ Mn (R), on a
A × I = I × A = A.

Cette matrice I, qu’on note aussi In pour faire référence à sa taille, est appelée matrice identité. On se
rappelle qu’il ne peut y avoir qu’un seul élément neutre pour une loi interne (voir l’exercice 1).

Définition 45 – puissance d’une matrice carrée

Soient A ∈ Mn (R) une matrice carrée, et k ∈ N∗ . On note Ak , et on lit A puissance k, la matrice


de Mn (R) définie par
Ak = A × A × · · · × A .
| {z }
k facteurs
On note aussi A0 = I.

Exercice de cours 45. Soit Ek,` une matrice élémentaire. Montrer que (Ek,` )2 = 0 si k 6= `, et que
(Ek,k )2 = Ek,k .

3. Opérations sur les lignes d’une matrice


Pour résoudre les systèmes linéaires, on a été amené à utiliser trois opérations sur leurs lignes. Ces
opérations n’affectent pas les inconnues, ni ne changent leur ordre, et on peut très bien effectuer ces opérations
sur la matrice (complète si le système n’est pas homogène) associée au système. Il se trouve que l’on peut
interpréter ces opérations sur les lignes d’une matrice comme un produit par une matrice particulière.
27
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Proposition 46 – action de la multiplication à gauche par une matrice élémentaire

Soit A = (ai,j ) une matrice de Mn,p (R), et Ek,` = (ei,j ) ∈ Mn (R) la matrice élémentaire dont le
seul élément non nul est ek,` = 1. On a
0 ... 0
 
 .. .. 
 . . 
 
 0
 ... 0  
Ek,` × A = a`,1 ... a`,p  ← ligne k.
 0
 . . . 0 

 . .. 
 .. . 
0 ... 0

Ainsi, multiplier une matrice A par Ek,` permet d’extraire la `-ième ligne de A et de la placer sur la
ligne k.
Proposition 47 – opérations élémentaires et multiplications par une matrice élémentaire

Soit A ∈ Mn,p (R).


— Effectuer l’opération Li ← Li + αLj sur la matrice A, avec i 6= j, revient à multiplier A à
gauche par In + αEi,j ∈ Mn (R).
— L’opération Li ← αLi correspond à multiplier A à gauche par In + (α − 1)Ei,i ∈ Mn (R).

L’opération d’échange de deux lignes d’une matrice A peut aussi s’interpréter comme la multiplication
ei,j ∈ Mn (R) la matrice définie par
par une matrice. Pour i, j ∈ {1, . . . , n} , on note E
ei,j = In − Ei,i − Ej,j + Ei,j + Ej,i .
E

Il s’agit simplement de la matrice In dont on a déplacé les «1» qui se trouvaient à la i-ième et j-ième place
sur la diagonale (−Ei,i − Ej,j ), en les portant aux places (i, j) et (j, i) respectivement (+Ei,j + Ej,i ).

Proposition 48 – échange entre deux lignes

Soit A ∈ Mn,p (R). La matrice à = E


ei,j × A est la matrice de Mn,p (R) obtenue en échangeant les
lignes i et j de la matrice A.

Remarque 9. La proposition est en particulier valable pour A = In . Or dans ce cas


ei,j × In = E
à = E ei,j .

On en déduit que E
ei,j est tout simplement la matrice obtenue en échangeant les lignes i et j de la matrice
identité.

Remarque 10. Pour opérer sur les colonnes, on multiplie à droite par une matrice d’opération élémentaire.
Autrement dit, pour opérer sur les colonnes, il suffit donc de remplacer dans la proposition 47, «ligne» par
«colonne» et «gauche» par «droite». Par exemple,

à = A × E
ei,j

est la matrice de Mn,p (R) obtenue en échangeant les colonnes i et j de la matrice A.

4. Inverse d’une matrice carrée


4.1. Définition. On se pose maintenant la question de l’existence pour une matrice A ∈ Mn (R) donnée,
d’un symétrique pour la loi ×.

28
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

i j

 ↓ ↓ 
1
 .. 

 . 

 0 1  ← ligne i
 

 1 

E

=  .. 
ei,j
 . 

1
 
 
 ← ligne j
 
 1 0
 
 .. 
 . 
1

Figure 1. La matrice E
ei,j

Définition 49 – matrice inverse

Soit A ∈ Mn (R). On dit que A admet la matrice Q ∈ Mn (R) pour inverse lorsque
A × Q = Q × A = I.

On a déjà montré (voir l’exercice 1) qu’un élément ne peut avoir plus d’un symétrique pour une loi interne
associative. Ayant en vue la Proposition 51 ci-dessous, on reprend la preuve dans le cadre actuel.
Proposition 50 – une matrice carrée admet au plus une matrice inverse

Une matrice carrée A admet au plus une matrice inverse.

Exercice de cours 46. Démontrer la proposition en utilisant seulement que Q1 est inverse à droite de
A, c’est-à-dire A × Q1 = I, et que Q2 est inverse à gauche de A, c’est-à-dire Q2 × A = I.

L’exercice précédent a pour conséquence la proposition suivante.

Proposition 51 – une condition suffisante pour qu’une matrice admette un inverse

Si A admet une matrice inverse à droite Q1 et une matrice inverse à gauche Q2 , alors Q1 = Q2 et
A admet Q1 = Q2 comme inverse.

Lorsqu’une matrice A admet une matrice inverse, on dit que A est inversible, et on note A−1 la matrice
inverse de A.

Exemple 21. 1. La matrice I est inversible, d’inverse elle-même puisque I × I = I.


2. D’après la proposition 48, la matrice E
ei,j est inversible et son inverse est E
ej,i .
3. D’après la proposition 47, la matrice In + αEi,j est inversible pour i 6= j, d’inverse In − αEi,j .
D’ailleurs on peut vérifier directement que

(In + αEi,j ) × (In − αEi,j ) = In − αEi,j + αEi,j − α2 Ei,j × Ei,j = In ,

puisque Ei,j × Ei,j = 0 quand i 6= j.

Reste à trouver un moyen de savoir si une matrice donnée est inversible, et le cas échéant, de calculer
son inverse.
29
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

4.2. Existence. Une manière de voir ce problème est de considérer le système linéaire A × X = B
associé à la matrice A avec un second membre B ∈ Mn,1 (R) quelconque, c’est-à-dire l’équation d’inconnue
X qui s’écrit
A × X = B.
S’il existe Q telle que Q × A = I, cette équation entraine
X = (Q × A) × X = Q × (A × X) = Q × B,
donc la seule solution possible est X = Q × B. Si on a aussi A × Q = I, alors
A × (Q × B) = (A × Q) × B = B,
ce qui prouve que X = Q × B est bien une solution du système.
Autrement dit : si A est inversible, pour tout second membre B ∈ Mn,1 (R) le système de n équations à
n inconnues A × X = B a une unique solution.
Examinons la réciproque : supposons que pour tout second membre B ∈ Mn,1 (R) le système A × X = B
a une unique solution. C’est en particulier le cas si B est (le vecteur colonne associé à) l’un des vecteurs ej
de la base canonique de Rn , c’est à dire l’un des vecteurs
     
1 0 0
0 1 0
B1 =  .  , B2 =  .  , . . . , Bn =  .  .
     
 ..   ..   .. 
0 0 1
On note Q1 , Q2 ,. . .,Qn la solution correspondante du système, c’est-à dire l’unique vecteur tel que
A × Qj = Bj ,
et Q la matrice dont les colonnes sont Q1 , Q2 , . . ., Qn . Par définition du produit de A par Q, on a
A × Q = I,
donc Q est inverse à droite de A.
D’autre part, puisque le système A × X = B a une unique solution pour n’importe quel second membre
B, toutes ses inconnues sont principales, donc sa forme échelonnée réduite est
I × X = C.
On passe du système A × X = B à sa forme échelonnée réduite en effectuant des opérations du type Li ↔ Lj ,
Li ← Li + αLj ou Li ← αLi , c’est-à-dire compte tenu des propositions 47 et 48, en multipliant A à gauche
ei,j ou (I + βEi,j ) avec β = α ou β = α − 1. Notant R le produit de toutes ces
par des matrices de la forme E
matrices, on a,
R × A = I,
donc R est un inverse à gauche de A. On a démontré que si pour tout second membre B ∈ Mn,1 (R) le système
A × X = B a une unique solution, alors A est inversible. En résumé, on a obtenu la proposition suivante.

Proposition 52 – conditions équivalentes pour qu’une matrice carrée soit inversible

Soit A ∈ Mn (R). Les conditions suivantes sont équivalentes :


1. La matrice A est inversible.
2. Le système A × X = B a une unique solution pour tout second membre B ∈ Mn,1 (R).
3. La matrice de la forme échelonnée réduite du système est la matrice identité I.

4.3. Calcul pratique de l’inverse. La discussion qui précède donne deux procédés pour calculer
l’inverse d’une matrice inversible A ∈ Mn (R) :
— Par résolution de n systèmes linéaires A × X = Bj , j = 1, . . . , n, où les Bj sont les n vecteurs de la
base canonique de Rn .
— Par transformation du système en sa forme échelonnée réduite à l’aide de la méthode du pivot, qu’on
a réinterprété comme la multiplication de A par des matrices inversibles de la forme E ei,j ou I + βEi,j .

30
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

En fait ces deux procédés conduisent exactement aux mêmes calculs. Commençons par le second : si l’on
effectue les mêmes substitutions de lignes sur la matrice identité que celle que l’on fait sur A pour l’amener
à sa forme échelonnée réduite, on multiplie la matrice identité par A−1 , et donc on récupère l’inverse A−1 de
A.
Voici un exemple d’un tel calcul. On place à droite de A la matrice identité, et on effectue sur les lignes
de la grande matrice obtenue toutes les opérations nécessaires pour obtenir sa forme échelonnée réduite. Si
cette forme est la matrice identité, c’est que A est inversible et dans ce cas, la matrice de droite est A−1 .
 
2 1 −1
Exemple 22. Pour savoir si la matrice A = 0 1 1  est inversible et calculer son inverse éventuel, on
1 2 −1
écrit  
2 1 −1 1 0 0
 0 1 1 0 1 0 ,
1 2 −1 0 0 1
et on effectue successivement les opérations L3 ← L3 − 12 L1
 
2 1 −1 1 0 0
 0 1 1 0 1 0 ,
0 3/2 −1/2 −1/2 0 1
L3 ← L3 − 32 L2
 
2 1 −1 1 0 0
 0 1 1 0 1 0 ,
0 0 −2 −1/2 −3/2 1
L3 ← − 21 L3
 
2 1 −1 1 0 0
 0 1 1 0 1 0 ,
0 0 1 1/4 3/4 −1/2
L2 ← L2 − L3  
2 1 −1 1 0 0
 0 1 0 −1/4 1/4 1/2  ,
0 0 1 1/4 3/4 −1/2
L1 ← L1 + L3  
2 1 0 5/4 3/4 −1/2
 0 1 0 −1/4 1/4 1/2  ,
0 0 1 1/4 3/4 −1/2
L1 ← L1 − L2  
2 0 0 3/2 1/2 −1
 0 1 0 −1/4 1/4 1/2  ,
0 0 1 1/4 3/4 −1/2
et enfin L1 ← 12 L1 , ce qui donne
 
1 0 0 3/4 1/4 −1/2
 0 1 0 −1/4 1/4 1/2  .
0 0 1 1/4 3/4 −1/2
 
3/4 1/4 −1/2
On en conclut que A est inversible, d’inverse A−1 = −1/4 1/4 1/2 .
1/4 3/4 −1/2
Le lien avec la résolution des n systèmes linéaires est clair si l’on remarque que les colonnes de la matrice
identité sont les Bj . Les substitutions de lignes ci-dessus sont exactement les opérations nécessaires à la
résolution par la méthode du pivot d’un système A × X = B pour un second membre quelconque. Effectuer
ces opérations sur chacune des colonnes de la matrice identité, c’est en fait résoudre simultanément les n
systèmes A × X = Bj .

31
3
Applications linéaires

1. Généralités
1.1. Définition.

Définition 53 – application linéaire

Soient (E, +, .) et (F, +, .) deux espaces vectoriels. On dit qu’une application f : E → F est linéaire
lorsque pour tous a, b de E et tout λ dans R,
f (a + b) = f (a) + f (b) et f (λ.a) = λ.f (a).
On note L (E, F ) l’ensemble des applications linéaires de E dans F .

Les applications linéaires sont aussi appelées «morphismes d’espaces vectoriels». Comme pour les sous-
espaces vectoriels, on peut vérifier les deux propriétés de la définition en une fois : une application f : E → F
est linéaire si et seulement si pour tous réels λ, µ et tous x, y dans E, on a
f (λ.x + µ.y) = λ.f (x) + µ.f (y).

Exercice de cours 47 (l’image du vecteur nul par une application linéaire est toujours le vecteur nul).
Montrer que l’image du vecteur nul de E par une application linéaire f : E → F est toujours 0F .

" Dans la définition, on a noté «+» et «.» les lois de compositions sur E et sur F . Il faut prendre
garde au fait que les ensembles E et F contiennent des objets a priori différents, et que les opérations
sur ces objets différents n’ont a priori pas de rapport. Il est utile de se demander de quelle loi il s’agit
quand on lit la définition ci-dessus.

1.2. Exemples.
1. On prend E = F = R munis de l’addition et de la multiplication externe (qui est aussi la multipli-
cation interne dans ce cas) usuelles. Si f : R → R est une application linéaire, alors pour tout x ∈ R,
on a f (x) = f (x.1) = x.f (1). Notant a = f (1), on doit donc avoir f : x 7→ ax. Réciproquement, on
vérifie facilement qu’une telle application est bien linéaire.
2. Maintenant E = F est l’espace vectoriel des vecteurs du plan. L’application f : R2 → R2 définie
par f (~u) = λ.~u est linéaire. Il s’agit de l’homothétie vectorielle de rapport λ. Si ~v est un vecteur
fixé non nul, la translation de vecteur ~v , définie par f (~u) = ~u + ~v n’est pas linéaire : par exemple
f (~u1 + ~u2 ) = ~u1 + ~u2 + ~v alors que f (~u1 ) + f (~u2 ) = ~u1 + ~u2 + 2~v . On aurait aussi pu noter que
f (~0) = ~v 6= ~0.
3. Soit A ∈ Mn,p (R) une matrice. L’application f : Rp → Rn définie par f (X) = A × X est une
application linéaire. En effet d’après la proposition 43 et la remarque qui la précède, on a
f (λ1 X1 + λ2 X2 ) = A × (λ1 X1 + λ2 X2 ) = A × (λ1 X1 ) + A × (λ2 X2 ) = λ1 f (X1 ) + λ2 f (X2 ).
Dans le paragraphe 4, on verra qu’une application linéaire de Rn dans Rp est toujours de cette forme.
33
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

4. Voici un exemple d’application linéaire qui sort du cadre des espaces vectoriels de dimension finie.
On note C 0 ([0, 1]) l’espace vectoriel des fonctions continues de [0, 1] dans R. On sait qu’une telle
fonction est intégrable sur [0, 1] et que pour tout réels λ, µ
Z 1 Z 1 Z 1
(λf (x) + µg(x))dx = λ f (x)dx + µ g(x)dx.
0 0 0

Autrement dit, l’application ϕ : C 0 ([0, 1]) → R définie par


Z 1
ϕ(f ) = f (x)dx
0
est une application linéaire.

1.3. Somme et composition d’applications linéaires.

Proposition 54 – l’ensemble des applications linéaires est un espace vectoriel

L’ensemble L (E, F ) des applications linéaires de E dans F , muni de l’addition des fonctions et
de la multiplication d’une fonction par un nombre, est un espace vectoriel.

Exercice de cours 48. Démontrer la proposition.

On peut aussi composer des applications linéaires :

Proposition 55 – composition des applications linéaires

Soient E, F, G trois espaces vectoriels, et f : E → F , g : F → G deux applications linéaires. Alors


g ◦ f : E → G est une application linéaire.

Exercice de cours 49. Démontrer la proposition.

" Attention à l’ordre dans la composition !

2. Noyau et Image
2.1. Injection, surjection, bijection. Les notions que l’on rappelle maintenant ne sont pas liées à la
linéarité.
Définition 56 – application injective

On dit qu’une application f : E → F est injective lorsque pour tous x, y ∈ E,


f (x) = f (y) ⇒ x = y.

Exemple 23. L’application f : R → R définie par f (x) = x2 n’est pas injective, puisque f (−1) = f (1). En
revanche l’application f : R+ → R définie par f (x) = x2 est injective.

Définition 57 – application surjective

On dit qu’une application f : E → F est surjective lorsque pour tout élément y de F , il existe au
moins un élément x de E tel que f (x) = y.

Exemple 24. L’application f : R → R définie par f (x) = x2 n’est pas surjective, puisqu’il n’existe pas de
réel x tel que f (x) = −1. En revanche l’application f : R → R+ définie par f (x) = x2 est surjective.

34
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Définition 58 – application bijective

On dit qu’une application f : E → F est bijective lorsque pour tout élément y de F , il existe
exactement un élément x de E tel que f (x) = y.

Exemple 25. L’application f : R+ → R+ définie par f (x) = x2 est bijective, puisque pour tout y ∈ R+ , il

existe un unique x tel que f (x) = y : il s’agit de x = y.

Proposition 59 – une application est bijective si et seulement si elle est injective et surjective

Une application f : E → F est bijective si et seulement si elle est injective et surjective.

Exercice de cours 50. Démontrer la proposition.

Définition 60 – bijection réciproque

Soit f : E → F une application bijective. L’application f −1 : F → E qui à y dans F associe


l’unique x ∈ E tel que f (x) = y est appelée bijection réciproque de f .

On est allé un peu vite : il faut justifier le fait que f −1 est bien une bijection :

Proposition 61 – la bijection réciproque est bien une bijection!

Soient f : E → F une application bijective, et f −1 : F → E sa bijection réciproque.


1. f −1 est bijective, et sa bijection réciproque est f .
2. On a f −1 ◦ f = IE et f ◦ f −1 = IF .

Exercice de cours 51. Démontrer la proposition.

Dans le cas des applications linéaires, on a un peu de vocabulaire spécifique :

Définition 62 – endomorphisme, isomorphisme, automorphisme

Les applications linéaires de E dans E sont appelées endomorphismes. Les applications linéaires
bijectives de E dans F sont appelées isomorphismes. Les endomorphismes bijectifs sont appelés
automorphismes.

Plutôt que L (E, E), on note simplement L (E) l’espace vectoriel des endomorphismes de E.

2.2. Noyau d’une application linéaire.

Définition 63 – noyau d’une application linéaire

Soit f : E → F une application linéaire. Le sous-ensemble de E des éléments dont l’image est 0F
est appelé noyau de f . On le note
Ker f = {x ∈ E : f (x) = 0F }.

35
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Proposition 64 – le noyau d’une application linéaire est un sous-espace vectoriel

Soit f : E → F une application linéaire. Le noyau de f est un sous-espace vectoriel de E.

Exercice de cours 52. Démontrer la proposition.

Proposition 65 – une application linéaire est injective si et seulement si son noyau est nul

Une application linéaire f : E → F est injective si et seulement si son noyau ne contient que le
vecteur nul de E, c’est-à-dire Ker f = {0E }.

Exercice de cours 53. Démontrer la proposition.

Exercice de cours 54. Soit f : R3 → R3 l’application linéaire définie par f (x, y, z) = (y+z, x+z, x−y).
Déterminer son noyau. L’application f est-elle injective ?

2.3. Image d’une application linéaire.

Définition 66 – image d’une application linéaire

Le sous-ensemble de F constitué des images par f des éléments de E est appelé image de f . On
le note
Im f = {f (x) : x ∈ E}.

Autrement dit Im f est pour une application linéaire ce que l’on note f (E) pour une application quel-
conque. Par définition donc, une application linéaire f : E → F est surjective si et seulement si Im f = F .

Proposition 67 – l’image d’une application linéaire est un sous-espace vectoriel

Soit f : E → F une application linéaire. L’image de f est un sous-espace vectoriel de F .

Exercice de cours 55. Démontrer la proposition.

Exercice de cours 56. Soit f : R3 → R3 l’application linéaire définie par f (x, y, z) = (y+z, x+z, x−y).
Déterminer son image. L’application f est-elle surjective ?

2.4. Applications linéaires bijectives. Voici une particularité des applications bijectives qui sont
linéaires :
Proposition 68 – la bijection réciproque d’une application linéaire bijective est linéaire

Soit f : E → F une application linéaire. Si f est bijective, alors son application réciproque
f −1 : F → E est aussi linéaire.

Exercice de cours 57. Démontrer la proposition.

La proposition suivante, un peu technique, donne une caractérisation de l’injectivité et de la surjectivité


d’une application linéaire f en termes de l’image d’une base par f . On retiendra en particulier qu’il ne
peut pas y avoir d’application linéaire bijective entre deux espaces de dimensions finies différentes, et qu’une
36
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

application linéaire est bijective si et seulement si elle transforme toute base de l’espace de départ en une
base de l’espace d’arrivée :

Proposition 69 – caractérisation de l’injectivité et de la surjectivité d’une application linéaire

Soient E un espace vectoriel de dimension finie, et F un espace vectoriel quelconque. Soient BE


une base de E et f ∈ L (E, F ) une application linéaire.
1. f est injective si et seulement si f (BE ) est une famille libre de F ; en particulier, si f est
injective on a dim E 6 dim F .
2. f est surjective si et seulement si f (BE ) est une famille génératrice de F ; en particulier,
si f est surjective on a dim F 6 dim E.
3. f est bijective si et seulement si f (BE ) est une base de F ; en particulier, si f est bijective
on a dim E = dim F .

Exercice de cours 58. Démontrer la proposition.

2.5. Le théorème du rang.

Définition 70 – rang d’une application linéaire

Soit f ∈ L (E, F ). On appelle rang de f la dimension de Im f , et on note


rang(f ) = dim Im f.

Théorème 71 – théorème du rang

Soient E un espace vectoriel de dimension finie, et f ∈ L (E, F ). On a


dim E = dim Ker f + dim Im f = dim Ker f + rang(f ).

Exercice de cours 59. Le but de cet exercice est de démontrer le théorème 71.
On utilise le théorème de la base incomplète (voir le théorème 21). Soit K = (u1 , . . . , uk ) une base
de Ker f . Comme E est de dimension finie – appelons la n –, on peut compléter K en une famille
B = (u1 , . . . , uk , uk+1 , . . . , un ) qui est une base de E.
1. En utilisant la définition de Im f , montrer que (f (uk+1 ), . . . , f (un )) est une famille génératrice
de Im f .
2. Montrer que (f (uk+1 ), . . . , f (un )) est une famille libre de Im f .
3. En déduire que dim Im f = n − k. Conclure.

" Le théorème du rang relie la dimension de E à celles de Ker f et Im f mais Im f n’est pas un
sous-espace vectoriel de E en général !
Même lorsque E = F , le théorème du rang ne dit pas que les sous-espaces vectoriels Ker f et Im f
sont supplémentaires dans E. Il se peut que le noyau et l’image d’un endomorphisme ne soient pas
en somme directe.
Par exemple que si f est l’endomorphisme de dérivation (voir aussi l’exercice 62)
f : Rn [X] −→ Rn [X]
P 7−→ P0
alors on a Im f ∩ Ker f = Vect(1) = {polynômes constants} =
6 {0Rn [X] }.
Voici une des conséquences très utiles du théorème du rang :

37
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Corollaire 72 – si dim E = dim F , l’injectivité équivaut à la surjectivité

Soit f ∈ L (E, F ) avec E et F dimension finie. Si dim E = dim F , on a les équivalences


f bijective ⇐⇒ f surjective ⇐⇒ f injective.

Voici une autre conséquence du théorème du rang :

Corollaire 73

Soit f ∈ L (E, F ) avec E et F de dimension finie. Si dim E > dim F , f ne peut pas être injective.
De même si dim E < dim F , f ne peut pas être surjective.

Exercice de cours 60. Démontrer les deux corollaires.

3. Dérivation et arithmétique dans R[X]


L’espace vectoriel des polynômes est très important aussi bien en analyse qu’en algèbre. Nous approfon-
dissons dans cette section son étude et donnons des exemples intéressants d’applications linéaires dans ce
contexte.

3.1. Dérivation.
Définition 74 – polynôme dérivé
Pn
Pour tout P = i=0 an X n de R[X], on appelle polynôme dérivé, et on note P 0 , le polynôme défini
par :
n
X n−1
X
P0 = kak X k−1 = (k + 1)ak X k .
k=1 k=0
0
On note P (0)
= P, P (1)
=P ,P (2)
= P = (P ) et, pour tout k ∈ N∗ , P (k) = (P (k−1) )0 .
00 0 0

Cette définition est très naturelle : le polynôme dérivée de P n’est rien d’autre que la fonction dérivée de la
fonction polynomiale associée à P (qui est dérivable sur tout R).

Exercice de cours 61. Soit P ∈ R[X].


1. Montrer que deg(P 0 ) = deg(P ) − 1 si deg(P ) > 1 et deg(P 0 ) = −∞ si deg(P ) 6 0, c’est-à-dire
si P est un polynôme constant.
2. Montrer que l’application R[X] → R[X] qui à P associe sont polynôme dérivée est un endomor-
phisme de R[X] → R[X]. Quel est son noyau ? Son image ? Mêmes questions pour sa restriction
à Rn [X] où n ∈ N.

Exercice de cours 62. Soient n ∈ N et f : Rn [X] → Rn [X] définie par f (P ) = λP + P 0 avec λ 6= 0.


Montrer que f est un isomorphisme sur Rn [X].

Gottfried Wilhelm Leibniz, né à Leipzig le 1er juillet 1646 et mort à


Hanovre le 14 novembre 1716, est un philosophe, scientifique, mathé-
maticien, logicien, diplomate, juriste, bibliothécaire et philologue alle-
mand. Esprit polymathe, personnalité importante de la période Frü-
haufklärung, il occupe une place primordiale dans l’histoire de la phi-
losophie et l’histoire des sciences (notamment des mathématiques) et
est souvent considéré comme le dernier «génie universel».

38
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Proposition 75 – formule de Leibniz

Pour tous P, Q ∈ R[X], et tout k ∈ N, on a


k  
X k
(P Q)(k) = P (i) Q(k−i) ,
i
i=0
 
k
où est le coefficient binomial i parmi k.
i

Exercice de cours 63. Démontrer la proposition par récurrence sur k.

Le théorème suivant est crucial, et pas seulement pour ce cours !

Théorème 76 – théorème de Taylor pour les polynômes

Soient n ∈ N et P ∈ R[X] un polynôme de degré au plus n. Alors


n
X P (k) (0) k
P = X .
k!
k=0

Autrement dit, les coordonnées du polynôme P ∈ Rn [X] dans la base canonique 1, X, X 2 , . . . , X n de Rn [X]
00
sont P (0), P 0 (0), P (0)/2, . . . , P (n) (0)/(n!).

Brook Taylor, est un homme de science anglais, né à Edmonton,


aujourd’hui un quartier de Londres, le 18 août 1685, et mort à Londres
le 29 décembre 1731. Principalement connu comme mathématicien, il
s’intéressa aussi à la musique, à la peinture et à la religion.

Exercice de cours 64.


1. Démontrer le théorème par récurrence sur n.
2. Soient n ∈ N et a ∈ R.
2.1 Dans les conditions du théorème, montrer que l’on a :
n
X P (k) (a)
P = (X − a)k .
k!
k=0
C’est le théorème de Taylor pour les polynômes sous sa forme la plus générale.
2.2 Montrer que (1, X − a, (X − a)2 , . . . , (X − a)n ) forment une base de Rn [X]. Quelles sont
les coordonnées d’un polynôme P ∈ Rn [X] dans cette base ?

3.2. Arithmétique dans R[X] et racines d’un polynôme. Comme dans Z, on peut dans R[X]
additionner et multiplier des éléments entre eux, on a un zéro pour l’addition (le polynôme nul), et une unité
(le polynôme constant égal à 1).
" L’ensemble Z n’est pas un espace vectoriel, contrairement à R[X] !
L’analogie entre Z et R[X] permet de faire de l’arithmétique dans R[X]. Dans ce cours, on se contentera
de quelques définitions.

39
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Définition 77 – division entre polynômes

Soient A, P ∈ R[X]. On dit que A divise P , et on note A|P , s’il existe Q ∈ R[X] tel que P = AQ.

Par exemple, 2X divise 3X 2 car 3X 2 = (2X) × (3/2X), (X − 2) divise clairement (X − 2)2 et (X − 2)(X − 3),
X ne divise pas X 3 − 1 (pourquoi ?). Tout polynôme divise le polynôme nul !

Exercice de cours 65. Vérifier que X − 2 et X − 1 divisent X 2 − 3X + 2. Quels sont tous les polynômes
qui divisent X 2 − 3X + 2 ?

L’analogie entre R[X] et Z réside surtout dans l’énoncé suivant que l’on admet dans ce cours.

Théorème 78 – division euclidienne

Soient A, B ∈ R[X] avec B 6= 0. Il existe un unique couple (Q, R) ∈ (R[X])2 tel que :

A = BQ + R
deg(R) < deg(B).
Le polynôme Q (respectivement R) s’appelle le quotient (respectivement le reste) de la division
euclidienne de A par B.

Exercice de cours 66 (division euclidienne en pratique).


1. Effectuer la division euclidienne de A = X 4 + 2X 3 − X + 6 par B = X 3 − 6X 2 + X + 4.
2. Trouver les a ∈ R tels que (X 2 − aX + 1)|X 4 − X + a.

Soient P ∈ R[X] et a ∈ R. Lorsque X − a divise P , on dit que a est une racine de P . La proposition
suivante assure que a est une racine de P si seulement si a est un zéro de la fonction polynomiale associée
à P , c’est-à-dire que P (a) = 0.

Proposition 79 – les racines sont les zéros d’un polynôme

Soient P ∈ R[X] et a ∈ R. On a l’équivalence : (X − a)|P ⇐⇒ P (a) = 0.

Exercice de cours 67.


1. Démontrer l’implication «⇒» de la proposition.
2. Démontrer l’implication «⇐» de la proposition à l’aide de la division euclidienne.
3. Donner une autre démonstration de l’implication «⇐» à l’aide du théorème de Taylor généralisé
pour les polynômes (voir l’exercice 64).

Exercice de cours 68. Soit a ∈ R. Montrer que l’application de R[X] dans R[X] qui à P associe P (a)
est une application linéaire. Quel est son noyau ? Quelle est son image ?

La proposition 79 a de nombreuses conséquences intéressantes. Comme elles sont à la limite du programme


de ce cours, nous les proposons sous forme d’exercice.

Exercice de cours 69 (racines/zéros d’un polynôme et conséquences). Soient P ∈ R[X] et n ∈ N∗ .


1. Montrer que si x1 , . . . , xn sont des zéros deux à deux distincts de P , alors le produit (X −
x1 ) . . . (X − xn ) divise P .
2. Déduire de la question précédente que si deg P < n et si P admet au moins n zéros distincts,
alors P = 0.
3. Montrer que si P s’annule en une infinité d’éléments de R alors P = 0.

40
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Une jolie application de l’exercice précédent est l’étude des polynômes d’interpolation de Lagrange (voir
la fiche d’exercice n◦ 1).

Définition 80 – multiplicité d’un zéro

Soient P ∈ R[X], a ∈ R et α ∈ N∗ . On dit que a est un zéro d’ordre au moins α de P si (X −a)α |P .


On dit que a est un zéro d’ordre exactement α de P si (X − a)α |P et (X − a)α+1 6 |P .

Exercice de cours 70. À l’aide du théorème de Taylor généralisé pour les polynômes (voir l’exer-
cice 64), interpréter la multiplicité d’un zéro en termes des dérivées successives de P évaluées en a :
P (a), P 0 (a), . . . , P (α−1) (a), P (α) (a).

4. Matrices d’une application linéaire


4.1. Définition. Dans ce paragraphe, on considère deux espaces vectoriels E et F de dimension finie,
respectivement p et n. On choisit une base BE = (u1 , u2 , . . . , up ) de E, et une base BF = (v1 , v2 , . . . , vn )
de F .

Proposition 81 – la donnée de l’image des vecteurs d’une base détermine l’application linéaire

Soit f ∈ L (E, F ) une application linéaire. La donnée de l’image par f des vecteurs de la base BE
détermine entièrement l’application f .

Exercice de cours 71. Démontrer la proposition.

D’autre part, les vecteurs f (u1 ), . . . , f (up ) sont eux parfaitement déterminés par la donnée de leurs
coordonnées dans la base BF . Autrement dit, la donnée du tableau à n lignes et p colonnes constituées des
coordonnées des f (uj ) dans la base (v1 , v2 , . . . , vn ) de F détermine entièrement l’application linéaire f . Cela
conduit à la définition suivante :

Définition 82

Soit f ∈ L (E, F ) une application linéaire. On appelle matrice de f dans les bases BE et BF la
matrice A ∈ Mn,p (R) dont les p colonnes sont les coordonnées des images par f des vecteurs de
BE dans la base BF . On la note
f (u1 ) f (u2 ) . . . f (up )
 
a1,1 a1,2 . . . a1,p v1
A = MatBF ←BE (f ) = 
 a2,1 a2,2 . . . a2,p   v2
 .. .. ..  ..

 . . .   .
an,1 an,2 . . . an,p vn
avec, pour j ∈ {1, . . . , p},
n
X
f (uj ) = a1,j v1 + a2,j v2 + · · · + an,j vn = ai,j vi .
i=1

" La phrase «on considère la matrice de l’application linéaire f ∈ L (E, F )» n’a pas de sens ; il faut
préciser dans quelles bases de E et F on écrit la matrice !

41
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Exemple 26. On considère l’espace vectoriel Rn , et B = (e1 , e2 , . . . , en ) une base quelconque de Rn . La


matrice de l’homothétie hλ : Rn → Rn de rapport λ dans les bases B et B est

hλ (e1 ) hλ (e2 ) . . . hλ (en )


 
λ 0 ... 0 e1
 .. .. 
Hλ = MatB←B (hλ ) = 
 0 λ . .  e2 = λ.I.
 .. .. .. 
 . . . 0 
0 ... 0 λ en

Exemple 27. On note fθ : R2 → R2 la rotation d’angle θ dans R2 , définie par

fθ (x, y) = (x cos θ − y sin θ, x sin θ + y cos θ).

La matrice de fθ dans la base canonique B de R2 est donc


 
cos θ − sin θ
A = MatB←B (fθ ) = .
sin θ cos θ

Exemple 28. On note fθ : R3 → R3 la rotation d’axe (0, 0, 1) et d’angle θ dans R3 , définie par

fθ (x, y, z) = (x cos θ − y sin θ, x sin θ + y cos θ, z).

La matrice de fθ dans la base canonique B de R3 est donc


 
cos θ − sin θ 0
A = MatB←B (fθ ) =  sin θ cos θ 0 .
0 0 1

Exemple 29. On considère l’espace vectoriel Rn [X] des polynômes de degré inférieur ou égal à n. La famille
B = (1, X, X 2 , . . . , X n ) est une base de Rn [X]. Soit alors ϕ : Rn [X] → Rn [X] l’application qui a un polynôme
P ∈ Rn [X] associe son polynôme dérivé P 0 . L’application ϕ est linéaire (voir l’exercice 61), et ϕ(1) = 0,
ϕ(X) = 1, . . ., ϕ(X n ) = nX n−1 . La matrice de ϕ dans les bases B et B est donc

ϕ(1) ϕ(X) ϕ(X 2 ) ... ϕ(X n )


 
0 1 0 ... 0 1
 0 0 2 ... 0  X
A = MatB←B (ϕ) =  .. .. .. ..  ..
 
..

 . . . . .   .

 0 0 0 ... n   X n−1
0 0 0 ... 0 Xn

Exercice de cours 72. Quelle est la matrice dans les bases B et B de l’application linéaire f de
l’exercice 62 ?

Remarque 11. La matrice d’une application linéaire dans des bases BE et BF dépend en général des bases
BE et BF . Comme on l’a vu plus haut, ce n’est cependant pas le cas pour les homothéties, et donc en
particulier pour l’application identité (qu’on peut écrire hλ avec λ = 1).

Remarque 12. On a parlé précédemment de l’application linéaire associée à une matrice A donnée de
Mn,p (R). Il est maintenant clair qu’il s’agit de l’application linéaire f de Rp dans Rn dont la matrice dans
les bases canoniques de Rp et Rn est A.

4.2. Liens entre une application linéaire et sa matrice dans des bases données. Soyons plus
précis : on a vu que «la donnée du tableau à n lignes et p colonnes constituées des coordonnées des f (uj )
dans la base (v1 , v2 , . . . , vn ) de F détermine entièrement l’application linéaire f », mais comment ?

42
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Proposition 83 – écriture matricielle de l’image d’un vecteur par une application linéaire

Soit f ∈ L (E, F ) une application linéaire. La matrice A ∈ Mn,p (R) est la matrice de f dans les
 
x1
 .. 
bases BE et BF , si et seulement si pour tout x ∈ E, de coordonnées X =  .  dans la base
xp

y1
BE , les coordonnées Y =  ...  de son image y = f (x) dans la base BF vérifient Y = A × X.
 

yn

Exercice de cours 73. Démontrer la proposition.

Proposition 84 – lien entre produit matriciel et composition des applications linéaires

Soient E, F et G des espaces vectoriels de dimension finie, et deux applications linéaires f : E → F


et g : F → G. Soient aussi BE , BF et BG des bases respectives de E, F et G, et
A = MatBF ←BE (f ), B = MatBG ←BF (g).
Alors la matrice C de l’application linéaire g ◦ f : E → G dans les bases BE et BG est donnée par
le produit B × A :
C = MatBG ←BE (g ◦ f ) = MatBG ←BF (g) × MatBF ←BE (f ) = B × A.

Exercice de cours 74. Démontrer la proposition.

Exercice de cours 75. Soient fθ : R2 → R2 et fθ0 : R2 → R2 les rotations d’angle θ et θ0 respectivement.


Quelle est la matrice de fθ ◦ fθ0 dans la base canonique ? Pouvait-on prédire géométriquement ce résultat ?

4.3. Rang d’une application linéaire et rang de sa matrice.

Proposition 85 – rang d’une application linéaire en terme du rang d’un système linéaire

Soient f : E → F une application linéaire, et A = MatBF ←BE (f ) sa matrice dans BE et BF . Le


rang de f est le rang du système linéaire associé à la matrice A.

Exercice de cours 76. À l’aide des résultats du paragraphe 6.3, démontrer la proposition.

On peut même extraire de cette preuve un procédé pour calculer le rang de f : c’est la dimension de
l’espace vectoriel engendré par les vecteurs colonnes (f (u1 ), . . . f (up )) de A. Cela justifie la définition suivante.

Définition 86 – rang d’une matrice

Soit A ∈ Mn,p (R) une matrice. On note C1 , C2 , . . . , Cp les vecteurs colonnes de A. On appelle
rang de A et on note rang(A) la dimension du sous-espace vectoriel Vect(C1 , . . . , Cp ) de Rn .

Remarque 13. Si u1 , . . . , up sont des vecteurs d’un espace vectoriel E de dimension finie, on appelle rang
de la famille (u1 , . . . , up ) la dimension du sous-espace vectoriel Vect(u1 , . . . , up ).
43
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Exemple 30.  On veut déterminer


 le rang de l’application linéaire f dont la matrice dans la basecanonique

1 2 −1 1
de R3 est A = 0 −1 1 . Il s’agit de déterminer la dimension de Vect(C1 , C2 , C3 ), où C1 = 0, C2 =
3 2 −1 3
   
2 −1
−1 et C3 =  1 . Il s’agit de compter les inconnues principales du système homogène correspondant
2 −1
à l’équation λ1 C1 + λ2 C2 + λ3 C3 = 0, dont la matrice associée est A. En échelonnant ce système, on trouve
facilement rang(f ) = rang(A) = 2.

Remarque 14. On vient de prouver un point important. Le rang d’un système linéaire a été défini comme le
nombre de lignes non nulles du système échelonné obtenu en appliquant l’algorithme du pivot au sytème en
question. Obtiendrait-on le même rang si l’on utilisait un autre procédé pour trouver un système échelonné
équivalent au premier ? Pour les systèmes compatibles, en particulier les systèmes homogènes, la réponse est
oui : ce que l’on calcule, c’est la dimension de l’image de l’application linéaire f associée au système, et ce
nombre ne dépend pas de la méthode utilisée pour le calculer.

4.4. Matrice d’une bijection.

Proposition 87 – caractérisation matricielle de la bijectivité d’une application linéaire

Soient E et F de dimension finie, respectivement p et n. Soient f ∈ L (E, F ) une application


linéaire, et A ∈ Mn,p (R) la matrice de f dans les bases BE de E et BF de F . L’application f
est bijective si et seulement si la matrice A est une matrice carrée, donc n = p, qui est inversible.
Dans ce cas
MatBE ←BF (f −1 ) = A−1 .

Exercice de cours 77. Le but de l’exercice est de démonter la proposition.


1. Supposons f bijective.
1.1 À l’aide de la proposition 69, montrer : dim E = dim F .
On en déduit que A = MatBF ←BE (f ) est une matrice carrée de Mn (R). Notons B =
MatBE ←BF (f −1 ).
1.2 Montrer que A est inversible et que A−1 = B = MatBE ←BF (f −1 ).
2. Supposons la matrice carrée A = MatBF ←BE (f ) inversible. On note g : F → E l’application
linéaire dont la matrice dans les bases BF et BE est A−1 . Montrer que (g ◦ f )(x) = x pour tout
x, ou encore que g ◦ f = IE . Montrer de la même manière que f ◦ g = IF , et en déduire que f
est bijective.

Exercice de cours 78. Soient a ∈ R et f : R2 → R2 l’application linéaire définie par f (x, y) =


(x + 2y, 2x + ay). L’application f est-elle bijective ? Si oui donner f −1 .

5. Changement de base
La matrice d’une application linéaire f donnée dépend en général des bases dans lesquelles on la définit.
On s’intéresse dans ce paragraphe aux relations entre les matrices de f dans des bases différentes.

5.1. Matrice de passage d’une base dans une autre. Soit E un espace vectoriel de dimension n.
Soient B = (u1 , u2 , . . . , un ) une base de E, et B 0 = (u01 , u02 , . . . , u0n ) une «nouvelle base» de E. En général,
les vecteurs de B 0 = (u01 , u02 , . . . , u0n ) sont donnés par leurs coordonnées dans «l’ancienne base» B, et il est
naturel et très simple de former la matrice P des coordonnées des vecteurs de la nouvelle base B 0 dans
44
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

l’ancienne base B :
u01 u02 ... u0n
 
p1,1 p1,2 p1,n u1
P = 
 p2,1 p2,2 p2,n 
 u2
 .. .. .. 

 . . . 

pn,1 pn,2 pn,n un
Cette matrice a un nom, pour l’instant un peu troublant :

Définition 88 – matrice de passage

La matrice P des coordonnées des vecteurs de la nouvelle base B 0 dans l’ancienne base B est
appelée matrice de passage de B à B 0 . On la note PB,B0 .

" Attention à l’ordre des bases dans cette définition : PB,B0 est la matrice dont les colonnes sont les
coordonnées dans la base B des vecteurs de la base B 0 .

Exemple 31. Soient B = (e1 , e2 ) la base canonique de R2 et e01 = (1, −1), e02 = (0, 2). Les vecteurs e01 et
e02 ne sont pas colinéaires, donc B 0 = (e01 , e02 ) est une base de R2 . La matrice de passage de B à B 0 est la
matrice
0 0
 e1 e2 
PB,B0 = 1 0 e1
−1 2 e2

Proposition 89 – une matrice de passage est une matrice associée à l’application identité

Soient E un espace vectoriel de dimension n ∈ N∗ , B = (u1 , u2 , . . . , un ) et B 0 = (u01 , u02 , . . . , u0n )


deux bases de E. La matrice de de passage de B dans B 0 est la matrice de l’application identité
de E dans les bases B 0 et B. Autrement dit
PB,B0 = MatB←B0 (I).

Pour démontrer la proposition, il suffit de remarquer que


u01 = I(u01 ) u02 = I(u02 ) . . . u0n = I(u0n )
 
p1,1 p1,2 p1,n u1
PB,B0 = 
 p2,1 p2,2 p2,n 
 u2 = MatB←B0 (I).
 .. .. .. 

 . . . 

pn,1 pn,2 pn,n un
Remarque 15. Une matrice de passage est toujours inversible, puisque l’application linéaire identité l’est
(voir la proposition 87) !

De la définition ci-dessus découle l’importante proposition suivante.

Proposition 90 – matrice d’un vecteur dans une nouvelle base grâce à la matrice de passage

Une matrice P ∈ Mn (R) est la matrice de passage de la base B à la base B 0si etseulement si,
x01
 
x1
pour tout vecteur x ∈ E, ses coordonnées X =  .  dans la base B et X 0 =  ...  dans la base
 ..   

xn x0n
B vérifient X = P × X .
0 0

Exercice de cours 79. Démontrer la proposition.

45
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Exemple 32. On reprend les vecteurs de l’exemple 31 : B = (e1 , e2 ) la base canonique de R2 et B 0 = (e01 , e02 )
avec e01 = (1, −1), e02 = (0, 2). Si x = (x1 , x2 ) ∈ R2 , on a x = x1 e1 + x2 e2 et x = x01 e01 + x02 e02 avec
    0 
x1 1 0 x1
= .
x2 −1 2 x02

Exercice de cours 80. Vérifier l’assertion de l’exemple précédent.

Proposition 91 – inverse d’une matrice de passage

Si P est la matrice de passage de B à B 0 , alors P −1 est la matrice de passage de B 0 à B.

Exercice de cours 81. Démontrer la proposition à l’aide de la proposition 90 et de la remarque 15.

5.2. Matrices semblables.

Proposition 92 – formule de changement de bases pour les applications linéaires

Soient f ∈ L (E, F ), et A la matrice de f dans les bases BE et BF . Soient aussi BE


0
et BF0 des
nouvelles bases de E et F respectivement. Alors la matrice A de f dans les bases BE et BF0 est
0 0

donnée par
A0 = (PBF ,BF0 )−1 × A × PBE ,BE0

On notera que cette relation s’écrit

MatBF0 ←BE0 (f ) = (PBF ,BF0 )−1 × MatBF ←BE (f ) × PBE ,BE0

ou encore
MatBF0 ←BE0 (f ) = MatBF0 ←BF (I) × MatBF ←BE (f ) × MatBE ←BE0 (I).
Cette formule est donc une conséquence de la proposition 84.

Exercice de cours 82. Démontrer la proposition à l’aide de la proposition 90.

Corollaire 93 – formule de changement de bases pour les endomorphismes

Soient f ∈ L (E) un endomorphisme, et A la matrice de f dans la base B. Soit aussi B 0 une


nouvelle base de E. Alors la matrice A0 de f dans la base B 0 vérifie
A0 = P −1 × A × P,
où P = PB,B0 est la matrice de passage de B à B 0 .

Définition 94 – matrice semblable

On dit que deux matrices A et B sont semblables lorsqu’il existe une matrice inversible P ∈ Mn (R)
telle que A = P × B × P −1 .

De manière équivalente, deux matrices sont semblables si et seulement si elles représentent la même
application linéaire dans des bases différentes, puisqu’une matrice inversible peut être vue comme une matrice
de passage. On peut se demander s’il existe une base dans laquelle la matrice d’une application linéaire donnée
est la plus simple possible. C’est l’objet central de la réduction des endomorphismes (voir le cours de deuxième
année).
46
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

6. Projections et symétries vectorielles


Pour finir, on examine en détail deux types d’applications linéaires qui jouent un rôle important. Comme
leur nom l’indique, il est utile pour bien comprendre ce qui suit d’avoir en tête l’exemple des projections et
symétries du plan ou de l’espace.

6.1. Projections.

Définition 95 – définition algébrique d’une projection

Soit (E, +, .) un espace vectoriel. On dit qu’un endomorphisme p ∈ L (E) est une projection
lorsque p ◦ p = p.

Exercice de cours 83.


 
1 0
1. Soit A = et f : R2 → R2 l’application linéaire dont A est la matrice dans la base
0 0
canonique de R2 . Montrer que f est une projection.
2. Soit p ∈ L (E, E) une projection. Montrer que I − p est aussi une projection.

Proposition 96 – image et noyau d’une projection sont supplémentaires dans E

Si p ∈ L (E) est une projection, alors Ker p et Im p sont des sous-espaces vectoriels supplémentaires
de E :
E = Ker p ⊕ Im p.
De plus la restriction de p à Ker p est l’application nulle, et celle de p à Im p est l’application
identité.

Exercice de cours 84. Démontrer la proposition.

Soit p ∈ L (E) une projection. La proposition 96 dit que E = Ker p ⊕ Im p, c’est-à dire que tout vecteur
x ∈ E s’écrit de manière unique x = u + v avec u ∈ Ker p et v ∈ Im p. Conformément à la proposition 31, on
dit que u est la composante de x sur Ker p et que v est la composante de x sur Im p.
Avec ces notations, on a p(x) = p(u) + p(v) = p(v), et la proposition 96 nous dit que
p(x) = p(u) + p(v) = 0 + v = v
Finalement, on a donc
x = u + v, u ∈ Ker p, v ∈ Im p ⇒ p(x) = v.
Cette remarque va nous permettre d’interpréter géométriquement la notion de projection.

Proposition 97 – interprétation géométrique d’une projection

Soient E1 et E2 deux sous-espaces vectoriels supplémentaires de l’espace vectoriel E. Soit p : E → E


l’application qui à x ∈ E associe sa composante sur E2 . Alors p est une projection ; son image est
E2 et son noyau est E1 . On dit que p est la projection sur E2 dans la direction de E1 (ou encore :
parallèlement à E1 ).

Exercice de cours 85. Démontrer la proposition.

Dans le cas où E est l’ensemble des vecteurs du plan, et E1 , E2 deux droites vectorielles distinctes, comme
dans le cas où E est l’ensemble des vecteurs de l’espace, E1 une droite et E2 un plan ne contenant pas E1 ,
la projection sur E2 dans la direction de E1 est bien ce que l’on pense, comme l’illustre la figure 1.
47
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

E1
E1

x = x1 + x2
x1
x

x1

p(x) = x2

E2
p(x) = x2 E2

Figure 1. Projections vectorielles dans le plan et dans l’espace

Si A est la matrice d’une projection p dans des bases données, on a A2 = A × A = A, puisque que A × A
est la matrice dans les mêmes bases de p ◦ p = p. On peut choisir les bases de manière à ce que la matrice de
p dans celles-ci soit très simple comme l’illustre l’exercice suivant.

Exercice de cours 86 (matrice d’une projection). Soient p : E → E une projection, B1 = (u1 , . . . , uk1 )
une base de Im p et B2 = (v1 , . . . , vk2 ) une base de Ker p. Notant A la matrice de p dans les bases B et
B, montrer que l’on a :
p(u1 ) . . . p(uk1 ) p(v1 ) . . . p(vk2 )
1 ... 0 0 ... 0 u1
 
 .. .. .. .. .. 
 . . . . . 
 
A = MatB←B (p) = 
 0 ... 1 0 ... 0   uk1

 0 ... 0 0 ... 0   v1
 .. .. .. .. 
 . . . . 
0 ... 0 0 ... 0 vk2
On pourra rapprocher ce résultat de l’exexercice 83 (1).

6.2. Symétries.

Définition 98 – définition algébrique d’une symétrie

Soit (E, +, .) un espace vectoriel. On dit qu’un endomorphisme s ∈ L (E) est une symétrie lorsque
s ◦ s = I.

On notera qu’une symétrie est une application linéaire bijective, qui est sa propre inverse.

 
1 0
Exercice de cours 87. Soit A = et s : R2 → R2 l’application linéaire dont A est la matrice
0 −1
dans la base canonique de R2 . Montrer que s est une symétrie.

Exercice de cours 88. Soit (F (R, R), +, .) l’espace vectoriel des fonctions de R dans R. À une fonction
f ∈ F on associe la fonction s(f ) définie par
s(f ) : x 7→ f (−x).
Montrer que s est une symétrie.

48
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Proposition 99 – lien entre symétries et projections

Soit p ∈ L (E). L’application p est une projection si et seulement si s = I − 2p est une symétrie.

Exercice de cours 89. Démontrer la proposition.

Puisque s est une bijection, on a Ker s = {0E } et Im s = E, donc en particulier on a encore E =


Ker s ⊕ Im s, mais cette égalité est sans intérêt pour une symétrie. En revanche, on a aussi la proposition
suivante.
Proposition 100 – deux sous-espaces vectoriels supplémentaires associées à une symétrie

Si s ∈ L (E) est une symétrie, alors Ker(s + I) et Ker(s − I) sont des sous-espaces vectoriels
supplémentaires de E :
E = Ker(s + I) ⊕ Ker(s − I).

Exercice de cours 90. Démontrer la proposition.

Exemple 33. On reprend l’exercice 88. On a vu que l’application s : F → F définie par s(f ) : x → f (−x)
est une symétrie. Une fonction f ∈ F appartient à Ker(s + I) si et seulement si pour tout x ∈ R, on a
(s(f ) + f )(x) = f (−x) + f (x) = 0. Autrement dit Ker(s + I) est le sous-espace des fonction impaires. De
la même manière, f ∈ Ker(s − I) si et seulement si (s(f ) − f )(x) = f (−x) − f (x) = 0, donc Ker(s − I) est
le sous-espace des fonctions paires. Dans ce cas, la proposition précédente dit donc que toute fonction de R
dans R s’écrit de manière unique comme somme d’une fonction paire et d’une fonction impaire.
Soient s : E → E une symétrie, et x ∈ E. On peut écrire x = x1 +x2 avec x1 ∈ Ker(s−I) et x2 ∈ Ker(s+I),
de sorte que s(x) = s(x1 + x2 ) = s(x1 ) + s(x2 ) = x1 − x2 .

Proposition 101 – interprétation géométrique d’une symétrie

Soient E1 et E2 deux sous-espaces vectoriels supplémentaires de l’espace vectoriel E. Soit s : E → E


l’application qui à x ∈ E associe x1 − x2 où x1 et x2 sont définis par x = x1 + x2 avec x1 ∈ E1 et
x2 ∈ E2 . Alors s est une symétrie. On dit que s est la symétrie par rapport à E1 dans la direction
de E2 (ou encore : parallèlement à E2 ).

Exercice de cours 91. Démontrer la proposition.

Dans le cas où E est l’ensemble des vecteurs du plan, et E1 , E2 deux droites vectorielles distinctes, comme
dans le cas où E est l’ensemble des vecteurs de l’espace, E1 un plan et E2 une droite qui n’est pas contenue
dans E1 , la symétrie par rapport à E1 dans la direction de E2 est bien ce que l’on pense, comme l’illustre la
figure 2.
Si A est la matrice d’une symétrie s dans des bases données, on a A2 = A × A = I, puisque que A × A
est la matrice dans les mêmes bases de s ◦ s = I. Pour une symétrie aussi, on peut trouver des bases dans
lesquelles la matrice de A est très simple comme l’illustre l’exercice suivant.

Exercice de cours 92. Soient E1 et E2 deux sous-espaces supplémentaires de E, et s : E → E la


symétrie par rapport à E1 dans la direction de E2 . Soient aussi B1 = (u1 , . . . , uk1 ) une base de E1 et
B2 = (v1 , . . . , vk2 ) une base de E2 . Notant A la matrice de s dans les bases B et B, montrer que l’on a :
s(u1 ) . . . s(uk1 ) s(v1 ) ... s(vk2 )
1 ... 0 0 ... 0 u1
 
 .. .. .. .. .. 
 . . . . . 
 
A = MatB←B (s) = 
 0 ... 1 0 ... 0   uk1

 0 ... 0 −1 ... 0   v1
 .. .. .. .. .. 
 . . . . . 
0 . .49
. 0 0 ... −1 vk2
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

E2

x = x1 + x2

E2

x2
x = x1 + x2
x2
x1 E1

x1
−x2

−x2
E1
s(x) = x1 − x2

s(x) = x1 − x2

Figure 2. Symétries vectorielles dans le plan et dans l’espace

Là encore, on pourra rapprocher ce résultat de l’exercice 87.

50
Déterminant d’une matrice
4
L’objet mathématique appelé déterminant est plutôt difficile à définir. Il ne s’agit de rien de moins que
de mesurer comment changent les volumes et l’orientation sous l’effet d’une application linéaire. En petite
dimension (n = 1, 2 ou 3), notre intuition et un peu de travail peuvent permettre de répondre à cette question,
mais ce n’est pas immédiat sauf si n = 1. Par contre, le calcul d’un déterminant est relativement simple, et
dans ce cours, où l’on veut être capable de dire si le déterminant d’une matrice donnée est nul ou pas, c’est
l’essentiel.

1. Introduction
Le déterminant d’une matrice carrée peut être vu comme une généralisation (ou une formalisation) des
notions d’aire et de volume, qui tient compte de l’orientation. Nous tentons ici de motiver sa définition dans
le cas des matrices carrées d’ordre 2.

− → − →
− →

On se place dans R2 muni de sa base canonique ( i , j ) orthonormée, où i = (1, 0) et j = (0, 1),
que l’on convient d’appeler directe. Les termes orthonormée et directe seront définis de manière rigoureuse
en deuxième année. Ici, orthonormée est à comprendre au sens de la géométrie du lycée. Considérons deux
vecteurs − → = (x , y ) de R2 écrit dans la base canonique (→
→ = (x , y ) et −
u u
− →−
i , j ). On appelle parallélogramme
1 1 1 2 2 2

→ −
→ −
→ −

engendré par u1 et u2 l’ensemble {α1 u1 + α2 u2 : (α1 , α2 ) ∈ [0, 1]2 }.



v1


u h
2

b


u1

Calculons l’aire A de ce parallélogramme. On sait qu’elle est égale à la longueur b d’un côté (par exemple
k−
→k), multipliée par la hauteur h correspondante : A = b × h. Pour obtenir A en fonction des coordonnées
u 1
de −→ et −
u1
→, il suffit d’introduire le vecteur →
u2
−v1 = (−y1 , x1 ). Ce vecteur est en effet orthogonal à −
→ et de même
u1
norme, de sorte que
|→

v1 . −
→| = h × k−
u 2
→k = h × b = A ,
u 1

où · désigne le produit scalaire canonique de R2 . On a donc


A = | − y1 x2 + x1 y2 |.
4
Commenous le 
verrons au cours de ce chapitre,
1 , y1 , x2 , y2 ) ∈ R , le déterminant de la matrice
pour (x
x1 x2 x x2
carrée A = ∈ M2 (R), noté det(A) ou 1 , est défini par :
y1 y2 y1 y2

x1 x2
det(A) = = x1 y2 − y1 x2 .
y1 y2
51
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

 
x1
En particulier, | det(A)| représente l’aire du parallélogramme engendré par les vecteurs colonnes et
y1
     
x2 x1 x2
de A. Le déterminant possède de plus un signe : il est strictement positif si les vecteurs et
y2 y1 y2
forment aussi une base directe, strictement négatif s’ils forment une base indirecte, et nul si ces vecteurs sont
liés.
On peut de même introduire le déterminant d’une matrice carrée réelle d’ordre 3 de sorte que sa valeur
absolue soit le volume du parallélépipède engendré par les vecteurs colonnes d’une telle matrice.

Dans ce chapitre, nous allons définir le déterminant d’une matrice carré d’ordre quelconque. Il sera bon
de garder à l’esprit cet exemple introductif pour mieux comprendre les propriétés du déterminant et la façon
dont il est construit.

2. Definition et calcul pratique du déterminant


2.1. Définition. On commence avec une proposition dont l’énoncé est simple, mais dont la preuve
requiert un assez gros travail que l’on reporte à plus tard dans ce chapitre. Elle affirme l’existence et l’unicité
d’une fonction vérifiant trois propriétés élémentaires.

Proposition 102 – existence et unicité de l’application «déterminant»

Pour tout n ∈ N∗ , il existe une unique application ∆n de Mn (R) dans R qui vérifie les trois
propriétés suivantes :
1. A 7→ ∆n (A) est linéaire par rapport à chacune des lignes de A.
2. Si à se déduit de A par l’échange de deux lignes distinctes, alors ∆n (Ã) = −∆n (A).
3. ∆n (In ) = 1.

Nous verrons plus loin que les propriétés analogues portant sur les colonnes (qui correspondent à l’intui-
tion vue en introduction) se déduisent de celles sur les lignes (voir la proposition 114). Comme nous allons
utiliser le pivot de Gauss, il est plus aisé de travailler sur les lignes dans un premier temps.

Définition 103 – déterminant

L’application donnée par la proposition précédente est appelée application déterminant. On la


note det : Mn (R) → R.

En dimension 1 et 2, on peut obtenir assez rapidement une formule explicite pour le déterminant à partir
des propriétés (1), (2) et (3). C’est l’objet de l’exercice suivant.

Exercice de cours 93.


1. Supposons n = 1. Une matrice A ∈ M1 (R) s’écrit A = (a) pour un a ∈ R. Montrer que
det(A) = a.
 
a b
2. Supposons n = 2. Soit A = ∈ M2 (R). Montrer que
c d
 
a b
det( ) = ad − bc.
c d

On donnera plus loin une expression explicite du déterminant d’une matrice de taille > 3, mais cette
expression est en général inutilisable pour le calculer. On va voir que la méthode du pivot donne un procédé
effectif de calcul.

2.2. Calcul d’un déterminant par la méthode du pivot. On commence en étudiant l’effet des
opérations sur les lignes d’une matrice sur son déterminant.
52
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Échange de lignes (Li ↔ Lj ). Soit A ∈ Mn (R), et Ai↔j la matrice obtenue en échangeant deux lignes
de A (Li ↔ Lj ). On a
(5) det Ai↔j = − det A.
Exemple 34. D’après la remarque 9, E ei,j s’obtient en échangeant les lignes i et j de la matrice identité. On
a donc det(Ei,j ) = − det(In ) = −1.
e

On en déduit :
Corollaire 104 – une matrice avec deux lignes identiques est de déterminant nul

Si A a deux lignes identiques, alors det(A) = 0.

Exercice de cours 94. Démontrer le corollaire.

Multiplication d’une ligne par un scalaire non nul (Li ← αLi ). Soit A ∈ Mn (R). On note L1 , . . . , Ln ses
lignes. Soit i ∈ {1, . . . , n} fixé et Ai,α la matrice obtenue en multipliant la ligne Li par α ∈ R∗ . On a
(6) det(Ai,α ) = α det(A).
En effet, puisque det est linéaire par rapport à la ligne Li ,
det(L1 , . . . , Li−1 , α.Li , Li+1 . . . Ln ) = α det(L1 , . . . , Li−1 , Li , Li+1 . . . Ln ) = α det(A).

Corollaire 105 – une matrice avec une ligne nulle est de déterminant nul

Si A a une ligne nulle, alors det(A) = 0.

Exercice de cours 95. Démontrer le corollaire.

Ajout à une ligne d’un multiple d’une autre ligne (Li ← Li + αLj ). Soient A ∈ Mn (R) et α ∈ R∗ . On
note Ai,α,j la matrice obtenue à partir de A en effectuant l’opération Li ← Li + αLj , où i 6= j. On a
(7) det(Ai,α,j ) = det A.
En effet, supposons par exemple que i < j. Alors, puisque det est linéaire par rapport à la i-ème ligne,
det(Ai,α,j ) = det(L1 , . . . , Li + αLj , . . . , Lj , . . . , Ln )
= det(L1 , . . . , Li , . . . , Lj , . . . , Ln ) + α det(L1 , . . . , Lj , . . . , Lj , . . . , Ln )
= det(A) + 0 = det(A).
Calcul effectif. Soient A ∈ Mn (R) une matrice donnée et à la matrice obtenue à partir de A en appliquant
l’algorithme du pivot. On se souvient qu’il s’agit d’effectuer sur A des opérations du type précédent jusqu’à
obtenir une matrice échelonnée. Les formules (5), (6) et (7) donnent donc
det(Ã) = (−1)e det A,
où e ∈ N est le nombre d’échanges de lignes qu’il a été nécessaire de faire. On distingue alors deux cas :
— Ã a (au moins) une ligne nulle. D’après le corollaire 105, on a det(Ã) = 0, donc finalement
det A = 0.
— à n’a pas de ligne nulle. Dans ce cas, on peut réduire la matrice à jusqu’à obtenir la matrice In . Là
encore il s’agit de faire subir à Ã des opérations du type de celles de la section précédente, et plus
précisément de multiplier chaque ligne Li de à par l’inverse de son pivot ãi,i , puis d’effectuer des
opérations du type Li ← Li + αLj . Avec (6) et (7) on obtient
1 1 1
det(In ) = ... det(Ã).
ã1,1 ã2,2 ãn,n
Dans ce cas, puisque det(In ) = 1, on a donc
det(A) = (−1)e ã1,1 ã2,2 . . . ãn,n ,
où les ãi,i sont les coefficients diagonaux de la matrice échelonnée Ã.
53
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Notant que A n’a pas de ligne nulle si et seulement si elle est de rang n, ou encore si et seulement si A
est inversible, on a démontré la proposition suivante.

Proposition 106 – caractérisation de l’inversibilité d’une matrice

Soit A ∈ Mn (R).
— A n’est pas inversible si et seulement si det A = 0 .
— Si A est inversible, le déterminant de A est le produit des éléments diagonaux de la matrice
obtenue en échelonnant A, multiplié par −1 si le nombre d’échanges de lignes effectués est
impair.

De plus, si A est inversible, le déterminant de A est le produit des éléments diagonaux de la matrice obtenue
en échelonnant A, multiplié par -1 si le nombre d’échanges de lignes effectués est impair.

Remarque 16. Ce résultat constituerait une preuve de l’unicité dans la proposition 102 si l’on savait qu’il
y a unicité de la matrice échelonnée associée à A, ce que l’on n’a jamais prouvé. En effet, dans ce cas, si
∆ : Mn (R) → R est une application qui vérifie (i), (ii) et (iii), alors ∆(A) serait parfaitement déterminé pour
n’importe quelle matrice A. Pour ce qui concerne l’existence, il faudrait prouver que l’application définie par
la proposition 106 vérifie bien (i), (ii) et (iii), ce qui n’est pas immédiat.

3. Déterminant d’un produit de matrices


On s’intéresse au déterminant d’un produit A × B de matrices. On commence par le cas où A est une
matrice d’opération sur les lignes :
Supposons que A = E ei,j . D’après la proposition 48, A × B est la matrice qu’on obtient à partir de B en
échangeant deux de ses lignes. Donc, d’après (5), on a det(A × B) = − det B. D’un autre côté, on vient de
voir que det(Eei,j ) = −1. On a donc det(A × B) = det(A) det(B) dans ce cas.
On considère maintenant le cas où A = I + αEi,j avec i 6= j. D’après (7), on a det(A × B) = det(B). En
particulier pour B = In , on obtient det(A) = 1, et par conséquent, det(A × B) = det(A) det(B) dans ce cas
aussi.
Enfin si A = I + (α − 1)Ei,i , on sait que det(A) = α et que A × B est la matrice obtenue en multipliant
la i-ième ligne Li de B par α. Puisque le déterminant est linéaire par rapport à cette ligne, on obtient encore

det(A × B) = det(L1 , . . . , αLi , . . . , Ln ) = α det(L1 , . . . , Ln ) = α det(B) = det(A) det(B).

On est alors en mesure de démontrer le résultat très important suivant.

Proposition 107

Soient A, B ∈ Mn (R). On a det(AB) = det(A) det(B).

Exercice de cours 96. La démonstration de la proposition est un peu délicate. C’est l’objet de cet
exercice.
1. Supposons que A ne soit pas inversible. Montrer que A × B n’est pas inversible non plus.
Indication : utiliser les les applications linéaires f et g associées à A et B respectivement.
Conclure que det(A × B) = det(A) det(B) dans ce cas.
2. Supposons maintenant que A soit inversible. Remarquer que A et A−1 peuvent s’écrire comme
produit de matrices de la forme E
ei,j et (I + αEi,j ). Utiliser alors ce qui précède la proposition
pour montrer que det(A × B) = det(A) det(B).

On en déduit immédiatement le résultat suivant.

54
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Corollaire 108 – le déterminant de l’inverse d’une matrice inversible est l’inverse du déterminant

Soit A ∈ Mn (R) une matrice inversible. On a


1
det(A−1 ) = ·
det(A)

Exercice de cours 97.


1. Vérifier l’assertion du corollaire
2. Montrer, toujours à l’aide de la proposition 107, que deux matrices semblables ont le même
déterminant.

L’exercice précédent permet de définir le déterminant d’un endomorphisme.

Définition 109 – déterminant d’un endomorphisme

Soient f : E → E un endomorphisme de l’espace vectoriel E, supposé de dimension finie. Soient


B une base de E, et
A = MatB←B (f ).
On appelle déterminant de f , et l’on note det(f ) le nombre det(A). Ce nombre ne dépend pas du
choix de B.

4. Déterminant et matrice transposée

Définition 110 – transposée d’une matrice carrée

Soit A = (ai,j ) une matrice de Mn,p (R). On appelle transposée de A, et on note AT la matrice de
Mp,n (R) définie par
AT = (ti,j ) avec ti,j = aj,i pour tous i ∈ {1, . . . p}, j ∈ {1, . . . , n}.

De manière un peu imprécise, on peut dire que AT s’obtient à partir de A en échangeant les coefficients
de A par symétrie par rapport à sa diagonale. De la définition il vient immédiatement que la transposée de
la transposée d’une matrice est la matrice elle-même :
(8) (AT )T = A.
 
  1 4
1 2 3
Exemple 35. Soit A = . On a AT = 2 5.
4 5 6
3 6

Exercice de cours 98.


1. Soit Ek,` une matrice élémentaire de Mn,n . Vérifier que l’on a :
(Ek,` )T = E`,k .
2. Vérifier que la transposée de la somme de deux matrices et la somme des transposées, et que
pour λ ∈ R et A ∈ Mn,p (R),
(λ.A)T = λ.AT .
Autrement dit, l’application de Mn,p (R) dans Mn,p (R) qui à une matrice A associe sa transposée
AT est un endomorphisme de Mn,p (R).

La transposée d’un produit de matrices est le produit des transposées, dans l’ordre inverse. Plus précisé-
ment :

55
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

Proposition 111 – transposée d’un produit de matrices

Soient A ∈ Mn,p (R) et B ∈ Mp,m (R), de sorte que A × B ∈ Mn,m (R) est bien définie. Alors
B T × AT ∈ Mm,n (R) est bien définie, et on a
(A × B)T = B T × AT .

Exercice de cours 99. Démontrer la proposition.

Corollaire 112 – transposée d’une matrice inversible

Soit A ∈ Mn (R). La matrice A est inversible si et seulement si AT l’est. Dans ce cas


(AT )−1 = (A−1 )T .

Exercice de cours 100. Démontrer le corollaire.

Outre son intérêt propre, le résultat suivant ouvre la porte à l’étude des propriétés du déterminant
d’une matrice comme fonction de ses colonnes (ce qui est d’une certaine façon plus naturel si on repense à
l’introduction).

Proposition 113 – transposer une matrice ne change pas son déterminant

Soit A ∈ Mn (R). On a
det(AT ) = det(A).

Exercice de cours 101. Démontrer la proposition.


Indication : traiter à part comme dans l’exercice 96 le cas où A n’est pas inversible. Pour le cas où A est
inversible, reprendre les idées de l’exercice 96 (2).

On en déduit que le déterminant possède les mêmes propriétés par rapport aux colonnes que par rapport
aux lignes (voir la proposition 102).

Proposition 114 – propriétés du déterminant relatives aux colonnes

La fonction det : Mn (R) → R vérifie les propriétés suivantes :


1. A 7→ det(A) est linéaire par rapport aux colonnes de A.
2. Si A e = − det(A).
e se déduit de A par un échange de deux colonnes, alors det(A)

Exercice de cours 102. Démontrer la proposition.

5. Développement par rapport à une ligne ou une colonne


On démontre ici que le déterminant d’une matrice n × n peut être calculé à partir de n déterminants de
taille n − 1. La proposition ci-dessous à surtout un intérêt théorique, mais peut être utilisée pour calculer
des déterminants pour des matrices de petite taille (typiquement n = 3, 4 ou 5). Cette formule est appelée
«développement du déterminant suivant la j-ème colonne».
56
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

a1,1 ... a1,j ... ... a1,n


 
 .. 
 . 
 ..
 

A = .
bi,j  

 ai,1 ... ai,j ... ... ai,n 
 
 .
 ..


an,1 ... an,j ... ... an,n

Figure 1. La matrice extraite A


bi,j

Proposition 115 – développement du déterminant suivant la j-ème colonne

Soit A ∈ Mn (R). Pour i, j ∈ {1, . . . , n} on note A


bi,j ∈ Mn−1 (R) la matrice obtenue à partir de A
en rayant la i-ième ligne et la j-ième colonne (cf. la figure 1). Pour tout j ∈ {1, . . . , n}, on a
Xn
det A = (−1)i+j ai,j det(A
bi,j ).
i=1

Exercice de cours 103. Démontrer la proposition. On commencera par le cas j = 1, et on remarquera


que la première colonne C1 s’écrit sous la forme
     
1 0 0
0 1 0 X n
C1 = a1,1  .  + a2,1  .  + · · · + an,1  .  = ai,1 Ci0 .
     
 ..   ..   ..  i=1
0 0 1

En utilisant la transposition des matrices, qui ne change pas le déterminant, on peut en déduire le résultat
suivant (développement du déterminant par rapport à sa i-ième ligne).

Corollaire 116 – développement du déterminant par rapport à sa i-ième ligne

Pour tout i ∈ {1, . . . , n}, on a


n
X
det A = (−1)i+j ai,j det(A
bi,j ).
j=1

6. Existence de la fonction déterminant


On démontre maintenant l’existence, pour tout n > 2, d’une fonction ∆n : Mn (R) → R qui vérifie les
propriétés (1), (2) et (3) de la proposition 102. La formule du développement d’un déterminant par rapport
à sa première ligne
Xn
(9) det A = (−1)i+j ai,j det(A
bi,j )
i=1
va permettre de faire cette démonstration par récurrence. On note P(n) la propriété : «il existe une appli-
cation ∆n : Mn (R) → R qui vérifie (1), (2) et (3)».
– P(2) est vraie : on a vu que l’application ∆2 : M2 (R) → R définie par
 
a b
∆2 ( ) = ad − bc,
c d
est le seul candidat possible. Or ∆2 (I2 ) = 1, donc ∆2 vérifie (3). De plus
   
c d a b
∆2 ( ) = cb − ad = −∆2 ( ),
a b c d
57
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

a1,1 a1,2 ... ... a1,n a1,1 a1,2 ... ... a1,n
   
 ..   .. 
 .   . 
   
ai1 ,1 ai1 ,1 ... . . . ai1 ,n  ai2 ,1 ai2 ,1 ... ... ai2 ,n 
   
A =  ... B =  ...
bi ,1   bi ,1  
2  1 
   
ai ,1 ai2 ,1 ... . . . ai2 ,n  ai ,1 ai1 ,1 ... ... ai1 ,n 
 2   1 
 .  .
 ..  ..
 
 
an,1 an,2 ... ... an,n an,1 an,2 ... ... an,n

Figure 2. Les matrices extraites A


bi ,1 et B
1
bi ,1
2

donc ∆2 vérifie (2). Il reste à vérifier la linéarité par rapport à chacune des lignes. On calcule
∆2 (λ1 (a1 b1 ) + λ2 (a2 b2 ), (c d)) = ∆2 ((λ1 a1 + λ2 a2 λ1 b1 + λ2 b2 ), (c d))
= (λ1 a1 + λ2 a2 )d − (λ1 b1 + λ2 b2 )c
= λ1 (a1 d − b1 c) + λ2 (a2 d − b2 c)
= λ1 ∆2 ((a1 b1 ), (c d)) + λ2 ∆2 ((a2 b2 ), (c d)),
ce qui prouve la linéarité par rapport à la première ligne. La linéarité par rapport à la seconde ligne s’obtient
de la même manière, ou bien en utilisant le comportement du déterminant par échange de ligne.
– Supposons P(n − 1) vraie pour un n > 3 donné. On note, pour A ∈ Mn (R),
n
X
(10) ∆n (A) = (−1)i+1 ai,1 ∆n−1 (A
bi,1 ),
i=1

où ∆n−1 est la fonction dont l’existence est assurée par P(n − 1). On veut montrer que ∆n vérifie (1), (2)
et (3). D’abord puisque ai,1 = 1 si i = 1 et ai,1 = 0 sinon, on a
∆n (In ) = ∆n−1 (A
b1,1 ) = ∆n−1 (In−1 ) = 1,

ce qui prouve (3). La linéarité par rapport aux n − 1 dernières colonnes vient de l’hypothèse de récurrence,
et la linéarité par rapport à la première colonne est claire à la vue de (10). Cela prouve (1).
Soient A = (ai,j ) ∈ Mn (R) et B = (bi,j ) la matrice obtenue à partir de A en échangeant les lignes Li1 et
Li2 , avec i1 < i2 . On a
n
X
∆n (B) = (−1)i+1 bi,1 ∆n−1 (B
bi,1 )
i=1
X
= (−1)i+1 ai,1 ∆n−1 (B
bi,1 ) + (−1)i1 +1 bi ,1 ∆n−1 (B
1
bi ,1 ) + (−1)i2 +1 bi ,1 ∆n−1 (B
1 2
bi ,1 ).
2

i 6= i1
i 6= i2

On traite chacun des termes de cette somme séparément. Pour i 6= i1 , i 6= i2 , la matrice B


bi,1 s’obtient à
partir de Ai,1 en échangeant les lignes Li1 et Li2 . Donc
X X
(−1)i+1 ai,1 ∆n−1 (Bbi,1 ) = − (−1)i+1 ai,1 ∆n−1 (A bi,1 ).
i 6= i1 i 6= i1
i 6= i2 i 6= i2

Ensuite B bi ,1 devient A bi ,1 en effectuant successivement les opérations Lk ↔ Lk−1 pour k = i2 , i2 −


1 2

1, . . . , i1 + 2 (cf. la figure 2). Donc


bi ,1 ) = (−1)i1 +1 ai ,1 (−1)i2 −i1 −1 ∆n−1 (A
(−1)i1 +1 bi1 ,1 ∆n−1 (B bi ,1 )
1 2 2

= −(−1)i2 +1 ai2 ,1 ∆n−1 (A


bi ,1 )
2

Le même raisonnement donne enfin


(−1)i2 +1 bi2 ,1 ∆n−1 (B
bi ,1 ) = −(−1)i1 +1 ai ,1 ∆n−1 (A
2 1
bi ,1 ),
1

ce qui prouve que ∆n (B) = −∆n (A), et donc que la fonction ∆n définie par (10) vérifie P(n). Cela termine
la partie "existence" de la proposition 102.
58
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021

7. Une formule explicite pour le déterminant


Définition 117 – permutation

Soit n ∈ N. Les bijections de l’ensemble {1, . . . , n} dans lui-même s’appellent permutations de


{1, . . . , n}. On note Gn l’ensemble de ces permutations.

La composée σ ◦ σ 0 de deux permutations est aussi une permutation : la composition des applications
est une loi interne sur Gn . On sait qu’elle est associative, et l’application identité sur {1, . . . , n}, qui est une
permutation, est l’élément neutre pour la composition. Par définition toute permutations est bijective, et sa
bijection réciproque est une permutation. En résumé :

(Gn , ◦) est un groupe.

Définition 118 – transposition

On appelle transposition toute application τ : {1, . . . , n} → {1, . . . , n} telle qu’il existe i, j ∈


{1, . . . , n}, avec i 6= j, pour lesquels

 k si k ∈
/ {i, j},
τ (k) = j si k = i,
i si k = j.

Une transposition est une permutation : pout tout k ∈ {1, . . . , n} l’équation τ (x) = k admet une unique
solution. Voici la clé de l’étude de Gn .
Proposition 119 – Toute permutation s’écrit comme composée de transpositions

Toute permutation σ ∈ Gn s’écrit comme composée d’un nombre fini de transpositions. Cette
décomposition n’est pas unique, mais la parité du nombre des transpositions est toujours la même
pour une permutation donnée.

Exercice de cours 104. Démontrer la proposition.

Définition 120 – signature

On appelle signature d’une permutation σ, et on note ε(σ) ∈ {−1, 1} le nombre (−1)m , où m est
le nombre de transpositions d’une décomposition quelconque de σ.

On est finalement en mesure de donner une formule explicite pour le déterminant d’une matrice. On
prendra garde que cette formule ne permet pas en général un calcul efficace du déterminant : la somme
ci-dessous comprend n! termes puisque c’est le nombre d’éléments dans Gn .
Proposition 121 – formule explicite pour le déterminant d’une matrice

Soient n ∈ N∗ , et A = (ai,j ) ∈ Mn (R). Si ∆ : Mn (R) → R vérifie les propriétés (1), (2) et (3) de
la proposition 102, alors on a
X
(11) ∆(A) = ε(σ)a1,σ(1) a2,σ(2) . . . an,σ(n) .
σ∈Gn

Exercice de cours 105. Démontrer la proposition.

59

Vous aimerez peut-être aussi