MEU152 Algebre - Lineaire Cours
MEU152 Algebre - Lineaire Cours
[email protected]
https://www.imo.universite-paris-saclay.fr/~moreau/
Johann Carl Friedrich Gauss, né le 30 avril 1777 à Brunswick et mort le 23 février 1855 à Göttingen, est
un mathématicien, astronome et physicien allemand. Doté d’un grand génie, il apporte de très importantes
contributions à ces trois sciences. Surnommé «le prince des mathématiciens», il est considéré comme l’un
des plus grands mathématiciens de tous les temps.
Table des matières
Chapitre 2. Matrices 23
1. L’espace vectoriel des matrices 23
2. Produit de matrices 25
3. Opérations sur les lignes d’une matrice 27
4. Inverse d’une matrice carrée 28
4.1. Définition 28
4.2. Existence 30
4.3. Calcul pratique de l’inverse 30
4
1
Espaces vectoriels
1. Définitions et exemples
Soit E un ensemble. On suppose que l’on sait additionner deux éléments de E, et qu’on obtient alors un
élément de E. On note
a+b
la somme des éléments a et b de E. On suppose aussi que l’on sait multiplier un élément de E quelconque
par un réel, et que l’on obtient ainsi un élément de E. On note λ.a le produit du réel λ et de a ∈ E. Dans ces
conditions, on dit que «+» est une loi de composition interne sur E, et que «.» est une loi de composition
externe sur R × E.
Exemple 1. Soit E = R. On sait ajouter deux éléments de R, et multiplier un élément de R par un élément
de R.
Exemple 2. Soit E = Rn , c’est-à-dire l’ensemble des n-uplets (x1 , . . . , xn ) d’éléments de R. Les réels
x1 , . . . , xn sont appelées les composantes du n-uplets (x1 , . . . , xn ). Soient (x1 , . . . , xn ) et (y1 , . . . , yn ) deux
n-uplets, et λ ∈ R. On note
(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , x1 + yn ),
le n-uplet obtenu en ajoutant les deux n-uplets composante par composante, et
λ.(x1 , . . . , xn ) = (λx1 , . . . , λxn ),
le n-uplet obtenu en multipliant chacune des composantes par λ.
Exemple 3. Soit V l’ensemble des vecteurs du plan ou de l’espace. On rappelle qu’un vecteur non nul est la
donnée d’une direction, d’un sens et d’une longueur. Si ~v est le vecteur nul, λ.~v est le vecteur nul pour tout
λ ∈ R. Pour λ ∈ R et ~v ∈ V non nul, le vecteur λ.~v est le vecteur nul si λ = 0, et pour λ 6= 0 le vecteur
— de même direction que ~v ,
— de même sens que ~v si λ > 0 et de sens opposé si λ < 0,
— de longueur |λ| fois la longueur de ~v .
On sait aussi ajouter deux vecteurs ~u et ~v de V : on trace un représentant de ~v en partant de l’extrémité
d’un représentant de ~u.
~v
~u + ~v
~u
Exemple 4. Soit X un ensemble quelconque, et F (X, R) l’ensemble des fonctions de X dans R. La somme
f + g de deux éléments f et g de F (X, R) est la fonction de X dans R définie par
h : X → R, x 7→ f (x) + g(x).
5
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Soit (E, +, .) un triplet constitué d’un ensemble E, d’une loi de composition interne «+» et d’une
loi de composition externe «.» sur E. On dit que (E, +, .) est un espace vectoriel lorsque les lois
«+» et «.» vérifient les huit propriétés suivantes :
(1) pour tous a, b ∈ E, a + b = b + a,
(2) pour tous a, b, c ∈ E, a + (b + c) = (a + b) + c,
(3) il existe un élément e de E tel que pour tout a ∈ E, a + e = e + a = a,
(4) pour tout a ∈ E, il existe un élément b de E tel que a + b = b + a = e,
(i) pour tout a ∈ E, 1.a = a,
(ii) pour tous réels λ, µ et tout a ∈ E, λ.(µ.a) = (λµ).a,
(iii) pour tous réels λ, µ et tout a ∈ E, (λ + µ).a = λ.a + µ.a,
(iv) pour tous a, b ∈ E et tout réel λ, λ.(a + b) = λ.a + λ.b.
Lorsque la propriété (1) est vérifiée, on dit que la loi «+» est commutative. Si la propriété (2) est vérifiée, on
dit que la loi «+» est associative.
Lorsque les propriétés (1) à (4) sont vérifiées, on dit que (E, +) est un groupe commutatif.
Lorsque la propriété (i) est vérifiée, on dit que le réel 1 est l’élément neutre pour la loi externe. On dit que la
loi externe est associative lorsque (ii) est vraie. Les deux dernières propriétés (iii) et (iv) sont des propriétés
de distributivité.
6
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
On retiendra donc que dans un espace vectoriel, on peut effectuer les calculs selon les mêmes règles que
celles utilisées pour manipuler les vecteurs du plan ou de l’espace.
Exercice de cours 3 (exemples fondamentaux). Reprendre les exemples précédents 1–4 et démontrer
que ce sont bien des espaces vectoriels. Préciser pour chacun d’entre eux l’élément neutre et le symétrique
de tout élément.
2. Sous-espaces vectoriels
2.1. Généralités.
Soient (E, +, .) un espace vectoriel, et F une partie de E. On dit que F est un sous-espace vectoriel
de E lorsque les trois propriétés suivantes sont vérifiées :
1. le vecteur nul 0E de E appartient à F ,
2. pour tous éléments a et b de F , a + b est aussi un élément de F ,
3. pour tout réel λ et tout élément a de F , λ.v est aussi un élément de F .
Exemple 8. Dans (R, +, .) il n’y a pas beaucoup de sous-espaces vectoriels. Soit en effet F un sous-espace
vectoriel de E. Si F contient un élément non nul a, alors pour tout λ ∈ R, on sait que λa appartient à F .
Comme n’importe quel élément x de R peut s’écrire λa (prendre λ = x/a), on voit que F contient R tout
entier, donc F = R.
D’autre part le singleton (F = {0}, +, .) est un sous-espace vectoriel de R (les propriétés de la définition 4
sont faciles à vérifier). En conclusion, les seuls sous-espaces vectoriels de R sont {0} et R.
7
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Exercice de cours 6.
1. Représenter F et G sur une même figure et vérifier les assertions précédentes. Dans ces conditions,
on dit que G = A + F est un espace affine de direction F .
2. Donner d’autres exemples de sous-espaces vectoriels de R2 , et d’autres exemples de sous-
ensembles de R2 qui ne sont pas des sous-espaces vectoriels de R2 .
Exemple 9. L’ensemble C 0 (R, R) des fonctions continues de R dans R est un sous-espace vectoriel de
F (R, R).
Exemple 10. L’ensemble S0 des suites de nombres réels qui convergent est un sous-espace vectoriel de S .
En revanche, l’ensemble S∞ des suites de nombres réels qui divergent n’est pas un sous-espace vectoriel
de S .
Remarque 2 (sous-espaces vectoriels triviaux). L’ensemble F = {0E } est toujours un sous-espace vectoriel
de n’importe quel espace vectoriel E. En effet 0E + 0E = 0E ∈ E et λ.0E = 0E ∈ E pour tout λ ∈ R. On
parle du sous-espace vectoriel nul. L’ensemble E est lui aussi toujours un sous-espace vectoriel de E.
Soient n, p ∈ N. L’ensemble des solutions d’un système linéaire homogène (de n équations) à p
inconnues est un sous-espace vectoriel de Rp .
Si F est un sous-espace vectoriel d’un espace vectoriel (E, +, .), alors «+» est une loi interne sur
F et «.» est une loi externe sur F . De plus (F, +, .) est un espace vectoriel.
Remarque 3. En pratique, pour démontrer qu’un ensemble muni de deux lois est un espace vectoriel, on a
toujours intérêt à démontrer que c’est un sous-espace vectoriel d’un espace vectoriel connu qui le contient. Il
n’y a alors que trois propriétés à démontrer, au lieu des huit propriétés de la définition 1.
2.2. L’espace vectoriel des polynômes. On rappelle qu’une fonction polynomiale, ou fonction poly-
nôme, est une fonction de la forme
f : R −→ R
x 7−→ a0 + a1 x + a2 x2 + · · · + an xn ,
où n ∈ N est un entier naturel et les coefficients a0 , . . . , an sont des réels éventuellement nuls.
Pour k ∈ N, on note X k la fonction polynomiale qui à x associe xk . Pour k = 0, X k est donc la fonction
constante égale à 1 que l’on note simplement 1 (on adopte la convention X 0 = 1). Ainsi, par définition, une
fonction polynomiale est une combinaison linéaire des X k (voir la définition 9) : une fonction polynôme est
8
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Exercice de cours 10. Montrer que l’ensemble R[X] des polynômes à coefficients réels est un espace
vectoriel. Préciser la loi interne «+» et la loi externe «.» ainsi que l’élément neutre.
Indication : identifier R[X] à un sous-espace vectoriel de l’espace vectoriel F (R, R) des fonctions de R
dans R.
Proposition 8 – le degré de la somme de deux polynômes est inférieur au maximum des degrés
" Il se peut que deg(P + Q) < max(deg P, deg Q) lorsque P et Q sont de même degré. Par exemple,
si P = X 2 + X et Q = −X 2 , alors deg(P + Q) = deg(X) = 1 < max(deg P, deg Q) = 2.
On peut aussi multiplier deux polynômes. Plus généralement, si f, g ∈ F (R, R) sont deux fonctions de
R dans R, la fonction h = f × g de R dans R est définie par : h(x) = f (x)g(x) pour tout x ∈ R.
" Nous avons vu au cours de l’exercice précédent qu’il existe dans l’espace vectoriel R[X] des poly-
nômes une autre loi interne, la multiplication entre polynômes (en plus de la loi interne «+»). Ceci
est très spécifique à cet espace vectoriel : en général, on ne peut pas multiplier deux éléments d’un
même espace vectoriel !
Remarque 4. Un espace vectoriel (E, +, .) muni d’une (autre) loi interne, E × E → E, (x, y) 7→ x × y,
notée «×» et appelée la multiplication, telle que la multiplication soit distributive par rapport à l’addition
et compatible avec la loi externe «.» est appelé une algèbre. Nous rencontrerons d’autres exemples d’algèbres
dans ce cours : l’espace vectoriel Mn (R) des matrices carrées réelles d’ordre n muni de la multiplication des
matrices, et l’espace vectoriel L (E) des endomorphismes d’un espace vectoriel E muni de la composition des
endomorphismes (voir le paragraphe 2.1).
9
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
3. Combinaisons linéaires
Nous allons généraliser la notion de combinaison linéaire vue à propos des polynômes à n’importe quel
espace vectoriel.
Soient u1 , u2 , . . . , un des vecteurs d’un espace vectoriel (E, +, .). On dit que v ∈ E est une combi-
naison linéaire de u1 , u2 , . . . , un lorsqu’il existe des réels λ1 , λ2 , . . . , λn tels que
v = λ1 u1 + λ2 u2 + · · · + λn un
n
X
= λ j uj .
j=1
Avec cette nouvelle terminologie, on a une version plus courte de la définition d’un sous-espace vectoriel :
Exemple 11. Dans R3 , le vecteur u = (3, 3, 1) est-il combinaison linéaire de v1 = (1, 1, 0) et v2 = (1, 1, 1) ? Il
s’agit de savoir s’il existe deux réels λ1 et λ2 tels que λ1 .(1, 1, 0) + λ2 .(1, 1, 1) = (3, 3, 1). On est donc amené
à résoudre le système
λ1 + λ2 = 3,
λ + λ2 = 3,
1
λ2 = 1.
Ce système a une (unique) solution (λ1 , λ2 ) = (2, 1), donc u = 2v1 + v2 est bien combinaison linéaire de v1
et v2 .
Exercice de cours 13. À quelle condition le vecteur w = (a, b, c) est-il une combinaison linéaire de
u = (1, 2, −1) et v = (6, 4, 2) ?
4. Familles génératrices
On commence par un point de vocabulaire : une famille d’éléments d’un ensemble E est une liste, finie
ou non, d’éléments de E. Puisque des éléments de la liste peuvent être égaux, on ne doit pas confondre cette
notion de famille avec celle de sous-ensemble de E. On note
F = (u1 , u2 , . . . un ),
entre parenthèses, la famille constituée des éléments u1 , u2 , . . ., un . Dans le cadre des espaces vectoriels, on
prendra garde à ne pas confondre une famille de n vecteurs avec un élément de Rn même si la notation est
similaire.
Soient u1 , u2 , . . . , un des vecteurs d’un espace vectoriel (E, +, .). L’ensemble de toutes les combi-
naisons linéaires de u1 , u2 , . . . , un est un sous-espace vectoriel de E. On le note Vect(u1 , u2 , . . . , un )
et on l’appelle le sous-espace vectoriel engendré par la famille (u1 , u2 , . . . , un ).
10
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Remarque 5. Le sous-espace vectoriel Vect(u1 , u2 , . . . , un ) est le plus petit (pour l’inclusion) des sous-espaces
vectoriels de E qui contient u1 ,. . ., un . En effet si F est un tel sous-espace vectoriel de E, comme il est stable
par combinaison linéaire, il contient toutes les combinaisons linéaires de u1 ,. . ., un , donc Vect(u1 , u2 , . . . , un ).
Exemple 12. Soient n ∈ N et Rn [X] l’ensemble des polynômes à coefficients réels de degré inférieur ou égal
à n. Nous avons vu lors de l’exercice 10 que R[X] était un sous-espace vectoriel de F (R, R). L’ensemble
Rn [X] est lui aussi un sous-espace vectoriel de F (R, R) (et de R[X]). En effet la fonction nulle est par
convention un polynôme de degré −∞, donc (par abus de langage) inférieur ou égal à n, et une combinaison
linéaire de polynômes de degré inférieur ou égal à n est bien un polynôme de degré inférieur ou égal à n
(voir la proposition 8). Autrement dit, Rn [X] est le sous-espace vectoriel de F (R, R) engendré par la famille
(1, X, . . . X n ) :
Rn [X] = Vect(1, X, . . . X n ).
5. Familles libres
Définition 13 – famille libre
On dit que la famille (u1 , u2 , . . . , un ) de vecteurs d’un espace vectoriel (E, +, .) est libre lorsque :
λ1 u1 + λ2 u2 + · · · + λn un = 0E =⇒ λ1 = λ2 = · · · = λn = 0.
Lorsqu’une famille de vecteurs d’un espace vectoriel (E, +, .) n’est pas libre, on dit qu’elle est liée.
Exercice de cours 16. Dans Rn [X], montrer que la famille (1, X, . . . , X n ) est libre.
Exercice de cours 17 (famille de polynômes non nuls de degrés deux à deux distincts). Montrer
qu’une famille de polynômes non nuls de degrés deux à deux distincts est libre.
" la réciproque de l’exercice précédent est fausse. Des polynômes peuvent parfaitement former une
famille libre sans être de degrés deux à deux distincts ; ils peuvent même former une famille libre tout
en étant tous de même degré, comme par exemple dans le cas de la famille (X n , X n + 1, X n + X, X n +
X 2 , . . . , X n + X n−1 ) de Rn [X].
Exemple 13. Dans l’espace vectoriel F des fonctions de R dans R, on considère la famille (cos, sin) constituée
des deux fonctions trigonométriques cosinus et sinus bien connues, et on se demande si elle est libre. On
suppose donc que pour deux réels λ1 , λ2 , on a
(1) λ1 . cos +λ2 . sin = 0 (= 0F ).
" Cette égalité est une égalité dans F , autrement dit entre fonctions ; en particulier le «0» qui figure
dans le membre de droite est la fonction nulle, pas le nombre 0.
L’équation (1) signifie :
∀ x ∈ R, λ1 cos(x) + λ2 sin(x) = 0.
En particulier en prenant x = 0, on trouve λ1 = 0, et pour x = π/2, on trouve λ2 = 0. Donc la famille
(cos, sin) est libre dans F .
11
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Exercice de cours 18. Soit a ∈ R. Dans R3 , montrer que famille ((1, 1, 2), (−1, 0, 1), (2, a, −1)) est
libre si et seulement si a 6= 1/3.
Remarque 6. Il est important de noter que pour déterminer si une famille est génératrice, on s’est posé la
question de l’existence de solutions pour un système linéaire, tandis que pour savoir si une famille est libre,
il s’est agit de savoir si un système linéaire admet une unique solution ou bien plusieurs.
Définition 14 – base
On dit que la famille finie B = (u1 , u2 , . . . , un ) de vecteurs d’un espace vectoriel (E, +, .) est une
base de E lorsque B est libre et génératrice.
Exemple 14. Dans Rn on note e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . ., en = (0, . . . , 0, 1). La famille
(e1 , . . . , en ) est une base, qu’on appelle la base canonique de Rn . Prouvons en effet que cette famille est
génératrice. Soit (x1 , x2 , . . . , xn ) un vecteur de Rn . On cherche λ1 , . . . , λn dans R tels que
λ1 .e1 + · · · + λn .en = (x1 , x2 , . . . , xn ).
Puisque λ1 .e1 + · · · + λn .en = (λ1 , . . . , λn ), il suffit de prendre λj = xj pour tout j ∈ {1, . . . , n}. On montre
maintenant que (e1 , . . . , en ) est une famille libre. Supposons que
λ1 .e1 + · · · + λn .en = 0Rn = (0, . . . , 0).
Encore une fois puisque λ1 .e1 + · · · + λn .en = (λ1 , . . . , λn ), cette égalité entraine λ1 = · · · = λn = 0.
Exemple 15. Dans Rn [X], on a déjà vu que la famille (1, X, . . . , X n ) est génératrice (c’est la définition de
Rn [X]), et libre. C’est donc une base de Rn [X], appelée elle aussi la base canonique, de Rn [X] cette fois.
Soit B = (u1 , u2 , . . . , un ) une base de l’espace vectoriel (E, +, .). Pour chaque x ∈ E, il existe un
unique n-uplet (x1 , . . . , xn ) ∈ Rn tel que
X n
x= xj uj .
j=1
On note alors
x1 x1
x2 x2
x = . , ou x = . ,
.. ..
xn B xn
s’il n’y a pas d’ambiguïté, et l’on dit que x1 , x2 , . . . xn sont les coordonnées de x dans la base B.
Dans le cas de l’espace vectoriel Rn , les coordonnées du n-uplet x = (x1 , x2 , . . . , xn ) dans la base canonique
E = (e1 , e2 , . . . , en ) sont
x1
..
x= . ,
xn E
puisque l’on voit facilement que x = x1 e1 + x2 e2 + · · · + xn en .
" Il est important de bien distinguer les composantes x1 , x2 , . . . , xn du n-uplet x = (x1 , x2 , . . . , xn )
de Rn et ses coordonnées dans une base donnée.
12
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Par exemple, dans R2 , on dispose de la base canonique E = (e1 , e2 ) avec e1 = (1, 0) et e2 = (0, 1), mais aussi
de la base B = (u1 , u2 ) avec u1 = (1, 1) et u2 = (1, −1). Pour le vecteur x = (2, 3) , on a
5
2 2
x= = ,
3E − 21 B
Exercice de cours 20. Donner les coordonnées du polynôme P (X) = 2X 2 − 3X + 1 dans la base
canonique de R2 [X], puis dans la base B = (Q1 , Q2 , Q3 ) avec Q1 (X) = X + 1, Q2 (X) = X 2 et Q3 (X) =
X − 1.
Exercice de cours 21. Donner les coordonnées des vecteurs de la base canonique E de Rn dans la
base E . Si B est une base quelconque, quelles sont les coordonnées des vecteurs de B dans B ?
6.2. Dimension d’un espace vectoriel. On commence par un résultat dont la preuve est un peu
longue, mais qui a de nombreuses conséquences importantes.
Proposition 16 – lien entre le nombre d’éléments d’une famille libre et d’une famille génératrice
Exercice de cours 22. Le but de cet exercice est de démontrer la proposition 16.
1. Soit v ∈ Vect(v1 , v2 , . . . vp ).
1.1 Montrer qu’il existe un unique p-uplet (λ1 , . . . , λp ) de Rp tel que
(2) λ1 v1 + λ2 v2 + · · · + λp vp = v.
1.2 Montrer qu’il existe des réels ai,j , i ∈ {1, . . . , p}, j ∈ {1, . . . , n}, et des réels x1 , . . . xn tels
que
v1 = a1,1 u1 + a1,2 u2 + · · · + a1,n un ,
v2 = a2,1 u1 + a2,2 u2 + · · · + a2,n un ,
.. ..
. .
vp = ap,1 u1 + ap,2 u2 + · · · + ap,n un ,
et v = x1 u1 + x2 u2 + · · · + xn un .
1.3 Remarquer que si le système
a1,1 λ1 + a2,1 λ2 + · · · + ap,1 λp
= x1 ,
a1,2 λ1 + a2,2 λ2 + · · · + ap,2 λp
= x2 ,
(3) .. ..
. .
a1,n λ1 + a2,n λ2 + · · · + ap,n λp
= xn ,
admet une solution (λ1 , . . . , λp ), c’est aussi une solution de l’équation (2). En déduire
que le rang de ce système est p puis que p 6 n.
2. Si p = n, déduire des questions précédentes que (v1 , v2 , . . . vp ) est une famille génératrice, donc
une base, et que (u1 , u2 , . . . , un ) est une famille libre, donc une base.
Si E admet une base, alors toutes les bases de E ont le même nombre d’éléments.
13
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Définition 18 – dimension
Soit (E, +, .) un espace vectoriel non nul. S’il existe une base de E, on appelle dimension de E, et
on note dim E, le nombre commun d’éléments de toutes les bases de E. Dans ce cas, on dit que E
est de dimension finie. Sinon on dit que E est de dimension infinie, et on note dim E = +∞.
Remarque 7. L’espace vectoriel E = {0E } n’admet pas de famille libre puisque toute famille de E contient
0E . Par convention, on dit pourtant que E a pour dimension 0.
Par analogie avec la situation dans E = R3 , les sous-espaces vectoriels de dimension 1 sont appelés
«droites», et les sous-espaces vectoriels de dimension 2 sont appelés «plans». Les sous-espaces vectoriels de
dimension n − 1 d’un espace de dimension n sont appelés hyperplans.
Exercice de cours 24. Soit (E, +, .) un espace vectoriel non nul. Montrer que les droites de E sont
les sous-espaces vectoriels de la forme Vect(u) où u est un vecteur non nul de E.
Exercice de cours 25. Montrer que Rn [X] est de dimension finie. Quelle est sa dimension ?
" Il existe des espaces vectoriels qui ne sont pas de dimension finie.
Par exemple l’espace R[X] des polynômes à coefficients réels. Supposons en effet qu’il existe une base
B = (P1 , P2 , . . . , Pk ) de R[X], et notons n le maximum des degrés des polynômes de B. Puisque X n+1 ∈ R[X],
il existe des réels λ1 , . . . , λk tel que
X n+1 = λ1 P1 + λ2 P2 + · · · + λk Pk .
Mais le polynôme du membre de droite est de degré inférieur ou égal à n, alors que celui du membre de
gauche est de degré n + 1, ce qui est absurde. On a donc
Exercice de cours 26 (un lemme utile sur les familles libres). Soient (v1 , v2 , . . . , vk ) une famille libre de
E et v un vecteur de E n’appartenant pas à Vect(v1 , v2 , . . . , vk ). Montrer que la famille (v1 , v2 , . . . , vk , v)
est encore libre.
14
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
6.3. Le théorème de la base incomplète. On montre maintenant deux résultats importants pour les
espaces vectoriels de dimension finie. D’une part, on peut toujours extraire une base d’une famille génératrice,
et d’autre part, on peut toujours compléter une famille libre de manière à obtenir une base. C’est cette
deuxième propriété qui porte le nom de «théorème de la base incomplète».
On commence par un exercice.
Exercice de cours 28. Soient v1 = (1, 2, 3, 0), v2 = (0, 2, 2, 4) et v3 = (−1, a, 2a − 3, 4a) trois vecteurs
de R4 , et F = Vect(v1 , v2 , v3 ). Par définition, la famille (v1 , v2 , v3 ) est une famille génératrice de F . On
veut trouver une base de F .
1. Montrer que (v1 , v2 , v3 ) est une base de F si et seulement si a 6= 2.
2. Si a = 2, montrer que (v1 , v2 ) est une base de F .
Dans l’exercice précédent, on a obtenu une base à partir d’un système générateur, en gardant les vecteurs
correspondants aux inconnues principales. C’est un fait général :
On veut maintenant compléter une famille libre en une base. Le procédé vu ci-dessus permet de prouver
le résultat suivant, très important :
Soient (E, +, .) un espace vectoriel de dimension finie et B une base de E. Toute famille libre de E
qui n’est pas une base peut être complétée en une base de E en lui adjoignant des vecteurs de B.
Exercice de cours 29. Le but de l’exercice est de démontrer le théorème de la base incomplète. Soient
(v1 , v2 , . . . , vk ) une famille libre de E, et B = (w1 , . . . , wn ) une base de E.
1. Pourquoi la famille F = (v1 , v2 , . . . vk , w1 , . . . , wn ) engendre-t-elle E ?
2. En considérant le système homogène de n équations à k + n inconnues dont les coefficients sont
les coordonnées des vecteurs de F dans la base B, associé à l’équation
x1 v1 + x2 v2 + · · · + xk vk + y1 w1 + · · · + yn wn = 0E ,
montrer que l’on peut trouver une base de E qui commence par les vj . Conclure.
Proposition 22 – une condition suffisante pour qu’une famille libre/génératrice soit une base
Dans un espace vectoriel de dimension finie n, toute famille libre qui a n éléments est une base.
Toute famille génératrice qui a n éléments est une base.
15
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Exercice de cours 31. Démontrer cette proposition à l’aide des propositions 16 et 20.
Exercice de cours 32. Soit n un entier naturel. Pour tout k ∈ {0, . . . , n}, on suppose que Pk est un
polynôme à coefficients réels de degré k. Justifier que (P0 , . . . , Pn ) est une base de Rn [X].
où r est le rang du système, et les x0j des combinaisons linéaires des xj . Notons d’ailleurs bi,j , pour i ∈
{r + 1, r + 2, . . . , n}, les réels tels que
n
X
0
xi = bi,j xj .
j=1
Les bi,j sont parfaitement déterminés et ne dépendent que des ai,j . On a déjà vu que le système ci-dessus
admet des solutions si et seulement si les n − r dernières lignes, qui s’écrivent
br+1,1 x1 + br+1,2 x2 + . . . + br+1,n xn = 0,
br+2,1 x1 + br+2,2 x2 + . . . +
br+2,n xn = 0,
.. ..
. .
bn,1 x1 + bn,2 x2 + ... + bn,n xn = 0,
sont vraies. Autrement dit, x = (x1 , . . . , xn ) appartient à V si et seulement si (x1 , . . . , xn ) est une solution
du système homogène ci-dessus, qui est donc ce que l’on cherche.
On peut remarquer que, compte tenu de la proposition 20 ou comme on le verra dans la proposition 23,
la dimension de V est r = n − (n − r), le rang du système initial, qui d’ailleurs est inférieur ou égal à n comme
il se doit pour un sous-espace vectoriel de E.
Exercice de cours 33. On reprend l’exercice 28. Soit a ∈ R. On considère v1 = (1, 2, 3, 0), v2 =
(0, 2, 2, 4) et v3 = (−1, a, 2a − 3, 4a), trois vecteurs de R4 , et V = Vect(v1 , v2 , v3 ). Trouver un système
d’équations pour V .
16
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
7.2. Comment trouver une base d’un sous-espace vectoriel donné par un système d’équa-
tions ? On sait que l’ensemble des solutions d’un système homogène de n équations à p inconnues est un
sous-espace vectoriel de Rp . On se pose la question d’en trouver une base, et, ainsi, de déterminer sa dimension.
Exemple 16. Soit V = {(x1 , x2 , x3 ) ∈ R3 , 2x1 + 3x2 = 0, x1 + x2 + x3 = 0}. L’ensemble V est l’ensemble
des solutions du système
2x1 + 3x2 = 0,
x1 + x2 + x3 = 0.
Les inconnues principales sont x1 et x2 . On peut les exprimer en fonction de l’inconnue secondaire x3 en
écrivant le système sous forme échelonnée réduite (L1 ← L1 + 6L2 , L1 ← 12 L1 , L2 ← −2L2 ) :
x1 + 3x3 = 0,
x2 − 2x3 = 0.
Le système est de rang 2, ses inconnues principales sont x1 et x2 , et la seule inconnue secondaire est x3 .
Le solutions s’obtiennent en donnant une valeur quelconque à x3 , disons s3 . En fonction de cette valeur, les
solutions s’écrivent
(x1 , x2 , x3 ) = (−3s3 , 2s3 , s3 ) = s3 (−3, 2, 1).
Ce sytème étant déjà sous forme échelonnée réduite, on voit que son rang est r = 2, que ses inconnues
principales sont x2 et x3 et que ses inconnues secondaires sont x1 , x4 et x5 . Les solutions s’obtiennent en
donnant des valeurs quelconques à x1 , x4 et x5 , disons s1 , s4 et s5 respectivement. En fonction de ces valeurs,
les solutions s’écrivent
Autrement dit, les vecteurs v1 = (1, 0, 0, 0, 0), v4 = (0, 1, 2, 1, 0) et v5 = (0, 1, −1, 0, 1) forment une base de
V , qui est de dimension 3 = p − r, où p = 5 est le nombre d’inconnues du système et r = 2 son rang.
Proposition 23 – obtention d’une base de l’ensemble des solutions d’un système homogène
Soit V un sous-espace vectoriel de Rp donné comme l’ensemble des solutions d’un système homo-
gène à p inconnues. Pour trouver une base de V , il suffit d’écrire le système sous forme échelonnée
réduite. En particulier, la dimension de V est p − r, où r est le rang du système.
La table 2 fournit un récapitulatif des différents savoir-faire vus dans les sections 6 et 7.
17
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Table 2. Savoir-faire
8.1. Intersection de sous-espaces. On sait que l’ensemble des solutions d’un système linéaire homo-
gène à p inconnues est un sous-espace vectoriel de Rp . Cela vaut quel que soit le nombre d’équations : en
particulier l’ensemble des solutions d’une seule équation linéaire homogène à p inconnues est un sous-espace
vectoriel de Rp . La résolution d’un système de plusieurs équations consiste donc à trouver l’intersection des
espaces vectoriels définis par chacune de ces équations.
Dans le cas de Rp , on a donc pratiquement déjà prouvé la proposition suivante.
Exercice de cours 34. Démontrer la proposition de façon «directe». Donner une interprétation géo-
métrique de ce résultat dans R3 .
Il n’est pas plus difficile de montrer qu’une intersection quelconque de sous-espaces vectoriels est encore
un sous-espace vectoriel.
Exercice de cours 35 (une caractérisation du sous-espace vectoriel engendré par une famille finie).
Soient (E, +, .) un sous-espace vectoriel, n un entier naturel non nul et (u1 , u2 , . . . , un ) une famille de
vecteurs de E. Montrer que le sous-espace vectoriel Vect(u1 , u2 , . . . , un ) est l’intersection de tous les sous-
espaces vectoriels de E contenant u1 , u2 , . . . , un . On retrouve ainsi que Vect(u1 , u2 , . . . , un ) est le plus
petit (pour l’inclusion) des sous-espaces vectoriels de E qui contient u1 ,. . ., un (voir la remarque 5).
18
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
" La réunion deux deux sous-espaces vectoriels n’est en général pas un sous-espace vectoriel.
Par exemple si D1 et D2 sont deux droites distinctes de l’espace des vecteurs du plan, u1 un vecteur non
nul de D1 et u2 un vecteur non nul de D2 , le vecteur u1 + u2 n’est pas dans D1 ∪ D2 : cet ensemble n’est
donc pas stable pour l’addition (voir la figure 1).
D2
u2 u1 + u2 6∈ D1 ∪ D2
u1 D1
Figure 1. La réunion de deux droites vectorielles n’est pas stable pour l’addition en général
On définit maintenant le plus petit sous-espace vectoriel qui contient la réunion de deux sous-espaces
vectoriels donnés.
Définition 27 – somme de deux sous-espaces vectoriels
Exemple 18. Dans E = R3 , on note a = (0, 1, 2), b = (1, 0, 1) et c = (1, 1, 1). Soient aussi V = Vect(a, b) et
W = Vect(c). L’espace vectoriel V + W est constitué des vecteurs v qui s’écrivent
v = (λa + µb) + νc = λa + µb + νc.
Donc V + W est engendré par la famille (a, b, c). D’ailleurs puisque cette famille est libre, V + W = R3 :
l’espace R3 s’écrit comme somme du plan V et de la droite W .
Proposition 29 – majoration de la dimension de la somme de deux sous-espaces vectoriels
19
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Soient (v1 , . . . vk ) une base du sous-espace vectoriel V , et (w1 , . . . , w` ) une base du sous-espace
vectoriel W . Les vecteurs correspondant aux inconnues principales du système
x1 v1 + x2 v2 + · · · + xk vk + y1 w1 + · · · + y` w` = 0E ,
forment une base de V + W .
Le critère suivant sera très utile lorsque nous parlerons de projections (voir par exemple la section 6.1).
Proposition 33 – caractérisation pour que deux sous-espaces vectoriels soient en somme directe
8.4. Formule de la dimension. La proposition suivante est parfois connue sous le nom de formule de
Grassmann.
20
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Proposition 35
Exercice de cours 42. On considère les deux sous-espaces vectoriels V et W de R4 définis par
V = Vect((1, 0, 1, 1), (5, −1, 6, 1)) et W = Vect((1, 1, 2, 0), (1, 2, 2, 0), (3, 1, 6, 0)).
Donner une base de V , de W , puis une base de V + W et une base de V ∩ W .
22
Matrices
2
Ce chapitre est pour l’essentiel un chapitre de révisions sur les matrices vues au premier semestre.
On note Mn,p (R) l’ensemble des matrices à n lignes et p colonnes de nombres réels. Si les dimensions
d’une matrice sont égales, i.e., s’il y a autant de lignes que de colonnes, on dit que la matrice est carrée, et on
dit que la matrice est d’ordre n. On note simplement Mn (R) l’ensemble des matrices à n lignes et n colonnes.
Exemple 19. 1. On appelle matrice nulle la matrice dont tous les coefficients sont nuls :
0 0 ... 0
0 0 . . . 0
0 = . .. ,
..
.. . .
0 0 ... 0
est le tableau à n lignes et p colonnes dont les coefficients sont les ai,j :
a1,1 a1,2 . . . a1,p
a2,1 a2,2 . . . a2,p
A= . .. .
..
.. . .
an,1 an,2 ... an,p
23
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
On a ainsi défini une loi de composition interne «+» sur l’ensemble Mn,p (R). Comme il s’agit d’ajouter les
coefficients terme à terme (donc de faire des additions de nombres réels), il est très facile de vérifier que
cette loi «+» vérifie les quatre premières propriétés de la définition 1. En particulier l’élément neutre pour
l’addition des matrices est la matrice nulle, et la matrice symétrique d’une matrice A = (ai,j ) est la matrice,
notée −A, définie par
−a1,1 −a1,2 . . . −a1,p
−a2,1 −a2,2 . . . −a2,p
−A = . .. .
..
.. . .
−an,1 −an,2 ... −an,p
Pour résumer :
Proposition 38
24
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
On définit maintenant une loi de composition externe «.» sur l’ensemble Mn,p (R).
Soit A = (ai,j ) une matrice de Mn,p (R) et λ un réel. On note C = λ.A la matrice de Mn,p (R)
définie par C = (λai,j ). Plus explicitement
a1,1 a1,2 . . . a1,p λa1,1 λa1,2 ... λa1,p
a2,1 a2,2 . . . a2,p λa2,1 λa2,2 ... λa2,p
λ . . .. = .. .. .
.. ..
.. . . . . .
an,1 an,2 . . . an,p λan,1 λan,2 ... λan,p
Comme il s’agit de multiplier chaque coefficient par λ, il est également facile de vérifier que cette loi «.»
vérifie les 4 dernières propriétés de la définition 1.
Remarque 8. On notera que la famille (E1,1 , E1,2 , . . ., En,p−1 , En,p ) n’est pas indexée par une partie de N
mais par une partie de N × N. Ce n’est qu’une façon de l’écrire : l’énumération (E1,1 , E1,2 , . . . , En,p−1 , En,p ) =
(Ẽ1 , Ẽ2 , . . . , Ẽnp ) fournit une nouvelle numérotation de la famille pour des indices entre 1 et np. De manière
générale n’importe quel ensemble fini peut servir à énumérer une base.
2. Produit de matrices
On rappelle maintenant comment est défini le produit de deux matrices. Il est naturel de penser multiplier
terme à terme les coefficients de chacune, mais cette multiplication-là ne sert à rien (ou disons que c’est une
autre histoire). Ce que l’on veut, c’est retrouver le membre de gauche des équations du système
a1,1 X1 + a1,2 X2 + · · · + a1,p Xp = b1 ,
a2,1 X1 + a2,2 X2 + · · · + a2,p Xp = b2 ,
.. .. ..
. . .
an,1 X1 + an,2 X2 + · · · + an,p Xp = bn ,
en multipliant sa matrice par la matrice colonne des symboles X1 , X2 , . . . Xp . Autrement dit, on veut que
a1,1 X1 + a1,2 X2 + · · · + a1,p Xp
a1,1 a1,2 . . . a1,p X1
a2,1 a2,2 . . . a2,p X2 a2,1 X1 + a2,2 X2 + · · · + a2,p Xp
.. × .. = ,
.. .. ..
. . . . .
an,1 an,2 ... an,p Xp an,1 X1 + an,2 X2 + · · · + an,p Xp
et c’est cela que l’on prend comme définition du produit d’une matrice par une matrice-colonne. Il est essentiel
de noter que le nombre de lignes de la matrice colonne doit être égal au nombre de colonnes de la matrice.
On étend ensuite cette définition au cas du produit d’une matrice A par une matrice B quelconque
(pourvu que le nombre de colonnes de A soit égal au nombre de lignes de B), en construisant la matrice dont
la j-ième colonne est le produit de A par la j-ième colonne de B. Le produit de deux matrices se fait donc
«ligne par colonne».
1 −1
1 2 3
Exemple 20. Soit A = et B = 0 1 . Le produit A × B est bien défini puisque A a trois
0 −1 1
2 3
colonnes et B trois lignes. Comme A a deux lignes et B a 2 colonnes, le produit A × B sera une matrice à 2
lignes et 2 colonnes.
25
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
On obtient donc
7 10
A×B = .
2 2
Soient A = (ai,j ) une matrice à n lignes et p colonnes, et B = (bi,j ) une matrice à p lignes et
m colonnes. On note C = A × B la matrice à n lignes et m colonnes dont les coefficients ci,j sont
donnés par
p
X
ci,j = ai,k bk,j = ai,1 b1,j + ai,2 b2,j + · · · + ai,p bp,j .
k=1
" Le produit de deux matrices n’est pas commutatif. Autrement dit, en général A × B 6= B × A.
Par exemple
1 0 0 1 0 0 0 0 0 1 0 0
= × 6= × =
0 0 0 0 1 0 1 0 0 0 0 1
D’ailleurs l’un des produits peut être bien défini alors que l’autre ne l’est pas en fonction des dimensions de
A et de B.
Dans la pratique, il est commode pour calculer le produit C = A × B de deux matrices de disposer les
calculs de la manière suivante
b1,1 . . . b1,j . . . b1,m
b2,1 . . . b2,j . . . b2,m
.. .. ..
. . .
bp,1 . . . bp,j . . . bp,m
a1,1 a1,2 ... a1,p
..
.. .. .. .
. . .
p
X
. . .
ai,1
ai,2 . . . ai,p
ai,k bk,j . . .
. .. ..
k=1
.. . .
..
an,1 an,2 . . . an,p .
Le produit des matrices est associatif : si A ∈ Mm,n (R), B ∈ Mn,p (R) et C ∈ Mp,q (R), on a
A × (B × C) = (A × B) × C.
26
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Le produit des matrices est distributif par rapport à l’addition, à gauche et à droite : si A ∈
Mn,p (R), B ∈ Mp,m (R) et C ∈ Mp,m (R), on a
A × (B + C) = A × B + A × C,
et, si B ∈ Mn,p (R), C ∈ Mn,p (R) et A ∈ Mp,m (R),
(B + C) × A = B × A + C × A.
Exercice de cours 44. Montrer que pour λ ∈ R, A ∈ Mn,p (R) et B ∈ Mp,q (R) on a
(λA) × B = λ(A × B) = A × (λB).
Dans les espaces de matrices carrées Mn (R), la multiplication est une loi interne. Ce n’est bien sûr pas
le cas dans Mn,p (R) quand n 6= p : la multiplication de deux éléments n’est alors même pas définie. Dans
Mn (R), la multiplication a un élément neutre :
Soit I ∈ Mn (R) la matrice dont les éléments sont tous nuls, sauf ceux qui se trouvent sur la
diagonale qui valent 1 :
1 0 ... 0
0 1 . . . 0
I = . . .
.. ..
. ..
0 0 ... 1
Pour toute matrice A ∈ Mn (R), on a
A × I = I × A = A.
Cette matrice I, qu’on note aussi In pour faire référence à sa taille, est appelée matrice identité. On se
rappelle qu’il ne peut y avoir qu’un seul élément neutre pour une loi interne (voir l’exercice 1).
Exercice de cours 45. Soit Ek,` une matrice élémentaire. Montrer que (Ek,` )2 = 0 si k 6= `, et que
(Ek,k )2 = Ek,k .
Soit A = (ai,j ) une matrice de Mn,p (R), et Ek,` = (ei,j ) ∈ Mn (R) la matrice élémentaire dont le
seul élément non nul est ek,` = 1. On a
0 ... 0
.. ..
. .
0
... 0
Ek,` × A = a`,1 ... a`,p ← ligne k.
0
. . . 0
. ..
.. .
0 ... 0
Ainsi, multiplier une matrice A par Ek,` permet d’extraire la `-ième ligne de A et de la placer sur la
ligne k.
Proposition 47 – opérations élémentaires et multiplications par une matrice élémentaire
L’opération d’échange de deux lignes d’une matrice A peut aussi s’interpréter comme la multiplication
ei,j ∈ Mn (R) la matrice définie par
par une matrice. Pour i, j ∈ {1, . . . , n} , on note E
ei,j = In − Ei,i − Ej,j + Ei,j + Ej,i .
E
Il s’agit simplement de la matrice In dont on a déplacé les «1» qui se trouvaient à la i-ième et j-ième place
sur la diagonale (−Ei,i − Ej,j ), en les portant aux places (i, j) et (j, i) respectivement (+Ei,j + Ej,i ).
On en déduit que E
ei,j est tout simplement la matrice obtenue en échangeant les lignes i et j de la matrice
identité.
Remarque 10. Pour opérer sur les colonnes, on multiplie à droite par une matrice d’opération élémentaire.
Autrement dit, pour opérer sur les colonnes, il suffit donc de remplacer dans la proposition 47, «ligne» par
«colonne» et «gauche» par «droite». Par exemple,
à = A × E
ei,j
28
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
i j
↓ ↓
1
..
.
0 1 ← ligne i
1
E
= ..
ei,j
.
1
← ligne j
1 0
..
.
1
Figure 1. La matrice E
ei,j
Soit A ∈ Mn (R). On dit que A admet la matrice Q ∈ Mn (R) pour inverse lorsque
A × Q = Q × A = I.
On a déjà montré (voir l’exercice 1) qu’un élément ne peut avoir plus d’un symétrique pour une loi interne
associative. Ayant en vue la Proposition 51 ci-dessous, on reprend la preuve dans le cadre actuel.
Proposition 50 – une matrice carrée admet au plus une matrice inverse
Exercice de cours 46. Démontrer la proposition en utilisant seulement que Q1 est inverse à droite de
A, c’est-à-dire A × Q1 = I, et que Q2 est inverse à gauche de A, c’est-à-dire Q2 × A = I.
Si A admet une matrice inverse à droite Q1 et une matrice inverse à gauche Q2 , alors Q1 = Q2 et
A admet Q1 = Q2 comme inverse.
Lorsqu’une matrice A admet une matrice inverse, on dit que A est inversible, et on note A−1 la matrice
inverse de A.
Reste à trouver un moyen de savoir si une matrice donnée est inversible, et le cas échéant, de calculer
son inverse.
29
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
4.2. Existence. Une manière de voir ce problème est de considérer le système linéaire A × X = B
associé à la matrice A avec un second membre B ∈ Mn,1 (R) quelconque, c’est-à-dire l’équation d’inconnue
X qui s’écrit
A × X = B.
S’il existe Q telle que Q × A = I, cette équation entraine
X = (Q × A) × X = Q × (A × X) = Q × B,
donc la seule solution possible est X = Q × B. Si on a aussi A × Q = I, alors
A × (Q × B) = (A × Q) × B = B,
ce qui prouve que X = Q × B est bien une solution du système.
Autrement dit : si A est inversible, pour tout second membre B ∈ Mn,1 (R) le système de n équations à
n inconnues A × X = B a une unique solution.
Examinons la réciproque : supposons que pour tout second membre B ∈ Mn,1 (R) le système A × X = B
a une unique solution. C’est en particulier le cas si B est (le vecteur colonne associé à) l’un des vecteurs ej
de la base canonique de Rn , c’est à dire l’un des vecteurs
1 0 0
0 1 0
B1 = . , B2 = . , . . . , Bn = . .
.. .. ..
0 0 1
On note Q1 , Q2 ,. . .,Qn la solution correspondante du système, c’est-à dire l’unique vecteur tel que
A × Qj = Bj ,
et Q la matrice dont les colonnes sont Q1 , Q2 , . . ., Qn . Par définition du produit de A par Q, on a
A × Q = I,
donc Q est inverse à droite de A.
D’autre part, puisque le système A × X = B a une unique solution pour n’importe quel second membre
B, toutes ses inconnues sont principales, donc sa forme échelonnée réduite est
I × X = C.
On passe du système A × X = B à sa forme échelonnée réduite en effectuant des opérations du type Li ↔ Lj ,
Li ← Li + αLj ou Li ← αLi , c’est-à-dire compte tenu des propositions 47 et 48, en multipliant A à gauche
ei,j ou (I + βEi,j ) avec β = α ou β = α − 1. Notant R le produit de toutes ces
par des matrices de la forme E
matrices, on a,
R × A = I,
donc R est un inverse à gauche de A. On a démontré que si pour tout second membre B ∈ Mn,1 (R) le système
A × X = B a une unique solution, alors A est inversible. En résumé, on a obtenu la proposition suivante.
4.3. Calcul pratique de l’inverse. La discussion qui précède donne deux procédés pour calculer
l’inverse d’une matrice inversible A ∈ Mn (R) :
— Par résolution de n systèmes linéaires A × X = Bj , j = 1, . . . , n, où les Bj sont les n vecteurs de la
base canonique de Rn .
— Par transformation du système en sa forme échelonnée réduite à l’aide de la méthode du pivot, qu’on
a réinterprété comme la multiplication de A par des matrices inversibles de la forme E ei,j ou I + βEi,j .
30
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
En fait ces deux procédés conduisent exactement aux mêmes calculs. Commençons par le second : si l’on
effectue les mêmes substitutions de lignes sur la matrice identité que celle que l’on fait sur A pour l’amener
à sa forme échelonnée réduite, on multiplie la matrice identité par A−1 , et donc on récupère l’inverse A−1 de
A.
Voici un exemple d’un tel calcul. On place à droite de A la matrice identité, et on effectue sur les lignes
de la grande matrice obtenue toutes les opérations nécessaires pour obtenir sa forme échelonnée réduite. Si
cette forme est la matrice identité, c’est que A est inversible et dans ce cas, la matrice de droite est A−1 .
2 1 −1
Exemple 22. Pour savoir si la matrice A = 0 1 1 est inversible et calculer son inverse éventuel, on
1 2 −1
écrit
2 1 −1 1 0 0
0 1 1 0 1 0 ,
1 2 −1 0 0 1
et on effectue successivement les opérations L3 ← L3 − 12 L1
2 1 −1 1 0 0
0 1 1 0 1 0 ,
0 3/2 −1/2 −1/2 0 1
L3 ← L3 − 32 L2
2 1 −1 1 0 0
0 1 1 0 1 0 ,
0 0 −2 −1/2 −3/2 1
L3 ← − 21 L3
2 1 −1 1 0 0
0 1 1 0 1 0 ,
0 0 1 1/4 3/4 −1/2
L2 ← L2 − L3
2 1 −1 1 0 0
0 1 0 −1/4 1/4 1/2 ,
0 0 1 1/4 3/4 −1/2
L1 ← L1 + L3
2 1 0 5/4 3/4 −1/2
0 1 0 −1/4 1/4 1/2 ,
0 0 1 1/4 3/4 −1/2
L1 ← L1 − L2
2 0 0 3/2 1/2 −1
0 1 0 −1/4 1/4 1/2 ,
0 0 1 1/4 3/4 −1/2
et enfin L1 ← 12 L1 , ce qui donne
1 0 0 3/4 1/4 −1/2
0 1 0 −1/4 1/4 1/2 .
0 0 1 1/4 3/4 −1/2
3/4 1/4 −1/2
On en conclut que A est inversible, d’inverse A−1 = −1/4 1/4 1/2 .
1/4 3/4 −1/2
Le lien avec la résolution des n systèmes linéaires est clair si l’on remarque que les colonnes de la matrice
identité sont les Bj . Les substitutions de lignes ci-dessus sont exactement les opérations nécessaires à la
résolution par la méthode du pivot d’un système A × X = B pour un second membre quelconque. Effectuer
ces opérations sur chacune des colonnes de la matrice identité, c’est en fait résoudre simultanément les n
systèmes A × X = Bj .
31
3
Applications linéaires
1. Généralités
1.1. Définition.
Soient (E, +, .) et (F, +, .) deux espaces vectoriels. On dit qu’une application f : E → F est linéaire
lorsque pour tous a, b de E et tout λ dans R,
f (a + b) = f (a) + f (b) et f (λ.a) = λ.f (a).
On note L (E, F ) l’ensemble des applications linéaires de E dans F .
Les applications linéaires sont aussi appelées «morphismes d’espaces vectoriels». Comme pour les sous-
espaces vectoriels, on peut vérifier les deux propriétés de la définition en une fois : une application f : E → F
est linéaire si et seulement si pour tous réels λ, µ et tous x, y dans E, on a
f (λ.x + µ.y) = λ.f (x) + µ.f (y).
Exercice de cours 47 (l’image du vecteur nul par une application linéaire est toujours le vecteur nul).
Montrer que l’image du vecteur nul de E par une application linéaire f : E → F est toujours 0F .
" Dans la définition, on a noté «+» et «.» les lois de compositions sur E et sur F . Il faut prendre
garde au fait que les ensembles E et F contiennent des objets a priori différents, et que les opérations
sur ces objets différents n’ont a priori pas de rapport. Il est utile de se demander de quelle loi il s’agit
quand on lit la définition ci-dessus.
1.2. Exemples.
1. On prend E = F = R munis de l’addition et de la multiplication externe (qui est aussi la multipli-
cation interne dans ce cas) usuelles. Si f : R → R est une application linéaire, alors pour tout x ∈ R,
on a f (x) = f (x.1) = x.f (1). Notant a = f (1), on doit donc avoir f : x 7→ ax. Réciproquement, on
vérifie facilement qu’une telle application est bien linéaire.
2. Maintenant E = F est l’espace vectoriel des vecteurs du plan. L’application f : R2 → R2 définie
par f (~u) = λ.~u est linéaire. Il s’agit de l’homothétie vectorielle de rapport λ. Si ~v est un vecteur
fixé non nul, la translation de vecteur ~v , définie par f (~u) = ~u + ~v n’est pas linéaire : par exemple
f (~u1 + ~u2 ) = ~u1 + ~u2 + ~v alors que f (~u1 ) + f (~u2 ) = ~u1 + ~u2 + 2~v . On aurait aussi pu noter que
f (~0) = ~v 6= ~0.
3. Soit A ∈ Mn,p (R) une matrice. L’application f : Rp → Rn définie par f (X) = A × X est une
application linéaire. En effet d’après la proposition 43 et la remarque qui la précède, on a
f (λ1 X1 + λ2 X2 ) = A × (λ1 X1 + λ2 X2 ) = A × (λ1 X1 ) + A × (λ2 X2 ) = λ1 f (X1 ) + λ2 f (X2 ).
Dans le paragraphe 4, on verra qu’une application linéaire de Rn dans Rp est toujours de cette forme.
33
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
4. Voici un exemple d’application linéaire qui sort du cadre des espaces vectoriels de dimension finie.
On note C 0 ([0, 1]) l’espace vectoriel des fonctions continues de [0, 1] dans R. On sait qu’une telle
fonction est intégrable sur [0, 1] et que pour tout réels λ, µ
Z 1 Z 1 Z 1
(λf (x) + µg(x))dx = λ f (x)dx + µ g(x)dx.
0 0 0
L’ensemble L (E, F ) des applications linéaires de E dans F , muni de l’addition des fonctions et
de la multiplication d’une fonction par un nombre, est un espace vectoriel.
2. Noyau et Image
2.1. Injection, surjection, bijection. Les notions que l’on rappelle maintenant ne sont pas liées à la
linéarité.
Définition 56 – application injective
Exemple 23. L’application f : R → R définie par f (x) = x2 n’est pas injective, puisque f (−1) = f (1). En
revanche l’application f : R+ → R définie par f (x) = x2 est injective.
On dit qu’une application f : E → F est surjective lorsque pour tout élément y de F , il existe au
moins un élément x de E tel que f (x) = y.
Exemple 24. L’application f : R → R définie par f (x) = x2 n’est pas surjective, puisqu’il n’existe pas de
réel x tel que f (x) = −1. En revanche l’application f : R → R+ définie par f (x) = x2 est surjective.
34
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
On dit qu’une application f : E → F est bijective lorsque pour tout élément y de F , il existe
exactement un élément x de E tel que f (x) = y.
Exemple 25. L’application f : R+ → R+ définie par f (x) = x2 est bijective, puisque pour tout y ∈ R+ , il
√
existe un unique x tel que f (x) = y : il s’agit de x = y.
Proposition 59 – une application est bijective si et seulement si elle est injective et surjective
On est allé un peu vite : il faut justifier le fait que f −1 est bien une bijection :
Les applications linéaires de E dans E sont appelées endomorphismes. Les applications linéaires
bijectives de E dans F sont appelées isomorphismes. Les endomorphismes bijectifs sont appelés
automorphismes.
Plutôt que L (E, E), on note simplement L (E) l’espace vectoriel des endomorphismes de E.
Soit f : E → F une application linéaire. Le sous-ensemble de E des éléments dont l’image est 0F
est appelé noyau de f . On le note
Ker f = {x ∈ E : f (x) = 0F }.
35
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Proposition 65 – une application linéaire est injective si et seulement si son noyau est nul
Une application linéaire f : E → F est injective si et seulement si son noyau ne contient que le
vecteur nul de E, c’est-à-dire Ker f = {0E }.
Exercice de cours 54. Soit f : R3 → R3 l’application linéaire définie par f (x, y, z) = (y+z, x+z, x−y).
Déterminer son noyau. L’application f est-elle injective ?
Le sous-ensemble de F constitué des images par f des éléments de E est appelé image de f . On
le note
Im f = {f (x) : x ∈ E}.
Autrement dit Im f est pour une application linéaire ce que l’on note f (E) pour une application quel-
conque. Par définition donc, une application linéaire f : E → F est surjective si et seulement si Im f = F .
Exercice de cours 56. Soit f : R3 → R3 l’application linéaire définie par f (x, y, z) = (y+z, x+z, x−y).
Déterminer son image. L’application f est-elle surjective ?
2.4. Applications linéaires bijectives. Voici une particularité des applications bijectives qui sont
linéaires :
Proposition 68 – la bijection réciproque d’une application linéaire bijective est linéaire
Soit f : E → F une application linéaire. Si f est bijective, alors son application réciproque
f −1 : F → E est aussi linéaire.
application linéaire est bijective si et seulement si elle transforme toute base de l’espace de départ en une
base de l’espace d’arrivée :
Exercice de cours 59. Le but de cet exercice est de démontrer le théorème 71.
On utilise le théorème de la base incomplète (voir le théorème 21). Soit K = (u1 , . . . , uk ) une base
de Ker f . Comme E est de dimension finie – appelons la n –, on peut compléter K en une famille
B = (u1 , . . . , uk , uk+1 , . . . , un ) qui est une base de E.
1. En utilisant la définition de Im f , montrer que (f (uk+1 ), . . . , f (un )) est une famille génératrice
de Im f .
2. Montrer que (f (uk+1 ), . . . , f (un )) est une famille libre de Im f .
3. En déduire que dim Im f = n − k. Conclure.
" Le théorème du rang relie la dimension de E à celles de Ker f et Im f mais Im f n’est pas un
sous-espace vectoriel de E en général !
Même lorsque E = F , le théorème du rang ne dit pas que les sous-espaces vectoriels Ker f et Im f
sont supplémentaires dans E. Il se peut que le noyau et l’image d’un endomorphisme ne soient pas
en somme directe.
Par exemple que si f est l’endomorphisme de dérivation (voir aussi l’exercice 62)
f : Rn [X] −→ Rn [X]
P 7−→ P0
alors on a Im f ∩ Ker f = Vect(1) = {polynômes constants} =
6 {0Rn [X] }.
Voici une des conséquences très utiles du théorème du rang :
37
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Corollaire 73
Soit f ∈ L (E, F ) avec E et F de dimension finie. Si dim E > dim F , f ne peut pas être injective.
De même si dim E < dim F , f ne peut pas être surjective.
3.1. Dérivation.
Définition 74 – polynôme dérivé
Pn
Pour tout P = i=0 an X n de R[X], on appelle polynôme dérivé, et on note P 0 , le polynôme défini
par :
n
X n−1
X
P0 = kak X k−1 = (k + 1)ak X k .
k=1 k=0
0
On note P (0)
= P, P (1)
=P ,P (2)
= P = (P ) et, pour tout k ∈ N∗ , P (k) = (P (k−1) )0 .
00 0 0
Cette définition est très naturelle : le polynôme dérivée de P n’est rien d’autre que la fonction dérivée de la
fonction polynomiale associée à P (qui est dérivable sur tout R).
38
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Autrement dit, les coordonnées du polynôme P ∈ Rn [X] dans la base canonique 1, X, X 2 , . . . , X n de Rn [X]
00
sont P (0), P 0 (0), P (0)/2, . . . , P (n) (0)/(n!).
3.2. Arithmétique dans R[X] et racines d’un polynôme. Comme dans Z, on peut dans R[X]
additionner et multiplier des éléments entre eux, on a un zéro pour l’addition (le polynôme nul), et une unité
(le polynôme constant égal à 1).
" L’ensemble Z n’est pas un espace vectoriel, contrairement à R[X] !
L’analogie entre Z et R[X] permet de faire de l’arithmétique dans R[X]. Dans ce cours, on se contentera
de quelques définitions.
39
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Soient A, P ∈ R[X]. On dit que A divise P , et on note A|P , s’il existe Q ∈ R[X] tel que P = AQ.
Par exemple, 2X divise 3X 2 car 3X 2 = (2X) × (3/2X), (X − 2) divise clairement (X − 2)2 et (X − 2)(X − 3),
X ne divise pas X 3 − 1 (pourquoi ?). Tout polynôme divise le polynôme nul !
Exercice de cours 65. Vérifier que X − 2 et X − 1 divisent X 2 − 3X + 2. Quels sont tous les polynômes
qui divisent X 2 − 3X + 2 ?
L’analogie entre R[X] et Z réside surtout dans l’énoncé suivant que l’on admet dans ce cours.
Soient A, B ∈ R[X] avec B 6= 0. Il existe un unique couple (Q, R) ∈ (R[X])2 tel que :
A = BQ + R
deg(R) < deg(B).
Le polynôme Q (respectivement R) s’appelle le quotient (respectivement le reste) de la division
euclidienne de A par B.
Soient P ∈ R[X] et a ∈ R. Lorsque X − a divise P , on dit que a est une racine de P . La proposition
suivante assure que a est une racine de P si seulement si a est un zéro de la fonction polynomiale associée
à P , c’est-à-dire que P (a) = 0.
Exercice de cours 68. Soit a ∈ R. Montrer que l’application de R[X] dans R[X] qui à P associe P (a)
est une application linéaire. Quel est son noyau ? Quelle est son image ?
40
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Une jolie application de l’exercice précédent est l’étude des polynômes d’interpolation de Lagrange (voir
la fiche d’exercice n◦ 1).
Exercice de cours 70. À l’aide du théorème de Taylor généralisé pour les polynômes (voir l’exer-
cice 64), interpréter la multiplicité d’un zéro en termes des dérivées successives de P évaluées en a :
P (a), P 0 (a), . . . , P (α−1) (a), P (α) (a).
Proposition 81 – la donnée de l’image des vecteurs d’une base détermine l’application linéaire
Soit f ∈ L (E, F ) une application linéaire. La donnée de l’image par f des vecteurs de la base BE
détermine entièrement l’application f .
D’autre part, les vecteurs f (u1 ), . . . , f (up ) sont eux parfaitement déterminés par la donnée de leurs
coordonnées dans la base BF . Autrement dit, la donnée du tableau à n lignes et p colonnes constituées des
coordonnées des f (uj ) dans la base (v1 , v2 , . . . , vn ) de F détermine entièrement l’application linéaire f . Cela
conduit à la définition suivante :
Définition 82
Soit f ∈ L (E, F ) une application linéaire. On appelle matrice de f dans les bases BE et BF la
matrice A ∈ Mn,p (R) dont les p colonnes sont les coordonnées des images par f des vecteurs de
BE dans la base BF . On la note
f (u1 ) f (u2 ) . . . f (up )
a1,1 a1,2 . . . a1,p v1
A = MatBF ←BE (f ) =
a2,1 a2,2 . . . a2,p v2
.. .. .. ..
. . . .
an,1 an,2 . . . an,p vn
avec, pour j ∈ {1, . . . , p},
n
X
f (uj ) = a1,j v1 + a2,j v2 + · · · + an,j vn = ai,j vi .
i=1
" La phrase «on considère la matrice de l’application linéaire f ∈ L (E, F )» n’a pas de sens ; il faut
préciser dans quelles bases de E et F on écrit la matrice !
41
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Exemple 28. On note fθ : R3 → R3 la rotation d’axe (0, 0, 1) et d’angle θ dans R3 , définie par
Exemple 29. On considère l’espace vectoriel Rn [X] des polynômes de degré inférieur ou égal à n. La famille
B = (1, X, X 2 , . . . , X n ) est une base de Rn [X]. Soit alors ϕ : Rn [X] → Rn [X] l’application qui a un polynôme
P ∈ Rn [X] associe son polynôme dérivé P 0 . L’application ϕ est linéaire (voir l’exercice 61), et ϕ(1) = 0,
ϕ(X) = 1, . . ., ϕ(X n ) = nX n−1 . La matrice de ϕ dans les bases B et B est donc
Exercice de cours 72. Quelle est la matrice dans les bases B et B de l’application linéaire f de
l’exercice 62 ?
Remarque 11. La matrice d’une application linéaire dans des bases BE et BF dépend en général des bases
BE et BF . Comme on l’a vu plus haut, ce n’est cependant pas le cas pour les homothéties, et donc en
particulier pour l’application identité (qu’on peut écrire hλ avec λ = 1).
Remarque 12. On a parlé précédemment de l’application linéaire associée à une matrice A donnée de
Mn,p (R). Il est maintenant clair qu’il s’agit de l’application linéaire f de Rp dans Rn dont la matrice dans
les bases canoniques de Rp et Rn est A.
4.2. Liens entre une application linéaire et sa matrice dans des bases données. Soyons plus
précis : on a vu que «la donnée du tableau à n lignes et p colonnes constituées des coordonnées des f (uj )
dans la base (v1 , v2 , . . . , vn ) de F détermine entièrement l’application linéaire f », mais comment ?
42
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Proposition 83 – écriture matricielle de l’image d’un vecteur par une application linéaire
Soit f ∈ L (E, F ) une application linéaire. La matrice A ∈ Mn,p (R) est la matrice de f dans les
x1
..
bases BE et BF , si et seulement si pour tout x ∈ E, de coordonnées X = . dans la base
xp
y1
BE , les coordonnées Y = ... de son image y = f (x) dans la base BF vérifient Y = A × X.
yn
Proposition 85 – rang d’une application linéaire en terme du rang d’un système linéaire
Exercice de cours 76. À l’aide des résultats du paragraphe 6.3, démontrer la proposition.
On peut même extraire de cette preuve un procédé pour calculer le rang de f : c’est la dimension de
l’espace vectoriel engendré par les vecteurs colonnes (f (u1 ), . . . f (up )) de A. Cela justifie la définition suivante.
Soit A ∈ Mn,p (R) une matrice. On note C1 , C2 , . . . , Cp les vecteurs colonnes de A. On appelle
rang de A et on note rang(A) la dimension du sous-espace vectoriel Vect(C1 , . . . , Cp ) de Rn .
Remarque 13. Si u1 , . . . , up sont des vecteurs d’un espace vectoriel E de dimension finie, on appelle rang
de la famille (u1 , . . . , up ) la dimension du sous-espace vectoriel Vect(u1 , . . . , up ).
43
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Remarque 14. On vient de prouver un point important. Le rang d’un système linéaire a été défini comme le
nombre de lignes non nulles du système échelonné obtenu en appliquant l’algorithme du pivot au sytème en
question. Obtiendrait-on le même rang si l’on utilisait un autre procédé pour trouver un système échelonné
équivalent au premier ? Pour les systèmes compatibles, en particulier les systèmes homogènes, la réponse est
oui : ce que l’on calcule, c’est la dimension de l’image de l’application linéaire f associée au système, et ce
nombre ne dépend pas de la méthode utilisée pour le calculer.
5. Changement de base
La matrice d’une application linéaire f donnée dépend en général des bases dans lesquelles on la définit.
On s’intéresse dans ce paragraphe aux relations entre les matrices de f dans des bases différentes.
5.1. Matrice de passage d’une base dans une autre. Soit E un espace vectoriel de dimension n.
Soient B = (u1 , u2 , . . . , un ) une base de E, et B 0 = (u01 , u02 , . . . , u0n ) une «nouvelle base» de E. En général,
les vecteurs de B 0 = (u01 , u02 , . . . , u0n ) sont donnés par leurs coordonnées dans «l’ancienne base» B, et il est
naturel et très simple de former la matrice P des coordonnées des vecteurs de la nouvelle base B 0 dans
44
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
l’ancienne base B :
u01 u02 ... u0n
p1,1 p1,2 p1,n u1
P =
p2,1 p2,2 p2,n
u2
.. .. ..
. . .
pn,1 pn,2 pn,n un
Cette matrice a un nom, pour l’instant un peu troublant :
La matrice P des coordonnées des vecteurs de la nouvelle base B 0 dans l’ancienne base B est
appelée matrice de passage de B à B 0 . On la note PB,B0 .
" Attention à l’ordre des bases dans cette définition : PB,B0 est la matrice dont les colonnes sont les
coordonnées dans la base B des vecteurs de la base B 0 .
Exemple 31. Soient B = (e1 , e2 ) la base canonique de R2 et e01 = (1, −1), e02 = (0, 2). Les vecteurs e01 et
e02 ne sont pas colinéaires, donc B 0 = (e01 , e02 ) est une base de R2 . La matrice de passage de B à B 0 est la
matrice
0 0
e1 e2
PB,B0 = 1 0 e1
−1 2 e2
Proposition 89 – une matrice de passage est une matrice associée à l’application identité
Proposition 90 – matrice d’un vecteur dans une nouvelle base grâce à la matrice de passage
Une matrice P ∈ Mn (R) est la matrice de passage de la base B à la base B 0si etseulement si,
x01
x1
pour tout vecteur x ∈ E, ses coordonnées X = . dans la base B et X 0 = ... dans la base
..
xn x0n
B vérifient X = P × X .
0 0
45
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Exemple 32. On reprend les vecteurs de l’exemple 31 : B = (e1 , e2 ) la base canonique de R2 et B 0 = (e01 , e02 )
avec e01 = (1, −1), e02 = (0, 2). Si x = (x1 , x2 ) ∈ R2 , on a x = x1 e1 + x2 e2 et x = x01 e01 + x02 e02 avec
0
x1 1 0 x1
= .
x2 −1 2 x02
donnée par
A0 = (PBF ,BF0 )−1 × A × PBE ,BE0
ou encore
MatBF0 ←BE0 (f ) = MatBF0 ←BF (I) × MatBF ←BE (f ) × MatBE ←BE0 (I).
Cette formule est donc une conséquence de la proposition 84.
On dit que deux matrices A et B sont semblables lorsqu’il existe une matrice inversible P ∈ Mn (R)
telle que A = P × B × P −1 .
De manière équivalente, deux matrices sont semblables si et seulement si elles représentent la même
application linéaire dans des bases différentes, puisqu’une matrice inversible peut être vue comme une matrice
de passage. On peut se demander s’il existe une base dans laquelle la matrice d’une application linéaire donnée
est la plus simple possible. C’est l’objet central de la réduction des endomorphismes (voir le cours de deuxième
année).
46
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
6.1. Projections.
Soit (E, +, .) un espace vectoriel. On dit qu’un endomorphisme p ∈ L (E) est une projection
lorsque p ◦ p = p.
Si p ∈ L (E) est une projection, alors Ker p et Im p sont des sous-espaces vectoriels supplémentaires
de E :
E = Ker p ⊕ Im p.
De plus la restriction de p à Ker p est l’application nulle, et celle de p à Im p est l’application
identité.
Soit p ∈ L (E) une projection. La proposition 96 dit que E = Ker p ⊕ Im p, c’est-à dire que tout vecteur
x ∈ E s’écrit de manière unique x = u + v avec u ∈ Ker p et v ∈ Im p. Conformément à la proposition 31, on
dit que u est la composante de x sur Ker p et que v est la composante de x sur Im p.
Avec ces notations, on a p(x) = p(u) + p(v) = p(v), et la proposition 96 nous dit que
p(x) = p(u) + p(v) = 0 + v = v
Finalement, on a donc
x = u + v, u ∈ Ker p, v ∈ Im p ⇒ p(x) = v.
Cette remarque va nous permettre d’interpréter géométriquement la notion de projection.
Dans le cas où E est l’ensemble des vecteurs du plan, et E1 , E2 deux droites vectorielles distinctes, comme
dans le cas où E est l’ensemble des vecteurs de l’espace, E1 une droite et E2 un plan ne contenant pas E1 ,
la projection sur E2 dans la direction de E1 est bien ce que l’on pense, comme l’illustre la figure 1.
47
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
E1
E1
x = x1 + x2
x1
x
x1
p(x) = x2
E2
p(x) = x2 E2
Si A est la matrice d’une projection p dans des bases données, on a A2 = A × A = A, puisque que A × A
est la matrice dans les mêmes bases de p ◦ p = p. On peut choisir les bases de manière à ce que la matrice de
p dans celles-ci soit très simple comme l’illustre l’exercice suivant.
Exercice de cours 86 (matrice d’une projection). Soient p : E → E une projection, B1 = (u1 , . . . , uk1 )
une base de Im p et B2 = (v1 , . . . , vk2 ) une base de Ker p. Notant A la matrice de p dans les bases B et
B, montrer que l’on a :
p(u1 ) . . . p(uk1 ) p(v1 ) . . . p(vk2 )
1 ... 0 0 ... 0 u1
.. .. .. .. ..
. . . . .
A = MatB←B (p) =
0 ... 1 0 ... 0 uk1
0 ... 0 0 ... 0 v1
.. .. .. ..
. . . .
0 ... 0 0 ... 0 vk2
On pourra rapprocher ce résultat de l’exexercice 83 (1).
6.2. Symétries.
Soit (E, +, .) un espace vectoriel. On dit qu’un endomorphisme s ∈ L (E) est une symétrie lorsque
s ◦ s = I.
On notera qu’une symétrie est une application linéaire bijective, qui est sa propre inverse.
1 0
Exercice de cours 87. Soit A = et s : R2 → R2 l’application linéaire dont A est la matrice
0 −1
dans la base canonique de R2 . Montrer que s est une symétrie.
Exercice de cours 88. Soit (F (R, R), +, .) l’espace vectoriel des fonctions de R dans R. À une fonction
f ∈ F on associe la fonction s(f ) définie par
s(f ) : x 7→ f (−x).
Montrer que s est une symétrie.
48
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Soit p ∈ L (E). L’application p est une projection si et seulement si s = I − 2p est une symétrie.
Si s ∈ L (E) est une symétrie, alors Ker(s + I) et Ker(s − I) sont des sous-espaces vectoriels
supplémentaires de E :
E = Ker(s + I) ⊕ Ker(s − I).
Exemple 33. On reprend l’exercice 88. On a vu que l’application s : F → F définie par s(f ) : x → f (−x)
est une symétrie. Une fonction f ∈ F appartient à Ker(s + I) si et seulement si pour tout x ∈ R, on a
(s(f ) + f )(x) = f (−x) + f (x) = 0. Autrement dit Ker(s + I) est le sous-espace des fonction impaires. De
la même manière, f ∈ Ker(s − I) si et seulement si (s(f ) − f )(x) = f (−x) − f (x) = 0, donc Ker(s − I) est
le sous-espace des fonctions paires. Dans ce cas, la proposition précédente dit donc que toute fonction de R
dans R s’écrit de manière unique comme somme d’une fonction paire et d’une fonction impaire.
Soient s : E → E une symétrie, et x ∈ E. On peut écrire x = x1 +x2 avec x1 ∈ Ker(s−I) et x2 ∈ Ker(s+I),
de sorte que s(x) = s(x1 + x2 ) = s(x1 ) + s(x2 ) = x1 − x2 .
Dans le cas où E est l’ensemble des vecteurs du plan, et E1 , E2 deux droites vectorielles distinctes, comme
dans le cas où E est l’ensemble des vecteurs de l’espace, E1 un plan et E2 une droite qui n’est pas contenue
dans E1 , la symétrie par rapport à E1 dans la direction de E2 est bien ce que l’on pense, comme l’illustre la
figure 2.
Si A est la matrice d’une symétrie s dans des bases données, on a A2 = A × A = I, puisque que A × A
est la matrice dans les mêmes bases de s ◦ s = I. Pour une symétrie aussi, on peut trouver des bases dans
lesquelles la matrice de A est très simple comme l’illustre l’exercice suivant.
E2
x = x1 + x2
E2
x2
x = x1 + x2
x2
x1 E1
x1
−x2
−x2
E1
s(x) = x1 − x2
s(x) = x1 − x2
50
Déterminant d’une matrice
4
L’objet mathématique appelé déterminant est plutôt difficile à définir. Il ne s’agit de rien de moins que
de mesurer comment changent les volumes et l’orientation sous l’effet d’une application linéaire. En petite
dimension (n = 1, 2 ou 3), notre intuition et un peu de travail peuvent permettre de répondre à cette question,
mais ce n’est pas immédiat sauf si n = 1. Par contre, le calcul d’un déterminant est relativement simple, et
dans ce cours, où l’on veut être capable de dire si le déterminant d’une matrice donnée est nul ou pas, c’est
l’essentiel.
1. Introduction
Le déterminant d’une matrice carrée peut être vu comme une généralisation (ou une formalisation) des
notions d’aire et de volume, qui tient compte de l’orientation. Nous tentons ici de motiver sa définition dans
le cas des matrices carrées d’ordre 2.
→
− → − →
− →
−
On se place dans R2 muni de sa base canonique ( i , j ) orthonormée, où i = (1, 0) et j = (0, 1),
que l’on convient d’appeler directe. Les termes orthonormée et directe seront définis de manière rigoureuse
en deuxième année. Ici, orthonormée est à comprendre au sens de la géométrie du lycée. Considérons deux
vecteurs − → = (x , y ) de R2 écrit dans la base canonique (→
→ = (x , y ) et −
u u
− →−
i , j ). On appelle parallélogramme
1 1 1 2 2 2
−
→ −
→ −
→ −
→
engendré par u1 et u2 l’ensemble {α1 u1 + α2 u2 : (α1 , α2 ) ∈ [0, 1]2 }.
→
−
v1
−
→
u h
2
b
−
→
u1
Calculons l’aire A de ce parallélogramme. On sait qu’elle est égale à la longueur b d’un côté (par exemple
k−
→k), multipliée par la hauteur h correspondante : A = b × h. Pour obtenir A en fonction des coordonnées
u 1
de −→ et −
u1
→, il suffit d’introduire le vecteur →
u2
−v1 = (−y1 , x1 ). Ce vecteur est en effet orthogonal à −
→ et de même
u1
norme, de sorte que
|→
−
v1 . −
→| = h × k−
u 2
→k = h × b = A ,
u 1
x1
En particulier, | det(A)| représente l’aire du parallélogramme engendré par les vecteurs colonnes et
y1
x2 x1 x2
de A. Le déterminant possède de plus un signe : il est strictement positif si les vecteurs et
y2 y1 y2
forment aussi une base directe, strictement négatif s’ils forment une base indirecte, et nul si ces vecteurs sont
liés.
On peut de même introduire le déterminant d’une matrice carrée réelle d’ordre 3 de sorte que sa valeur
absolue soit le volume du parallélépipède engendré par les vecteurs colonnes d’une telle matrice.
Dans ce chapitre, nous allons définir le déterminant d’une matrice carré d’ordre quelconque. Il sera bon
de garder à l’esprit cet exemple introductif pour mieux comprendre les propriétés du déterminant et la façon
dont il est construit.
Pour tout n ∈ N∗ , il existe une unique application ∆n de Mn (R) dans R qui vérifie les trois
propriétés suivantes :
1. A 7→ ∆n (A) est linéaire par rapport à chacune des lignes de A.
2. Si à se déduit de A par l’échange de deux lignes distinctes, alors ∆n (Ã) = −∆n (A).
3. ∆n (In ) = 1.
Nous verrons plus loin que les propriétés analogues portant sur les colonnes (qui correspondent à l’intui-
tion vue en introduction) se déduisent de celles sur les lignes (voir la proposition 114). Comme nous allons
utiliser le pivot de Gauss, il est plus aisé de travailler sur les lignes dans un premier temps.
En dimension 1 et 2, on peut obtenir assez rapidement une formule explicite pour le déterminant à partir
des propriétés (1), (2) et (3). C’est l’objet de l’exercice suivant.
On donnera plus loin une expression explicite du déterminant d’une matrice de taille > 3, mais cette
expression est en général inutilisable pour le calculer. On va voir que la méthode du pivot donne un procédé
effectif de calcul.
2.2. Calcul d’un déterminant par la méthode du pivot. On commence en étudiant l’effet des
opérations sur les lignes d’une matrice sur son déterminant.
52
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Échange de lignes (Li ↔ Lj ). Soit A ∈ Mn (R), et Ai↔j la matrice obtenue en échangeant deux lignes
de A (Li ↔ Lj ). On a
(5) det Ai↔j = − det A.
Exemple 34. D’après la remarque 9, E ei,j s’obtient en échangeant les lignes i et j de la matrice identité. On
a donc det(Ei,j ) = − det(In ) = −1.
e
On en déduit :
Corollaire 104 – une matrice avec deux lignes identiques est de déterminant nul
Multiplication d’une ligne par un scalaire non nul (Li ← αLi ). Soit A ∈ Mn (R). On note L1 , . . . , Ln ses
lignes. Soit i ∈ {1, . . . , n} fixé et Ai,α la matrice obtenue en multipliant la ligne Li par α ∈ R∗ . On a
(6) det(Ai,α ) = α det(A).
En effet, puisque det est linéaire par rapport à la ligne Li ,
det(L1 , . . . , Li−1 , α.Li , Li+1 . . . Ln ) = α det(L1 , . . . , Li−1 , Li , Li+1 . . . Ln ) = α det(A).
Corollaire 105 – une matrice avec une ligne nulle est de déterminant nul
Ajout à une ligne d’un multiple d’une autre ligne (Li ← Li + αLj ). Soient A ∈ Mn (R) et α ∈ R∗ . On
note Ai,α,j la matrice obtenue à partir de A en effectuant l’opération Li ← Li + αLj , où i 6= j. On a
(7) det(Ai,α,j ) = det A.
En effet, supposons par exemple que i < j. Alors, puisque det est linéaire par rapport à la i-ème ligne,
det(Ai,α,j ) = det(L1 , . . . , Li + αLj , . . . , Lj , . . . , Ln )
= det(L1 , . . . , Li , . . . , Lj , . . . , Ln ) + α det(L1 , . . . , Lj , . . . , Lj , . . . , Ln )
= det(A) + 0 = det(A).
Calcul effectif. Soient A ∈ Mn (R) une matrice donnée et à la matrice obtenue à partir de A en appliquant
l’algorithme du pivot. On se souvient qu’il s’agit d’effectuer sur A des opérations du type précédent jusqu’à
obtenir une matrice échelonnée. Les formules (5), (6) et (7) donnent donc
det(Ã) = (−1)e det A,
où e ∈ N est le nombre d’échanges de lignes qu’il a été nécessaire de faire. On distingue alors deux cas :
— Ã a (au moins) une ligne nulle. D’après le corollaire 105, on a det(Ã) = 0, donc finalement
det A = 0.
— à n’a pas de ligne nulle. Dans ce cas, on peut réduire la matrice à jusqu’à obtenir la matrice In . Là
encore il s’agit de faire subir à Ã des opérations du type de celles de la section précédente, et plus
précisément de multiplier chaque ligne Li de à par l’inverse de son pivot ãi,i , puis d’effectuer des
opérations du type Li ← Li + αLj . Avec (6) et (7) on obtient
1 1 1
det(In ) = ... det(Ã).
ã1,1 ã2,2 ãn,n
Dans ce cas, puisque det(In ) = 1, on a donc
det(A) = (−1)e ã1,1 ã2,2 . . . ãn,n ,
où les ãi,i sont les coefficients diagonaux de la matrice échelonnée Ã.
53
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Notant que A n’a pas de ligne nulle si et seulement si elle est de rang n, ou encore si et seulement si A
est inversible, on a démontré la proposition suivante.
Soit A ∈ Mn (R).
— A n’est pas inversible si et seulement si det A = 0 .
— Si A est inversible, le déterminant de A est le produit des éléments diagonaux de la matrice
obtenue en échelonnant A, multiplié par −1 si le nombre d’échanges de lignes effectués est
impair.
De plus, si A est inversible, le déterminant de A est le produit des éléments diagonaux de la matrice obtenue
en échelonnant A, multiplié par -1 si le nombre d’échanges de lignes effectués est impair.
Remarque 16. Ce résultat constituerait une preuve de l’unicité dans la proposition 102 si l’on savait qu’il
y a unicité de la matrice échelonnée associée à A, ce que l’on n’a jamais prouvé. En effet, dans ce cas, si
∆ : Mn (R) → R est une application qui vérifie (i), (ii) et (iii), alors ∆(A) serait parfaitement déterminé pour
n’importe quelle matrice A. Pour ce qui concerne l’existence, il faudrait prouver que l’application définie par
la proposition 106 vérifie bien (i), (ii) et (iii), ce qui n’est pas immédiat.
Proposition 107
Exercice de cours 96. La démonstration de la proposition est un peu délicate. C’est l’objet de cet
exercice.
1. Supposons que A ne soit pas inversible. Montrer que A × B n’est pas inversible non plus.
Indication : utiliser les les applications linéaires f et g associées à A et B respectivement.
Conclure que det(A × B) = det(A) det(B) dans ce cas.
2. Supposons maintenant que A soit inversible. Remarquer que A et A−1 peuvent s’écrire comme
produit de matrices de la forme E
ei,j et (I + αEi,j ). Utiliser alors ce qui précède la proposition
pour montrer que det(A × B) = det(A) det(B).
54
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Corollaire 108 – le déterminant de l’inverse d’une matrice inversible est l’inverse du déterminant
Soit A = (ai,j ) une matrice de Mn,p (R). On appelle transposée de A, et on note AT la matrice de
Mp,n (R) définie par
AT = (ti,j ) avec ti,j = aj,i pour tous i ∈ {1, . . . p}, j ∈ {1, . . . , n}.
De manière un peu imprécise, on peut dire que AT s’obtient à partir de A en échangeant les coefficients
de A par symétrie par rapport à sa diagonale. De la définition il vient immédiatement que la transposée de
la transposée d’une matrice est la matrice elle-même :
(8) (AT )T = A.
1 4
1 2 3
Exemple 35. Soit A = . On a AT = 2 5.
4 5 6
3 6
La transposée d’un produit de matrices est le produit des transposées, dans l’ordre inverse. Plus précisé-
ment :
55
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
Soient A ∈ Mn,p (R) et B ∈ Mp,m (R), de sorte que A × B ∈ Mn,m (R) est bien définie. Alors
B T × AT ∈ Mm,n (R) est bien définie, et on a
(A × B)T = B T × AT .
Outre son intérêt propre, le résultat suivant ouvre la porte à l’étude des propriétés du déterminant
d’une matrice comme fonction de ses colonnes (ce qui est d’une certaine façon plus naturel si on repense à
l’introduction).
Soit A ∈ Mn (R). On a
det(AT ) = det(A).
On en déduit que le déterminant possède les mêmes propriétés par rapport aux colonnes que par rapport
aux lignes (voir la proposition 102).
En utilisant la transposition des matrices, qui ne change pas le déterminant, on peut en déduire le résultat
suivant (développement du déterminant par rapport à sa i-ième ligne).
a1,1 a1,2 ... ... a1,n a1,1 a1,2 ... ... a1,n
.. ..
. .
ai1 ,1 ai1 ,1 ... . . . ai1 ,n ai2 ,1 ai2 ,1 ... ... ai2 ,n
A = ... B = ...
bi ,1 bi ,1
2 1
ai ,1 ai2 ,1 ... . . . ai2 ,n ai ,1 ai1 ,1 ... ... ai1 ,n
2 1
. .
.. ..
an,1 an,2 ... ... an,n an,1 an,2 ... ... an,n
donc ∆2 vérifie (2). Il reste à vérifier la linéarité par rapport à chacune des lignes. On calcule
∆2 (λ1 (a1 b1 ) + λ2 (a2 b2 ), (c d)) = ∆2 ((λ1 a1 + λ2 a2 λ1 b1 + λ2 b2 ), (c d))
= (λ1 a1 + λ2 a2 )d − (λ1 b1 + λ2 b2 )c
= λ1 (a1 d − b1 c) + λ2 (a2 d − b2 c)
= λ1 ∆2 ((a1 b1 ), (c d)) + λ2 ∆2 ((a2 b2 ), (c d)),
ce qui prouve la linéarité par rapport à la première ligne. La linéarité par rapport à la seconde ligne s’obtient
de la même manière, ou bien en utilisant le comportement du déterminant par échange de ligne.
– Supposons P(n − 1) vraie pour un n > 3 donné. On note, pour A ∈ Mn (R),
n
X
(10) ∆n (A) = (−1)i+1 ai,1 ∆n−1 (A
bi,1 ),
i=1
où ∆n−1 est la fonction dont l’existence est assurée par P(n − 1). On veut montrer que ∆n vérifie (1), (2)
et (3). D’abord puisque ai,1 = 1 si i = 1 et ai,1 = 0 sinon, on a
∆n (In ) = ∆n−1 (A
b1,1 ) = ∆n−1 (In−1 ) = 1,
ce qui prouve (3). La linéarité par rapport aux n − 1 dernières colonnes vient de l’hypothèse de récurrence,
et la linéarité par rapport à la première colonne est claire à la vue de (10). Cela prouve (1).
Soient A = (ai,j ) ∈ Mn (R) et B = (bi,j ) la matrice obtenue à partir de A en échangeant les lignes Li1 et
Li2 , avec i1 < i2 . On a
n
X
∆n (B) = (−1)i+1 bi,1 ∆n−1 (B
bi,1 )
i=1
X
= (−1)i+1 ai,1 ∆n−1 (B
bi,1 ) + (−1)i1 +1 bi ,1 ∆n−1 (B
1
bi ,1 ) + (−1)i2 +1 bi ,1 ∆n−1 (B
1 2
bi ,1 ).
2
i 6= i1
i 6= i2
ce qui prouve que ∆n (B) = −∆n (A), et donc que la fonction ∆n définie par (10) vérifie P(n). Cela termine
la partie "existence" de la proposition 102.
58
École universitaire Paris-Saclay – Licence de mathématiques Année 2020-2021
La composée σ ◦ σ 0 de deux permutations est aussi une permutation : la composition des applications
est une loi interne sur Gn . On sait qu’elle est associative, et l’application identité sur {1, . . . , n}, qui est une
permutation, est l’élément neutre pour la composition. Par définition toute permutations est bijective, et sa
bijection réciproque est une permutation. En résumé :
Une transposition est une permutation : pout tout k ∈ {1, . . . , n} l’équation τ (x) = k admet une unique
solution. Voici la clé de l’étude de Gn .
Proposition 119 – Toute permutation s’écrit comme composée de transpositions
Toute permutation σ ∈ Gn s’écrit comme composée d’un nombre fini de transpositions. Cette
décomposition n’est pas unique, mais la parité du nombre des transpositions est toujours la même
pour une permutation donnée.
On appelle signature d’une permutation σ, et on note ε(σ) ∈ {−1, 1} le nombre (−1)m , où m est
le nombre de transpositions d’une décomposition quelconque de σ.
On est finalement en mesure de donner une formule explicite pour le déterminant d’une matrice. On
prendra garde que cette formule ne permet pas en général un calcul efficace du déterminant : la somme
ci-dessous comprend n! termes puisque c’est le nombre d’éléments dans Gn .
Proposition 121 – formule explicite pour le déterminant d’une matrice
Soient n ∈ N∗ , et A = (ai,j ) ∈ Mn (R). Si ∆ : Mn (R) → R vérifie les propriétés (1), (2) et (3) de
la proposition 102, alors on a
X
(11) ∆(A) = ε(σ)a1,σ(1) a2,σ(2) . . . an,σ(n) .
σ∈Gn
59