Cours d'Algèbre Linéaire à Antananarivo
Cours d'Algèbre Linéaire à Antananarivo
1 Vecteurs : Introduction 2
1.1 Vecteurs dans Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.2 Produit Scalaire, Norme et Distance . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Vecteurs dans Cn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
4 Base et Dimension 26
5 Applications Linéaires 26
6 Notion d’Orthogonalité 26
8 Quelques Applications 26
1
1 Vecteurs : Introduction
Avant de définir en general ce que c’est qu’un espace vectoriel, nous nous proposons dans cette
section de traiter la notion de vecteur. Ceci nous fournit un exemple concret d’espace vectoriel et
en même temps une motivation pour l’ étude abstraite des espaces vectoriels plus tard.
Dans tout ce qui suivra R et C sont respectivement l’ensemble des nombres réels et l’ensemble des
nombres complexes.
Définition 1.1 (Opérations sur les vecteurs). Etant donnés deux vecteurs u = (u1 , u2 , · · · , un ) et
v = (v1 , v2 , · · · , vn ) ∈ Rn , et un élément k ∈ R, on définit les opérations suivantes :
— Addition : u + v = (u1 + v1 , u2 + v2 , · · · , un + vn ).
— Multiplication par un scalaire : ku = (ku1 , ku2 , · · · , kun ).
Dans ce cas, l’élément k ∈ R est appelé un scalaire.
On verra plus tard que (Rn , +, ·) où · représente la multiplication par un scalaire, forme une struc-
ture qu’on appelle espace vectoriel. Plus précisément, (Rn , +, ·) est un espace vectoriel sur R ou
un R-espace vectoriel où le R se réfère au corps des scalaires (on définira plus tard ce qu’est un
corps).
On dit que l’addition el la multiplication par un scalaire se font composante par composante.
2
Interprétations graphique
— La somme u + v est représenté par la flêche qui part de l’origine et dont le sommet forme un
parallélogramme avec l’origine et les sommets de u et v.
— L’ensemble des points ku où u est un vecteur et k parcours R est la droite dirigée par le
vecteur u.
— Etant donnés deux vecteurs non nulls u et v de R2 . Quelle est l’ensemble de toutes les com-
binaisons linéaires cu + dv de u et v ? Si u et v sont parallèles c’est une droite, sinon c’est tout
le plan R2 . Qu’en est-it de l’ensemble des combinaisons linéaires de trois vecteurs, quatre
vecteurs, etc ? On verra que deux vecteurs suffisent pour ”générer” R2 .
Le théorème suivant nous fournit les propriétés essentielles des opérations dans Rn . Ce sont les
propriétes que nous allons abstraire quand on étudiera les espaces vectoriels de manière abstraites.
Théorème 1.4. Quels que soient les vecteurs u, v, w ∈ Rn et quels que soient les scalaires k, l ∈ R, on a :
(i) (u + v) + w = u + (v + w) (Associativité de l’addition)
(ii) u + v = v + u (Commutativité de l’addition)
(iii) u + 0 = u (0 est l’ élément neutre de l’addition)
(iv) u + (−u) = 0 (−u est l’inverse additive de u)
(v) k(u + v) = ku + kv (Distributivité de la multiplication par un scalaire par rapport à l’addition)
(vi) (k + l )u = ku + lu (La première addition est l’addition dans R tandis que la seconde est celle dans
Rn )
(vii) (kl )u = k (lu)
(viii) 1u = u.
u · v = u1 v1 + u2 v2 + · · · + u n v n .
3
Théorème 1.8. Soient u, v, w ∈ Rn et soit k ∈ R.
(i) (u + v) · w = u · w + v · w
(ii) (ku) · v = k (u · v)
(iii) u · v = v · u
(iv) u · u ≥ 0
(v) u · u = 0 si et seulement si u = 0.
On dit que l’espace vectoriel Rn muni du produit scalaire est un espace euclidien de dimension n.
Exemples 1.10. Les vecteurs i et j sont unitaires. Compte tenu de la relation cos2 θ0 + sin2 θ0 = 1
pour tout θ0 ∈ R, tout vecteur unitaire du plan xy s’écrit sous la forme (cos θ, sin θ ) où θ est l’angle
que fait le vecteur par rapport à l’axe des x.
Le vecteur u = (2, 2, 1) est de longueur 3 et kuuk = ( 23 , 23 , 13 ) est unitaire (à vérifier).
Soit v = ( 21 , 21 , 12 , 21 ). On a v · v = 1
4 + 1
4 + 1
4 + 1
4 = 1. Soit w = (1, 1, 1, 1), on a kwk = 2 donc
w
v = kw k
.
Le théorème suivant nous fournit une inégalité fondamentale reliant le produit scalaire et la
norme.
Théorème 1.12 (Cauchy-Schwarz). Quels que soient les vecteurs u = (u1 , · · · , un ) et v = (v1 , · · · , vn )
de Rn , on a :
|u · v| ≤ kukkvk.
4
Démonstration. Si u = 0 ou v = 0, l’inégalité est triviale. On peut donc supposer que u 6= 0 et
v 6= 0. Le lecteur vérifiera que pour tout nombres réels a et b, on a | a + b| ≤ | a| + |b|. Donc, il vient
que
n n
| u · v | = | ∑ ui vi | ≤ ∑ | u i v i |. (1)
i =1 i =1
D’un autre côté, on invite le lecteur a vérifier que pour tout nombres réels a et b on a l’inégalité
ab ≤ 21 ( a2 + b2 ). Donc,
∑in=1 |ui vi | n
|u ||v |
=∑ i i
kukkvk i =1
kukkvk
n
1 | u i |2 | v i |2
≤∑ +
i =1
2 k u k2 k v k2 (2)
!
1 n | u i |2 n
| v i |2
2 i∑ kuk2 i∑
= +
=1 =1
k v k2
=1.
Définition 1.13. On définit l’angle θ entre deux vecteurs non null u et v ∈ Rn par :
u·v
cos θ = .
kukkvk
Vérifiez qu’en dimension 2, θ est bien l’angle entre u et v.
Proposition 1.14. Quels que soient les vecteurs u, v ∈ Rn et quel que soit le scalaire k ∈ R, la norme
dans Rn satisfait les propriétés suivantes :
(i) kuk ≥ 0.
(ii) kuk = 0 si et seulement si u = 0.
(iii) kkuk = |k|kuk.
(iv) ku + vk ≤ kuk + kvk (Inégalité triangulaire 2 ).
5
1.2 Vecteurs dans Cn
On rappelle qu’un nombre complexe z ∈ C est un nombre de la forme a + ib où a, b ∈ R (la
partie réelle et la partie imaginaire de z respectivement) et i vérifie i2 = −1. √
Le conjugué
√ de z est le
nombre complexe z = a − ib. Le module de z est le nombre réel positif |z| = zz = a2 + b2 . Tout
comme les nombres réels qui sont représentés par les points d’une droite, les nombres complexes
peuvent être représentés dans le plan. En particulier, z = a + ib est représenté par le point ( a, b)
du plan et le module |z| est la distance du point z à l’origine.
Nous allons maintenant rapidement refaire ce qu’on a fait dans la section précédente. Dans toute
la suite K = R ou C, l’espace complexe à n dimensions Cn est en effet à la fois un espace vectoriel
sur R et un espace vectoriel sur C. Bien que l’ensemble sous-jacent soit le même, on verra plus
tard qu’il y a des différences entre les structures d’espace vectoriel sur R et sur C.
Comme dans le cas réel, les éléments de Cn sont appelés vecteurs (ou points) et les éléments de K
sont appelés scalaires. L’addition de deux vecteurs et la multiplication par un scalaire se font compo-
sante par composante comme dans le cas réel. Dans le cas complexe, le produit scalaire et la norme
se définissent d’une manière légèrement différente du cas réel.
z · ω = z 1 ω1 + · · · + z n ω n .
Il est facile de voir qu’avec cette définition z · z est un nombre réel positif, ce qui permet de définir
la norme.
Les notions d’orthogonalité et de distance se définissent de la même manière que dans le cas réel.
6
Exercices
Exercice 1. 1. Déterminez si le vecteur (1, 3, 5) ∈ R3 est une combinaison linéaire de (0, 1, 0), (1, 4, 1)
et (1, 0, 1).
2. Déterminez si le vecteur (1, 1) ∈ R2 est une combinaison linéaire de (0, 1), (1, 4) et (1, 0).
Dans le cas où la réponse est affirmative, est-ce que la représentation en tant que combinai-
son linéaire est unique ?
Exercice 2. Décrivez le sous-ensemble de R3 formé par toutes les combinaisons linéaires des vec-
teurs u = (1, 1, 0) et v = (0, 1, 1). Trouvez un vecteur qui n’est pas combinaison linéaire de u et
v.
Exercice 3. Soient u = (π, 0) et v = (0, 2). Décrivez les sous ensembles de R2 suivants :
1. {cu|c ∈ N}.
2. {cu|c ≥ 0}.
3. {cu + dv|c ∈ N et d ∈ R}.
Exercice 4. Est-ce que le vecteur w = (1, 0) est une combinaison linéaire des vecteurs u = (2, −1)
et v = (−1, 2) ?
Exercice 10. Pour deux vecteurs u et v ∈ R2 , quand est-ce qu’on a l’égalité |u · v| = kukkvk ?
l’égalité ku + vk = kuk + kvk ?
Exercice 11. Démontrez Proposition 1.14. Pour l’inégalité triangulaire on pourra utiliser le Théorème
de Cauchy-Schwarz.
Exercice 14. 1. Soient u = ( a, b) et v = (c, d) deux vecteurs du plan. Trouver une condition
nécessaire et suffisante pour que tout élément de R2 soit une combinaison linéaire de u et v.
2. Trouver quatre vecteurs de R4 tels que tout vecteur de R4 soit une combinaison linéaire de
ces vecteurs.
7
Exercice 15. Si kuk = 5 et kvk = 3, quelles sont la plus petite et la plus grande valeurs de ku − vk ?
Même question pour u · v.
Exercice 16. Est-il possible d’avoir trois vecteurs du plan dont les produits scalaires (deux à deux)
sont tous strictement négatifs ? Quand est-il dans R3 ?
Exercice 17. Soient x, y et z trois nombres réels tels que x + y + z = 0. Trouver l’angle que les
vecteurs u = ( x, y, z) et v = (z, x, y) font entre eux.
Exercice 18. Reprendre les résultats (théorèmes, propositions, lemmes, corollaires) de la section
1.1 et vérifiez si ils restent vrai ou deviennent faux (dans quel cas, fournir des contre-exemples)
dans le cas complexe.
2x − y − 5 = 0, 3x + 2y − 4 = 0.
Les deux droites ne sont pas parallèles, la solution est donc les coordonnées du point d’intersection
qui est ( x = 2, y = −1).
2e point de vue :
résoudre ce système estéquivalent
à répondre à la question
suivante : Trouver la combinaison
2 −1 5
linéaire des vecteurs et qui donne le vecteur , i.e, trouver x et y, nombres réels,
3 2 4
tels que :
2 −1 5
x +y = .
3 2 4
C’est dans ce deuxième point de vue qu’on va voir les choses la plus part du temps.
2.1 Matrices
Considérons les trois vecteurs de R3 suivants :
1 0 0
u = −1 , v =
1 , w = 0 .
0 −1 1
8
Une combinaison linéaire de ces trois vecteurs est de la forme :
x1
x1 u + x2 v + x3 w = x2 − x1
x3 − x2
où x1 , x2 et x3 sont des scalaires.
Maintenant, on va réecrire cette combinaison en utilisant l’un des plus importants objets en algèbre
linéaire : Les Matrices.
On va mettre les trois vecteurs dans les colonnes de la matrice A comme suit :
1 0 0
A:=(u v w) = −1 1 0 .
0 −1 1
x1
Posons x = x2 ∈ R3 . Ainsi, on définit le produit A · x (noté par Ax) comme suit :
x3
1 0 0 x1 x1
Ax = −1 1 0 x2 = x1 u + x2 v + x3 w = x2 − x1 .
0 −1 1 x3 x3 − x2
Par conséquent,Axest un vecteur de R3 qui est une combinaison linéaire des vecteurs u, v et w.
b1
De plus, si b = b2 est un vecteur de R3 , l’équation linéaire
b3
Ax = b
est un système de trois équations linéaires. La solution de ce système est :
x1
= b1
x2 = b1 + b2 .
x3 = b1 + b2 + b3
Ainsi,
1 0 0
x = b1 1 + b2 1 + b3 0 = Sb,
1 1 1
où
1 0 0
S = 1 1 0 .
1 1 1
ax = b
où a et b sont donnés et x est l’inconnu. La solution est :
9
b
x= = a −1 b
a
si a est non nul.
De la même manière, pour résoudre l’équation Ax = b, on suggère de trouver une méthode pour
trouver A−1 . On verra plus tard les conditions d’existence de la matrice A−1 . Ici,
A−1 = S.
Et, on dit dans ce cas que S est l’inverse de A. Par analogie, A est l’inverse de S.
Notons par u0 , v0 et w0 les vecteurs colonnes de la matrice S. On a :
1 0 0
Au0 = 0 , Av0 = 1 , Aw0 = 0 .
0 0 1
Ainsi, on obtient la matrice :
1 0 0
I3 = ( Au0 Av0 Aw0 ) = 0 1 0 .
0 0 1
Pour tout vecteur x de R3 , on a :
I3 x = x.
On appellera la matrice I3 , la matrice identité de dimension 3. Cela nous donne une idée
assez clair sur comment on va faire la multiplication de deux matrices. Dans notre exemple, on a :
et
SA = (u0 v0 w0 )(u v w) = (Su Sv Sw) = I3 .
Avant de décrire les règles d’opérations sur les matrices, noter bien aussi la remarque suivante :
Remarque 2.2. Jusqu’à maintenant, on n’a adopté que le deuxième point de vue : ”Le point de
vue des colonnes”. Bien évidemment, on peut voir aussi les matrices sur les lignes (Le premier
point de vue). Posons :
10
x1
Cela nous donne une deuxième façon de calculer A x2 , ainsi que le produit de deux matrices.
x3
Définition 2.3. Soient I et J deux ensembles d’indices. Une matrice A est une application :
A :I × J −→ K
(i, j) 7−→ aij
où K est l’ensemble de scalaires. Dans toute la suite, sauf mention explicite du contraire, les
ensembles I et J sont finis et sont respectivement {1, 2, . . . , m} et {1, 2, . . . , n} . Dans ce cas, on
représentera la matrice A comme un tableau rectangulaire de dimension m × n dont les mn éléments
sont des scalaires. Les nombres des lignes et des colonnes sont respectivement m et n. On note A
par :
A = aij 1≤i ≤m,1≤ j≤n
amj
Si de plus, n = m, on dit que la matrice A est une matrice carrée de dimension n. On notera par
Mn (K) l’ensemble des matrices carrées de dimension n (à coefficients dans K).
Par définition, on peut considérer comme des matrices, les éléments de Rn ou Cn . Ainsi, les vec-
teurs colonnes de Rn ou Cn sont des matrices de dimension n × 1, tandis que les vecteurs lignes
sont de dimension 1 × n. Comme dans le cas de ces vecteurs, on a l’addition et la multiplication
par un scalaire entre les matrices. Par exemple :
0 1 2 1 2 2 0 1 0 −2
2 1 + 0 0 = 2 1 ; −2 2 1 = −4 −2 .
1 3 1 1 2 4 1 3 −2 −6
Par conséquent :
Définition 2.4 (Addition de deux matrices et Multiplication par un scalaire). L’addition de deux
matrices est bien définie si les deux matrices ont la même dimension. Ainsi, si A = ( aij ) et B = (bij )
sont des matrices de dimension m × n, on définit A + B par :
11
A + B = ( aij + bij ).
Si k est un scalaire, on définit kA par :
kA = (kaij ).
AB = ( Ab1 ... Ab p )
Ou bien :
AB = ai · b j 1≤i ≤m,1≤ j≤ p
a1
..
où A = . avec ai (1 ≤ i ≤ m) sont les vecteurs lignes de A.
am
On remarque ainsi que chaque vecteur colonne de AB est une combinaison linéaire des colonnes
de A. Mais encore, on a :
i-ème ligne de AB = i-ème ligne de A × B
et
j-ème colonne de AB = A × (j-ième colonne de B).
Proposition 2.6 (Linéarité de la multiplication par une matrice). Soit A une matrice dans Mn (K).
Considérons trois vecteurs colonnes u, v et w de Kn tels que w = au + bv où a et b sont des scalaires. Alors
on a :
Aw = aAu + bAv.
Preuve. Exercice.
12
Preuve. Exercice.
Définition 2.8. La matrice de Mn (K), qu’on notera par In (ou par I s’il n’y a pas de confusion),
définie par :
In = ( aij )
où (
1 si i = j;
aij =
0 sinon.
est appelée la matrice identité.
Remarque 2.9. On remarque que la matrice I commute avec toutes les matrices dans Mn (K), i.e,
pour toute matrice A dans Mn (K), on a :
I A = AI.
Ainsi, si k est un scalaire, la matrice kI commute, elle aussi, avec toute les éléments de Mn (K).
Question 2.10. Peut-on trouver d’autres matrices (autres que kI) qui pourraient commuter avec toute les
éléments de Mn (K) ?
Réponse. Exercice.
Une dernière chose (importante) concernant la multiplication des matrices est ce qu’on appelle la
décomposition d’une matrice en blocs. Considérons par exemple une décomposition de la matrice A
en blocs suivante :
1 0 0 1 0 0
0 1 0 0 1 0 1 0 0
0 1 0 B
A= 0 0 1 0 0 1 =
0 0 1
0 0 0 0 1 0
O C
0 0 0 0 0 1
où
1 0 0
0 0 0 0 1 0
B = 0 1 0 , O= , C= .
0 0 0 0 0 1
0 0 1
Proposition 2.11. Soient A et B deux matrices décomposées en blocs des matrices. Si le nombre des blocs
sur une ligne de A est égal au nombre des blocs sur une colonne de B, la multiplication de A × B peut se
faire blocs par blocs (suivant la règle de multiplication de deux matrices).
Preuve. Exercice.
Ainsi, on obtient une troisième manière de multiplier deux matrices qui suit :
13
Corollaire 2.12. Soient A et B deux matrices tels que AB est bien défini. Pour tout i = 1, 2, . . . , n, notons
respectivement par ai et bi les vecteurs colonnes de A et les vecteurs lignes de B. Alors, on a :
AB = a1 b1 + . . . + an bn .
Voici un exemple :
3 1 −1 1 3 1 −3 3 1 0 −2 3
= (−1 1) + (1 0) = + = .
1 1 1 0 1 1 −1 1 1 0 0 1
2.1.2 Inverses
Soit A une matrice dans Mm×n (K). On dit que la matrice A admet un inverse à gauche (resp. à droite)
s’il existe une matrice G (resp. une matrice D) dans Mn×m (K) tel que :
GA = In (resp. AD = Im ).
Noter qu’en général (dans le cas où m 6= n), on peut vérifier que G 6= D.
Proposition 2.13. Soit A une matrice inversible dans Mn (K). Notons respectivement par G et D un
inverse à gauche et un inverse à droite de A. Alors :
G = D.
De plus, l’inverse de A est unique qu’on notera par A−1 . Ainsi, A est l’inverse de A−1 .
Dans toute la suite, quand on parle des inverses de matrices, on ne s’intéressera qu’au cas où la
matrice est carrée. Ainsi, on notera par GLn (K), le (sous-) ensemble des matrices inversibles de
Mn ( K ) .
Preuve. Exercice.
Question 2.15. Si A et B deux matrices inversibles, est-ce que A + B est aussi inversible ?
14
Réponse. Exercice.
Proposition 2.16. Soit A une matrice dans Mn (K). La matrice A est inversible si et seulement si pour
tout vecteur b de Kn , il existe un unique solution dans Kn de l’équation :
Ax = b.
Ax = b.
Pour tout i = 1, 2, . . . , n, notons par bi le i-ième colonne de la matrice identité In . Par hypothèse, il
existe un unique xi dans Rn , solution de l’équation
Ax = bi
A −1 = ( x 1 x2 ··· xn )
est l’inverse de A.
Remarque 2.17. On a, dans la preuve de la proposition précédente, une méthode pour calculer
l’inverse d’une matrice.
On verra plus tard dans ce cours, des critères pour qu’une matrice soit inversible, ainsi que
d’autres méthodes pour calculer l’inverse d’une matrice.
Définition 2.18. Soient u1 , u2 , . . . , ur , r vecteurs de Kn . On dit que ces vecteurs sont linéairement
dépendants s’ils existent x1 , x2 , . . . , xr scalaires non tous nuls tels que :
x1 u1 + x2 u2 + . . . + xr ur = 0.
Ils sont dits linéairement indépendants dans le cas contraire.
Proposition 2.19. Soit A une matrice dans Mn (K). La matrice A est inversible si et seulement si les
vecteurs colonnes de A sont linéairement indépendants.
15
Preuve. Pour tout i = 1, 2, . . . , n, notons par ui le i-ième colonne de A. D’après Proposition 2.16,
l’équation Ax = x1 u1 + x2 u2 + . . . + xn un = 0 admet un unique solution. Or, le vecteur nul dans
Kn est une solution de cet équation. D’où le résultat.
Théorème 2.20. Soit A une matrice dans Mn (K). Les vecteurs colonnes de A sont linéairement indépendants
si et seulement si les vecteurs lignes de A le sont aussi.
Preuve. Notons par u1 , u2 , . . . , un les vecteurs lignes de A. Supposons que les vecteurs colonnes de
A sont linéairement indépendants. D’après la proposition 2.19, la matrice A est inversible. Ainsi,
en multipliant à droite par A−1 , l’équation
xA = x1 u1 + x2 u2 + . . . + xn un = 0
où x = ( x1 , x2 , . . . , xn ) admet un unique solution (qui est le vecteur nul). D’où les vecteurs lignes
sont aussi linéairement indépendants. La réciproque se démontre de la même manière.
Ax = 0
admet plusieurs (au moins deux) solutions si et seulement si A n’est pas inversible. Dans ce cas, on dit que
la matrice A est singulière.
Preuve. Exercice.
( AT )ij = A ji .
16
Remarque 2.25. Soient A une matrice dans Mn (K) et x un vecteur colonne de Kn . Le vecteur Ax
est une combinaison linéaire des vecteurs colonnes de A tandis que xT A est celle des vecteurs
lignes de A.
Dans toute la suite, sauf mention explicite du contraire, tout vecteur de Kn sera considérer comme
un vecteur colonne.
x · y = xT y.
Si de plus, A est une matrice dans Mn (K), on a :
( Ax )T y = xT ( AT y).
Maintenant on va introduire quelques importantes classes de matrices.
Définition 2.27. Soient A une matrice dans Mn (K). On dit que A est une matrice triangulaire
supérieure (resp. inférieure) si aij = 0 pour i > j (resp. pour i < j).
Il est important de souligner que les matrices triangulaires (supérieures ou inférieures) joueront
un très grand rôle dans la résolution des équations linéaires du type :
Ax = b
où A une matrice carrée, b un élément de Kn et x dans Kn est l’inconnu.
Remarque 2.28. Si A est une matrice triangulaire supérieure, sa transposée AT est une matrice
triangulaire inférieure, et inversement.
Définition 2.29. Soit A = ( aij ) une matrice dans Mn (K). La matrice est dite symétrique si AT = A,
i.e, aij = a ji .
Il est clair que si A est une matrice symétrique et inversible, alors l’inverse est aussi une matrice
symétrique.
Proposition 2.30. Soit A une matrice dans Mm×n (K). La matrice AT A dans Mn (K) est une matrice
symétrique.
Définition 2.31. Soit A = ( aij ) une matrice dans Mn (K). La matrice est dite antisymétrique si
AT = − A, i.e, aij = − a ji .
17
u2
u1
u3
P21 A = u .
4
.
..
un
De manière générale, la matrice Pij obtenue de la matrice identité après avoir permuté la i-ème
ligne et la j-ème ligne permute la i-ème et la j-ème ligne de la matrice A. Ainsi :
Définition 2.32. Une matrice P est dite une matrice de permutation si P est le produit de ma-
trices de type Pij . L’ensemble des matrices de permutations dans Mn (K) est noté par Pn .
Preuve. Exercice.
D’où :
x
= 19
y = − 49 .
z = 13
.
Maintenant l’idée est de ”revisiter” cette méthode en utilisant les matrices. La méthode est bien
connue sous le nom : La méthode de pivot de Gauss.
18
Reprenons l’exemple ci-dessus :
Considérons l’équation linéaire suivante :
Ax = b
où x ∈ K3 est l’inconnu avec :
2 −1 1 1
A = 1 1 1 ; b = 0 .
1 1 −2 −1
Définition 2.34. Soit A = ( aij ) une matrice dans Mn (K). Une matrice Eij vérifiant les deux pro-
priétés suivantes :
i). La multiplication à gauche de A par Eij ne change que la i-ième ligne de A;
ii). La (i, j) position de la matrice Eij A est zéro ;
est appelée une matrice d’élimination du coefficient aij de A.
Proposition 2.35. Soient A = ( aij ) une matrice dans Mn (K) et i, j et k trois entiers entre 1 et n avec
k < i. Supposons que akj et aij sont non nuls. Alors, la matrice déduite de la matrice identité In en rem-
a
plaçant seulement la (i, j) position par − akjij , est une matrice d’élimination du coefficient aij de A. On notera
a
cette matrice par Eij . De plus, La i-ième ligne de la matrice Eij A est égal à − akjij Lk + Li où Lk et Li sont
respectivement la k-ième ligne et la i-ième ligne de la matrice A.
Preuve. Exercice.
Proposition 2.36. Les matrices d’éliminations sont inversibles. De plus, si E = (ekl ) est une matrice
d’élimination de la (i, j) position d’une matrice donnée, la matrice inverse E−1 se déduit de la matrice E en
remplaçant seulement la (i, j) position par −eij .
Preuve. Exercice.
A0 x = b0
où
2 −1 1 1
A0 = E32 E31 E21 A = 0 3/2 1/2 ; b0 = E32 E31 E21 b = −1/2
0 0 −3 −1
avec
1 0 0 1 0 0 1 0 0
E21 = −1/2 1 0 ; E31 = 0 1 0 ; E32 = 0 1 0 .
0 0 1 −1/2 0 1 0 −1 1
Par conséquent, on retrouve le résultat :
x
= 91
y = − 49 .
z = 13
19
.
Remarquons ainsi que, A se factorise comme suit :
A = LU
où L et U sont respectivement une matrice triangulaire inférieure et une matrice triangulaire
supérieure, avec :
−1 −1 −1
L = E21 E31 E32
où
1 0 0 1 0 0 1 0 0
−1 −1 −1
E21 = 1/2 1 0 ; E31 = 0 1 0 ; E32 = 0 1 0 .
0 0 1 1/2 0 1 0 1 1
Théorème 2.38 (Factorisation LU). Soit A une matrice carrée. Alors il existe une matrice de permutation
P tel que A se factorise comme suit :
PA = LU
où L et U sont respectivement une matrice triangulaire inférieure et une matrice triangulaire supérieure.
Remarque 2.39. Maintenant, on sait que toute matrice carré A peut s’écrire de la forme :
PA = LU
comme l’indique le précédent théorème. Si de plus, la matrice A est inversible, il sera facile de
trouver son inverse en utilisant cette factorisation en utilisant le fait qu’il est ”facile” de trouver
les inverses des matrices d’élimination ainsi que les matrices triangulaires.
20
comme point de départ pour définir abstraitement ce qu’est un espace vectoriel (cf. Théorème 1.4),
et de ce fait formeront les axiomes de base d’un espace vectoriel.
Dans tout ce chapitre, on fixe un ”corps” des scalaires K (pour l’instant, R ou C).
21
On peut donc définir la soustraction dans V par : u − v = u + (−v).
Corollaire 3.5 (Régularité de l’addition). Soient u, v, w ∈ K tels que u + v = u + w, donc v = w.
Preuve. Exercice.
( f + g)( x ) = f ( x ) + g( x )
et k f par
(k f )( x ) = k f ( x ).
Lélément 0 est l’application nulle qui à chaque x ∈ E associe 0.
La vérification de ces exemples est un exercice facile laissé aux étudiants.
22
3.2 Sous-Espaces Vectoriels
Définition 3.11. Un sous-ensemble non vide W ⊆ V contenant 0 est un sous-espace vectoriel de V
si W lui-même est un espace vectoriel par rapport aux lois d’addition et de multiplication par un
scalaire de V.
Théorème 3.12. W ⊆ V est un sous-espace vectoriel de V si et seulement si :
(i) W 6= ∅,
(ii) W est fermé pour l’addition : v, w ∈ W implique v + w ∈ W,
(iii) W est fermé pour la multiplication par un scalaire : w ∈ W et k ∈ K implique kw ∈ W.
Preuve. Exercice.
23
Théorème 3.19. Soit S ⊆ V un sous-ensemble. Alors L(S) est l’ensemble de toutes les combinaisons
linéaires des éléments de S.
Preuve. Soit WS l’ensemble de toutes les combinaisons linéaires des éléments de S. D’une part,il est
clair que 0 = 0 s ∈ WS (s ∈ S). Aussi, on vérifie facilement que l’addition de deux combinaisons
linéaires d’ éléments de WS est un élément de WS . De même, la multiplication par un scalaire
d’une combinaison linéaire d’ éléments de WS est un élément de WS . Donc, WS est un sous-espace
vectoriel de V contenant S. Comme L(S) est le plus petit sous-espace vectoriel de V contenant S,
on a L(S) ⊆ WS . D’autre part, L(S) étant un sous-espace contenant S, donc L(S) contient toute
combinaison linéaire d’éléments de S. Donc, WS ⊆ L(S). Finalement, on a alors L(S) = WS .
Théorème 3.20. Soit S ⊆ V un sous-ensemble. Alors, L(S) est l’intersection de toutes les sous-espaces
vectoriels de V contenant S.
Preuve. Exercice.
0
Exemples 3.21. Soit le R-espace vectoriel V = et v ∈ R2\{ R2
}. On peut se demander quel
0
est le sous-espace engendré par v, ou L({v}). D’après Théorème 3.19, L(v) = {λv| λ ∈ R}. C’est
donc la droite passant par l’origine et v. Soit w ∈
/ L(v) un autre élément non null de V. On peut
montrer que L(v, w) = R (que l’on fera plus tard).
2
Exemples 3.24. Soit le R-espace vectoriel V = C). On sait que tout él’ement de C s’écrit sous
la forme a + ib où a, b ∈ R. Donc, {1, i } est un système générateur de C en tant que R-espace
vectoriel.
24
en multipliant les membres de l’équation par une inverse de A (si m = n, alors A est inversible
(avec une inverse unique) si et seulement si Ax + b admet une solution unique). Une question
importante s’impose : que se passe-t-il quand A n’est pas inversible ?
En général, le système peut être résolue pour certaines valeurs de b et ne peut pas être résolue
pour les autres. On veut caractériser les valeurs de b pour lesquelles ce systême est résoluble, d’où
l’importance de l’espace colonne de A.
Définition 3.26. L’espace colonne de la matrice A ∈ Mm×n (K), qu’on écrira C ( A), est le sous-espace
de Km engendré par les vecteurs colonnes de A. C’est donc l’ensemble de toutes les combinaisons
linéaires possible des vecteurs colonnes de A.
En effet, on sait que Ax = b implique que b est une combinaison linéaire des colonnes de A.
Proposition 3.27. Le système Ax = b est résoluble si et seulement si b ∈ C ( A).
Preuve. Clair.
Exercices
Exercice 19 (Espace de Suites). Soit V = KN l’ensemble de toutes les suites ( a1 , a2 , a3 , · · · ) déléments
de K muni de l’addition par composante et de la multiplication par un scalaire par composante.
Vérifiez que V est un K-espace vectoriel. Notons K(N) le sous-ensemble des suites à support fini,
i.e., les suites dont tous les termes sont nuls sauf un nombre fini d’entre eux. Montrez que K(N)
est un sous-espace vectoriel de KN .
Exercice 20. Est-ce que le sous-ensemble de R2 suivant est un espace vectoriel sur R ?
E = {( x, y) ∈ R2 | x ≥ 0}.
Expliquez.
Exercice 21. Considérons le système d’equations linéaires en les inconnus x1 , · · · , xn et à coeffi-
cients dans R suivant :
a11 x1 + a12 x2 + · · · + a1n xn = 0
a21 x1 + a22 x2 + · · · + a2n xn = 0
·························
am1 x1 + am2 x2 + · · · + amn xn = 0
Un tel système est dit homogène (toutes les monômes ont le même degré, ici 1). Montrez que l’en-
semble de toutes les solutions de ce système forme un sous-espace vectoriel de Rn . Si le systéme
linéaire n’est pas homogène, est-ce que l’ensemble des solutions forme toujours un espace vecto-
riel ? Si oui, démontrez, si non donnez un contre-exemple.
Exercice 22. Soit V = F ( E, K) comme dans Exemples 3.10 avec K = R. Montrez que le sous
ensemble W de F ( E, K) des fonctions bornées dans V est un sous-espace vectoriel. On rappelle
qu’une fonction f á valeur réelle est bornée s’il existe un nombre réel M ∈ R tel que | f x | ≤ M
pour tout x ∈ E.
Exercice 23. Donnez un système générateur de C2 en tant que C-espace vectoriel, puis en tant que
R-espace vectoriel.
Exercice 24. Soit V = R4 en tant que R-espace vectoriel. Déterminez si v = (3, 9, −4, −2) appar-
tient au sous-espace de V engendré par u1 = (1, −2, 0, 3), u2 = (2, 3, 0, −1) et u3 = (2, −1, 2, 1).
25
4 Base et Dimension
5 Applications Linéaires
6 Notion d’Orthogonalité
8 Quelques Applications
Références
26