0% ont trouvé ce document utile (0 vote)
84 vues26 pages

Cours d'Algèbre Linéaire à Antananarivo

Transféré par

tolotra0404
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
84 vues26 pages

Cours d'Algèbre Linéaire à Antananarivo

Transféré par

tolotra0404
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Université d’Antananarivo Faculté de Sciences

Cours d’Algèbre Linéaire


Andry Rabenantoandro et Christalin Razafindramahatsiaro

Table des matières


Hafatra ho an’ny mpianatra 2

1 Vecteurs : Introduction 2
1.1 Vecteurs dans Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.2 Produit Scalaire, Norme et Distance . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Vecteurs dans Cn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2 Equations Linéaires et Matrices 8


2.1 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.1.1 Règles des Opérations pour les Matrices . . . . . . . . . . . . . . . . . . . . . . 11
2.1.2 Inverses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.3 Dépendances et Indépendances . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.4 Transpositions et Permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2 Equations Linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3 Espaces Vectoriels et Sous-Espaces Vectoriels 20


3.1 Espaces Vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2 Sous-Espaces Vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.3 Combinaisons Linéaires et Générateurs . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.4 Espace Colonne d’une Matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

4 Base et Dimension 26

5 Applications Linéaires 26

6 Notion d’Orthogonalité 26

7 Notion de Valeurs propres et Vecteurs propres 26

8 Quelques Applications 26

1
1 Vecteurs : Introduction
Avant de définir en general ce que c’est qu’un espace vectoriel, nous nous proposons dans cette
section de traiter la notion de vecteur. Ceci nous fournit un exemple concret d’espace vectoriel et
en même temps une motivation pour l’ étude abstraite des espaces vectoriels plus tard.
Dans tout ce qui suivra R et C sont respectivement l’ensemble des nombres réels et l’ensemble des
nombres complexes.

1.1 Vecteurs dans Rn


1.1.1 Généralités
L’ensemble de tous les n-tuples ordonnés de nombres réels est noté Rn et est appelé espace à n
dimensions. Tout élément u = (u1 , u2 , · · · , un ) ∈ Rn (écriture en ligne) est appelé vecteur (ou point)
et les ui sont appelés les composantes ou coordonnées de u. Graphiquement, pour n = 2 ou n = 3, un
vecteur u = (u1 , u2 , · · · , un ) est représenté dans le plan Rn par une flêche qui part de l’origine 1
0 = (0, 0, · · · , 0) et qui a pour sommet le point de coordonnées (u1 , u2 , · · · , un ). PRENEZ GARDE
−→
à ne pas confondre avec la notion de vecteur AB introduit en classe de 3eme , où A et B sont deux
points quelconque, et qui est représenté graphiquement par une flêche qui part de A vers B.
Dans toute la suite, on développera la théorie dans le cas général où n ∈ N est un entier naturel
fixé au préalable. Il est tout de même préférable d’avoir à notre disposition des interprétations
graphiques sur lesquelles nos intuitions puissent se reposer. Ce qui est seulement possible quand
n = 2 ou n = 3. On adoptera donc la convention suivante :

Les interprétations graphiques se feront dans le cas n = 2, i.e. dans le plan R2 .

Définition 1.1 (Opérations sur les vecteurs). Etant donnés deux vecteurs u = (u1 , u2 , · · · , un ) et
v = (v1 , v2 , · · · , vn ) ∈ Rn , et un élément k ∈ R, on définit les opérations suivantes :
— Addition : u + v = (u1 + v1 , u2 + v2 , · · · , un + vn ).
— Multiplication par un scalaire : ku = (ku1 , ku2 , · · · , kun ).
Dans ce cas, l’élément k ∈ R est appelé un scalaire.

On verra plus tard que (Rn , +, ·) où · représente la multiplication par un scalaire, forme une struc-
ture qu’on appelle espace vectoriel. Plus précisément, (Rn , +, ·) est un espace vectoriel sur R ou
un R-espace vectoriel où le R se réfère au corps des scalaires (on définira plus tard ce qu’est un
corps).
On dit que l’addition el la multiplication par un scalaire se font composante par composante.

Définition 1.2 (Combinaison linéaire). Etant donnés r vecteurs u1 , u2 , · · · , ur , une combinaison


linéaire de u1 , u2 , · · · , u2 est une somme de la forme k1 u1 + k2 u2 + · · · + kr ur où les k i sont des
scalaires.

Exemples 1.3. Considérons le cas n = 2. On a (1, 3) + (0, 2) = (1 +0, 3 + 2) = (1, 5) et π (1, 3) =


(π, 3π ). Le vecteur 21 (1, 3) + (−2)(0, 2) = ( 12 , 23 ) + (0, −4) = 12 , − 25 est une combinaison linéaire
des vecteurs (1, 3) et (0, 2).
1. Indépendamment de n, l’origine sera toujours noté 0.

2
Interprétations graphique
— La somme u + v est représenté par la flêche qui part de l’origine et dont le sommet forme un
parallélogramme avec l’origine et les sommets de u et v.
— L’ensemble des points ku où u est un vecteur et k parcours R est la droite dirigée par le
vecteur u.
— Etant donnés deux vecteurs non nulls u et v de R2 . Quelle est l’ensemble de toutes les com-
binaisons linéaires cu + dv de u et v ? Si u et v sont parallèles c’est une droite, sinon c’est tout
le plan R2 . Qu’en est-it de l’ensemble des combinaisons linéaires de trois vecteurs, quatre
vecteurs, etc ? On verra que deux vecteurs suffisent pour ”générer” R2 .

MILA ASIANA SARY.

Le théorème suivant nous fournit les propriétés essentielles des opérations dans Rn . Ce sont les
propriétes que nous allons abstraire quand on étudiera les espaces vectoriels de manière abstraites.

Théorème 1.4. Quels que soient les vecteurs u, v, w ∈ Rn et quels que soient les scalaires k, l ∈ R, on a :
(i) (u + v) + w = u + (v + w) (Associativité de l’addition)
(ii) u + v = v + u (Commutativité de l’addition)
(iii) u + 0 = u (0 est l’ élément neutre de l’addition)
(iv) u + (−u) = 0 (−u est l’inverse additive de u)
(v) k(u + v) = ku + kv (Distributivité de la multiplication par un scalaire par rapport à l’addition)
(vi) (k + l )u = ku + lu (La première addition est l’addition dans R tandis que la seconde est celle dans
Rn )
(vii) (kl )u = k (lu)
(viii) 1u = u.

Démonstration. Exercice facile laissé aux étudiants.

1.1.2 Produit Scalaire, Norme et Distance


Définition 1.5 (Produit scalaire). Soient u = (u1 , u2 , · · · , un ) et v = (v1 , v2 , · · · , vn ) deux vecteurs
de Rn . Le produit scalaire de u et v est le scalaire défini par

u · v = u1 v1 + u2 v2 + · · · + u n v n .

Définition 1.6. Deux vecteurs u et v sont dits orthogonaux ou perpendiculaires si u · v = 0.

En effet, graphiquement, pour n = 2 ou n = 3, deux vecteurs non nulls sont orthogonaux


si et seulement si leur produit scalaire est null. La notion d’orthogonalité n’ est donc qu’une
généralisation en dimension supérieure de la notion usuelle de perpendicularité.

Exemples 1.7. Les vecteurs i = (1, 0) et j = (0, 1) sont orthogonaux car i · j = 0 + 0 = 0.

Nous donnons ensuite les propriétés remarquables du produit scalaire dans Rn .

3
Théorème 1.8. Soient u, v, w ∈ Rn et soit k ∈ R.
(i) (u + v) · w = u · w + v · w
(ii) (ku) · v = k (u · v)
(iii) u · v = v · u
(iv) u · u ≥ 0
(v) u · u = 0 si et seulement si u = 0.

Démonstration. Voir exercices.

On dit que l’espace vectoriel Rn muni du produit scalaire est un espace euclidien de dimension n.

Définition 1.9. Soient deux vecteurs


p u = (u1 , · · · , un ) et v = (v1 , · · · , vn ) ∈ Rn . La distance entre
u et v est définie par d(u, v) = (u1q− v1 )2 + · · · + (un − vn )2 . La norme (ou longueur) du vecteur

u est définie par kuk = u · u = u21 + · · · + u2n . Un vecteur w appelé un vecteur unitaire si
kwk = 1.
w
On observe que d(u, v) = ku − vk et que pour tout vecteur w 6= 0, le vecteur kw k
est unitaire et de
même direction que w. On rappelle que le cercle centré à l’origine et de rayon de longueur 1 est
appelé le cercle unité.
En dimension √ 2, si nous considérons deux vecteurs p = ( a, b) et q = (c, d), on voit facilement
2 2
p k pk = a + b représente la longueur de la flêche représentant le vecteur p et d( p, q) =
que
2 2
( a − c) + (b − d) représente la distance euclidienne qui sépare les pointes des flêches représentant
p et q respectivement. On invite le lecteur a réfléchir sur le cas de la dimension 3.

MILA ASIANA SARY.

Exemples 1.10. Les vecteurs i et j sont unitaires. Compte tenu de la relation cos2 θ0 + sin2 θ0 = 1
pour tout θ0 ∈ R, tout vecteur unitaire du plan xy s’écrit sous la forme (cos θ, sin θ ) où θ est l’angle
que fait le vecteur par rapport à l’axe des x.
Le vecteur u = (2, 2, 1) est de longueur 3 et kuuk = ( 23 , 23 , 13 ) est unitaire (à vérifier).
Soit v = ( 21 , 21 , 12 , 21 ). On a v · v = 1
4 + 1
4 + 1
4 + 1
4 = 1. Soit w = (1, 1, 1, 1), on a kwk = 2 donc
w
v = kw k
.

Proposition 1.11. Si u et v ∈ Rn son orthogonaux, alors kuk2 + kvk2 = ku − vk2 .

Démonstration. Voir exercices.

Le théorème suivant nous fournit une inégalité fondamentale reliant le produit scalaire et la
norme.

Théorème 1.12 (Cauchy-Schwarz). Quels que soient les vecteurs u = (u1 , · · · , un ) et v = (v1 , · · · , vn )
de Rn , on a :
|u · v| ≤ kukkvk.

4
Démonstration. Si u = 0 ou v = 0, l’inégalité est triviale. On peut donc supposer que u 6= 0 et
v 6= 0. Le lecteur vérifiera que pour tout nombres réels a et b, on a | a + b| ≤ | a| + |b|. Donc, il vient
que
n n
| u · v | = | ∑ ui vi | ≤ ∑ | u i v i |. (1)
i =1 i =1

D’un autre côté, on invite le lecteur a vérifier que pour tout nombres réels a et b on a l’inégalité
ab ≤ 21 ( a2 + b2 ). Donc,

∑in=1 |ui vi | n
|u ||v |
=∑ i i
kukkvk i =1
kukkvk
n  
1 | u i |2 | v i |2

≤∑ +
i =1
2 k u k2 k v k2 (2)
!
1 n | u i |2 n
| v i |2
2 i∑ kuk2 i∑
= +
=1 =1
k v k2
=1.

On a le résultat en combinant les inégalités (1) et (2).

Le Théorème de Cauchy-Schwarz entraine que −1 ≤ kuukk·vvk ≤ 1, donc il existe un unique θ ∈ [0, π ]


tel que cos θ = kuukk·vvk . Ceci nous permet de généraliser la notion d’angle entre deux vecteurs de
R2 .

Définition 1.13. On définit l’angle θ entre deux vecteurs non null u et v ∈ Rn par :
u·v
cos θ = .
kukkvk
Vérifiez qu’en dimension 2, θ est bien l’angle entre u et v.

MILA ASIANA SARY.

Proposition 1.14. Quels que soient les vecteurs u, v ∈ Rn et quel que soit le scalaire k ∈ R, la norme
dans Rn satisfait les propriétés suivantes :
(i) kuk ≥ 0.
(ii) kuk = 0 si et seulement si u = 0.
(iii) kkuk = |k|kuk.
(iv) ku + vk ≤ kuk + kvk (Inégalité triangulaire 2 ).

Démonstration. Voir exercices.


2. Aussi connue sous le nom Inégalité de Minkowski.

5
1.2 Vecteurs dans Cn
On rappelle qu’un nombre complexe z ∈ C est un nombre de la forme a + ib où a, b ∈ R (la
partie réelle et la partie imaginaire de z respectivement) et i vérifie i2 = −1. √
Le conjugué
√ de z est le
nombre complexe z = a − ib. Le module de z est le nombre réel positif |z| = zz = a2 + b2 . Tout
comme les nombres réels qui sont représentés par les points d’une droite, les nombres complexes
peuvent être représentés dans le plan. En particulier, z = a + ib est représenté par le point ( a, b)
du plan et le module |z| est la distance du point z à l’origine.

MILA ASIANA SARY.

Nous rappellons les propriétés élémentaires suivantes.

Proposition 1.15. Quels que soient z, ω ∈ C, on a :


(i) z + ω = z + ω.
(ii) zω = z ω.
(iii) z = z.
(iv) |zω | = |z||ω |.
(v) |z + ω | ≤ |z| + |ω |.

Démonstration. Voir exercices.

Nous allons maintenant rapidement refaire ce qu’on a fait dans la section précédente. Dans toute
la suite K = R ou C, l’espace complexe à n dimensions Cn est en effet à la fois un espace vectoriel
sur R et un espace vectoriel sur C. Bien que l’ensemble sous-jacent soit le même, on verra plus
tard qu’il y a des différences entre les structures d’espace vectoriel sur R et sur C.
Comme dans le cas réel, les éléments de Cn sont appelés vecteurs (ou points) et les éléments de K
sont appelés scalaires. L’addition de deux vecteurs et la multiplication par un scalaire se font compo-
sante par composante comme dans le cas réel. Dans le cas complexe, le produit scalaire et la norme
se définissent d’une manière légèrement différente du cas réel.

Définition 1.16 (Produit scalaire). Soient z = (z1 , · · · , zn ) et ω = (ω1 , · · · , ωn ) deux vecteurs de


Cn . On définit le produit scalaire de z et ω par :

z · ω = z 1 ω1 + · · · + z n ω n .

Il est facile de voir qu’avec cette définition z · z est un nombre réel positif, ce qui permet de définir
la norme.

Définition 1.17 (Norme). Soit z = (z1 , · · · , zn ) ∈ Cn , la norme de z est définie par :


√ q
k z k = z · z = | z1 |2 + · · · + | z n |2 .

Les notions d’orthogonalité et de distance se définissent de la même manière que dans le cas réel.

6
Exercices
Exercice 1. 1. Déterminez si le vecteur (1, 3, 5) ∈ R3 est une combinaison linéaire de (0, 1, 0), (1, 4, 1)
et (1, 0, 1).
2. Déterminez si le vecteur (1, 1) ∈ R2 est une combinaison linéaire de (0, 1), (1, 4) et (1, 0).
Dans le cas où la réponse est affirmative, est-ce que la représentation en tant que combinai-
son linéaire est unique ?

Exercice 2. Décrivez le sous-ensemble de R3 formé par toutes les combinaisons linéaires des vec-
teurs u = (1, 1, 0) et v = (0, 1, 1). Trouvez un vecteur qui n’est pas combinaison linéaire de u et
v.

Exercice 3. Soient u = (π, 0) et v = (0, 2). Décrivez les sous ensembles de R2 suivants :
1. {cu|c ∈ N}.
2. {cu|c ≥ 0}.
3. {cu + dv|c ∈ N et d ∈ R}.

Exercice 4. Est-ce que le vecteur w = (1, 0) est une combinaison linéaire des vecteurs u = (2, −1)
et v = (−1, 2) ?

Exercice 5. Si u + v = ( 21 , 4, 1) et u − 2v = (1, 0, 2), calculez u et v.

Exercice 6. Montrez que pour tout vecteur u, 0u = 0.

Exercice 7. Démontrez Théorème 1.4.

Exercice 8. Démontrez Proposition 1.8.

Exercice 9. Démontrez Proposition 1.11.

Exercice 10. Pour deux vecteurs u et v ∈ R2 , quand est-ce qu’on a l’égalité |u · v| = kukkvk ?
l’égalité ku + vk = kuk + kvk ?

Exercice 11. Démontrez Proposition 1.14. Pour l’inégalité triangulaire on pourra utiliser le Théorème
de Cauchy-Schwarz.

Exercice 12. Démontrez Proposition 1.15.

Exercice 13. Montrez que pour z, ω ∈ Cn et k ∈ K on a :


1. z · ω = ω · z.
2. (kz) · ω = z · (kω ).
3. z · (kω ) = k (z · ω ).
(Comparer avel le cas réel).

Exercice 14. 1. Soient u = ( a, b) et v = (c, d) deux vecteurs du plan. Trouver une condition
nécessaire et suffisante pour que tout élément de R2 soit une combinaison linéaire de u et v.
2. Trouver quatre vecteurs de R4 tels que tout vecteur de R4 soit une combinaison linéaire de
ces vecteurs.

7
Exercice 15. Si kuk = 5 et kvk = 3, quelles sont la plus petite et la plus grande valeurs de ku − vk ?
Même question pour u · v.

Exercice 16. Est-il possible d’avoir trois vecteurs du plan dont les produits scalaires (deux à deux)
sont tous strictement négatifs ? Quand est-il dans R3 ?

Exercice 17. Soient x, y et z trois nombres réels tels que x + y + z = 0. Trouver l’angle que les
vecteurs u = ( x, y, z) et v = (z, x, y) font entre eux.

Exercice 18. Reprendre les résultats (théorèmes, propositions, lemmes, corollaires) de la section
1.1 et vérifiez si ils restent vrai ou deviennent faux (dans quel cas, fournir des contre-exemples)
dans le cas complexe.

2 Equations Linéaires et Matrices


Résoudre des systèmes d’équations linéaires est l’un des problèmes les plus importants en algèbre.
Dans cette section, on développera une méthode générale en utilisant des objets qui seront au
centre de notre cours : Les Matrices.
Pour commencer, considérons le système d’équations, qu’on va résoudre dans R2 , suivant :
(
2x − y =5
.
3x + 2y = 4
On peut voir ce système de deux manières différentes :
1er point de vue :
Ce système représente deux droites dans R2 d’équations respectives :

2x − y − 5 = 0, 3x + 2y − 4 = 0.

Les deux droites ne sont pas parallèles, la solution est donc les coordonnées du point d’intersection
qui est ( x = 2, y = −1).
2e point de vue :
résoudre ce système estéquivalent
  à répondre à la question
 suivante : Trouver la combinaison
2 −1 5
linéaire des vecteurs et qui donne le vecteur , i.e, trouver x et y, nombres réels,
3 2 4
tels que :      
2 −1 5
x +y = .
3 2 4
C’est dans ce deuxième point de vue qu’on va voir les choses la plus part du temps.

2.1 Matrices
Considérons les trois vecteurs de R3 suivants :
     
1 0 0
u = −1 , v =
   1 , w = 0 .

0 −1 1

8
Une combinaison linéaire de ces trois vecteurs est de la forme :
 
x1
x1 u + x2 v + x3 w =  x2 − x1 
x3 − x2
où x1 , x2 et x3 sont des scalaires.
Maintenant, on va réecrire cette combinaison en utilisant l’un des plus importants objets en algèbre
linéaire : Les Matrices.
On va mettre les trois vecteurs dans les colonnes de la matrice A comme suit :
 
1 0 0
A:=(u v w) = −1 1 0 .
0 −1 1
 
x1
Posons x =  x2  ∈ R3 . Ainsi, on définit le produit A · x (noté par Ax) comme suit :
x3
    
1 0 0 x1 x1
Ax = −1 1 0  x2  = x1 u + x2 v + x3 w =  x2 − x1  .
0 −1 1 x3 x3 − x2
Par conséquent,Axest un vecteur de R3 qui est une combinaison linéaire des vecteurs u, v et w.
b1
De plus, si b = b2  est un vecteur de R3 , l’équation linéaire

b3
Ax = b
est un système de trois équations linéaires. La solution de ce système est :

 x1
 = b1
x2 = b1 + b2 .

x3 = b1 + b2 + b3

Ainsi,      
1 0 0
x = b1 1 + b2 1 + b3 0 = Sb,
    
1 1 1
où  
1 0 0
S = 1 1 0 .
1 1 1

Remarque 2.1. Considérons l’équation linéaire dans R :

ax = b
où a et b sont donnés et x est l’inconnu. La solution est :

9
b
x= = a −1 b
a
si a est non nul.
De la même manière, pour résoudre l’équation Ax = b, on suggère de trouver une méthode pour
trouver A−1 . On verra plus tard les conditions d’existence de la matrice A−1 . Ici,

A−1 = S.

Et, on dit dans ce cas que S est l’inverse de A. Par analogie, A est l’inverse de S.
Notons par u0 , v0 et w0 les vecteurs colonnes de la matrice S. On a :
     
1 0 0
Au0 = 0 , Av0 = 1 , Aw0 = 0 .
0 0 1
Ainsi, on obtient la matrice :
 
1 0 0
I3 = ( Au0 Av0 Aw0 ) = 0 1 0 .
0 0 1
Pour tout vecteur x de R3 , on a :
I3 x = x.
On appellera la matrice I3 , la matrice identité de dimension 3. Cela nous donne une idée
assez clair sur comment on va faire la multiplication de deux matrices. Dans notre exemple, on a :

AS = (u v w)(u0 v0 w0 ) = ( Au0 Av0 Aw0 ) = I3

et
SA = (u0 v0 w0 )(u v w) = (Su Sv Sw) = I3 .
Avant de décrire les règles d’opérations sur les matrices, noter bien aussi la remarque suivante :
Remarque 2.2. Jusqu’à maintenant, on n’a adopté que le deuxième point de vue : ”Le point de
vue des colonnes”. Bien évidemment, on peut voir aussi les matrices sur les lignes (Le premier
point de vue). Posons :

x = (1, 0, 0), y = (−1, 1, 0), z = (0, −1, 1).


On a :
 
x
A = (u v w) = y  .

z
Ainsi :
     
x1 x · ( x1 , x2 , x3 ) x1
A  x2  =  y · ( x1 , x2 , x3 )  =  x2 − x1  .
x3 z · ( x1 , x2 , x3 ) x3 − x2

10
 
x1
Cela nous donne une deuxième façon de calculer A  x2  , ainsi que le produit de deux matrices.
x3

2.1.1 Règles des Opérations pour les Matrices


Dans toute la suite, sauf mention explicite du contraire, m et n désignent deux entiers naturels non
tous nuls.

Définition 2.3. Soient I et J deux ensembles d’indices. Une matrice A est une application :

A :I × J −→ K
(i, j) 7−→ aij

où K est l’ensemble de scalaires. Dans toute la suite, sauf mention explicite du contraire, les
ensembles I et J sont finis et sont respectivement {1, 2, . . . , m} et {1, 2, . . . , n} . Dans ce cas, on
représentera la matrice A comme un tableau rectangulaire de dimension m × n dont les mn éléments
sont des scalaires. Les nombres des lignes et des colonnes sont respectivement m et n. On note A
par :

A = aij 1≤i ≤m,1≤ j≤n

où aij sont des scalaires ; ou simplement par



A = aij
s’il n’y a pas de confusion. Le scalaire aij se trouve ainsi sur la i-ème ligne et la j-ème colonne de
la matrice A. Les n −tuplets
 ( ai1 . . . ain ) sont appelés les vecteurs lignes de A tandis que les
a1j
 .. 
vecteurs de K ,  .  sont appelés les vecteurs colonnes de A.
m

amj
Si de plus, n = m, on dit que la matrice A est une matrice carrée de dimension n. On notera par
Mn (K) l’ensemble des matrices carrées de dimension n (à coefficients dans K).

Par définition, on peut considérer comme des matrices, les éléments de Rn ou Cn . Ainsi, les vec-
teurs colonnes de Rn ou Cn sont des matrices de dimension n × 1, tandis que les vecteurs lignes
sont de dimension 1 × n. Comme dans le cas de ces vecteurs, on a l’addition et la multiplication
par un scalaire entre les matrices. Par exemple :
         
0 1 2 1 2 2 0 1 0 −2
2 1 + 0 0 = 2 1 ; −2 2 1 =  −4 −2 .
1 3 1 1 2 4 1 3 −2 −6
Par conséquent :

Définition 2.4 (Addition de deux matrices et Multiplication par un scalaire). L’addition de deux
matrices est bien définie si les deux matrices ont la même dimension. Ainsi, si A = ( aij ) et B = (bij )
sont des matrices de dimension m × n, on définit A + B par :

11
A + B = ( aij + bij ).
Si k est un scalaire, on définit kA par :

kA = (kaij ).

Définition 2.5 (Multiplication de deux Matrices). Soient A et B deux matrices de dimensions


respectives m × n et q × p. La multiplication A × B ou simplement AB est bien définie si le nombre
de colonnes de A est égal au nombre de ligne de B, i.e, n = q. Ainsi, on définit AB par :

AB = ( Ab1 ... Ab p )
Ou bien :

AB = ai · b j 1≤i ≤m,1≤ j≤ p
 
a1
 .. 
où A =  .  avec ai (1 ≤ i ≤ m) sont les vecteurs lignes de A.
am

On remarque ainsi que chaque vecteur colonne de AB est une combinaison linéaire des colonnes
de A. Mais encore, on a :
 
i-ème ligne de AB = i-ème ligne de A × B
et

j-ème colonne de AB = A × (j-ième colonne de B).

Proposition 2.6 (Linéarité de la multiplication par une matrice). Soit A une matrice dans Mn (K).
Considérons trois vecteurs colonnes u, v et w de Kn tels que w = au + bv où a et b sont des scalaires. Alors
on a :

Aw = aAu + bAv.

Preuve. Exercice.

Proposition 2.7. Soient A, B et C trois matrices et k un scalaire. On a :

A+B = B+A (Commutativité de l’addition)


k ( A + B) = kA + kB (Distributivité de la multiplication par un scalaire)
A + ( B + C ) = ( A + B) + C (Associativité de l’addition)
AB 6= BA (Non commutativité de la multiplication)
C ( A + B) = CA + CB (Distributivité à gauche de la multiplication)
( A + B)C = AC + BC (Distributivité à droite de la multiplication)
A( BC ) = ( AB)C (Associativité de la multiplication)

12
Preuve. Exercice.

Définition 2.8. La matrice de Mn (K), qu’on notera par In (ou par I s’il n’y a pas de confusion),
définie par :

In = ( aij )
où (
1 si i = j;
aij =
0 sinon.
est appelée la matrice identité.

Remarque 2.9. On remarque que la matrice I commute avec toutes les matrices dans Mn (K), i.e,
pour toute matrice A dans Mn (K), on a :

I A = AI.
Ainsi, si k est un scalaire, la matrice kI commute, elle aussi, avec toute les éléments de Mn (K).

D’où la question suivante :

Question 2.10. Peut-on trouver d’autres matrices (autres que kI) qui pourraient commuter avec toute les
éléments de Mn (K) ?

Réponse. Exercice.

Une dernière chose (importante) concernant la multiplication des matrices est ce qu’on appelle la
décomposition d’une matrice en blocs. Considérons par exemple une décomposition de la matrice A
en blocs suivante :
 
1 0 0 1 0 0  
0 1 0 0 1 0 1 0 0
   0 1 0 B 
A=  0 0 1 0 0 1 =
  0 0 1


0 0 0 0 1 0
O C
0 0 0 0 0 1
où  
1 0 0    
0 0 0 0 1 0
B = 0 1 0 , O= , C= .
0 0 0 0 0 1
0 0 1

Proposition 2.11. Soient A et B deux matrices décomposées en blocs des matrices. Si le nombre des blocs
sur une ligne de A est égal au nombre des blocs sur une colonne de B, la multiplication de A × B peut se
faire blocs par blocs (suivant la règle de multiplication de deux matrices).

Preuve. Exercice.

Ainsi, on obtient une troisième manière de multiplier deux matrices qui suit :

13
Corollaire 2.12. Soient A et B deux matrices tels que AB est bien défini. Pour tout i = 1, 2, . . . , n, notons
respectivement par ai et bi les vecteurs colonnes de A et les vecteurs lignes de B. Alors, on a :

AB = a1 b1 + . . . + an bn .

Preuve. Exercice à faire pendant le cours.

Voici un exemple :
            
3 1 −1 1 3 1 −3 3 1 0 −2 3
= (−1 1) + (1 0) = + = .
1 1 1 0 1 1 −1 1 1 0 0 1

2.1.2 Inverses
Soit A une matrice dans Mm×n (K). On dit que la matrice A admet un inverse à gauche (resp. à droite)
s’il existe une matrice G (resp. une matrice D) dans Mn×m (K) tel que :

GA = In (resp. AD = Im ).
Noter qu’en général (dans le cas où m 6= n), on peut vérifier que G 6= D.

Proposition 2.13. Soit A une matrice inversible dans Mn (K). Notons respectivement par G et D un
inverse à gauche et un inverse à droite de A. Alors :

G = D.
De plus, l’inverse de A est unique qu’on notera par A−1 . Ainsi, A est l’inverse de A−1 .

Preuve. Par définition, on a GA = In . En multipliant cet égalité à droite par D, on a ( GA) D = D.


Puisque la multiplication des matrices est associative, on a ( GA) D = G ( AD ) = G ( In ) = G. D’où,
G = D.
Maintenant, soient B1 et B2 deux inverses (à droite et à gauche) de A. D’après le résultat précédent,
on peut considérer B1 comme inverse à droite et B2 comme inverse à gauche. D’après ce même
résultat, on conclut que B1 = B2 .

Dans toute la suite, quand on parle des inverses de matrices, on ne s’intéressera qu’au cas où la
matrice est carrée. Ainsi, on notera par GLn (K), le (sous-) ensemble des matrices inversibles de
Mn ( K ) .

Proposition 2.14. Soient A et B des matrices dans GLn (K). On a :


— La matrice AB est aussi dans GLn (K) (Stabilité par la multiplication) ;
— L’inverse de AB est B−1 A−1 .

Preuve. Exercice.

Une question s’impose :

Question 2.15. Si A et B deux matrices inversibles, est-ce que A + B est aussi inversible ?

14
Réponse. Exercice.

Proposition 2.16. Soit A une matrice dans Mn (K). La matrice A est inversible si et seulement si pour
tout vecteur b de Kn , il existe un unique solution dans Kn de l’équation :

Ax = b.

Preuve. Supposons que A est inversible. Soit b ∈ Kn et considérons l’équation Ax = b. Donc, le


vecteur x = A−1 b est une solution. Si x 0 est une solution de l’équation, on a Ax 0 = b. En multipliant
cet équation par A−1 , on a x 0 = A−1 b = x. Puisque A−1 est unique, d’où l’unicité de la solution.
Inversement, supposons maintenant que pour tout vecteur b de Kn , il existe un unique solution
dans Kn de l’équation :

Ax = b.
Pour tout i = 1, 2, . . . , n, notons par bi le i-ième colonne de la matrice identité In . Par hypothèse, il
existe un unique xi dans Rn , solution de l’équation

Ax = bi

pour tout i = 1, 2, . . . , n. D’où :

A −1 = ( x 1 x2 ··· xn )
est l’inverse de A.

Remarque 2.17. On a, dans la preuve de la proposition précédente, une méthode pour calculer
l’inverse d’une matrice.

On verra plus tard dans ce cours, des critères pour qu’une matrice soit inversible, ainsi que
d’autres méthodes pour calculer l’inverse d’une matrice.

2.1.3 Dépendances et Indépendances


On a vu au tout début de ce cours, la définition d’une combinaison linéaire. Soient u1 , u2 , . . . , ur ,
r vecteurs de Kn , on se demandait si un vecteur w dans Kn est une combinaison linéaire de ces r
vecteurs. Maintenant, en particulier, on se demande s’il existe (au moins) un vecteur parmi les ui
qui soit (ou non) une combinaison linéaire des autres.

Définition 2.18. Soient u1 , u2 , . . . , ur , r vecteurs de Kn . On dit que ces vecteurs sont linéairement
dépendants s’ils existent x1 , x2 , . . . , xr scalaires non tous nuls tels que :

x1 u1 + x2 u2 + . . . + xr ur = 0.
Ils sont dits linéairement indépendants dans le cas contraire.

Proposition 2.19. Soit A une matrice dans Mn (K). La matrice A est inversible si et seulement si les
vecteurs colonnes de A sont linéairement indépendants.

15
Preuve. Pour tout i = 1, 2, . . . , n, notons par ui le i-ième colonne de A. D’après Proposition 2.16,
l’équation Ax = x1 u1 + x2 u2 + . . . + xn un = 0 admet un unique solution. Or, le vecteur nul dans
Kn est une solution de cet équation. D’où le résultat.

Théorème 2.20. Soit A une matrice dans Mn (K). Les vecteurs colonnes de A sont linéairement indépendants
si et seulement si les vecteurs lignes de A le sont aussi.
Preuve. Notons par u1 , u2 , . . . , un les vecteurs lignes de A. Supposons que les vecteurs colonnes de
A sont linéairement indépendants. D’après la proposition 2.19, la matrice A est inversible. Ainsi,
en multipliant à droite par A−1 , l’équation

xA = x1 u1 + x2 u2 + . . . + xn un = 0

où x = ( x1 , x2 , . . . , xn ) admet un unique solution (qui est le vecteur nul). D’où les vecteurs lignes
sont aussi linéairement indépendants. La réciproque se démontre de la même manière.

Proposition 2.21. Soit A ∈ Mn (K). L’équation

Ax = 0

admet plusieurs (au moins deux) solutions si et seulement si A n’est pas inversible. Dans ce cas, on dit que
la matrice A est singulière.
Preuve. Exercice.

2.1.4 Transpositions et Permutations


Dans ce paragraphe, on va introduire deux opérateurs (importants) opérant sur les matrices à
savoir : la Transposition et la Permutation.
Définition 2.22. Soit A une matrice. La matrice dont les colonnes sont respectivement les vecteurs
lignes de A est appelée la transposée de A (qu’on notera par AT ). Plus précisément :

( AT )ij = A ji .

En particulier, si A ∈ Mm×n (K), la matrice AT est dans Mn×m (K).


 
  1 4
1 2 3
Exemples 2.23. Si A = , la transposée de A est AT = 2 5 .
4 5 6
3 6
Proposition 2.24. Soient A et B deux matrices. Alors :
i). ( A + B)T = AT + BT ;
ii). ( AB)T = BT AT ;
iii). Si A est inversible, alors AT est aussi inversible avec ( AT )−1 = ( A−1 )T .
iv). (( A)T )T = A.
Preuve. Exercice.

16
Remarque 2.25. Soient A une matrice dans Mn (K) et x un vecteur colonne de Kn . Le vecteur Ax
est une combinaison linéaire des vecteurs colonnes de A tandis que xT A est celle des vecteurs
lignes de A.

Dans toute la suite, sauf mention explicite du contraire, tout vecteur de Kn sera considérer comme
un vecteur colonne.

Remarque 2.26. Soient x et y deux vecteurs de Kn . Alors on a :

x · y = xT y.
Si de plus, A est une matrice dans Mn (K), on a :

( Ax )T y = xT ( AT y).
Maintenant on va introduire quelques importantes classes de matrices.

Définition 2.27. Soient A une matrice dans Mn (K). On dit que A est une matrice triangulaire
supérieure (resp. inférieure) si aij = 0 pour i > j (resp. pour i < j).

Il est important de souligner que les matrices triangulaires (supérieures ou inférieures) joueront
un très grand rôle dans la résolution des équations linéaires du type :

Ax = b
où A une matrice carrée, b un élément de Kn et x dans Kn est l’inconnu.

Remarque 2.28. Si A est une matrice triangulaire supérieure, sa transposée AT est une matrice
triangulaire inférieure, et inversement.

La classe des matrices suivante est l’une des plus importantes :

Définition 2.29. Soit A = ( aij ) une matrice dans Mn (K). La matrice est dite symétrique si AT = A,
i.e, aij = a ji .

Il est clair que si A est une matrice symétrique et inversible, alors l’inverse est aussi une matrice
symétrique.

Proposition 2.30. Soit A une matrice dans Mm×n (K). La matrice AT A dans Mn (K) est une matrice
symétrique.

Définition 2.31. Soit A = ( aij ) une matrice dans Mn (K). La matrice est dite antisymétrique si
AT = − A, i.e, aij = − a ji .

On verra plus tard (plus loin) l’importance de ces classes de matrices.


Soit A une matrice dans Mn (K). Notons par u1 , u2 , . . . , un les vecteurs ligne de A. Une question
que l’on peut se poser est la suivante : Existe-t-il une matrice P qui permute (ou échange) deux ou
plusieurs vecteurs lignes de A en la multipliant par P ? La réponse est OUI !
Par définition, la matrice identité In ne change rien sur A, i.e, In A = A. Par contre si P21 est la
matrice qu’on obtient en permutant la première et la deuxième ligne de la matrice In , on a :

17
 
u2
 u1 
 
 u3 
P21 A =  u  .
 
 4
 . 
 .. 
un
De manière générale, la matrice Pij obtenue de la matrice identité après avoir permuté la i-ème
ligne et la j-ème ligne permute la i-ème et la j-ème ligne de la matrice A. Ainsi :

Définition 2.32. Une matrice P est dite une matrice de permutation si P est le produit de ma-
trices de type Pij . L’ensemble des matrices de permutations dans Mn (K) est noté par Pn .

Proposition 2.33. Soit P une matrice dans Pn . Alors :


i). La matrice P est inversible avec P−1 = PT . En particulier, P−1 est aussi une matrice de permutation ;
ii). Pn = In ;
iii). Le cardinal de l’ensemble Pn est n!.

Preuve. Exercice.

2.2 Equations Linéaires


Avant de passer aux choses sérieuses, illustrons cette section avec l’un des fondations (Si ce n’est
la fondation) de l’algèbre linéaire à savoir : La résolution d’un système d’équations linéaires.
Considérons le système suivant :

2x − y + z = 1

x+y+z =0

x + y − 2z = −1

où ( x, y, z) ∈ K3 est l’inconnu. En utilisant la méthode d’élimination, on peut avoir le système


réduit (qui est plus facile à résoudre) qui suit :

2x − y + z
 =1
−3y − z =1 .

−6z = −2

D’où :

x
 = 19
y = − 49 .

z = 13

.
Maintenant l’idée est de ”revisiter” cette méthode en utilisant les matrices. La méthode est bien
connue sous le nom : La méthode de pivot de Gauss.

18
Reprenons l’exemple ci-dessus :
Considérons l’équation linéaire suivante :

Ax = b
où x ∈ K3 est l’inconnu avec :
   
2 −1 1 1
A = 1 1 1 ; b =  0 .
1 1 −2 −1
Définition 2.34. Soit A = ( aij ) une matrice dans Mn (K). Une matrice Eij vérifiant les deux pro-
priétés suivantes :
i). La multiplication à gauche de A par Eij ne change que la i-ième ligne de A;
ii). La (i, j) position de la matrice Eij A est zéro ;
est appelée une matrice d’élimination du coefficient aij de A.
Proposition 2.35. Soient A = ( aij ) une matrice dans Mn (K) et i, j et k trois entiers entre 1 et n avec
k < i. Supposons que akj et aij sont non nuls. Alors, la matrice déduite de la matrice identité In en rem-
a
plaçant seulement la (i, j) position par − akjij , est une matrice d’élimination du coefficient aij de A. On notera
a
cette matrice par Eij . De plus, La i-ième ligne de la matrice Eij A est égal à − akjij Lk + Li où Lk et Li sont
respectivement la k-ième ligne et la i-ième ligne de la matrice A.
Preuve. Exercice.

Proposition 2.36. Les matrices d’éliminations sont inversibles. De plus, si E = (ekl ) est une matrice
d’élimination de la (i, j) position d’une matrice donnée, la matrice inverse E−1 se déduit de la matrice E en
remplaçant seulement la (i, j) position par −eij .
Preuve. Exercice.

En revenant à notre exemple, l’équation peut se réduire à :

A0 x = b0
où   

2 −1 1 1
A0 = E32 E31 E21 A = 0 3/2 1/2 ; b0 = E32 E31 E21 b = −1/2
0 0 −3 −1
avec      
1 0 0 1 0 0 1 0 0
E21 = −1/2 1 0 ; E31 = 0 1 0 ; E32 = 0 1 0 .
0 0 1 −1/2 0 1 0 −1 1
Par conséquent, on retrouve le résultat :

x
 = 91
y = − 49 .

z = 13

19
.
Remarquons ainsi que, A se factorise comme suit :

A = LU
où L et U sont respectivement une matrice triangulaire inférieure et une matrice triangulaire
supérieure, avec :

−1 −1 −1
L = E21 E31 E32
où
     
1 0 0 1 0 0 1 0 0
−1 −1 −1
E21 = 1/2 1 0 ; E31 =  0 1 0 ; E32 = 0 1 0 .
0 0 1 1/2 0 1 0 1 1

Remarque 2.37. En général, dans le procédé de la méthode d’élimination de la Proposition 2.35,


si le coefficient aij qu’on veut éliminer est déjà zéro, on ne fait rien, on passe au suivant qui est
généralement a(i+1) j ou a(i+1)( j+1) . Mais, plus important encore, on peut pas éliminer si akj = 0.
Si c’est le cas, on permute les lignes de A jusqu’à ce qu’on obtienne un premier coefficient qui est
non nul. On commence souvent par a11 .

D’où le résultat suivant :

Théorème 2.38 (Factorisation LU). Soit A une matrice carrée. Alors il existe une matrice de permutation
P tel que A se factorise comme suit :

PA = LU
où L et U sont respectivement une matrice triangulaire inférieure et une matrice triangulaire supérieure.

Preuve. Une explication sera donnée en cours magistral.

Remarque 2.39. Maintenant, on sait que toute matrice carré A peut s’écrire de la forme :

PA = LU
comme l’indique le précédent théorème. Si de plus, la matrice A est inversible, il sera facile de
trouver son inverse en utilisant cette factorisation en utilisant le fait qu’il est ”facile” de trouver
les inverses des matrices d’élimination ainsi que les matrices triangulaires.

3 Espaces Vectoriels et Sous-Espaces Vectoriels


Dans ce chapitre, nous allons étudier l’une des structures mathématiques fondamentales, étroitement
liées à l’algèbre linéaire : les espaces vectoriels. Les espaces vectoriels fournissent un cadre général, et
plus abstrait, pour l’étude des équations linéaires, des applications linéaires et des matrices entre
autres. Dans le premier chapitre, on a vu quelques exemples d’espaces vectoriels, notemment Rn
et Cn , ainsi que quelques propriétés de ces derniers. Certaines de ces propriétés vont nous servir

20
comme point de départ pour définir abstraitement ce qu’est un espace vectoriel (cf. Théorème 1.4),
et de ce fait formeront les axiomes de base d’un espace vectoriel.
Dans tout ce chapitre, on fixe un ”corps” des scalaires K (pour l’instant, R ou C).

3.1 Espaces Vectoriels


Soit V 6= ∅ un ensemble non vide. Une loi de composition interne sur V est une application ⊕ :
V × V → V qui à chaque pair d’éléments (u, v) de V associe un élément ⊕(u, v) de V, que l’on
notera u ⊕ v . La loi ⊕ sera appelée l’addition de V. On dit que V est munie d’une multiplication par
les scalaires de K s’il existe une application : K × V → V qui à tout pair d’éléments (k, v) de
K × V associe un élément (k, v) de V, que l’on notera k v.
Définition 3.1. Un espace vectoriel sur K ou K-espace vectoriel est un ensemble non vide V possédant
un élément spécial 0 qu’on apellera naturellement le zéro de V, muni d’une loi de composition
interne ⊕ et d’une multiplication par les scalaires de K , satisfaisant les axiomes suivantes :
quels que u, v, w ∈ V et quels que soient k, l ∈ K, on a
(i) (u ⊕ v) ⊕ w = u ⊕ (v ⊕ w) (Associativité de l’addition)
(ii) u ⊕ v = v ⊕ u (Commutativité de l’addition)
(iii) u ⊕ 0 = 0 ⊕ u = u (0 est l’ élément neutre de l’addition)
(iv) Il existe un élément −u ∈ V tel que u ⊕ (−u) = 0 (−u est l’inverse additive de u)
(v) k (u + v) = k u+k v (Distributivité de la multiplication par un scalaire par rapport
à l’addition)
(vi) (k + l ) u = (k u) ⊕ (l u) (La première addition est l’addition dans K tandis que la
seconde est celle dans V)
(vii) (kl ) u=k (l u)
(viii) 1 u = u.
Remarque 3.2. Il faut prendre garde à ne pas confondre le zéro du corps de base K, qu’on écrira
0K ou simplement 0, avec le zéro de V que l’on écrira 0 (le chiffre 0 en gras).
Remarque 3.3. Dans la définition précédente, on a utilisé les notations ⊕ et pour que l’on com-
prenne que l’addition dans un espace vectoriel n’est pas toujours l’addition usuelle ans R ou C, de
même pour la multiplication par les scalaires. Cependant, pour la commodité, on convient dans
toute la suite d’écrire u + v au lieu de u ⊕ v et kv au lieu de k v du moment qu’aucune confusion
n’est á craindre.
Les quatres premiers axiomes font de (V, ⊕) ce qu’on appelle un groupe abélien ou groupe commuta-
tif. L’axiome d’associativité de l’addition nous permet d’écrire une somme quelconque d’éléments
de V de la forme
u1 + u2 + · · · + u n
sans écrire les parenthèses, et la commutativité implique que l’ordre de sommation n’est pas im-
portant.
Proposition 3.4. L’élément neutre 0 est unique et pour tout u ∈ K, l’opposé −u de u est unique.
Preuve. Exercice.

21
On peut donc définir la soustraction dans V par : u − v = u + (−v).
Corollaire 3.5 (Régularité de l’addition). Soient u, v, w ∈ K tels que u + v = u + w, donc v = w.
Preuve. Exercice.

On a les propriétés simple suivantes


Théorème 3.6. Soit V un K-espace vectoriel.
(i) Pour tout k ∈ K, k0 = 0.
(ii) Pour tout u ∈ V, 0u = 0.
(iii) Si ku = 0 avec k ∈ K et u ∈ V, alors k = 0 ou u = 0.
(iv) Pour tout k ∈ K et pour tout u ∈ V, (−k )u = k (−u) = −(ku).
Preuve. (i) Soit k ∈ K, on a k0 = k (0 − 0) = k0 − k0 = 0.
(ii) Soit u ∈ V, on a 0u = (0 − 0)u = 0u − 0u = 0.
(iii) Soient k ∈ K et u ∈ V tels que ku = 0. Si k 6= 0, alors 1k (ku) = 1
k0 = 0. De plus, on a
( 1k k)u = 1u = u. Donc u = 0.
(iv) Il suffit d’appliquer l’axiome (vii) avec l = −1 et utiliser la commutativité de la multiplica-
tion dans K.

Nous allons maintenant voir quelques exemples d’espace vectoriels.


Exemples 3.7. Soit K = R ou C (ou un corps quelconque). On vérifie facilement que l’ensemble
Kn des n-tuples d’éléments de K muni de l’addition et de la multiplication par les scalaires fait
composantes par composantes est un espace vectoriel. Lélément neutre de l’addition est 0 =
(0, 0, · · · , 0) et bien sur −( a1 , a2 , · · · , an ) = (− a1 , − a2 , · · · , − an ).
Exemples 3.8. On vérifie que Mm×n (K) muni de l’addition des matrices et de la multiplication
des matrices par un scalaire est un espace vectoriel. La matrice nulle où toutes les entrées sont 0
est lélément 0 et l’opposé se déduit facilement.
Exemples 3.9. Soit V = K[ X ] := { a0 + a1 X + a2 X 2 + · · · + an X n | n ∈ N, a0 , · · · , an ∈ K} l’en-
semble des polynômes en la variable X et á coefficients dans K. Alors V muni de l’addition des
polynômes (on additionne les coefficients correspondant aux mêmes puissances de X) et de la
multiplication par un scalaire (multiplier les coefficients par le scalaire) est un espace vectoriel.
Exemples 3.10. Soit E un ensemble non vide et soit F ( E, K) l’ensemble de toutes les applications
de E dans K. On munit F ( E, K) de l’addition des applications et de la multiplication par un
scalaire comme suit : pour tout f , g ∈ F ( E, K) et k ∈ K, on définit f + g par

( f + g)( x ) = f ( x ) + g( x )
et k f par
(k f )( x ) = k f ( x ).
Lélément 0 est l’application nulle qui à chaque x ∈ E associe 0.
La vérification de ces exemples est un exercice facile laissé aux étudiants.

22
3.2 Sous-Espaces Vectoriels
Définition 3.11. Un sous-ensemble non vide W ⊆ V contenant 0 est un sous-espace vectoriel de V
si W lui-même est un espace vectoriel par rapport aux lois d’addition et de multiplication par un
scalaire de V.
Théorème 3.12. W ⊆ V est un sous-espace vectoriel de V si et seulement si :
(i) W 6= ∅,
(ii) W est fermé pour l’addition : v, w ∈ W implique v + w ∈ W,
(iii) W est fermé pour la multiplication par un scalaire : w ∈ W et k ∈ K implique kw ∈ W.
Preuve. Exercice.

Corollaire 3.13. W est un sous-espace vectoriel de V si et seulement si


(i) 0 ∈ W (ou bien W 6= ∅) et
(ii) Pour tout v, w ∈ W et pour tout k, l ∈ K, vk + wl ∈ W.
Preuve. Exercice.

En particulier, {0} et V sont des sous-espaces vectoriels de V dites triviaux.


On laisse le soin de vérifier les quelques exemples suivant aux lecteurs :
Exemples 3.14. Soit le R-espace vectoriel V = R3 . L’ensemble W des vecteurs dont la dernière
composante est 0 est un sous-espace vectoriel de V.
Exemples 3.15. L’ensemble des matrices symt́riques de Mn (K) est un sous-espace vectoriel de
Mn ( K ) .
Exemples 3.16. Soit V = K[ X ] l’ensemble des polynômes à coefficients dans K. Le sous-ensemble
des polynômes de degré inférieur ou égale à n est un sous-espace vectoriel de V.
Théorème 3.17. L’intersection se sous-espaces vectoriels d’un espace vectoriel V est un sous-espace vecto-
riel de V. En particulier, toute intersection finie.
Preuve. Exercice à faire en classe.

3.3 Combinaisons Linéaires et Générateurs


On a déja vu la notion de combinaison linéaire dans Kn , il s’avère que cette notion peut se généraliser
dans le cas d’un espace vectoriel quelconque. Soit V un K-espace vectoriel et v1 , v2 , · · · , vn ∈ V.
Un vecteur de la forme a1 v1 + a2 v2 + · · · + an vn où les ai ∈ K est appelé une combinaison linéaire
de v1 , v2 , · · · , vn .
Définition 3.18. Soit S 6= ∅ un sous-ensemble non vide de V. Le plus petit sous-espace vectoriel
de V contenant S, qu’on notera désormais L(S) (une autre notation est Vect(S)), est appelé le
sous-espace de V engendré par S. On dit que S est un système générateur de L(S), ou encore, que les
éléments de S sont des générateurs de L(S).
Lorsque S = {u1 , u2 , · · · , um }, on écrira L(S) = L(u1 , u2 , · · · , um ) s’il n’y a pas risque de confusion.
On convient que L(∅) = {0}.

23
Théorème 3.19. Soit S ⊆ V un sous-ensemble. Alors L(S) est l’ensemble de toutes les combinaisons
linéaires des éléments de S.

Preuve. Soit WS l’ensemble de toutes les combinaisons linéaires des éléments de S. D’une part,il est
clair que 0 = 0 s ∈ WS (s ∈ S). Aussi, on vérifie facilement que l’addition de deux combinaisons
linéaires d’ éléments de WS est un élément de WS . De même, la multiplication par un scalaire
d’une combinaison linéaire d’ éléments de WS est un élément de WS . Donc, WS est un sous-espace
vectoriel de V contenant S. Comme L(S) est le plus petit sous-espace vectoriel de V contenant S,
on a L(S) ⊆ WS . D’autre part, L(S) étant un sous-espace contenant S, donc L(S) contient toute
combinaison linéaire d’éléments de S. Donc, WS ⊆ L(S). Finalement, on a alors L(S) = WS .

Théorème 3.20. Soit S ⊆ V un sous-ensemble. Alors, L(S) est l’intersection de toutes les sous-espaces
vectoriels de V contenant S.

Preuve. Exercice.
 
0
Exemples 3.21. Soit le R-espace vectoriel V = et v ∈ R2\{ R2
}. On peut se demander quel
0
est le sous-espace engendré par v, ou L({v}). D’après Théorème 3.19, L(v) = {λv| λ ∈ R}. C’est
donc la droite passant par l’origine et v. Soit w ∈
/ L(v) un autre élément non null de V. On peut
montrer que L(v, w) = R (que l’on fera plus tard).
2

Exemples 3.22. D’une manière similaire àl’exemple


 précédent, en prenant l’espace vectoriel V =
0
R3 , on peut montrer que si v, w ∈ R3 \ {0} tel que w ∈ / L(v) alors L(v, w) est le plan passant
0
par l’origine et contenant v et w.

Exemples 3.23. Soit le R-espace vectoriel V = Rn . Les vecteurs ei = (0, · · · , 1, · · · , 0) où la


ieme est composante 1 et les autres 0, pour i = 1, 2, · · · , n, engendrent V. En effet, tout élément
( a1 , a2 , · · · , an ) ∈ Rn s’écrit a1 e1 + a2 e2 + · · · + an en . Le sous-ensemble {e1 , · · · , en } s’appelle la base
canonique de Rn (on y reviendra plus tard).

Exemples 3.24. Soit le R-espace vectoriel V = C). On sait que tout él’ement de C s’écrit sous
la forme a + ib où a, b ∈ R. Donc, {1, i } est un système générateur de C en tant que R-espace
vectoriel.

Exemples 3.25. Soit V = K[ X ]. Les polynômes 1, t, t2 , · · · engendrent V.

3.4 Espace Colonne d’une Matrice


Dans le chapitre précédent, on s’est intéressé en particulier à la résolution de systèmes de m
  une matrice A ∈ M
équations linéaires à n inconnues. A un tel système on associe m× n (K), et
x1 b1
 x2   b2 
on s’intéresse aux solutions de l’équation Ax = b, où x =  .  est l’inconnu et b =  .  ∈ Kn .
   
 ..   .. 
xn bn
Rapellons que si A admet un inverse à gauche, alors l’ équation admet au moins une solution

24
en multipliant les membres de l’équation par une inverse de A (si m = n, alors A est inversible
(avec une inverse unique) si et seulement si Ax + b admet une solution unique). Une question
importante s’impose : que se passe-t-il quand A n’est pas inversible ?
En général, le système peut être résolue pour certaines valeurs de b et ne peut pas être résolue
pour les autres. On veut caractériser les valeurs de b pour lesquelles ce systême est résoluble, d’où
l’importance de l’espace colonne de A.
Définition 3.26. L’espace colonne de la matrice A ∈ Mm×n (K), qu’on écrira C ( A), est le sous-espace
de Km engendré par les vecteurs colonnes de A. C’est donc l’ensemble de toutes les combinaisons
linéaires possible des vecteurs colonnes de A.
En effet, on sait que Ax = b implique que b est une combinaison linéaire des colonnes de A.
Proposition 3.27. Le système Ax = b est résoluble si et seulement si b ∈ C ( A).
Preuve. Clair.

Exercices
Exercice 19 (Espace de Suites). Soit V = KN l’ensemble de toutes les suites ( a1 , a2 , a3 , · · · ) déléments
de K muni de l’addition par composante et de la multiplication par un scalaire par composante.
Vérifiez que V est un K-espace vectoriel. Notons K(N) le sous-ensemble des suites à support fini,
i.e., les suites dont tous les termes sont nuls sauf un nombre fini d’entre eux. Montrez que K(N)
est un sous-espace vectoriel de KN .
Exercice 20. Est-ce que le sous-ensemble de R2 suivant est un espace vectoriel sur R ?
E = {( x, y) ∈ R2 | x ≥ 0}.
Expliquez.
Exercice 21. Considérons le système d’equations linéaires en les inconnus x1 , · · · , xn et à coeffi-
cients dans R suivant :
a11 x1 + a12 x2 + · · · + a1n xn = 0
a21 x1 + a22 x2 + · · · + a2n xn = 0
·························
am1 x1 + am2 x2 + · · · + amn xn = 0
Un tel système est dit homogène (toutes les monômes ont le même degré, ici 1). Montrez que l’en-
semble de toutes les solutions de ce système forme un sous-espace vectoriel de Rn . Si le systéme
linéaire n’est pas homogène, est-ce que l’ensemble des solutions forme toujours un espace vecto-
riel ? Si oui, démontrez, si non donnez un contre-exemple.
Exercice 22. Soit V = F ( E, K) comme dans Exemples 3.10 avec K = R. Montrez que le sous
ensemble W de F ( E, K) des fonctions bornées dans V est un sous-espace vectoriel. On rappelle
qu’une fonction f á valeur réelle est bornée s’il existe un nombre réel M ∈ R tel que | f x | ≤ M
pour tout x ∈ E.
Exercice 23. Donnez un système générateur de C2 en tant que C-espace vectoriel, puis en tant que
R-espace vectoriel.
Exercice 24. Soit V = R4 en tant que R-espace vectoriel. Déterminez si v = (3, 9, −4, −2) appar-
tient au sous-espace de V engendré par u1 = (1, −2, 0, 3), u2 = (2, 3, 0, −1) et u3 = (2, −1, 2, 1).

25
4 Base et Dimension

5 Applications Linéaires

6 Notion d’Orthogonalité

7 Notion de Valeurs propres et Vecteurs propres

8 Quelques Applications

Références

26

Vous aimerez peut-être aussi