0% ont trouvé ce document utile (0 vote)
100 vues13 pages

Corr de Pb2 A Pb5 - Copie

Transféré par

MecprtAna
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
100 vues13 pages

Corr de Pb2 A Pb5 - Copie

Transféré par

MecprtAna
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

CPGE d’Agadir PSI

2021/2022

Préparation 02
Problème 1
Soit φ l’application de M2 (R) dans M2 (R) définie par :

∀M ∈ M2 (R), φ(M ) = M − 2t M

1. Montrer que φ est un endomorphisme.


2. Est-ce que φ est injective ? surjective?
3. On note β la base de M2 (R) formée des matrices élémentaires. Déterminer la matrice de φ dans cette base.
4. Est-ce que φ est diagonalisable?
5. En déduire un polynôme de degré 2 qui soit annulateur de φ.
6. Montrer que l’ensemble :
F = {A ∈ M2 (R)/φoφ(A) = A}
est un sev de M(R)
7. De quelle dimension est F ?

Problème 2 :Un cas particulier des matrices tridiagonales

Une matrice tridiagonale est une matrice de la forme


 
a b (0)
 .. 
 c a . 
An (a, b, c) =  
 .. .. 
 . . b 
(0) c a

où (a, b, c) sont des complexes.


6
On fixe (a, b, c) trois nombres complexes tels que bc = 0. On se propose de chercher les éléments propres de
An (a, b, c).  
x1
Soit λ ∈ C une valeur propre de An (a, b, c) et X =  ...  ∈ Cn un vecteur propre associé.
 

xn
1. L’égalité matricielle An (a, b, c)X = λX se traduit sous forme de système ainsi:

 ax1 + bx2 = λx1



 cx1 + ax2 + bx3 = λx2



 cx2 + ax3 + bx4 = λx3
.. .. .. .. .. ..


. . . . .



 .
..


 .. .. .. .. ..

 . . . . . .
.. .. .. .. .. ..


 . . . . . .

 .. .. .. .. .. ..
. . . . . .




.. .. .. .. .. ..


. . . . .




 .



 cxn−2 + axn−1 + bxn = λxn−1
cxn−1 + axn = λxn

1
c’est-à-dire: 
 ax1 + bx2 = λx1 ,
∀k ∈ [|1, n − 2|], cxk + axk+1 + bxk+2 = λxk+1 ,
cxn−1 + axn = λxn .

Les deux égalités aux extrémités correspondent aux cas particuliers k = 0 et k = n − 1 de la deuxième
relation, avec la convention x0 = xn+1 = 0. Alors:

∀k ∈ [|0, n − 1|], cxk + (a − λ)xk+1 + bxk+2 = 0.

2. Une suite (xk )k∈N vérifiant la relation de récurrence linéaire du second ordre:

∀k ∈ N, bxk+2 + (a − λ)xk+1 + cxk = 0

(elle est bien du second ordre, puisqu’il est supposé que b 6= 0), s’écrit en fonction des racines de l’équation
caractéristique bx2 + (a − λ)x + c = 0 ainsi:
• s’il n’existe qu’une
 racine double r, alors une telle suite (xk )k∈N est combinaison linéaire des suites
rk k∈N et krk k∈N ;
• s’il existe deux racines r1 et r2 , alors une telle suite (xk )k∈N est combinaison linéaire des suites r1k k∈N


et r2k k∈N .
3. Raisonnons par l’absurde, et supposons l’existence d’une unique solution r à l’équation caractéristique bx2 +
(a − λ)x + c = 0. Alors il existe α, β ∈ C tels que: ∀k ∈ N, xk = (α + βk)rk . Les conditions x0 =
xn+1 = 0 impliquent α = 0, puis β(n + 1)rn+1 = 0. Il est manifeste que r 6= 0 (en effet 0 n’est racine de
bx2 + (a − λ)x + c = 0 qu’à la condition que c = 0, ce qui est exclu), donc ceci impose β = 0. Mais alors
(xk )k∈N est la suite identiquement nulle, et en particulier
 
x1
 .. 
X= . 
xn
est nul également: c’est impossible puisqu’il s’agit d’un vecteur propre.
Par conséquent, l’équation caractéristique admet deux racines distinctes r1 et r2 .
4. Le nombre 0 est racine de l’équation bx2 + (a − λ)x + c = 0 si et seulement si c = 0: c’est exclu puisque par
hypothèse bc 6= 0. Donc r1 et r2 sont non nuls.
Soient α, β ∈ C tels que: ∀k ∈ N, xk = αr1k + βr2k . Alors x0 = 0 implique α = −β, et on peut écrire: ∀k ∈ N,
xk = α(r1k − r2k ). Comme, de plus, on a xn+1 = 0, on en déduit α(r1n+1 − r2n+1 ) = 0. Le nombre complexe
α étant non nul (sinon (xk )k∈N est identiquement nulle, et X = 0, impossible puisqu’il s’agit d’un vecteur
 n+1
n+1 n+1 r1
propre), on en déduit r1 = r2 après division de l’égalité précédente par α. Cela équivaut à = 1,
r2
r1
c’est-à-dire: ∈ Un+1 .
r2
5. Grâce aux relations entre coefficients et racines, nous avons:
c λ−a
r1 r2 = , et r1 + r2 = .
b b
r1 n 2iπ` o
Par conséquent λ = a + b (r1 + r2 ). Comme, de plus, ∈ Un+1 = e n+1 | ` ∈ [|0, n|] , il existe ` ∈ [|0, n|]
r2
tel que:
2iπ`
r1 = r2 e n+1 , (∗)
et on a même ` 6= 0, sinon r1 = r2 et les racines ne sont pas distinctes. Cela nous donne ensuite, via la
technique de l’angle moitié:
 
 2iπ`
 iπ`
 iπ` iπ`
 iπ` π`
λ = a + br2 1 + e n+1 = a + br2 e n+1 e− n+1 + e n+1 = a + 2br2 e n+1 cos ,
n+1
iπ`
d’où le résultat désiré en posant ρ = br2 e n+1 . On a bien, en effet,
2iπ` 2iπ` (∗) c
ρ2 = b2 r22 e n+1 = b2 r2 r2 e n+1 = b2 r1 r2 = b2 = bc.
b

2

6. Soit k ∈ [|0, n|]. La résolution des questions précédentes nous montre que xk = α r1k − r2k et, toujours avec
les notations de la question précédente:
 
 2iπ`k  iπ`
 iπ`k iπ`k
 iπ`k π`k
r1k − r2k = r2k e n+1 − 1 = r2k e n+1 e n+1 − e− n+1 = 2ir2k e n+1 sin .
n+1
iπ` ρ iπ`k
 ρ k
et d’après la résolution de la question précédente on a r2 e n+1 = , donc r2k e n+1 = , ce qui achève de
b b
k
 
ρ π`k
démontrer que xk = 2iα k sin .
β n+1
7. Soit ρ ∈ C une racine carrée de bc. L’étude des questions
 Q 1 à Q 6 permet de montrer que pour tout

` ∈ [|1, n|], le nombre complexe λ` = a + 2ρ cos n+1 est une valeur propre de An (a, b, c), de vecteur propre
 
x1
associé X =  ... , où l’on a défini:
 

xn
ρk
 
π`k
∀k ∈ [|1, n|], xk = k sin .
β n+1
 

Les cos n+1 , et donc les λ` , sont tous distincts pour ` ∈ [|1, n|], l’application cosinus étant injective sur [0, π]
(car strictement décroissante). On en déduit que la matrice An (a, b, c) admet n valeurs propres distinctes:
elle est diagonalisable.

Problème 3 : Matrices circulantes


Une matrice circulante est une matrice de la forme
···
 
t0 t1 tn−2 tn−1
 .. 
 tn−1
 t0 . tn−2 

T (t1 , t2 , . . . , tn−1 ) =  tn−2
 .. .. .. .. 
 . . . . 

 . .. .. ..
 ..

. . . t1 
t1 ··· tn−2 tn−1 t0
0 ··· 0
 
0 1
.. .. . 
. .. 


 0 0 . 
On pose Mn = 
 .. .. .. 
et ωn = e2iπ/n .
 . . . 0  
 .. 
 0 . 1 
1 0 ··· ··· 0
1. On a:
··· ··· ··· ···
   
0 0 1 0 0 0 0 1
 .. .. .. .. ..   .. 
. . . . . 1 . 0
 .. ..  .. 
   
.. .. ..  .. ..
2
. . . . .  n−1
0 . . .  , Mnn = In ,
Mn =  , . . . , Mn = 
. .. 
 .. .. 
 .. .. .. ..
0
 . . 1   . . . . 
.. .. . .. .. .. .. 
 ..
 
1 . . 0  . . . .
0 1 0 ··· ··· 0 0 ··· ··· 0 1 0
ou plus synthétiquement, si f désigne l’endomorphisme canoniquement associé à M et (~e1 , . . . , ~en ) la base
canonique de Cn : 
~ei−k si i > k,
∀k ∈ [|1, n|], ∀i ∈ [|1, n|], f k (~ei ) =
~en+i−k si i 6 k.
Comme Mnn−1 Mn = Mnn = In , la matrice Mn est inversible, d’inverse Mnn−1 . Un polynôme annulateur de
Mn est X n − 1.

3
n−1 
2. Le polynôme annulateur X n − 1 = X − ωnk
Q
est scindé et à racines simples dans C, donc Mn est
k=0
diagonalisable dans C. Ses valeurs propres sont parmi les racines du polynôme  annulateur X n − 1 (qui est,
k
soit dit en passant, son polynôme caractéristique), c’est-à-dire dans l’ensemble ωn | k ∈ [|0, n − 1|] . En fait,
résoudre l’équation
 k Mn X = ωnk X, d’inconnue X ∈ Mn,1 (C), montre que le spectre de Mn est exactement
l’ensemble ωn | k ∈ [|0, n − 1|] , et pour tout k ∈ [|0, n − 1|] on a:
 
 1 


  ωn k 

 
2k
 
k
  ωn 
ker Mn − ωn In = VectC   .
  .. 




 . 


 k(n−1) 
ωn
Une base de Mn,1 (C) constituée de vecteurs propres de Mn est donc:
    
1

1 1
 ω n−1 
1  ωn 
  
 n 
   2  ω 2(n−1) 
1 ,  ωn  ,...,
 n  .
 .   . 
 .   .  ..  
 . .   . 
 
1 ωnn−1 (n−1)2
ωn

3. La matrice Φn est la matrice de passage de la base canonique de Mn,1 (C) dans la base de vecteurs propres
constituée dans la question précédente. Elle est donc inversible, et d’après la formule du changement de base:
1 0 ··· ···
 
0
.. 
0 ωn . . .

 . 
Φ−1 . .. .. ..  .
n Mn Φn =  ..

. 2 .
 ω n . 

. . .
 .. .. ..

0 
0 · · · · · · 0 ωnn−1
4. Si A est une matrice circulante, il existe (t0 , . . . , tn−1 ) ∈ Cn tel que A = T (t1 , t2 , . . . , t0 , . . . , tn−1 ). Mais
n−1
tk Mnk . Il suffit alors de
P
alors, suivant ce que l’on a démontré dans la question Q 14, on a aussi: A =
k=0
n−1
k
P
poser P = tk X pour avoir le résultat voulu.
k=0
5. Soit P ∈ C[X]. On fait la division euclidienne de P par X n − 1: il existe Q, R ∈ C[X] tels que deg(R) < n et
P = Q(X n − 1) + R. En évaluant cette égalité en Mn , on obtient: P (Mn ) = R(Mn ). Or, si on écrit R sous
n−1 n−1
tk X k , alors P (Mn ) = tk Mnk est une matrice circulante.
P P
la forme R =
k=0 k=0
6. D’après les deux questions précédentes, l’ensemble des matrices circulantes est l’image de l’application linéaire:

C[X] → Mn (C)
ϕ: ,
P 7→ P (Mn )
donc est un sous-espace vectoriel de Mn (C). De cette même description, on déduit la stabilité par produit,
puisque P (Mn )Q(Mn ) = (P Q)(Mn ) ∈ im(ϕ), et par transposition, puisque t P (Mn ) = P (t Mn ) = P (Mnn−1 ) =
(P ◦ X n−1 )(Mn ) ∈ im(ϕ).
7. Notons δn la matrice diagonale de la question Q 3, et soit A une matrice circulante. Il existe P ∈ C[X] tel
que A = P (Mn ). Alors, comme Mn = Φn δn Φ−1 n , on a:

··· ···
 
P (1) 0 0
 .. .. 
 0
 P (ωn ) . . 

A = Φn P (δn )Φ−1 . .. .. ..  −1
n = Φn  ..  Φn .

. 2 .
 P (ωn ) . 
 . . .
 .. .. ..

0 
n−1
0 ··· ··· 0 P (ωn )

4

Le spectre de A est donc P (ωnk ) | k ∈ [|0, n − 1|] , et les vecteurs propres associés sont les mêmes que ceux
de Mn , puisque la matrice de passage Φn donnant la diagonalisation ci-dessus est la même.

Problème 4 : Étude des matrices cycliques

Partie 1: Endomorphismes et matrices cycliques

Pour toute matrice M de Mn (C), on note fM l’endomorphisme de Cn canoniquement associé à M .


n−1

1. Supposons qu’il existe ~x0 ∈ Cn tel que ~x0 , fM (~x0 ), . . . , fM (~x0 ) soit une base de Cn . Alors fMn
(~x0 ) ∈ Cn =
n−1
n−1
 n
P k
VectC ~x0 , fM (~x0 ), . . . , fM (~x0 ) , donc il existe a0 , . . . , an−1 ∈ C tels que: fM (~x0 ) = ak fM (~x0 ). La
k=0
n−1

matrice de fM relativement à la base ~x0 , fM (~x0 ), . . . , fM (~x0 ) est alors:

···
 
0 0 0 a0
 .. .. 
1
 . . a1 

.. .. .. ..
 = C(a0 , . . . , an−1 ),
 
0
 . . . . 
. .. .. ..
 ..

. . 0 . 
0 ··· 0 1 an−1

donc (i) implique (ii).


Réciproquement, si M est semblable à la matrice C(a0 , . . . , an−1 ), soit (~x0 , . . . , ~xn−1 ) la base dans laquelle
fM a pour matrice C(a0 , . . . , an−1 ). Alors, par définition de la matrice associée à un endomorphisme dans
une base donnée, on a fM (~x0 ) = ~x1 , fM (~x1 ) = ~x2 , etc., et plus généralement:

∀k ∈ [|0, n − 1|], fM (~xk ) = ~xk+1 .


k
On en déduit, par récurrence, que pour tout k ∈ [|0, n−1|] on a ~xk = fM (~x0 ). Finalement, (~x0 , ~x1 , . . . , ~xn−1 ) =
n−1
(~x0 , fM (~x0 ), . . . , fM (~x0 )) est une base de la forme annoncée. Ainsi (ii) implique (i).
n−1

2. a) Utilisant le fait que fM (~ei ) = λi~ei pour tout i ∈ [|1, n|], on voit que la matrice de la famille ~u, fM (~u), . . . , fM (~u)
dans la base de vecteurs propres (~e1 , . . . , ~en ) est:

u1 λ1 u1 · · · λn−1
 
1 u1
 u2 λ2 u2 · · · λn−1 u2 
2
..  .
 
 . .. ..
 . . . . . 
un λn un ··· λn−1
n un
n−1

La famille ~u, fM (~u), . . . , fM (~u) est une base de Cn à la condition que cette matrice soit inversible.
Or son déterminant égale, en utilisant sa n-linéarité par rapport aux lignes:

1 λ1 ··· λn−1
1
1 λ2 ··· λn−1
2
u1 · · · un .. .. .. .. .
. . . .
1 λn ··· λn−1
n

Nous reconnaissons là le déterminant d’une matrice de Vandermonde: il est non nul à la condition que
n−1

les λi soient tous distincts. La famille ~u, fM (~u), . . . , fM (~u) est donc une base de Cn si, et seulement
si les ui sont tous non nuls et les λi tous distincts.
b) En combinant les questions précédentes, on déduit qu’un endomorphisme diagonalisable de Cn est cy-
clique si et seulement s’il admet n valeurs propres distinctes, et les vecteurs cycliques sont, dans ce cas,
tous les vecteurs n’ayant aucune coordonnée nulle dans une base de vecteurs propres.

5
 
x1
3. a) Soient λ ∈ C et X0 =  ...  ∈ Cn . Alors:
 

xn


 a0 xn = λx1
 x1 + a1 xn = λx2



C(a0 , . . . , an−1 )X0 = λX0 ⇐⇒ .. ..
 . .
xn−2 + an−2 xn = λxn−1




xn−1 + an−1 xn = λxn



 −λx1 a0 xn = 0
x1 − λx2 + a1 xn = 0




⇐⇒ .. ..
 . .
xn−2 − λxn−1 + an−2 xn = 0




xn−1 + (an−1 − λ)xn = 0

On résout le système avec les opérations successives Li ← Li + λLi+1 pour tout i ∈ [|1, n − 1|], mais
en commençant par la dernière ligne. Cela revient à pratiquer la méthode du pivot de Gauss avec les
pivots dans l’ordre inhabituel xn−1 , xn−2 , . . . , x1 , xn . Alors:
 n−1 
i n
P



 ai λ − λ xn = 0


 n−1 i=0 

ai λi−1 − λn−1 xn = 0
 x1 P
+

C(a0 , . . . , an−1 )X0 = λX0 ⇐⇒ i=1
 .. ..
.



 .
2




 x n−2 + (an−2 + λa n−1 λ )x n = 0
(an−1 − λ)xn = 0

xn−1 +
n−1
ai λi −λn =
P
Ce système a une solution X0 non nulle à la condition nécessaire et suffisante que λ vérifie
i=0
n−1
0, c’est-à-dire que λ soit une racine du polynôme X n − ai X i (qui est par ailleurs le polynôme
P
i=0
caractéristique de C(a0 , . . . , an−1 )).
n−1
b) Soit λ ∈ C une racine de X n − ai X i . On reprend les calculs de la question précédente:
P
i=0
 n−1 
ai λi−1 − λn−1 xn
P
x1 + = 0





 i=1
C(a0 , . . . , an−1 )X0 = λX0 ⇐⇒ .. ..
 . .
xn−2 + (an−2 + λan−1 − λ2 )xn = 0




xn−1 + (an−1 − λ)xn = 0

 
n−1
X
⇐⇒ ∀j ∈ [|1, n − 1|], xj = −  ai λi−j − λn−j  xn .
i=j
 
x1
 .. 
Donc ker(C(a0 , . . . , an−1 ) − λIn ) est de dimension 1, engendré par le vecteur  .  où l’on a défini:
 
xn−1 
1
n−1
X
∀j ∈ [|1, n − 1|], xj = λn−j − ai λi−j .
i=j

c) Soit C ∈ Mn (C) une matrice cyclique; alors C est semblable à C(a0 , . . . , an ), et leurs sous-espaces
propres sont isomorphes. Les sous-espaces propres de C sont donc des droites vectorielles d’après la

6
question précédente, et on a:
X X
dim (ker (C − λIn )) = 1 = card (SpC (C)) .
λ∈SpC (C) λ∈SpC (C)

D’après le critère de diagonalisation, C est diagonalisable si et seulement si card (SpC (C)) = n: c’est le
cas si, et seulement si C admet n valeurs propres distinctes.
Partie 2 : Commutant d’un endomorphisme cyclique
Soient M une matrice cyclique et x0 un vecteur cyclique de fM . On cherche à montrer que l’ensemble
C (fM ) = {g ∈ L (Cn ) | fM ◦ g = g ◦ fM }
est l’ensemble des polynômes en fM .
1. Si A et B commutent (par exemple si B = A) alors tout polynôme en A commute avec tout polynôme en B
(par exemple B); bref : P (A) commute avec A. La version géométrique de ce résultat matriciel est le résultat
demandé.
Si P ∈ C[X], alors P (fM ) ∈ C(fM )

2. Suivons l’indication en décomposant effectivement g(x0 ) dans la base suggérée : il existe (α0 , ..., αn−1 ) ∈ Cn
tel que
n−1
X
g(x0 ) = α0 x0 + α1 fM (x0 ) + · · · + αn−1 f n−1 (x0 ) = i
α 0 fM (x0 ).
i=0
On va alors montrer que g est l’endomorphisme
n−1
X
n−1 i
h = α0 Id Cn + α1 fM + · · · + αn−1 fM = α0 fM .
i=0

k
Déjà, g et h coı̈ncident en x0 , ce qui est un bon début. Pour peu qu’ils coı̈ncident en chaque fM (x0 ) (pour
k k
0 6 k 6 n − 1), on devrait pouvoir conclure. Et en l’occurrence g ◦ fM = fM ◦ g, donc :
n−1
k
 k
X
k i
 n−1
X
i k
 k

g fM (x0 ) = fM (g(x0 )) = α0 fM fM (x0 ) = α0 fM fM (x0 ) = h fM (x0 ) ,
i=0 i=0

de sorte que g et h coı̈ncident sur une base, donc sont égales.


Si g commute avec fM alors c’est un polynôme en fM .
3. Bon, donc si on a bien suivi :
g ∈ L(E) commute avec un cyclique fM si et seulement si c’est un polynôme en fM .

Partie 3
··· ··· 0
 
0 0
 .. 

 1 0 . 

Soit N =  .. .. ..
.
 
 0 . . . 
 .. .. .. .. .. 
 . . . . . 
0 ··· 0 1 0
1. Les valeurs propres de la matrice triangulaire N se lisent sur la diagonale: son unique valeur propre est donc
0, avec multiplicité n. Par ailleurs, le rang de N étant n − 1, son noyau (qui est le sous-espace propre de N
associé à 0) est de dimension 1 d’après le théorème du rang, manifestement engendré par le n-ième vecteur
de la base canonique (puisque la n-ième colonne de N est nulle). Par conséquent:
X
dim (ker(N − λIn )) = dim(ker(N )) = 1 < n,
λ∈SpC (N )

donc N n’est pas diagonalisable.

7
2. La matrice N est égale à C(0, . . . , 0): c’est donc une matrice cyclique.
3. Comme N est une matrice cyclique, d’après la question Q 29 l’ensemble des matrices commutant avec N est
{P (N ) | P ∈ C[X]}: c’est un sous-espace vectoriel de Mn (C) engendré par les puissances de N , que nous
allons déterminer. On a:
0 ··· ··· ··· ··· 0 0 ··· ··· ··· ··· 0
   
. ..  . .. 
1 . . 0 . .
 
. .
. .. 
   
0 . . . . . . ..  .. ..
  
 , N2 = 
1 . . . 
N =. . . .
, ...,
 .. .
.. .. . .. .. 
 . .
0 . . . . . .
 . .. 

   
. . . .
 .. .. .. ..
. ..   .. . . . . . . . . . . . ... 

. .
0 ··· ··· 0 1 0 0 ··· 0 1 0 0

··· ··· ··· 0


 
0
 .. .. 
. .
 
N n−1 =  ... 0 ..  ,

 . 
 .. 
0 .
1 0 ··· ··· 0
n
et N = 0. Or il s’agit précisément, d’après la base explicitée dans la question, d’une base du sous-espace
des matrices de forme
···
 
t0 0 0 0
 .. 
 tn−1 t0
 . 0 
.. 
 tn−2 . . . . . . ..

 . . 

 . .. .. ..
 ..

. . . 0 
t1 · · · tn−2 tn−1 t0
Donc l’ensemble des matrices qui commutent avec N est l’ensemble des matrices de triangulaires inférieures
de la forme
···
 
t0 0 0 0
 .. 
 tn−1 t0
 . 0 
.. 
 tn−2 . . . . . . ..

 . . 

 . . . .
 .. .. .. ..

0 
t1 · · · tn−2 tn−1 t0
.

Problème 5 : matrices stochastiques

Notations et définitions
- K désigne l’ensemble R ou C.
- Mn,m (K) est l’ensemble des matrices à n lignes et m colonnes et à coefficients dans K. Mn,n (K) est plus
simplement noté Mn (K).
- Un élément de Mn (R) peut être considéré comme élément de Mn (C).
- On identifie un élément de x ∈ Kn à une matrice colonne et si x = (x1 , . . . , xn ), on note kxk∞ = max{|xi | | 1 6
i 6 n}.
- Une suite (Mp )p∈N d’éléments de Mn,m (K) est dite convergente si toutes les suites coordonnées (Mp (i, j))p∈N
(1 6 i 6 n, 1 6 j 6 m) convergent. La limite est alors l’élément de Mn,m (K) dont les coefficients sont les
limites des suites coordonnées.

8
- Si A ∈ Mn (C), on note Sp(A) l’ensemble des valeurs propres complexes de A et on note

ρ(A) = max |λ|


λ∈Sp(A)

Cette quantité s’appelle le rayon spectral de A.

 probabilisé(Ω, A, P) telle que X(Ω) = {x1 , . . . , xn } ⊂ R,


- Si X est une variable aléatoire définie sur un espace
P(X = x1 )
on identifie la loi PX de X au vecteur colonne  ..
.
 
.
P(X = xn )

Objectifs
L’objet de ce problème est d’étudier la suite des puissances d’une matrice stochastique. La première partie est
consacrée à cette étude dans le cas où n = 2. Dans la seconde partie, on étudie le spectre des matrices stochastiques.
Dans la troisième partie, on étudie l’existence d’une probabilité invariante par une matrice stochastique et la dernière
partie est consacrée à l’étude des puissances d’une telle matrice.

1 Cas n = 2
1.1 Puissances de A(α, β)
 
−α α
1. A(α, β) − I2 = n’est pas la matrice nulle car (α, β) 6= (0, 0) et son rang est > 1. (1, 1) est
β −β
clairement élément du noyau qui, par théorème du rang, est de dimension 1. Ainsi

1 ∈ Sp(A(α, β)) et E1 (A(α, β)) = Vect((1, 1))

2. On vérifie que (α, −β) (qui est non nul) est vecteur propre de A(α, β) associé à la valeur propre 1 − α − β.
Les vecteurs (1, 1) et (α, −β) sont indépendants (déterminant −α − β < 0). On a donc une base de vecteus
propres ce qui montre que A(α, β) est diagonalisable avec
 
−1 1 α
P A(α, β)P = diag(1, λ) avec P =
1 −β

3. Montrons par récurrence que

∀p ∈ N, Ap = P diag(1, λp )P −1 = P Dp P −1

- Initialisation : c’est immédiat pour p = 0 car A0 = I2 .


- Hérédité : supposons le résultat vrai au rang p > 0. On a alors Ap+1 = Ap A = P Dp P −1 P DP −1 =
P Dp+1 P −1 ce qui montre le résultat au rang p + 1.
 
−1 1 β α
On vérifie immédiatement que P = α+β . On a ainsi
1 −1

αλp β + αλp α(1 − λp )


    
p 1 1 β α 1
A = =
α+β 1 −βλp 1 −1 α+β β(1 − λp ) α + βλp

4. Si (α, β) 6= (1, 1) alors 0 < α + β < 2 et donc −1 < λ < 1. AInsi λp → 0 quand p → +∞ et la question
précédente montre que  
p 1 β α
lim A = = L(α, β)
p→+∞ α+β β α
 
0 1
Si α = β = 1 alors λ = −1 et les suites coordonnées ne convergent pas. On a A(1, 1) = et
1 0
2 2p 2p+1
A(1, 1) = I2 . Ainsi A(1, 1) = I2 et A(1, 1) = A(1, 1). On a deux extraites qui convergent vers des
limites différentes.

9
1.2 Applications
5. La formule des probabilités totales avec le système complet d’événements ((Xn = 0), (Xn = 1)) donne
P(Xn+1 = i) = PXn =0 (Xn+1 = i)P(Xn = 0) + PXn =1 (Xn+1 = i)P(Xn = 1)
Or, PXn =0 (Xn+1 = 1) = α (passage de 0 à 1) et PXn =1 (Xn+1 = 0) = β (passage de 1 à 0) puis PXn =0 (Xn+1 =
0) = 1−α (pas d’erreur sur 0) et PXn =1 (Xn+1 = 1) = 1−β (pas d’erreur sur 1). Ceci se traduit matriciellement
par       
P(Xn+1 = 0) 1−α β P(Xn = 0) T P(Xn = 0)
= = A(α, β)
P(Xn+1 = 1) α 1−β P(Xn = 1) P(Xn = 1)
On en déduit par une récurrence immédiate que
   
P(Xn = 0) P(X0 = 0)
= (A(α, β)n )T
P(Xn = 1) P(X0 = 1)
ce qui donne
β + αλn β(1 − λn )
P(Xn = 0) = P(X0 = 0) + P(X0 = 1)
α+β α+β
α(1 − λn ) α + βλn
P(Xn = 1) = P(X0 = 0) + P(X0 = 1)
α+β α+β
Il est alors raisonnable de penser que
β + αλn α + βλn
PX0 =0 (Xn = 0) = et PX0 =1 (Xn = 1) =
α+β α+β
Je propose de le prouver par récurrence.
- Initialisation : pour n = 0 (les deux probabilités conditionnelles valent 1) et n = 1 (elles valent respec-
tivement 1 − α et 1 − β) le résultat est vrai.
- Hérédité : supposons le résultat vrai au rang n > 1. Utilisons le système complet d’événements ((Xn =
0), (Xn = 1)) pour la probabibilité PX0 =0 . On a alors
PX0 =0 (Xn+1 = 0) = PX0 =0 (Xn = 0)PX0 =0∩Xn =0 (Xn+1 = 0)
+ PX0 =0 (Xn = 1)PX0 =0∩Xn =1 (Xn+1 = 0)
Comme n > 1 et comme les relais sont indépendants,
PX0 =0∩Xn =0 (Xn+1 = 0) = PXn =0 (Xn+1 = 0) = 1 − α
PX0 =0∩Xn =1 (Xn+1 = 0) = PXn =1 (Xn+1 = 0) = β
Avec l’hypothèse de récurrence on a donc
β + αλn β + αλn
 
PX0 =0 (Xn+1 = 0) = (1 − α) +β 1−
α+β α+β
et il reste à simplifier le terme pour obtenir le résultat voulu. On procède de même pour PX0 =1 (Xn+1 =
1).
La probabilité que Xn soit conforme à X0 est alors
P(Xn = 0 ∩ X0 = 0) + P(Xn = 1 ∩ X0 = 1) = PX0 =0 (Xn = 0)P(X0 = 0) + PX0 =1 (Xn = 1)P(X0 = 1)
β + αλn α + βλn
= P(X0 = 0) + P(X0 = 1)
α+β α+β
   
β α
= φ P(X0 = 0) + φ P(X0 = 1)
α+β α+β
où φ(x) = x + (1 − x)λn . φ0 (x) = 1 − λn > 0 (car |λ| 6 1) et φ est donc croissante. Elle est supérieure à son
minimum φ(r) et on a donc
P(Xn = 0 ∩ X0 = 0) + P(Xn = 1 ∩ X0 = 1) > φ(r)(P(X0 = 0) + P(X0 = 1)) = φ(r)
c’est à dire
P(Xn = 0 ∩ X0 = 0) + P(Xn = 1 ∩ X0 = 1) > r + (1 − r)(1 − α − β)n

10
6. Les erreurs sur les bits se produisant de manière indépendante, la probabilité de conformité de Xn à X0 est
le produit de celle de chaque Xnk à Xn0 qui est plus grande que r + (1 − r)(1 − α − β)n . Les quantités étant
positives, on peut multiplier les inégalités et la probabilité de conformité Qn vérifie
`
Qn > (r + (1 − r)(1 − α − β)n )

7. Dans le cas α = β, on a r = 1/2. Si l’on reprend la question 5, on voit que l’on a une égalité dans les
inégalités. Ainsi
`
1 + (1 − 2α)n

Qn =
2
On se donne ε ∈]0, 1[ (plus contraignant que dans l’énoncé mais moralement, on veut des ε petits) et on
cherche n tel que Qn 6 1 − ε c’est à dire
`
1 + (1 − 2α)n

61−ε
2

Il suffit donc que (1 − ε > 0 et on peut élever à la puissance 1/`)


1
(1 − 2α)n 6 2(1 − ε) ` − 1

L’élévation à la puissance n-ième n’est a priori croissante que sur R+ . On remarque donc qu’il suffit que
1
|1 − 2α|n 6 2(1 − ε) ` − 1

c’est à dire, en supposant α 6= 1/2 et ε assez petit pour que le mambre de droite soit > 0 (même remarque)
1
n ln(|1 − 2α|) 6 ln(2(1 − ε) ` − 1)

Quand α ∈]0, 1[\{1/2}, ln(|1 − 2α|) < 0 et il suffit que


1
ln(2(1 − ε) ` − 1)
n>
ln(|1 − 2α|)

Pour α = 1/2, la condition est vraie pour tout n pourvu que ε soit assez petit.
Pour α = 1, la condition est vraie pour tout n pourvu que ε soit assez petit.

2 Spectre des matrices stochastiques


2.1 Coefficients
8. Si A est stochastique, les coefficients d’une ligne sont positifs et de somme plus petite que 1. Ils sont donc
tous plus petits que 1 et finalement tous dans [0, 1].
Si A est strictement stochastique, elle est stochastique à coefficients non nuls et ses coefficients sont donc
tous dans ]0, 1]. Si, par l’absurde, on avait ai,j = 1, comme il y a au moins deux coefficients sur la ligne i
et qu’ils sont > 0, la somme sur la ligne i serait > 1 ce qui est contradictoire avec le caractère stochastique.
Ainsi, les coefficients sont tous dans ]0, 1[. Pn
9. Soit A une matrice à coefficients positifs. Elle est donc stochastiques ssi j=1 ai,j = 1 pour tout i. Or,
n
X n
X
∀i, (Ae)i = ai,j ej = ai,j
j=1 j=1

et la condition devient Ae = e c’est à dire que e est propre pour A associé à 1 (c’est une CNS).
10. Soient A, B deux matrices de taille n et C = AB. On a
n
X
∀i, j, ci,j = ai,k bk,j
k=1

11
Si A et B sont à coefficients positifs, il en est de même pour C.
Si A et B sont à coefficients strictement positifs, il en est de même pour C.
Enfin, pour tout i on a  
X n Xn X n n
X n
X
ci,j = ai,k bk,j = ai,k bk,j 
j=1 j=1 k=1 k=1 j=1
Pn Pn
Si A et B sont stochastiques, j=1 bk,j = 1 pour tout k et la somme ci-dessus vaut k=1 ai,k = 1. C est
donc stochastique.
On a donc prouvé que les caractères stochastique et strictement stochastique sont conservés par produit.

2.2 Valeurs propres


11. Soit A une matrice stochastique et x ∈ Cn . Pour tout i on a

n
X n
X n
X
|(Ax)i | = ai,j xj 6 ai,j |xj | 6 kxk∞ ai,j = kxk∞
j=1 j=1 j=1

et on en déduit (en passant à la borne supérieure) que

kAxk∞ 6 kxk∞

Comme Ap est aussi stochastique (question 10) on a aussi

∀p ∈ N, kAp xk∞ 6 kxk∞

12. Soit λ une valeur propre complexe de A et x un vecteur propre associé. On a Ax = λx et, avec la question
précédente
|λ|kxk∞ = kλxk∞ = kAxk∞ 6 kxk∞
Comme kxk∞ > 0 (x est vecteur propre et donc non nul) on en déduit que |λ| 6 1. Ceci étant vrai pour toute
valeur propre, ρ(A) 6 1. De plus, 1 est une valeur propre de A (car A est stochastique) et cette inégalié est
une égalité (on a un maximum) :
ρ(A) = 1

2.3 Diagonale strictement dominante


13. Soit λ une valeur propre de A et x un vecteur propre associé. Soit i ∈ {1, . . . , n} tel que |xi | soit maximal
(un nombre fini non nul de réels admet un maximum). On a alors |xi | > 0 (car x, vecteur propre, est non
nul) et comme (Ax)i = λxi , on a X
(λ − ai,i )xi = ai,j xj
j6=i

Par inégalité triangulaire (les ak,j sont positifs), on en déduit que


X X
|λ − ai,i | · |xi | 6 ai,j |xj | 6 |xi | ai,j
j6=i j6=i

Comme |xi | > 0 on peut conclure que X


|λ − ai,i | 6 ai,j
j6=i

14. Si, par l’absurde, A n’était pas inversible, on aurait (avec la question précédente)
X
ai,i = |ai,i | 6 ai,j
j6=i

ce qui contredit le caractère strictement dominant de la diagonale. Ainsi, toute matrice à diagonale strictement
dominante est inversible.

12
2.4 Valeur propre de module maximal
15. Posons B = A1 − In−1 . Pour tout i ∈ {1, . . . , n − 1}, on a
X X X
|bi,i | = |ai,i − 1| = 1 − ai,i = ai,j = bi,j + ai,n < bi,j
j6=i j6=i j6=i
16j6n 16j6n−1 16j6n−1

B est donc a diagonale dominante. On en déduit que B est inversible. Ses n−1 lignes sont donc indépendantes
et c’est a fortiori vrai de celle de A − In . On a donc

rg(n) > n − 1

16. ker(A − In ) est ainsi (théorème du rang) au plus de dimension 1. Comme il est non réduit à {0} (1 est valeur
propre d’une matrice stochastique) c’est que

dim(ker(A − In )) = 1

17. Soit λ une valeur propre de A. Avec la question 13 et l’inégalité triangulaire, on a (pour une bonne valeur
de i) X
|λ| − ai,i = |λ| − |ai,i | 6 |λ − ai,i | 6 ai,j
j6=i

Si |λ| = 1, cette inégalité est une égalité. On doit donc avoir égalité dans toutes les étapes et en particulier
|λ − ai,i | + ai,i = |λ| et donc (cas d’égalité dans l’inégalité triangulaire) λ − ai,i et ai,i ont même argument.
Comme ai,i est un réel > 0, ceci impose que λ − ai,i soit un réel > 0 et donc que λ soit un réel > 0. Comme
|λ| = 1, ceci donne λ = 1. 1 est donc l’unique valeur propre de module 1 et

∀λ ∈ Sp(A) \ {1}, |λ| < 1

13

Vous aimerez peut-être aussi