1 Méthode de Gauss
Download
Report
Transcript 1 Méthode de Gauss
Prépa agreg
Cours option B
Année 2013-2014
Résolution de systèmes linéaires
I. Méthodes directes
On considère ici un système linéaire sous la forme
A ∈ Mn (K),
Ax = b,
x ∈ Kn ,
b ∈ Kn ,
où K = R ou C et A est une matrice inversible.
Définition 1. On appelle méthode de résolution directe de ce système une méthode permettant
d’obtenir la solution "exacte " (aux erreurs d’arrondis près) en un nombre fini d’opérations.
Parmi les méthodes de résolution directe de ce système on peut distinguer
. la méthode de Gauss
. les méthodes de factorisation de matrices de matrices : LU, Choleski, QR . . . Celles-ci sont
intéressantes si on résous plusieurs fois le système avec différents second membres.
. la méthode du gradient conjugué, qui sera abordée dans le chapitre d’optimisation.
1
Méthode de Gauss
1.1
Opérations élémentaires sur les lignes ou les colonnes
Matrices élémentaires
Pour (p, q) ∈ {1, . . . , n} × {1, . . . , n}, on note Ek,l la matrice définie par
(Ep,q )i,j = δp,i δj,q
Proposition 1. Soit M = (mi,j ) ∈ Mn (K). Pour tout k ∈ {1, . . . , n}, on note Lk la k-ième
ligne de M et ck la k-ième colonne de M . Pour tout (p, q) ∈ {1, . . . , n} × {1, . . . , n}, on a alors
0
..
.
...
.
0
...
...
Ep,q M =
.
.
...
Lq
0
..
.
← p-ième ligne,
..
soit (Ep,q M )i,j = mq,j δi,p
.
0
et
0 ...
..
= . . . .
0 ...
M Ep,q
cp . . .
...
0
..
.
soit (M Ep,q )i,j = mi,p δj,q
0
↑
q-ième colonne
Prépa agreg, 2013-2014
[email protected]
Matrices de dilation
Pour λ ∈ K, λ 6= 0, et p ∈ {1, . . . , n}, on note
1
0
..
0
..
.
Dp (λ) =
.
..
...
...
0
..
.
.
λ
..
.. = In + (λ − 1)Ep,p .
.
0
.
1
..
...
0
.
0
1
Proposition 2. Soit p ∈ {1, . . . , n} et λ 6= 0
. Pour M ∈ Mn (K), la multiplication à gauche par la matrice Dp (λ) multiplie la ligne p de
M par λ :
L1
..
.
Dp (λ)M = λLp ← p-ème ligne
.
.
.
Ln
. La matrice Dp (λ) est inversible et Dp (λ)−1 = Dp ( λ1 ).
Matrices de transposition
Pour (p, q) ∈ {1, . . . , n} × {1, . . . , n}, on appelle matrice de transposition la matrice
τp,q =
1
..
= In − Ep,p − Eq,q + Ep,q + Eq,p .
.
0
..
.
...
...
1
..
1
..
.
.
1
1
...
0
1
..
.
0
1
Proposition 3.
−1 = τ
. det(τp,q ) = −1 et τp,q
q,p
. Pour M ∈ Mn (K),
L1
..
.
Lq
.
τp,q M =
..
L
p
.
..
Ln
← p-ième ligne
← q-ième ligne
Matrices de transvection
Pour (p, q) ∈ {1, . . . , n} × {1, . . . , n} et λ ∈ K, on appelle matrice de transvection la matrice
Tp,q (λ) = In + λEp,q
Proposition 4.
Prépa agreg, 2013-2014
[email protected]
. Tp,q (λ) est inversible et Tp,q (λ)−1 = Tp,q (−λ)
. Pour M ∈ Mn (K),
L1
..
.
Tp,q (λ)M = Lp + λLq
..
.
Ln
← p-ième ligne
Définition 2. On appelle opération élémentaire sur les lignes une application de la forme
M ∈ Mn (K) → U M , où U est une matrice de transvection, transposition ou dilatation.
Proposition 5. Une opération élémentaire conserve le rang.
1.2
Méthode de Gauss
Theorème 1. Soit A ∈ Mn (K). Il existe P ∈ Gln (K) produit de matrices de transposition et
tranvection tel que P A soit triangulaire supérieure.
La méthode de Gauss consiste à effectuer des opérations élémentaires sur les lignes de la
˜ où P est la matrice
matrice augmentée A˜ = (Ab) ∈ Mn,n+1 (K) afin d’obtenir la matrice P A,
du Théorème 1, puis à résoudre le système triangulaire supérieur
P Ax = P b.
Nombre d’opérations
Le nombre d’opérations élémentaires pour obtenir un système triangulaire supérieur est de
l’ordre de
n
n
X
X
n(n − 1)(4n + 1)
2n3
(n − k) + 2
(n − k)2 =
∼
.
6
3
k=1
k=1
2
Décomposition LU
Définition 3. On dit que A ∈ Gln (K) admet une décomposition LU s’il existe L, U ∈ Gln (K)
telles que A = LU , avec
. L triangulaire inférieure avec des 1 sur la diagonale ("LOWER")
. U triangulaire supérieure ("UPPER").
Définition 4. Soit, pour 1 ≤ p ≤ n, A(p) ∈ Mp (K) la sous-matrice extraite de A en prenant
les p premières lignes et colonnes de A. On appelle mineurs principaux de A les déterminants
des matrices A(p) , pour 1 ≤ p ≤ n.
Theorème 2. La matrice A ∈ Gln (K) admet une décomposition LU si et seulement si tous ses
mineurs principaux sont non nuls. Si cette décomposition existe, elle est unique.
Remarque 1.
. Le nombre d’opérations est en O( 34 n3 ).
. Si det(A(p) ) 6= 0 pour 1 ≤ p ≤ n − 1 et det(A) = 0, on peut quand même avoir une
décomposition de type LU, mais avec U ∈
/ Gln (K).
. On obtient det(A) comme "sous-produit" de la décomposition LU.
Proposition 6.
Si A est symétrique définie positive alors elle admet une décomposition LU.
Prépa agreg, 2013-2014
[email protected]
Calcul pratique de L et de U
Si A admet une décomposition LU et que la matrice P du Théorème 1 est uniquement un
produit de matrice de transvections (pas de stratégie de pivot partiel ou total), on aura alors
U = T et L = P −1 . Pour obtenir L, on applique la suite de transvertions correspondant à P −1
à la matrice In .
Remarque 2. On peut aussi obtenir A−1 par opérations élémentaires.
Exemple 1. Pour
1 2 2
A = 1 3 −2
3 5 8
on obtient
1 0 0
L = 1 1 0
3 −1 1
1 2 2
U = 0 1 −4 ,
0 0 −2
A−1
−17
3
5
−1
−2
= 7
2
−1/2 −1/2
Cas particulier des matrices tridiagonales
Theorème 3. Soit
b1
c1
0
...
a2
0
A=
..
.
.
..
b2
..
.
c2
..
.
..
.
0
...
..
.
..
.
..
.
..
..
...
...
0
.
.
an
0
..
.
..
.
0
cn−1
bn
une matrice tridiagonale. On définit la suite (δk )0≤k≤n par
δ0 = 1,
δk = bk δk−1 − ak ck−1 δk−2
δ1 = b1 ,
pour 2 ≤ k ≤ n.
Alors δk = det(A(k) ) et si δk 6= 0 pour tout k ∈ {1, . . . , n} alors la factorisation LU de A est
1
0
0
l2
L=
0
.
.
1
0
..
..
.
0
avec
li = ai
.
...
δi−1
δi
...
.
...0
..
.
..
.
ln
u
0
..
.
..
.
0
1
pour 2 ≤ i ≤ n
c1
0
...
0
.
U =
..
u2
..
.
c2
..
.
..
.
..
.
0
...
et
1
ui =
δi
δi−1
...
0
0
..
.
0
cn−1
un
pour 1 ≤ i ≤ n
Démonstration. Voir [Cia82] p. 85
3
Factorisation de Choleski
Ici on se place sur K = R.
Theorème 4. Soit A une matrice symétrique définie positive. Alors il existe une unique matrice
L triangulaire inférieure, à coefficients diagonaux strictement positifs, telle que
A = LLt .
Remarque 3. On a alors, pour 1 ≤ i ≤ j ≤ n
ai,j =
i
X
li,k lj,k
k=1
Prépa agreg, 2013-2014
[email protected]
Algorithme de Choleski
. On détermine la première colonne de L :
pour p = 1, . . . , n,
lp,1 =
a1,p
l1,1
. Pour q ≥ 2 : on a
v
u
q−1
u
X
t
2
lq,q = aq,q −
lq,k
k=1
puis
aq,p −
pour p = q + 1, . . . , n,
q−1
X
lk,q lp,k
k=1
lp,q =
.
lq,q
Méthode de Choleski
Celle-ci consiste à déterminer la factorisation de Choleski de la matrice A, puis à résoudre
successivement les systèmes
Ly = b,
Lt x = y.
Nombre d’opérations
Le nombre d’opérations de la méthode de Choleski est de l’ordre de
2n3
n3 n3 n2
+
+
+n∼
.
6
6
2
3
Remarque 4. Le résultat du Théorème 4 est en fait encore vrai pour les matrices à coefficients
dans C hermitiennes définies positives (voir [Scha] p. 63.)
4
Factorisation QR
Définition 5. Matrice de Housholder
Pour v ∈ Cn , v 6= 0, on pose
Hv = In − 2
vv ∗
v∗v
et par convention on pose H0 = In .
Remarque 5.
. Hv est à la fois hermitienne et unitaire
v
. Pour v ∈ Cn et u = ∗ , on a Hv = Hu .
v v
Theorème 5. Soit e1 , . . . , en la base canonique de Cn , a =
Alors il existe v ∈ Cn tel que Hv a soit colinéaires à e1 .
n
X
ai ei ∈ Cn tel que
i=1
2
X
|ai |2 > 0.
i=1
Remarque 6.
Il y a en fait deux vecteurs possibles. Si on note α ∈ R tel que a = eiα |a1 |, on peut prendre
v1 = a + kak2 eiα e1
ou
v2 = a − kak2 eiα e1 .
Theorème 6. Soit A ∈ Mn (C). Il existe Q une matrice unitaire et R une matrice triangulaire
supérieure telles que A = QR. Si A ∈ Gln (C), la factorisation est unique.
Remarque 7.
. La matrice Q est un produit de matrices de Householder.
. Le conditionnement du système n’est pas modifié.
Prépa agreg, 2013-2014
[email protected]
Références
[Cia82] Philippe G. Ciarlet. Introduction à l’analyse numérique matricielle et à l’optimisation.
Collection Mathématiques Appliquées pour la Maîtrise. Masson, Paris, 1982.
[All12] Grégoire Allaire. Analyse numérique et optimisation. Collection Editions Ecole Polytechnique. Ellipses, 2012.
[HIP05] Bernard Héron, Françoise Issard-Roch, Colette Picard. Analyse numérique : Exercices
et problèmes corrigés. Sciences Sup Dunod, 2005
[Scha]
Schatzman Michèle Analyse numérique : cours et exercices pour la licence InterEditions,
1991
Prépa agreg, 2013-2014
[email protected]