Page 1 sur 1

Matrice de covariance, valeurs propres et vecteurs propres

MessagePosté: Vendredi 15 Juin 2007, 08:22
par kitiss
Bonjour,

Peut-être trouverez-vous ma question bête ou simpliste. Mais mon problème c'est comment trouver :
- les valeurs propres
- les vecteurs propres
à partir de la matrice de covariance.
J'ai beau lire le cours mais je m'en sors pas.

Merci d'avance de m'accorder un peu de votre temps

[edit guiguiche : déplacé dans le forum supérieur]

MessagePosté: Vendredi 15 Juin 2007, 09:07
par guiguiche
La matrice est symétrique réelle donc R-diagonalisable. Pour obtenir les valeurs propres et les sous espaces propres, je ne vois guère que la méthode du pivot de Gauss, en espérant que ta matrice ne soit pas trop grosse ou bien bien qu'elle soit très particulière.

MessagePosté: Vendredi 15 Juin 2007, 09:31
par kitiss
Salut,

Méthode de Gauss, soit mais quel raisonnement pour aboutir à un système d'équations à resoudre. Peux-tu m'aider en prenant l'exemple d'une matrice de covariance de deux variable X, Y ?

Excuses moi mais je ne peux écrire une matrice dans cet environnement

MessagePosté: Vendredi 15 Juin 2007, 09:49
par guiguiche
Pour une matrice du type $\begin{pmatrix}1-\lambda & -1 \\ -1 & 1-\lambda \end{pmatrix}$
Code: Tout sélectionner
$\begin{pmatrix}1-\lambda & -1 \\ -1 & 1-\lambda \end{pmatrix}$

on applique la technique usuelle de Gauss : permutation des lignes 1 et 2, puis réduction. On a alors les valeurs propres comme coefficients annulant la diagonale. Par substitution dans cette matrice réduite, les relations sur les colonnes fournissent des vecteurs propres.

MessagePosté: Vendredi 15 Juin 2007, 10:11
par candide
guiguiche a écrit:Pour une matrice du type $\begin{pmatrix}1-\lambda & -1 \\ -1 & 1-\lambda \end{pmatrix}$
Code: Tout sélectionner
$\begin{pmatrix}1-\lambda & -1 \\ -1 & 1-\lambda \end{pmatrix}$

on applique la technique usuelle de Gauss : permutation des lignes 1 et 2, puis réduction. On a alors les valeurs propres comme coefficients annulant la diagonale. Par substitution dans cette matrice réduite, les relations sur les colonnes fournissent des vecteurs propres.

Je crois que tu méprends ou alors je n'ai pas compris ta méthode qui s'appliquerait peut-être seulement aux matrices symétriques réelles. Je ne vois pas comment tu peux de manière générique et même en se restreignant au cas des matrices symétriques réelles, trouver les valeurs propres sans résoudre une équation polynomiale (polynôme caractéristique, polynôme minimal), tu peux détailler sur un exemple ta "méthode de Gauss" ?

MessagePosté: Vendredi 15 Juin 2007, 10:17
par guiguiche
Par réduction, on obtient une matrice triangulaire supérieure. Elle n'est pas de rang maximal si et seulement si l'un au moins des coefficients de sa diagonale est nulle. En pratique, on retrouve le polynôme caractéristique, soit en dernier coefficient (bas-droite) soit décomposé sur différents coefficients.
C'est la méthode que j'enseigne (et la seule au programme) en prépa EC vu qu'il n'y a pas de déterminant au programme !

MessagePosté: Vendredi 15 Juin 2007, 10:20
par kitiss
je m'excuse mais j'avoue que je m'en sors pas. Peux-tu aller au bout de l'exercice pour que je puisse meix saisir ?

Merci

MessagePosté: Vendredi 15 Juin 2007, 11:43
par candide
guiguiche a écrit:Par réduction, on obtient une matrice triangulaire supérieure. Elle n'est pas de rang maximal si et seulement si l'un au moins des coefficients de sa diagonale est nulle. En pratique, on retrouve le polynôme caractéristique, soit en dernier coefficient (bas-droite) soit décomposé sur différents coefficients.

Effectivement, c'est une façon naturelle de contourner le fait de ne pas disposer du déterminant. Mais en pratique, cela ne pose-t-il pas un problème de rigueur ? je veux dire qu'on a $\text{rg}(L_1,L_2,...) = \text{rg}(\alpha L_1+\beta L_2,L_2...)$ (les $L_j$ désinant des lignes de matrice) si $\alpha\neq 0$ donc cette méthode n'induit-elle pas une étude de cas la plupart du temps inutiles i.e. lorsque $\alpha = 0$ ?

MessagePosté: Vendredi 15 Juin 2007, 12:11
par guiguiche
candide a écrit:Effectivement, c'est une façon naturelle de contourner le fait de ne pas disposer du déterminant. Mais en pratique, cela ne pose-t-il pas un problème de rigueur ? je veux dire qu'on a $\text{rg}(L_1,L_2,...) = \text{rg}(\alpha L_1+\beta L_2,L_2...)$ (les $L_j$ désinant des lignes de matrice) si $\alpha\neq 0$ donc cette méthode n'induit-elle pas une étude de cas la plupart du temps inutiles i.e. lorsque $\alpha = 0$ ?

On n'opère (normalement) qu'avec des opérations élémentaires sur les lignes, donc pas de problème de rigueur.
Pour les cas artificiels, les permutations de lignes doivent les éviter. Seulement, les élèves ne veulent pas les faire donc ...

MessagePosté: Vendredi 15 Juin 2007, 12:29
par guiguiche
guiguiche a écrit:Pour une matrice du type $\begin{pmatrix}1-\lambda & -1 \\ -1 & 1-\lambda \end{pmatrix}$
on applique la technique usuelle de Gauss : permutation des lignes 1 et 2, puis réduction. On a alors les valeurs propres comme coefficients annulant la diagonale. Par substitution dans cette matrice réduite, les relations sur les colonnes fournissent des vecteurs propres.

1. On permute la ligne 1 et la ligne 2 puisque le coefficient en haut à gauche contient le paramètre : $\begin{pmatrix}-1 & 1-\lambda \\ 1-\lambda & -1 \end{pmatrix}$
2. On utilise le $-1$ (haut gauche) comme pivot puisque toujours non nul et on effectue la tranformation élémentaire : $L_2 \leftarrow L_2+(1-\lambda)L_1$, ce qui donne : $\begin{pmatrix}-1 & 1-\lambda \\ 0 & -\lambda+\lambda^2 \end{pmatrix}$
3. La réduction étant achevée, cette matrice est de rang<2 si et seulement si $-\lambda+\lambda^2=0$ c'est à dire que les valeurs propres sont exactements 0 et 2.
4. Pour $\lambda=0$, on obtient la matrice : $\begin{pmatrix}-1 & 1 \\ 0 & 0 \end{pmatrix}$ dont la somme des colonnes est nulle. Ainsi : $1\times C_1+1\times C_2 =0$ donc le vecteur de coordonnées $(1,1)$ est dans le noyau de $A-0I$ c'est à dire que c'est un vecteur propre. D'après le théorème du rang (et le fait que chaque sous espace propre est au moins de dimension 1) alors le sous espace propre $E_0$ est de dimension 1 donc il est engendré par ce vecteur propre de coordonnées $(1,1)$.
5. Raisonnement analogue pour la seconde valeur propre.

MessagePosté: Vendredi 15 Juin 2007, 12:55
par candide
guiguiche a écrit:On n'opère (normalement) qu'avec des opérations élémentaires sur les lignes, donc pas de problème de rigueur.

Oui, mais ton pivot doit être non nul, or il va en général dépendre de $\lambda$ d'où les cas dont je parlais

MessagePosté: Vendredi 15 Juin 2007, 13:30
par candide
Je crains de ne pas avoir été clair alors voici un exemple :

$$\begin{pmatrix}
 -2 -\lambda & 1 & 1 \\ 
 8 &1-\lambda  & -5 \\ 
 4 & 3  & -3 -\lambda
 \end{pmatrix}\equiv
 \begin{pmatrix}
 4 & 3  & -3 -\lambda\\ 
 0 &-5-\lambda  & 1+2\lambda\\
 0 &10+3\lambda  & -\lambda^2-5\lambda-2
 \end{pmatrix}
 $$


et le pivot suivant est $-5-\lambda$ ou $10+3\lambda$ ce qui conduit à examiner le cas où l'un deux est nul ce qui introduit une discussion qui est en fait inutile.

MessagePosté: Vendredi 15 Juin 2007, 13:49
par guiguiche
Oui, c'est vrai mais tous les cas pratiques auxquels j'ai eu affaire évitaient ce souci. Sinon, on raisonne avec le sous bloc $2\times2$ avec la règle du déterminant qui est au programme de cette filière (sans le nommer bien sûr). Donc exit la discussion dans ce cas-ci.