Un peu de physique...

Matrices (suite)

Valeurs propres et vecteurs propres

Les notions de valeurs propres et de vecteurs propres (voir le post sur l'algèbre et les espaces vectoriels) s'appliquent bien évidemment aux matrices. Un vecteur propre de la matrice A est un vecteur V tel que :

lambda est la valeur propre associée à V. Si V est un vecteur propre de A, le vecteur kV est également un vecteur propre de A :

Les vecteurs propres correspondants à des valeurs propres distinctes sont linéairement indépendants. La démonstration de cette propriété est simple. Soit un ensemble de k valeurs propres lambdai distinctes. Soient vi les vecteurs associés. Supposons qu'ils soient linéairement dépendants. Cela signifie qu'il existe des coefficients ci tels que :

Dans ce cas :

Rien n'empêche de combiner les équations qui précèdent pour écrire :

La collection des k-1 vecteurs vi est donc elle aussi linéairement dépendante. On peut appliquer ce même raisonnement de manière itérative jusqu'à ce qu'il ne reste plus qu'un seul vecteur dans la collection. La proposition est donc absurde !

A passage, on notera que si une matrice A de rang n possède n valeurs propres distinctes, elle est automatiquement diagonalisable.

Les valeurs propres associées à deux vecteurs propres ne sont pas nécessairement distinctes. Lorsque plusieurs vecteurs propres linéairement indépendants sont associés à une même valeur propre, le sous-espace engendré par ces vecteurs propres est appelé espace propre de E relativement à la matrice A.

Matrices symétriques, matrices unitaires et matrices orthogonales

Une matrice carrée réelle est dite symétrique lorsqu'elle est égale à sa matrice transposée :

Une matrice carrée réelle est dite unitaire si elle conserve la norme de l'espace vectoriel sur lequel elle agit :

Ce qui signifie :

Une matrice réelle est dite orthogonale si :

Dans ce cas son déterminant est égal à + ou - 1. Lorsque A agit sur un espace vectoriel à 2 ou 3 dimensions :

  • si det(A) = 1 A correspond à une rotation,
  • si det(A) = -1 A correspond à une rotation suivie d'une symétrie.

Matrices hermitiennes

Une matrice complexe est dite hermitienne lorsqu'elle est égale à sa matrice transconjuguée (matrice conjuguée de sa matrice transposée) :

on dit qu'elle est auto-adjointe. Une matrice hermitienne U est dite unitaire lorsque :

On vérifie dans ce cas que :

On peut démontrer que toute matrice hermitienne est diagonalisable et que ses valeurs propres sont réelles. Cela signifie qu'il existe toujours une matrice unitaire U telle que :

Nota : pour la notion de groupe, se reporter au post sur les groupes de Lie.

L'ensemble des matrices inversibles de rang n forme un groupe appelé groupe général linéaire de degré n :

La propriété suivante est intéressante :

L'ensemble des matrices inversibles de déterminant 1 est appelé groupe spécial linéaire :

Le tableau qui suit donne deux autres exemples de groupes de matrices réelles :

Le tableau qui suit donne deux autres exemples de groupes de matrices complexes :

 

Index