Matrices (suite)
Valeurs propres et vecteurs propres
Les notions de valeurs propres et de vecteurs propres (voir le post sur l'algèbre et les espaces vectoriels) s'appliquent bien évidemment aux matrices. Un vecteur propre de la matrice A est un vecteur V tel que :

lambda est la valeur propre associée à V. Si V est un vecteur propre de A, le vecteur kV est également un
vecteur propre de A :

Les vecteurs propres correspondants à des valeurs propres
distinctes sont linéairement indépendants. La démonstration de cette propriété est simple. Soit un ensemble de k valeurs propres lambdai
distinctes. Soient vi les vecteurs associés. Supposons qu'ils soient linéairement dépendants. Cela signifie qu'il existe des coefficients ci tels que :

Dans ce cas :

Rien n'empêche de combiner les équations qui précèdent pour écrire :

La collection des k-1 vecteurs vi est donc elle aussi linéairement dépendante. On peut appliquer ce même raisonnement de manière itérative jusqu'à ce qu'il ne reste plus qu'un seul vecteur dans la collection. La proposition est donc absurde !
A passage, on notera que si une matrice A de rang n possède n valeurs propres distinctes, elle est automatiquement diagonalisable.
Les valeurs propres associées à deux vecteurs propres ne sont pas nécessairement distinctes. Lorsque plusieurs vecteurs propres linéairement indépendants sont associés à une même valeur propre, le sous-espace engendré par ces vecteurs propres est appelé espace propre de E relativement à la matrice A.
Matrices symétriques, matrices unitaires et matrices orthogonales
Une matrice carrée réelle est dite symétrique lorsqu'elle est égale à sa matrice transposée :

Une matrice carrée réelle est dite unitaire si elle conserve la norme de l'espace vectoriel sur lequel elle agit :

Ce qui signifie :

Une matrice réelle est dite orthogonale
si :

Dans ce cas son déterminant est égal à + ou - 1. Lorsque A agit sur un espace vectoriel à 2 ou 3 dimensions :
- si det(A) = 1 A correspond à une rotation,
- si det(A) = -1 A correspond à une rotation suivie d'une symétrie.
Matrices hermitiennes
Une matrice complexe est dite hermitienne lorsqu'elle est égale à sa matrice transconjuguée (matrice conjuguée de sa matrice transposée) :

on dit qu'elle est auto-adjointe. Une matrice hermitienne U est dite unitaire lorsque :

On vérifie dans ce cas que :

On peut démontrer que toute matrice hermitienne est
diagonalisable et que ses valeurs propres sont réelles. Cela signifie qu'il existe toujours une matrice unitaire U telle que :

Nota : pour la notion de groupe, se reporter au post sur les groupes de Lie.
L'ensemble des matrices inversibles de rang n
forme un groupe appelé groupe général linéaire de degré n :

La propriété suivante est intéressante :

L'ensemble des matrices inversibles de déterminant 1 est
appelé groupe spécial linéaire :

Le tableau qui suit donne deux autres exemples de groupes de matrices réelles :

Le tableau qui suit donne deux autres exemples de groupes de matrices complexes :


