Matrices
L'utilisation de tableaux de nombres pour résoudre des systèmes d'équations est très ancienne. Ils seraient apparus en Inde et en Chine au début de notre ère. Leur utilisation s'étendra à l'Europe au cours du XVIème siècle et au Japon au XVIIème siècle. Mais ce n'est qu'au début du XVIIIème que Gottfried Leibniz va analyser les propriétés de ces tableaux et démontrer les premiers théorèmes à leur sujet. Il faut cependant attendre 1850 pour que le terme matrix fasse son apparition dans la littérature (James Sylvester). Les matrices sont alors un sujet de recherche mathématique active. Frobenius joue dans ce domaine un rôle important en étendant aux matrices de dimension quelconque des résultats acquis pour les matrices de dimension 2 et 3.
On ne peut pas parler de matrice sans parler de déterminant. Gauss et surtout Cauchy s'y sont intéressés. Par la suite, Jacobi et Kronecker vont étendre les résultats obtenus par leurs prédécesseurs aux transformations infinitésimales... ouvrant ainsi la porte à la notion d'algèbre de Lie développée plus tard par Sophus Lie.
Définition
La définition la plus simple d'une matrice est la suivante. Une matrice de dimension m,n est un tableau de nombres comportant m lignes et n colonnes. Lorsque ces nombres appartiennent au corps des réels on parle de matrice réelle, lorsqu'ils appartiennent au corps des complexes on parle de matrice complexe.
On lui préfère souvent une définition empruntée à l'algèbre linéaire. Soit un espace vectoriel E de dimension n et un espace vectoriel E' de dimension m. Soient (ei) et (e'j) les bases de ces espaces vectoriels. Une matrice A de dimension m,n est une application linéaire de E dans E'. Si l'on prend par exemple un vecteur colonne u appartenant à l'espace vectoriel E, la matrice A le transforme en un vecteur colonne v de E' tel que :

On peut additionner des matrices et les multiplier. Soient A et B deux matrices de dimensions m,n, la somme des matrices A et B est la matrice M définie comme suit :

Soit A une matrice de dimensions m,n et B une matrice de dimensions n,l, le produit des
matrices A et B est une matrice M de dimension m,l :

Matrice transposée, matrice conjuguée
La matrice transposée AT de A est la matrice de dimensions n,m telle que :

Dans le cas d'un matrice complexe, la matrice
conjuguée de A est la matrice B telle que :

La matrice transposée de la matrice conjuguée d'une matrice est appelée sa matrice adjointe (on dit aussi transconjuguée).
Matrice carrée
Une matrice carrée est une matrice qui comporte autant de lignes que de colonnes (dimensions n,n). C'est donc une application linéaire de E dans lui-même. On dit d'une telle matrice qu'elle est d'ordre n.
La matrice identité Id d'ordre n est la matrice carrée de dimensions n,n telle que :

Une matrice carrée A est dite diagonale
si :

Une matrice carrée A est dite inversible s'il existe une matrice notée A-1 telle que :

Trace d'une matrice
Soit A une matrice de rang n. La trace de A est égale à :

Déterminant, cofacteurs et comatrice
On associe à toute matrice carrée un nombre scalaire appelé déterminant. En mathématique, la notion de déterminant s'applique au-delà du domaine des matrices, en
particulier dans la résolution des systèmes d'équations linéaires. Le calcul du déterminant des matrices de rang 2 et 3 est simple :

Le calcul du déterminant d'une matrice de rang quelconque se fait par itérations successives en utilisant la notion de cofacteur. Le cofacteur cij de l'élément i,j de la matrice A est le déterminant de la matrice d'ordre n-1 (que nous appellerons A'ij)
que l'on construit à partir de A en supprimant la ième ligne et la jème colonne.

Le déterminant de A peut être calculé avec
les cofacteurs d'une seule colonne :

A titre d'exemple, appliquons cela à une matrice d'ordre 3 (voir la notation ci-dessus) en prenant la première colonne.
Seuls les cofacteurs c11, c21 et c31
nous intéressent :

Il vient :

On retrouve bien la formule indiquée plus haut. Comme on le voit, le calcul devient vite fastidieux et il est préférable de le confier à un ordinateur...
La notion de déterminant est fondamentale en algèbre linéaire. On démontre en effet qu'une matrice A de dimension n,n est inversible si et seulement si son déterminant est non nul. On dit dans ce cas qu'elle est de rang n.
La matrice des cofacteurs de A est appelée sa comatrice :

Lorsque A est inversible, on
démontre que :

Par définition, la transposée de la comatrice de A est appelée sa matrice complémentaire. La matrice inverse de A est égale à sa matrice complémentaire divisée par le déterminant de A.
Changement de base
Nous avons défini une matrice carrée comme une application d'un espace vectoriel dans lui-même. Qu'advient-il de A lorsqu'on change de base ?
Soient ei les n
vecteurs qui définissent la base avec laquelle nous travaillons. Supposons que nous voulions utiliser une autre base constituée par les vecteurs fj.
Soient (ei)j les coordonnées du vecteur ei dans cette nouvelle base. La matrice B
constituée de la matière suivante :

permet de passer de la base ei à la base fj. Il est facile de voir que la jème colonne de cette matrice est constituée par les n coordonnées du vecteur ej dans cette nouvelle base. Soient vi les coordonnées d'un vecteur V dans la base ei, ses coordonnées dans la base fj s'écrivent simplement en prémultipliant le vecteur colonne (vi) par la matrice B. La matrice B-1 inverse de B permet de passer de la base fj à la base ei.
Soit A la matrice associée à une
application linéaire quelconque de E dans lui-même relativement à la base ei.
Par quelle matrice cette application linéaire est-elle représentée si l'on adopte la base fj ? La réponse est simple :

Soit V' un vecteur de E représenté dans la base fj. L'application de B-1 permet de passer à sa représentation dans la base ei. On lui applique alors la transformation définie par A puis on revient à la base fj en appliquant B au résultat.

