Matrice (mathématiques)
Un article de Wikipédia, l'encyclopédie libre.
En mathématiques, une matrice est un tableau de nombres de forme rectangulaire, tel que
qui est une matrice à deux lignes (ou rangées) et trois colonnes. Il est possible de faire des calculs algébriques sur les matrices : addition de matrices de même dimension, multiplication de matrices de dimensions compatibles.
Une très grande quantité de problèmes de mathématiques ou de physique peuvent être modélisés en utilisant des matrices. Elles interviennent au premier chef en algèbre linéaire, c'est-à-dire pour effectuer des calculs systématiques sur les vecteurs. Par exemple appliquer une rotation, une symétrie ou tout autre transformation géométrique peut être ramené à une opération matricielle. Mais on trouve aussi des matrices en probabilités, en optique, et dans bien d'autres domaines.
[modifier] Introduction
C'est en 1850 que le mathématicien James Joseph Sylvester mentionna pour la première fois dans un article le terme de matrice.
Les matrices sont maintenant utilisées pour de multiples applications et servent notamment à représenter les coefficients des systèmes d'équations linéaires ou à représenter les applications linéaires ; dans ce dernier cas les matrices jouent le même rôle que les coordonnées d'un vecteur pour les applications linéaires.
En 1925, Werner Heisenberg redécouvre le calcul matriciel en fondant une première formulation de ce qui allait devenir la mécanique quantique. Il est à ce titre considéré comme l'un des pères de la mécanique quantique.
[modifier] Définitions et notations
En mathématiques, une matrice est un tableau rectangulaire de nombres appelés éléments ou coefficients :
Ce tableau peut être encadré par des parenthèses ou, comme dans cet article, par des crochets.
On appelle lignes les lignes horizontales de ce tableau et colonnes les lignes verticales de ce tableau. On dit qu'une matrice est de dimension ou de type (m,n) si ce tableau comporte m lignes et n colonnes.
L'élément, , qui se trouve dans la ie ligne et la je colonne de la matrice A est appelé coefficient d'indice i,j de la matrice A.
L'ensemble des matrices de dimension , à coefficients dans un corps (ou anneau) (ensemble quelconque) se note en général . De même, l'ensemble des matrices carrées d'ordre n se note .
- On parle de matrice réelle lorsque ses coefficients sont réels.
- On parle de matrice complexe lorsque ses coefficients sont complexes.
Il existe une notation plus condensée pour représenter une matrice :
- .
Exemple: Soit la matrice A à coefficients dans de dimension 4 x 3:
Son coefficient d'indice (2,3) vaut a2,3 = 7.
[modifier] Calcul matriciel
[modifier] L'addition
Soient . L'addition est usuellement définie par :
- .
Exemple :
L'addition matricielle usuelle :
- est commutative.
- est associative.
- possède un élément neutre, 0 :
[modifier] La multiplication scalaire
Soient et . La multiplication scalaire est usuellement définie par :
- .
Exemple :
Ces deux opérations munissent l'ensemble de toutes les matrices de type (m, n) à coefficients réels d'une structure d'espace vectoriel de dimension finie .
La multiplication scalaire usuelle est :
- commutative
- et vérifie :
[modifier] La multiplication matricielle
Soient et . La multiplication matricielle est usuellement définie par :
- .
Exemple :
La multiplication matricielle est :
- associative
- distributive à gauche
- distributive à droite
Attention, la multiplication matricielle n'est en général pas commutative .
[modifier] La norme matricielle
voir ce site en attendant.
[modifier] Matrices particulières
est :
- une matrice carrée si sinon la matrice est rectangulaire,
- une matrice nulle (A = 0) ssi ai,j = 0,,
- une matrice identité (A = I) ssi ai,j = δij,
- une matrice diagonale (A = D) ssi ,
- une matrice triangulaire supérieure (A = U) ssi ,
- une matrice triangulaire inférieure (A = L) ssi ,
- une matrice symétrique ssi .
- une matrice matrice antisymétrique ssi .
- une matrice bande d'ordre n (A = Bn) ssi ,
- appelée vecteur colonne ssi n = 1,
- appelée vecteur ligne ssi m = 1.
[modifier] Applications linéaires en dimension finie, rang et transposition
Les matrices peuvent complètement représenter les applications linéaires en dimension finie.
Pour toute application linéaire il existe une unique matrice A de dimension m × n telle que :
- pour tout , en posant , on ait .
Nous disons que la matrice A « représente » l'application linéaire ƒ et ƒ est l'application canoniquement associée à A.
Si l'on appelle la base canonique de et celle de , alors l'image de ei par ƒ a pour composantes . Les colonnes de la matrice sont les coordonnées dans la base canonique de des images des vecteurs de la base canonique de .
Ici et dans la suite, nous identifierons avec l'ensemble des matrices colonnes ou (n, 1)-matrices.
Maintenant si B est une matrice de dimension k × m représentant une autre application linéaire , alors l'application linéaire est représentée par la matrice .
Le rang d'une matrice A est la dimension de l'image de l'application linéaire canoniquement associée à A.
La matrice transposée (on dit aussi la transposée) d'une matrice A de dimension m x n est la matrice notée (parfois aussi notée ou ) de dimension n x m, obtenue en échangeant les lignes et les colonnes de A.
- Article détaillé : matrice transposée.
[modifier] Matrices carrées et définitions
Une matrice carrée est une matrice dont les nombres de lignes et de colonnes sont égaux. L'ensemble de toutes les (n, n)-matrices carrées, muni de l' addition et du produit des matrices a une structure d'anneau. À moins que n = 1, cet anneau n'est pas commutatif.
l'anneau des matrices carrées réelles, est une algèbre unitaire associative.
l'anneau des matrices carrées complexes, est une algèbre unitaire associative.
[modifier] Matrice diagonale
Une matrice dite matrice diagonale est une matrice carrée dont seuls les éléments diagonaux peuvent être non-nuls:
[modifier] Matrice identité
La matrice unité ou matrice identité In, est une matrice diagonale dont tous les éléments diagonaux sont égaux à 1. Une matrice Identité satisfait la relation:
Par exemple, si n = 3:
La matrice unité est l'élément neutre de l'anneau des matrices carrées.
[modifier] Matrice inverse
Les éléments symétrisables dans cet anneau sont appelés les matrices inversibles (ou les matrices non singulières)
Par définition une matrice d'ordre n, A est inversible si et seulement s’il existe une matrice B telle que
- AB = In ( = BA).
Dans ce cas, B est unique puisque la loi est associative et s'appelle la matrice inverse de A.
Pour calculer l'inverse d'une matrice, on peut utiliser la méthode d'élimination de Gauss-Jordan.
Dans un certain sens, le rang d'une matrice mesure à quel point une matrice est proche d'être inversible.
Une valeur propre d'une matrice carrée A est un nombre γ tel que A-γIn ne soit pas inversible. Toute matrice carrée complexe possède n valeurs propres éventuellement répétées. Ce résultat n'est pas valable pour les matrices carrées réelles, celles-ci n'admettent pas toujours des valeurs propres toutes réelles; mais une matrice réelle peut être considérée comme une matrice complexe et admet n valeurs propres réelles ou complexes.
Le déterminant d'une matrice carrée A est défini par la formule de Leibniz et est égal au produit des valeurs propres de la matrice.
Les matrices inversibles sont précisément celles qui ont un déterminant non nul.
L'ensemble de toutes les matrices d'ordre n inversibles forme un groupe (en particulier un groupe de Lie) pour la multiplication des matrices, appelé le groupe général linéaire.
La trace d'une matrice carrée est la somme de ses éléments diagonaux, et est aussi égale à la somme de ses n valeurs propres.
Voyez le théorème des matrices inversibles, pour une liste de propriétés des matrices inversibles.
[modifier] Notation par blocs
Une matrice par blocs est une matrice de matrices. Par exemple, considérons une matrice P :
Nous pouvons la découper en des sous-matrices d'ordre 2 de la manière suivante :
Cette technique de découpage des matrices est utilisée pour les calculs en développant par ligne ou colonne, a beaucoup d'applications en informatique, en particulier dans les circuits à très haute intégration (VLSI).
[modifier] Matrices réelles ou complexes remarquables
Certaines matrices remarquables sont si importantes qu'elles portent un nom; En voici quelques exemples :
- Les matrices hermitiennes (auto-adjointes) sont des matrices telles que les éléments symétriques par rapport à la diagonales soient conjugués l'un de l'autre, c'est-à-dire
- Les matrices de Vandermonde (matrices carrées de n lignes et n colonnes) vérifient le fait que chaque ligne soit une progression géométrique de rapport le terme général celui de la première colonne.
- Les matrices de Toeplitz ont des éléments égaux sur leurs diagonales :
- ai,j=ai+1,j+1.
- Les matrices stochastiques sont des matrices carrées dont les colonnes correspondent à des vecteurs de probabilité.
- Les chaînes de Markov sont des suites de vecteurs de probabilité x0,x1,..... avec une matrice stochastique P telle que Xk+1 = PXk pour k = 0,1,2,..... Xk désignant la matrice colonne du vecteur xk.
[modifier] Matrices à coefficients dans un anneau arbitraire
Si nous disposons d'un anneau A alors nous pouvons considérer l'ensemble de toutes les (m, n)-matrices à coefficients dans A. L'addition et la multiplication de ces matrices peut être définie comme précédemment, et ont les mêmes propriétés. L'ensemble de toutes les matrices carrées d'ordre n sur l'anneau A, est isomorphe à l'anneau des endomorphismes du A-module Rn.
Si A est commutatif, alors est une algèbre associative unitaire sur A. Il est alors aussi possible de définir le déterminant de matrices carrées en utilisant la formule de Leibniz; une matrice est inversible si et seulement si son déterminant est inversible sur A.
Les matrices sur un anneau de polynôme sont importantes dans l'étude de la théorie du contrôle.
Le polynôme caractéristique d'une matrice carré M est le determinant de M - x*Id. Les racines de ce polynôme sont les valeurs propres.
[modifier] Matrice et graphe
Dans la théorie des graphes, on appelle matrice d'un graphe la matrice indiquant dans la ligne i et la colonne j le nombre d'arêtes reliant le sommet i au sommet j. Dans un graphe non orienté, la matrice est symétrique. La somme des éléments d'une colonne permet de déterminer le degré d'un sommet. La matrice Mn indique dans la ligne i et la colonne j le nombre de chemins à n arêtes joignant le sommet i au sommet j
Associée à un graphe probabiliste, on trouve aussi une matrice des probabilités.
[modifier] Décomposition de Dunford
Théorème : Soit telle que son polynôme caractéristique soit scindé sur . Alors il existe un unique couple (D,N) de matrices, avec D diagonalisable et N nilpotente tel que : M = D + N et DN=ND. De plus, D et N sont des polynômes en M. On parle de « décomposition D + N de la matrice M ». La terminologie 'Décomposition de Dunford', souvent utilisée, est à proscrire (Dunford n'ayant pas travaillé à cette décomposition, qui existait déjà bien avant lui).
[modifier] Voir aussi
[modifier] Liens internes
- Théorie des matrices
- Matrices semblables
- Matrices équivalentes
- Matrice nilpotente
- Matrice de transition
- Matrice aléatoire
- Matrice triangularisable
- Matrice diagonalisable
- Catégorie:Matrice et Catégorie:Matrice remarquable
- Comatrice
- Tenseur
- Représentation des groupes
[modifier] Lien externe
Articles de mathématiques en rapport avec l'algèbre linéaire |
Espace vectoriel | Base | Dimension | Matrice | Application linéaire | Déterminant | Trace | Rang | Théorème des facteurs invariants | Réduction d'endomorphisme | Réduction de Jordan | Décomposition de Dunford | Valeur propre | Polynôme caractéristique | Forme linéaire | Espace dual | Orthogonalité | Produit scalaire | Produit vectoriel | Polynôme d'endomorphisme | Polynôme minimal | Tenseur | Covecteur | Algèbre multilinéaire |
Modifier |