Rang (algèbre linéaire)
En algèbre linéaire :
- le rang d'une famille de vecteurs est la dimension du sous-espace vectoriel engendré par cette famille. Par exemple, pour une famille de vecteurs linéairement indépendants, son rang est le nombre de vecteurs ;
- le rang d'une application linéaire de dans est la dimension de son image, qui est un sous-espace vectoriel de . Le théorème du rang relie la dimension de , la dimension du noyau de et le rang de ;
- le rang d'une matrice est le rang de l'application linéaire qu'elle représente, ou encore le rang de la famille de ses vecteurs colonnes ;
- le rang d'un système d'équations linéaires est le nombre d'équations que compte tout système échelonné équivalent. Il est égal au rang de la matrice des coefficients du système.
Rang d'une matrice
modifierLe rang d'une matrice (dont les coefficients appartiennent à un corps commutatif de scalaires, ), noté , est :
- le nombre maximal de vecteurs lignes (ou colonnes) linéairement indépendants ;
- la dimension du sous-espace vectoriel engendré par les vecteurs lignes (ou colonnes) de ;
- le plus grand des ordres des matrices carrées inversibles extraites de ;
- le plus grand des ordres des mineurs non nuls de ;
- la plus petite des tailles des matrices et dont le produit est égal à .
Tous ces nombres sont bien égaux.
On peut déterminer le rang en procédant à une élimination via la méthode de Gauss-Jordan et en examinant la forme échelonnée obtenue de cette manière.
Exemple
modifierSoit la matrice suivante :
On appelle les vecteurs formés par les quatre lignes de .
On voit que la 2e ligne est le double de la première ligne, donc le rang de est égal à celui de la famille .
On remarque aussi que la 4e ligne peut être formée en additionnant les lignes 1 et 3 (c'est-à-dire ). Donc le rang de est égal à celui de .
Les lignes 1 et 3 sont linéairement indépendantes (c'est-à-dire non proportionnelles). Donc est de rang 2.
Finalement, le rang de est 2.
Une autre manière est de calculer une forme échelonnée de cette matrice. Cette nouvelle matrice a le même rang que la matrice originale, et le rang correspond au nombre de ses lignes qui sont non nulles. Dans ce cas, nous avons deux lignes qui correspondent à ce critère.
On remarque que le rang d'une matrice donnée est égal au rang de sa transposée. Pour l'exemple, prenons la transposée de la matrice A ci-dessus :
On voit que la 4e ligne est triple de la première, et que la troisième ligne moins la deuxième est double de la première.
Après échelonnement, on obtient donc :
et le rang de cette matrice est bien 2.
Rang d'une forme quadratique
modifierLe rang d'une forme quadratique est le rang de la matrice associée.
Rang d'une application linéaire
modifierÉtant donnés deux -espaces vectoriels , , où est un corps commutatif, et une application linéaire de dans , le rang de est la dimension de l'image de .
Si et sont de dimensions finies, c'est aussi le rang de la matrice associée à dans deux bases de et . En particulier, le rang de la matrice associée à ne dépend pas des bases choisies pour représenter . En effet, la multiplication à droite ou à gauche par une matrice inversible ne modifie pas le rang, ce qui amène , où est la matrice représentant dans un premier couple de bases, et , des matrices de changement de base.
Rang d'une famille de vecteurs
modifier- Pour une famille, son rang correspond au nombre maximal de vecteurs que peut contenir une sous-famille libre de cette famille.
- On peut aussi définir le rang d'une famille par : .
Remarque : si est une famille de vecteurs indexée par les entiers de 1 à , alors le rang de est le rang de l'application linéaire où est le corps des scalaires. La raison est la suivante : est l'image de cette application linéaire.
Propriétés
modifierSoient A, B et C des matrices.
- Inégalité de Frobenius :
- (Cas particulier) Inégalité de Sylvester : si a colonnes et a lignes, alors
- Théorème du rang : une application linéaire de dans ,
- Matrice transposée et application transposée : et
- Produit de matrices et composition d'applications linéaires : et ; en particulier — par composition à gauche ou à droite par l'identité — le rang d'une application linéaire de dans est inférieur ou égal à et à
- Sous-additivité : , avec égalité si, et seulement si, les images de et ne s'intersectent qu'en zéro et les images des transposées et ne s'intersectent qu'en zéro[1].
- Le rang d'une famille de vecteurs est invariant par opération élémentaire.
- Deux matrices sont équivalentes si et seulement si elles ont le même rang.
- L'application rang, de dans , est semi-continue inférieurement.
- La plus grande fonction convexe fermée qui minore le rang sur la boule , où (on a noté le vecteur des valeurs singulières de ) est la restriction à cette boule de la norme nucléaire . De manière plus précise, si l'on définit par , où est l'indicatrice de , alors sa biconjuguée s'écrit [2],[3]. Sans restriction du rang à un ensemble, on obtient , une identité de peu d'utilité.
Cas où le corps des scalaires n'est pas commutatif
modifierDans ce qui précède, on a supposé que le corps des scalaires est commutatif. On peut étendre la notion de rang d'une matrice au cas où le corps des scalaires n'est pas forcément commutatif, mais la définition est un peu plus délicate.
Soient un corps non forcément commutatif et une matrice à m lignes et n colonnes à coefficients dans . On appelle rang de (par rapport à ) la dimension du sous-espace engendré par les colonnes de dans muni de sa structure de -espace vectoriel à droite[4]. On prouve que le rang de est aussi égal à la dimension du sous-espace engendré par les lignes de dans muni de sa structure de K-espace vectoriel à gauche[5].
Considérons par exemple un corps non commutatif K et la matrice , où et sont deux éléments de qui ne commutent pas (ces éléments sont donc non nuls).
Les deux lignes de cette matrice sont linéairement liées dans l'espace vectoriel à gauche , car . De même, les deux colonnes sont liées dans l'espace vectoriel à droite , car . Le rang de la matrice est donc égal à 1.
En revanche, les deux colonnes ne sont pas liées dans l'espace vectoriel à gauche . En effet, soient et des scalaires tels que . Alors (premières composantes) , d'où (secondes composantes) . Puisque et sont supposés ne pas commuter, ceci entraîne (multiplier par pour obtenir une contradiction) et notre résultat donne . Nous avons ainsi prouvé que les deux colonnes de la matrice sont linéairement indépendantes dans l'espace vectoriel à gauche .
Notes et références
modifier- (en) G. Marsaglia et G. P. H. Styan, « When does rank(A + B) = rank(A) + rank(B)? », Canadian Mathematical Bulletin, vol. 15, , p. 451-452 (lire en ligne).
- (en) M. Fazel, Matrix rank minimization with applications : PhD Thesis. Department of Electrical Engineering, Université Stanford, .
- Cette propriété intervient dans les problèmes où l'on cherche à obtenir des objets parcimonieux par minimisation du rang (en compression d'images par exemple). Le rang étant une fonction à valeurs entières, donc difficile à minimiser, on préfère parfois considérer l'approximation convexe du problème qui consiste à y minimiser la norme nucléaire.
- Définition conforme à N. Bourbaki, Algèbre, partie I, Paris, Hermann, 1970, p. II.59, définition 7.
- Voir N. Bourbaki, Algèbre, partie I, Paris, Hermann, 1970, p. II.59, prop. 10 et alinéa suivant la démonstration de cette proposition.