Combinaison linéaire
Une expression générale pour la combinaison linéaire est :
c'est-à-dire, une somme d'une série de vecteurs , chacun avec un scalaire . Deux exemples sont les formes paramétriques pour la ligne et le plan dans pour :
d'autres exemples sont :
Dépendance linéaire
La dépendance linéaire signifie qu'un ensemble de vecteurs peut être exprimé les uns à l'aide des autres dans une combinaison linéaire. Dans les sections sur l'équation d'une ligne et l'équation d'un plan, nous écrivons sur leurs formes paramétriques respectives et . Si ces expressions sont généralisées, nous voyons qu'un vecteur dans peut être exprimé comme :
où sont des vecteurs dans . est alors appelé une combinaison linéaire et est dépendant linéairement des vecteurs . Si tous ces vecteurs sont considérés comme un ensemble, ils sont appelés un sous-espace de .
L'équation ci-dessus peut être mise en place comme un système d'équations linéaires :
et ensuite résolue avec la méthode de Gauss-Jordan. S'il existe une solution unique , cela signifie que peut être exprimé comme une combinaison linéaire des vecteurs , et ainsi l'ensemble des vecteurs et sont dépendants linéairement. S'il n'existe pas de solution pour , alors les vecteurs sont indépendants linéairement. Note que si est dépendant linéairement de , alors est également dépendant linéairement de et . Cela nous amène à la définition formelle :
Un ensemble inconnu de vecteurs dans est dit être linéairement indépendant si les seuls scalaires qui résolvent l'équation :
sont , c'est-à-dire, la solution triviale. S'il existe un scalaire non nul qui résout l'équation, l'ensemble de vecteurs est dit être linéairement dépendant.
Une conclusion est que tout ensemble de vecteurs avec plus de vecteurs dans est toujours dépendant linéairement. La raison est que tu obtiens alors plus d'équations que de variables, ce qui conduira à au moins une ligne zéro avec la réduction des lignes.