Combinación lineal
Una expresión general para la combinación lineal es:
es decir, una suma de una serie de vectores , cada uno con un escalar . Dos ejemplos son las formas paramétricas de la línea y el plano en para :
otros ejemplos son:
Dependencia lineal
La dependencia lineal significa que un conjunto de vectores se puede expresar utilizando entre sí en una combinación lineal. En las secciones sobre la ecuación de una línea y la ecuación de un plano, escribimos sobre sus respectivas formas paramétricas y . Si estas expresiones se generalizan, vemos que un vector en se puede expresar como:
donde son vectores en . entonces se llama una combinación lineal y depende linealmente de los vectores . Si todos estos vectores se consideran como un conjunto, se llaman un subespacio de .
La ecuación anterior se puede establecer como un sistema de ecuaciones lineales:
y luego resuelto con el método Gauss-Jordan. Si hay una solución única , significa que se puede expresar como una combinación lineal de los vectores , y por lo tanto el conjunto de vectores y son linealmente dependientes. Si no hay tal solución para , entonces los vectores son linealmente independientes. Nótese que si es linealmente dependiente de , entonces también es linealmente dependiente de y . Esto nos lleva a la definición formal:
Un conjunto desconocido de vectores en se dice que es linealmente independiente si los únicos escalares que resuelven la ecuación:
son , es decir, la solución trivial. Si hay algún escalar no nulo que resuelve la ecuación, el conjunto de vectores se dice que es linealmente dependiente.
Una conclusión es que cualquier conjunto de vectores con más de vectores en es siempre linealmente dependiente. La razón es que entonces se obtienen más ecuaciones que variables, lo que llevará a al menos una fila cero con la reducción de filas.