Rango de matriz. Método de limítrofe de menores. Independencia lineal de las filas (columnas) de la matriz. Propiedades de columnas matriciales linealmente dependientes y linealmente independientes

Dejar

Columnas de la matriz de dimensiones. Combinación lineal de columnas matriciales. llamada matriz de columnas, con algunos números reales o complejos llamados coeficientes de combinación lineal. Si en una combinación lineal tomamos todos los coeficientes iguales a cero, entonces la combinación lineal es igual a la matriz de columna cero.

Las columnas de la matriz se llaman linealmente independiente , si su combinación lineal es igual a cero sólo cuando todos los coeficientes de la combinación lineal son iguales a cero. Las columnas de la matriz se llaman linealmente dependiente , si hay un conjunto de números entre los cuales al menos uno es distinto de cero, y la combinación lineal de columnas con estos coeficientes es igual a cero

De manera similar, se pueden dar definiciones de dependencia lineal e independencia lineal de las filas de la matriz. A continuación, se formulan todos los teoremas para las columnas de la matriz.

Teorema 5

Si hay un cero entre las columnas de la matriz, entonces las columnas de la matriz son linealmente dependientes.

Prueba. Considere una combinación lineal en la que todos los coeficientes son iguales a cero para todas las columnas distintas de cero y uno para todas las columnas cero. Es igual a cero y entre los coeficientes de la combinación lineal hay un coeficiente distinto de cero. Por tanto, las columnas de la matriz son linealmente dependientes.

Teorema 6

Si columnas de matriz son linealmente dependientes, eso es todo las columnas de la matriz son linealmente dependientes.

Prueba. Para mayor precisión, asumiremos que las primeras columnas de la matriz linealmente dependiente. Entonces, según la definición de dependencia lineal, hay un conjunto de números entre los cuales al menos uno es distinto de cero, y la combinación lineal de columnas con estos coeficientes es igual a cero.

Hagamos una combinación lineal de todas las columnas de la matriz, incluidas las columnas restantes con coeficientes cero.

Pero . Por tanto, todas las columnas de la matriz son linealmente dependientes.

Consecuencia. Entre las columnas de matrices linealmente independientes, cualquiera es linealmente independiente. (Esta afirmación se puede probar fácilmente mediante contradicción).

Teorema 7

Para que las columnas de una matriz sean linealmente dependientes, es necesario y suficiente que al menos una columna de la matriz sea una combinación lineal de las demás.

Prueba.

Necesidad. Sean las columnas de la matriz linealmente dependientes, es decir, hay un conjunto de números entre los cuales al menos uno es distinto de cero, y la combinación lineal de columnas con estos coeficientes es igual a cero.

Supongamos con certeza que . Entonces es decir, la primera columna es una combinación lineal del resto.

Adecuación. Sea al menos una columna de la matriz una combinación lineal de las demás, por ejemplo, donde están algunos números.

Entonces , es decir, la combinación lineal de columnas es igual a cero, y entre los números de la combinación lineal al menos uno (at ) es diferente de cero.

Sea el rango de la matriz. Cualquier menor distinto de cero de orden 1 se llama básico . Las filas y columnas en cuya intersección hay una base menor se denominan básico .

dónde están algunos números (algunos de estos números o incluso todos pueden ser iguales a cero). Esto significa que existen las siguientes igualdades entre los elementos de las columnas:

o , .

De (3.3.1) se deduce que

(3.3.2)

¿Dónde está la cadena cero?

Definición. Las filas de la matriz A son linealmente dependientes si hay números que no son todos iguales a cero al mismo tiempo, de modo que

(3.3.3)

Si la igualdad (3.3.3) es verdadera si y solo si , entonces las filas se llaman linealmente independientes. La relación (3.3.2) muestra que si una de las filas se expresa linealmente en términos de las demás, entonces las filas son linealmente dependientes.

Es fácil ver lo contrario: si las cadenas son linealmente dependientes, entonces hay una cadena que será una combinación lineal de las cadenas restantes.

Sea, por ejemplo, en (3.3.3), entonces .

Definición. Dejemos que se seleccione un determinado menor en la matriz A. r º orden y dejar menor ( r El orden +1) de la misma matriz contiene por completo el menor. Diremos que en este caso el menor linda con el menor (o está lindando con ).

Ahora demostraremos un lema importante.

Lemasobre menores limítrofes. Si el menor es de orden r la matriz A = es distinta de cero, y todos los menores que la bordean son iguales a cero, entonces cualquier fila (columna) de la matriz A es una combinación lineal de sus filas (columnas) que la componen.

Prueba. Sin perder la generalidad del razonamiento, asumiremos que un menor distinto de cero r el orden ésimo está en la esquina superior izquierda de la matriz A=:

.

Para el primer k filas de la matriz A, el enunciado del lema es obvio: basta con incluir en una combinación lineal la misma fila con un coeficiente igual a uno, y el resto, con coeficientes iguales a cero.

Probemos ahora que las filas restantes de la matriz A se expresan linealmente en términos de la primera k pauta. Para hacer esto, construiremos un menor ( r +1)º orden añadiendo al menor k -ésima línea () y yoª columna():

.

El menor resultante es igual a cero para todos k y l . Si , entonces es igual a cero porque contiene dos columnas idénticas. Si , entonces el menor resultante es una arista menor para y, por lo tanto, es igual a cero según las condiciones del lema.

Descompongamos el menor según los elementos del último.yoª columna:

(3.3.4)

donde están los complementos algebraicos de los elementos. El complemento algebraico es menor de la matriz A, por tanto. Divida (3.3.4) entre y expréselo mediante:

(3.3.5)

Dónde , .

Suponiendo, obtenemos:

(3.3.6)

La expresión (3.3.6) significa que k La enésima fila de la matriz A se expresa linealmente mediante la primera r líneas.

Dado que cuando se transpone una matriz los valores de sus menores no cambian (debido a la propiedad de los determinantes), entonces todo lo demostrado también es válido para las columnas. El teorema ha sido demostrado.

Corolario I . Cualquier fila (columna) de una matriz es una combinación lineal de sus filas (columnas) básicas. De hecho, la base menor de la matriz es distinta de cero y todos los menores que la bordean son iguales a cero.

Corolario II. determinante sustantivo, masculino— de orden es igual a cero si y sólo si contiene filas (columnas) linealmente dependientes. La suficiencia de la dependencia lineal de las filas (columnas) para que el determinante sea igual a cero se demostró anteriormente como una propiedad de los determinantes.

Demostremos la necesidad. Sea una matriz cuadrada norte ésimo orden, el único menor del cual es cero. De ello se deduce que el rango de esta matriz es menor norte , es decir. hay al menos una fila que es una combinación lineal de las filas base de esta matriz.

Demostremos otro teorema sobre el rango de la matriz.

Teorema.El número máximo de filas linealmente independientes de una matriz es igual al número máximo de sus columnas linealmente independientes y es igual al rango de esta matriz.

Prueba. Sea el rango de la matriz A= igual a r. Entonces cualquiera de sus k las filas de la base son linealmente independientes; de lo contrario, la base menor sería cero. Por otra parte, cualquier r +1 o más filas son linealmente dependientes. Suponiendo lo contrario, podríamos encontrar un menor de orden mayor que r , diferente de cero por el Corolario 2 del lema anterior. Esto último contradice el hecho de que el orden máximo de menores distintos de cero es igual a r . Todo lo demostrado para las filas también es válido para las columnas.

En conclusión, describiremos otro método para encontrar el rango de una matriz. El rango de una matriz se puede determinar encontrando un menor de orden máximo diferente de cero.

A primera vista, esto requiere el cálculo de un número finito, pero quizás muy grande, de menores de esta matriz.

Sin embargo, el siguiente teorema permite introducir importantes simplificaciones.

Teorema.Si el menor de la matriz A es distinto de cero y todos los menores que lo bordean son iguales a cero, entonces el rango de la matriz es igual a r.

Prueba. Es suficiente mostrar que cualquier subsistema de filas de matrices con s>r será linealmente dependiente bajo las condiciones del teorema (de esto se deducirá que r es el número máximo de filas linealmente independientes de la matriz o cualquiera de sus menores de orden mayor que k son iguales a cero).

Supongamos lo contrario. Sean las filas linealmente independientes. Por el lema de los menores limítrofes, cada uno de ellos quedará expresado linealmente en términos de las rectas que contienen al menor y que, por ser distintas de cero, son linealmente independientes:

(3.3.7)

Considere la matriz K a partir de los coeficientes de expresiones lineales (3.3.7):

.

Las filas de esta matriz se denotarán por . Serán linealmente dependientes, ya que el rango de la matriz K, es decir el número máximo de sus líneas linealmente independientes no excede r< S . Por lo tanto, hay números, no todos iguales a cero, que

Pasemos a la igualdad de componentes.

(3.3.8)

Consideremos ahora la siguiente combinación lineal:

o

Un sistema de vectores del mismo orden se llama linealmente dependiente si se puede obtener un vector cero a partir de estos vectores mediante una combinación lineal adecuada. (No está permitido que todos los coeficientes de una combinación lineal sean iguales a cero, ya que esto sería trivial). De lo contrario, los vectores se denominan linealmente independientes. Por ejemplo, los siguientes tres vectores:

son linealmente dependientes, ya que eso es fácil de comprobar. En el caso de una dependencia lineal, cualquier vector siempre se puede expresar mediante una combinación lineal de otros vectores. En nuestro ejemplo: o o Esto es fácil de comprobar con los cálculos adecuados. Esto lleva a la siguiente definición: un vector es linealmente independiente de otros vectores si no puede representarse como una combinación lineal de estos vectores.

Consideremos un sistema de vectores sin especificar si es linealmente dependiente o linealmente independiente. Para cada sistema formado por vectores columna a, es posible identificar el número máximo posible de vectores linealmente independientes. Este número, indicado por la letra , es el rango de este sistema vectorial. Dado que cada matriz puede verse como un sistema de vectores columna, el rango de una matriz se define como el número máximo de vectores columna linealmente independientes que contiene. Los vectores de fila también se utilizan para determinar el rango de una matriz. Ambos métodos dan el mismo resultado para la misma matriz y no pueden exceder el valor más pequeño de o. El rango de una matriz cuadrada de orden varía de 0 a . Si todos los vectores son cero, entonces el rango de dicha matriz es cero. Si todos los vectores son linealmente independientes entre sí, entonces el rango de la matriz es igual. Si formamos una matriz a partir de los vectores anteriores, entonces el rango de esta matriz es 2. Dado que cada dos vectores se pueden reducir a un tercio mediante una combinación lineal, entonces el rango es menor que 3.

Pero podemos asegurarnos de que dos vectores cualesquiera de ellos sean linealmente independientes, de ahí el rango

Una matriz cuadrada se llama singular si sus vectores columna o vectores fila son linealmente dependientes. El determinante de dicha matriz es igual a cero y su matriz inversa no existe, como se señaló anteriormente. Estas conclusiones son equivalentes entre sí. Como resultado, una matriz cuadrada se llama no singular o no singular si sus vectores de columna o vectores de fila son independientes entre sí. El determinante de dicha matriz no es igual a cero y su matriz inversa existe (compárese con la pág. 43)

El rango de la matriz tiene una interpretación geométrica bastante obvia. Si el rango de la matriz es igual a , entonces se dice que el espacio de dimensiones está atravesado por vectores. Si el rango es entonces los vectores se encuentran en un subespacio dimensional que los incluye a todos. Entonces, el rango de la matriz corresponde a la dimensión mínima requerida del espacio "que contiene todos los vectores"; un subespacio -dimensional en un espacio -dimensional se llama hiperplano -dimensional. El rango de la matriz corresponde a la dimensión más pequeña del hiperplano en el que todavía se encuentran todos los vectores.

Ortogonalidad. Se dice que dos vectores a y b son mutuamente ortogonales si su producto escalar es cero. Si la matriz de orden tiene la igualdad donde D es una matriz diagonal, entonces los vectores columna de la matriz A son mutuamente ortogonales por pares. Si estos vectores columna se normalizan, es decir, se reducen a una longitud igual a 1, entonces se produce la igualdad y hablamos de vectores ortonormales. Si B es una matriz cuadrada y se cumple la igualdad, entonces la matriz B se llama ortogonal. En este caso, de la fórmula (1.22) se deduce que la matriz ortogonal siempre es no singular. Por tanto, de la ortogonalidad de la matriz se desprende la independencia lineal de sus vectores fila o vectores columna. La afirmación inversa no es cierta: la independencia lineal de un sistema de vectores no implica la ortogonalidad por pares de estos vectores.

El concepto de rango de matriz está estrechamente relacionado con el concepto de dependencia (independencia) lineal de sus filas o columnas. En el futuro presentaremos el material para filas; para columnas la presentación es similar.

en la matriz A Denotemos sus líneas de la siguiente manera:

, , …. ,

Se dice que dos filas de una matriz son iguales, si sus elementos correspondientes son iguales: , si , .

Las operaciones aritméticas en filas de una matriz (multiplicar una fila por un número, sumar filas) se introducen como operaciones que se llevan a cabo elemento por elemento:

Línea mi llamada combinación lineal de cuerdas..., matriz, si es igual a la suma de los productos de estas filas por números reales arbitrarios:

Las filas de la matriz se llaman linealmente dependiente, si hay números que no son simultáneamente iguales a cero, de modo que una combinación lineal de filas de la matriz sea igual a la fila cero:

, =(0,0,...,0). (3.3)

Teorema 3.3Las filas de una matriz son linealmente dependientes si al menos una fila de la matriz es una combinación lineal de las demás.

□ De hecho, para mayor precisión, en la fórmula (3.3) , Entonces

Por tanto, la fila es una combinación lineal de las filas restantes. ■

Si una combinación lineal de filas (3.3) es igual a cero si y solo si todos los coeficientes son iguales a cero, entonces las filas se llaman linealmente independientes.

Teorema 3.4.(sobre el rango de la matriz) El rango de una matriz es igual al número máximo de sus filas o columnas linealmente independientes a través de las cuales se expresan linealmente todas sus otras filas (columnas).

□ Deje que la matriz A el tamaño m n tiene rango r(r mín.). Esto significa que hay un menor distinto de cero. r-ésimo orden. Cualquier menor distinto de cero r El décimo orden se denominará base menor.

Para mayor precisión, sea la base menor Menor principal o de esquina. Entonces las filas de la matriz son linealmente independientes. Supongamos lo contrario, es decir, que una de estas cadenas, por ejemplo, es una combinación lineal de las demás. Restar de los elementos r- de la 1.ª fila, los elementos de la 1.ª fila, multiplicados por , luego los elementos de la 2.ª fila, multiplicados por , ... y los elementos ( r- 1) - ésima fila multiplicada por . Con base en la propiedad 8, con tales transformaciones de la matriz su determinante D no cambiará, pero dado que r- la fila ahora estará formada únicamente por ceros, entonces D = 0 es una contradicción. Por lo tanto, nuestra suposición de que las filas de la matriz son linealmente dependientes es incorrecta.

Llamemos a las líneas básico. Demostremos que cualquier fila (r+1) de la matriz es linealmente dependiente, es decir cualquier cadena se expresa en términos de básicos.

Consideremos un menor (r +1) de primer orden, que se obtiene complementando el menor en cuestión con elementos de otra fila. i y columna j. Este menor es cero ya que el rango de la matriz es r, por lo que cualquier menor de orden superior es cero.

Expandiéndolo de acuerdo con los elementos de la última columna (agregada), obtenemos

Donde el módulo del último complemento algebraico coincide con la base menor D y por lo tanto diferente de cero, es decir 0.

Considere una matriz A arbitraria, no necesariamente cuadrada, de tamaño mxn.

Rango de matriz.

El concepto de rango de matriz está asociado con el concepto de dependencia (independencia) lineal de las filas (columnas) de la matriz. Consideremos este concepto para cadenas. Para columnas, de manera similar.

Denotamos los drenajes de la matriz A:

mi 1 =(a 11,a 12,…,a 1n); e 2 =(a 21,a 22,…,a 2n);…, e m =(a m1,a m2,…,a mn)

e k =e s si a kj =a sj , j=1,2,…,n

Las operaciones aritméticas sobre filas de matrices (suma, multiplicación por un número) se introducen como operaciones realizadas elemento por elemento: λе k =(λа k1 ,λа k2 ,…,λа kn);

e k +е s =[(a k1 +a s1),(a k2 +a s2),…,(a kn +a sn)].

La línea e se llama combinación lineal filas e 1, e 2,…, e k, si es igual a la suma de los productos de estas líneas por números reales arbitrarios:

mi=λ 1 mi 1 +λ 2 mi 2 +…+λ k mi k

Las líneas e 1, e 2,…, e m se llaman linealmente dependiente, si hay números reales λ 1 ,λ 2 ,…,λ m , no todos iguales a cero, que la combinación lineal de estas cadenas es igual a la cadena cero: λ 1 e 1 +λ 2 e 2 +…+λ m mi m = 0 ,Dónde 0 =(0,0,…,0) (1)

Si una combinación lineal es igual a cero si y sólo si todos los coeficientes λ i son iguales a cero (λ 1 =λ 2 =...=λ m =0), entonces las filas e 1, e 2,..., nos llamamos linealmente independiente.

Teorema 1. Para que las cadenas e 1 , e 2 ,…, e m sean linealmente dependientes, es necesario y suficiente que una de estas cadenas sea una combinación lineal de las cadenas restantes.

Prueba. Necesidad. Sean las cadenas e 1, e 2,…, e m linealmente dependientes. Dejemos, para mayor precisión, (1) λ m ≠0, entonces

Eso. la cadena e m es una combinación lineal de las cadenas restantes. Etc.

Adecuación. Sea una de las cadenas, por ejemplo e m, una combinación lineal de las cadenas restantes. Luego habrá números tales que se cumpla la igualdad, que se pueden reescribir en la forma

donde al menos 1 de los coeficientes, (-1), no es igual a cero. Aquellos. las filas son linealmente dependientes. Etc.

Definición. orden k-ésima menor La matriz A de tamaño mxn se denomina determinante de orden k con elementos que se encuentran en la intersección de k filas y k columnas de la matriz A. (k≤min(m,n)). .

Ejemplo., menores de 1er orden: =, =;

Menores de segundo orden: , 3er orden

Una matriz de tercer orden tiene 9 menores de primer orden, 9 menores de segundo orden y 1 menor de tercer orden (el determinante de esta matriz).

Definición. Rango de la matriz A es el orden más alto de los menores distintos de cero de esta matriz. Designación - rg A o r(A).

Propiedades de rango de matriz.

1) el rango de la matriz A nxm no excede la menor de sus dimensiones, es decir

r(A)≤mín(m,n).

2) r(A)=0 cuando todos los elementos de la matriz son iguales a 0, es decir A=0.

3) Para una matriz cuadrada A de enésimo orden r(A)=n, cuando A no es degenerada.



(El rango de una matriz diagonal es igual al número de sus elementos diagonales distintos de cero).

4) Si el rango de una matriz es igual a r, entonces la matriz tiene al menos un menor de orden r que no es igual a cero, y todos los menores de orden superior son iguales a cero.

Las siguientes relaciones se cumplen para los rangos de la matriz:

2) r(A+B)≤r(A)+r(B); 3) r(AB)≤mín(r(A),r(B));

3) r(A+B)≥│r(A)-r(B)│; 4) r(A T A)=r(A);

5) r(AB)=r(A), si B es una matriz cuadrada no singular.

6) r(AB)≥r(A)+r(B)-n, donde n es el número de columnas de la matriz A o filas de la matriz B.

Definición. Un menor distinto de cero de orden r(A) se llama menor básico. (La matriz A puede tener varias bases menores). Las filas y columnas en cuya intersección hay una base menor se denominan respectivamente cuerdas base Y columnas base.

Teorema 2 (sobre la base menor). Las filas (columnas) subyacentes son linealmente independientes. Cualquier fila (cualquier columna) de la matriz A es una combinación lineal de las filas (columnas) básicas.

Prueba. (Para cuerdas). Si las filas básicas fueran linealmente dependientes, entonces, según el teorema (1), una de estas filas sería una combinación lineal de otras filas básicas, entonces, sin cambiar el valor del menor básico, puedes restar la combinación lineal indicada de esta fila. y obtenemos una fila cero, y esto contradice el hecho de que la base menor es diferente de cero. Eso. las filas de la base son linealmente independientes.

Demostremos que cualquier fila de la matriz A es una combinación lineal de las filas de la base. Porque con cambios arbitrarios de filas (columnas) el determinante conserva la propiedad de ser igual a cero, entonces, sin pérdida de generalidad, podemos suponer que la base menor está en la esquina superior izquierda de la matriz

A=, aquellos. ubicado en las primeras r filas y las primeras r columnas. Sea 1£j£n, 1£i£m. Demostremos que el determinante de orden (r+1)

Si j£r o i£r, entonces este determinante es igual a cero, porque tendrá dos columnas idénticas o dos filas idénticas.

Si j>r y i>r, entonces este determinante es menor del (r+1)ésimo orden de la matriz A. Dado que El rango de la matriz es r, lo que significa que cualquier menor de orden superior es igual a 0.

Expandiéndolo de acuerdo con los elementos de la última columna (agregada), obtenemos

a 1j A 1j +a 2j A 2j +…+a rj A rj +a ij A ij =0, donde el último complemento algebraico A ij coincide con la base menor M r y por tanto A ij = M r ≠0.

Dividiendo la última igualdad por A ij, podemos expresar el elemento a ij como una combinación lineal: , donde .

Fijemos el valor de i (i>r) y encontremos que para cualquier j (j=1,2,...,n) los elementos de la i-ésima fila e i se expresan linealmente a través de los elementos de las filas e 1, e 2,...,e r, es decir, e. La i-ésima fila es una combinación lineal de las filas base: . Etc.

Teorema 3. (condición necesaria y suficiente para que el determinante sea igual a cero). Para que el determinante D de enésimo orden sea igual a cero, es necesario y suficiente que sus filas (columnas) sean linealmente dependientes.

Prueba (p.40). Necesidad. Si el determinante D de enésimo orden es igual a cero, entonces la base menor de su matriz es de orden r

Por tanto, una fila es una combinación lineal de las demás. Entonces, según el teorema 1, las filas del determinante son linealmente dependientes.

Adecuación. Si las filas D son linealmente dependientes, entonces, según el teorema 1, una fila A i es una combinación lineal de las filas restantes. Restando la combinación lineal indicada de la cadena A i sin cambiar el valor de D, obtenemos una cadena cero. Por tanto, según las propiedades de los determinantes, D=0. etc.

Teorema 4. Durante las transformaciones elementales, el rango de la matriz no cambia.

Prueba. Como se demostró al considerar las propiedades de los determinantes, al transformar matrices cuadradas, sus determinantes no cambian, se multiplican por un número distinto de cero o cambian de signo. En este caso, se conserva el orden más alto de menores distintos de cero de la matriz original, es decir, el rango de la matriz no cambia. Etc.

Si r(A)=r(B), entonces A y B son equivalente: A~B.

Teorema 5. Usando transformaciones elementales, puedes reducir la matriz a vista escalonada. La matriz se llama paso a paso, si tiene la forma:

A=, donde a ii ≠0, i=1,2,…,r; r≤k.

La condición r≤k siempre se puede lograr transponiendo.

Teorema 6. El rango de una matriz escalonada es igual al número de sus filas distintas de cero .

Aquellos. El rango de la matriz escalonada es igual a r, porque hay un menor distinto de cero de orden r:




Arriba