El valor de un operador lineal en un vector. Valores propios y vectores propios de un operador lineal

Sea una transformación lineal de un espacio lineal n-dimensional V. Vector distinto de cero \boldsymbol(s) del espacio lineal V que satisface la condición

\mathcal(A)(\boldsymbol(s))=\lambda\cdot \boldsymbol(s),

llamado vector propio de transformación lineal\mathcal(A) . El número \lambda en igualdad (9.5) se llama valor propio de transformación\mathcal(A) . Se dice que el vector propio corresponde (pertenece) al valor propio \lambda. Si el espacio V es real (complejo), entonces el valor propio \lambda es un número real (complejo).

El conjunto de todos los valores propios de una transformación lineal se llama espectro.

Expliquemos el significado geométrico de los vectores propios. Un vector s distinto de cero es un vector propio de la transformación \mathcal(A) si su imagen \mathcal(A) (\boldsymbol(s)) es colineal a la imagen inversa de \boldsymbol(s) . En otras palabras, si \boldsymbol(s) es un vector propio, entonces la transformación \mathcal(A) tiene un subespacio invariante unidimensional. La afirmación contraria también es cierta.

De hecho, dejemos que el vector propio \boldsymbol(s) corresponda a algún valor propio \lambda . Cualquier vector \boldsymbol(v) de \nombredeloperador(Lin)(\boldsymbol(s)) parece \boldsymbol(v)=\alpha \boldsymbol(s), donde \alpha es cualquier número del campo dado. Encontremos la imagen de este vector.

\mathcal(A)(\boldsymbol(v))= \mathcal(A)(\alpha \boldsymbol(s))= \alpha\cdot \mathcal(A)(\boldsymbol(s))= \alpha\cdot \ lambda\cdot \boldsymbol(s)\in \operatorname(Lin) (\boldsymbol(s)).

Por eso, \mathcal(A)(\boldsymbol(v))\in \operatorname(Lin)(\boldsymbol(s)) para cualquier vector \boldsymbol(v)\in \operatorname(Lin)(\boldsymbol(s)), es decir. subespacio \nombredeloperador(Lin)(\boldsymbol(s)) invariante bajo la transformación \mathcal(A) . Dimensión subespacial \nombredeloperador(Lin) (\boldsymbol(s)) es igual a uno, ya que \boldsymbol(s)\ne \boldsymbol(o) por definición.

La afirmación inversa se puede probar razonando en orden inverso.

Relación entre vectores propios de una transformación lineal (operador) y su matriz

Anteriormente se consideraron vectores propios y valores propios de una matriz. Recuerde que un vector propio de una matriz cuadrada A de enésimo orden es una columna numérica distinta de cero s=\begin(pmatrix)s_1&\cdots&s_(n)\end(pmatrix)^T, condición satisfactoria (7.13):

A\cdot s=\lambda\cdot s.

El número \lambda en (9.6) se llama valor propio de la matriz A. Se creía que el valor propio \lambda y los números s_i~(i=1,\ldots,n) Pertenecen al campo de los números complejos.

Estos conceptos están relacionados con vectores propios y valores propios de una transformación lineal.

Teorema 9.3 sobre los vectores propios de una transformación lineal y su matriz. Dejar \mathcal(A)\dos puntos V\a V es una transformación lineal de un espacio lineal n-dimensional V con base. Entonces el valor propio \lambda y la(s) columna(s) de coordenadas del vector propio \boldsymbol(s) de la transformación \mathcal(A) son el valor propio y el vector propio de la matriz A de esta transformación definida con respecto a la base \boldsymbol(e)_1,\ldots, \boldsymbol(e)_n, es decir.

\mathcal(A)(\boldsymbol(s))=\lambda\cdot \boldsymbol(s)\quad \Rightarrow\quad A\cdot s=\lambda\cdot s, Dónde \boldsymbol(s)=s_1 \boldsymbol(e)_1+\ldots+s_n \boldsymbol(e)_n,~ s=\begin(pmatrix)s_1&\cdots& s_n\end(pmatrix)^T.

La afirmación inversa es cierta bajo condiciones adicionales: si columna s=\begin(pmatrix) s_1&\cdots&s_n\end(pmatrix)^T y el número \lambda son el vector propio y el valor propio de la matriz A, y los números s_1,\ldots,s_n,\lambda pertenecen al mismo campo numérico sobre el cual se define el espacio lineal V, entonces el vector \boldsymbol(s)=s_1 \boldsymbol(e)_1+ \ldots+s_n \boldsymbol(e)_n y el número \lambda son el vector propio y el valor propio de la transformación lineal \mathcal(A)\dos puntos V\a V con matriz A en base \boldsymbol(e)_1,\ldots,\boldsymbol(e)_n.

De hecho, la condición (9.5) en forma de coordenadas tiene la forma (9.6), que coincide con la definición (7.13) del vector propio matricial. Por el contrario, la igualdad (9.6) implica la igualdad (9.5) siempre que los vectores y \lambda\cdot \boldsymbol(s) definido, es decir números s_1,\ldots,s_n,\lambda pertenecen al mismo campo numérico sobre el cual se define el espacio lineal.

Recuerde que encontrar los valores propios de una matriz se reduce a resolver su ecuación característica. \Delta_A(\lambda)=0, Dónde \Delta_A(\lambda)=\det(A-\lambda E) es el polinomio característico de la matriz A. Para la transformación lineal introducimos conceptos similares.

Polinomio característico de transformación lineal. \mathcal(A)\dos puntos V\a V El espacio lineal n-dimensional es el polinomio característico de la matriz A de esta transformación, encontrado con respecto a cualquier base del espacio V.

La ecuación se llama ecuación característica de transformación lineal.

Conversión \mathcal(A)-\lambda\mathcal(E) llamada característica de una transformación lineal \mathcal(A)\dos puntos V\a V.

Notas 9.4

1. El polinomio característico de una transformación lineal no depende de la base en la que se encuentre la matriz de transformación.

De hecho, las matrices \mathop(A)\limits_((\boldsymbol(e))) Y \mathop(A)\limits_((\boldsymbol(f))) transformación lineal \mathcal(A) en bases (\boldsymbol(e))= (\boldsymbol(e)_1,\ldots, \boldsymbol(e)_n) Y (\boldsymbol(f))=(\boldsymbol(f)_1,\ldots,\boldsymbol(f)_n) son, según (9.4), similares: \nathop(A)\limits_((\boldsymbol(f)))=S^(-1)\mathop(A)\limits_((\boldsymbol(e)))S, donde S es la matriz de transición de la base (\boldsymbol(e)) a la base (\boldsymbol(f)). Como se mostró anteriormente, los polinomios característicos de tales matrices coinciden (ver propiedad 3). Por tanto, para el polinomio característico de la transformación \mathcal(A) podemos utilizar la notación \Delta_(\mathcal(A))(\lambda) sin especificar la matriz de esta transformación.

2. Del teorema 9.3 se deduce que cualquier raíz compleja (real, racional) de la ecuación característica es un valor propio de la transformación lineal. \mathcal(A)\dos puntos V\a V espacio lineal V definido sobre el campo de números complejos (reales, racionales).

3. Del Teorema 9.3 se deduce que cualquier transformación lineal de un espacio lineal complejo tiene un subespacio invariante unidimensional, ya que esta transformación tiene un valor propio (ver punto 2) y, por tanto, vectores propios. Un subespacio de este tipo es, por ejemplo, el tramo lineal de cualquier vector propio. Una transformación de un espacio lineal real puede no tener subespacios invariantes unidimensionales si todas las raíces de la ecuación característica son complejas (pero no reales).

Teorema 9.4 sobre subespacios invariantes de un operador lineal en un espacio real. Toda transformación lineal de un espacio lineal real tiene un subespacio invariante unidimensional o bidimensional.

De hecho, compongamos una matriz de transformación lineal A \mathcal(A)\dos puntos V\a V Espacio lineal real n-dimensional V de forma arbitraria \boldsymbol(e)_1,\ldots,\boldsymbol(e)_n. Los elementos de esta matriz son números reales. Por tanto, el polinomio característico \Delta_(\mathcal(A))(\lambda)=\det(A-\lambda E) es un polinomio de grado n con coeficientes reales. Según los Corolarios 3 y 4 del teorema fundamental del álgebra, tal polinomio puede tener raíces reales y pares de raíces conjugadas complejas.

Si \lambda=\lambda_1 es una raíz real de la ecuación característica, entonces el vector propio correspondiente s=\begin(pmatrix)s_1&\cdots&s_n\end(pmatrix)^T la matriz A también es real. Por lo tanto define un vector propio \boldsymbol(s)=s_1 \boldsymbol(e)_1+\ldots+s_n \boldsymbol(e)_n transformación lineal (ver Teorema 9.3). En este caso, hay una invariante de subespacio unidimensional bajo \mathcal(A) \nombredeloperador(Lin)(\boldsymbol(s))(ver el significado geométrico de los vectores propios).

Si \lambda=\alpha\pm\beta i es un par de raíces conjugadas complejas (\beta\ne0), entonces el vector propio s\ne o de la matriz A también tiene elementos complejos: s=\begin(pmatrix)x_1+y_1i&\cdots& x_n+y_n i \end(pmatrix)^T. Se puede representar como s=x+yi , donde x,\,y son columnas reales. La igualdad (9.6) tendrá entonces la forma

A\cdot(x+yi)= (\alpha+\beta i)\cdot(x+yi).


Aislando las partes real e imaginaria obtenemos el sistema

\begin(cases)Ax=\alpha x-\beta y,\\ Ay=\beta x+\alpha y.\end(cases)

Demostremos que las columnas (x) e (y) son linealmente independientes. Consideremos dos casos. Si x=o, entonces de la primera ecuación (9.7) se deduce que y=o, ya que \beta\ne0. Entonces s=o, lo que contradice la condición s\ne o. Supongamos que x\ne o y las columnas x e y son proporcionales, es decir hay un número real \gamma tal que y=\gamma x . Luego del sistema (9.7) obtenemos \begin(cases)Ax=(\alpha-\beta\gamma)x,\\ \gamma Ax=(\beta-\alpha\gamma)x. \end(casos) Sumando la primera ecuación multiplicada por (-\gamma) a la segunda ecuación, llegamos a la igualdad [(\beta+\alpha\gamma)-\gamma(\alpha-\beta\gamma)]x=o. Dado que x\ne o , la expresión entre corchetes es igual a cero, es decir (\beta+\alpha\gamma)- \gamma(\alpha- \beta\gamma)= \beta(1+\gamma^2)=0. Desde \beta\ne0 , entonces \gamma^2=-1 . Esto no puede suceder ya que \gamma es un número real. Tenemos una contradicción. Por tanto, las columnas xey son linealmente independientes.

Considere el subespacio donde \boldsymbol(x)= x_1 \boldsymbol(e)_1+\ldots+x_n \boldsymbol(e)_n,~ \boldsymbol(y)= y_1 \boldsymbol(e)_1+\ldots+ y_n \boldsymbol(y)_n. Este subespacio es bidimensional, ya que los vectores \boldsymbol(x),\boldsymbol(y) son linealmente independientes (como se muestra arriba, sus columnas de coordenadas x,y son linealmente independientes). De (9.7) se deduce que \begin(cases)\mathcal(A)(\boldsymbol(x))=\alpha \boldsymbol(x)-\beta \boldsymbol(y),\\ \mathcal(A)(\boldsymbol(y))=\ beta \boldsymbol(x)+\alpha \boldsymbol(y),\end(casos) aquellos. la imagen de cualquier vector perteneciente a \nombredeloperador(Lin)(\boldsymbol(x),\boldsymbol(y)), también pertenece \nombredeloperador(Lin)(\boldsymbol(x),\boldsymbol(y)). Por eso, \nombredeloperador(Lin)(\boldsymbol(x),\boldsymbol(y)) es un invariante del subespacio bidimensional bajo la transformación \mathcal(A) , que es lo que necesitábamos demostrar.

Encontrar vectores propios y valores de un operador lineal (transformación)

Encontrar vectores propios y valores propios de una transformación lineal. \mathcal(A)\dos puntos V\a V espacio lineal real V, se deben realizar los siguientes pasos.

1. Elija una base arbitraria \boldsymbol(e)_1,\ldots,\boldsymbol(e)_n espacio lineal V y encuentre la matriz de transformación A \mathcal(A) en esta base.

2. Componer el polinomio característico de la transformación. \mathcal(A)\dos puntos\, \Delta_(\mathcal(A))(\lambda)=\det(A-\lambda E).

3. Encuentra todas las raíces reales distintas. \lambda_1,\ldots,\lambda_k ecuación característica \Delta_(\mathcal(A))(\lambda)=0. Las raíces complejas (pero no reales) de la ecuación característica deben descartarse (ver párrafo 2 de las observaciones 9.4).

4. Para la raíz \lambda=\lambda_1 encuentra el sistema fundamental \varphi_1, \varphi_2,\ldots,\varphi_(n-r) soluciones a un sistema homogéneo de ecuaciones (A-\lambda_1E)x=o , donde r=\nombredeloperador(rg)(A-\lambda_1E). Para hacer esto, puede utilizar un algoritmo para resolver un sistema homogéneo o uno de los métodos para encontrar la matriz fundamental.

5. Escribe vectores propios linealmente independientes de la transformación \mathcal(A) correspondiente al valor propio \lambda_1:

\begin(matrix) \boldsymbol(s)_1=\varphi_(1\,1)\boldsymbol(e)_1+ \ldots+ \varphi_(n\,1)\boldsymbol(e)_n,\\ \boldsymbol(s) _2=\varphi_(1\,2)\boldsymbol(e)_1+ \ldots+ \varphi_(n\,2)\boldsymbol(e)_n,\\ \vdots\\ \boldsymbol(s)_(n-r)=\ varphi_(1\,n-r) \boldsymbol(e)_1+ \ldots+\varphi_(n\,n-r)\boldsymbol(e)_n. \end(matriz)

Para encontrar el conjunto de todos los vectores propios correspondientes al valor propio \lambda_1, forme combinaciones lineales distintas de cero

\boldsymbol(s)= C_1 \boldsymbol(s)_1+C_2 \boldsymbol(s)_2+\ldots+ C_(n-r)\boldsymbol(s)_(n-r),

Dónde C_1,C_2,\ldots,C_(n-r)- constantes arbitrarias que no son iguales a cero al mismo tiempo.

Repita los pasos 4, 5 para los valores propios restantes. \lambda_2,\ldots,\lambda_k transformación lineal \mathcal(A) .

Para encontrar los vectores propios de una transformación lineal de un espacio lineal complejo, es necesario determinar en el paso 3 todas las raíces de la ecuación característica y, sin descartar las raíces complejas, realizar los pasos 4 y 5 para ellas.

Ejemplos de vectores propios de operadores lineales (transformaciones)

1. Para una conversión cero \mathcal(O)\dos puntos V\a V cualquier vector distinto de cero es un vector propio correspondiente a un valor propio cero \lambda=0 , ya que \mathcal(O)(\boldsymbol(s))=0\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.

2. Por la transformación de la identidad \mathcal(E)\dos puntos V\a V cualquier vector distinto de cero \boldsymbol(s)\en V es el valor propio correspondiente al valor propio de identidad \lambda=1 , ya que \mathcal(E) (\boldsymbol(s))=1\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.

3. Para simetría central \mathcal(Z)_(\boldsymbol(o))\dos puntos V\a V cualquier vector distinto de cero \boldsymbol(s)\en V \mathcal(Z)_(\boldsymbol(o)) (\boldsymbol(s))=(-1)\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.

4. Para la homotecia \mathcal(H)_(\lambda)\dos puntos V\a V cualquier vector distinto de cero \boldsymbol(s)\en V es un valor propio correspondiente al valor propio \lambda (el coeficiente de homotecia), ya que \mathcal(H)_(\lambda) (\boldsymbol(\boldsymbol(s)))= \lambda\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.

5. Para girar \mathcal(R)_(\varphi)\dos puntos V_2\a V_2 plano (en ) no hay vectores propios, ya que cuando se gira en un ángulo que no es múltiplo de \pi, la imagen de cada vector distinto de cero no es colineal con la imagen inversa. Aquí consideramos la rotación del plano real, es decir espacio vectorial bidimensional sobre el campo de los números reales.

6. Para el operador de diferenciación \mathcal(D)\dos puntos P_n(\mathbb(R))\to P_n(\mathbb(R)) cualquier polinomio distinto de cero de grado cero (no idénticamente cero) es un vector propio correspondiente al valor propio cero \lambda=0 , ya que \mathcal(D)(s(x))=0\cdot s(x) \forall s(x)\equiv \text(const). Cualquier polinomio de grado distinto de cero no es un vector propio, ya que el polinomio no es proporcional a su derivada: \mathcal(D)(s(x))=s"(x)\ne \lambda\cdot s(x), ya que tienen diferentes grados.

7. Considere al operador \Pi_(L_1)\dos puntos V\a V proyección sobre el subespacio L_1 paralela al subespacio L_2. Aquí V=L_1\oplus L_2, \Pi_(L_1)(\boldsymbol(v)_1+ \boldsymbol(v)_2)=\boldsymbol(v)_1 Para \Pi_(L_1)(\boldsymbol(v)_1)=1\cdot \boldsymbol(v)_1, y cualquier vector distinto de cero es un vector propio correspondiente al valor propio \lambda=0 , ya que \Pi_(L_2)(\boldsymbol(v)_2)=0\cdot \boldsymbol(v)_2 \Pi_(L_1)(\boldsymbol(v)_1+\boldsymbol(v)_2)= \boldsymbol(v)_1= \lambda(\boldsymbol(v)_1+\boldsymbol(v)_2) posible ya sea en o en .

8. Considere al operador \mathcal(Z)_(L_1)\dos puntos V\a V reflexiones sobre el subespacio L_1 paralelo al subespacio L_2. Aquí V=L_1\oplus L_2 \mathcal(Z)_(L_1)(\boldsymbol(v)_1+\boldsymbol(v)_2)= \boldsymbol(v)_1- \boldsymbol(v)_2, Para \boldsymbol(v)=\boldsymbol(v)_1+\boldsymbol(v)_2, \boldsymbol(v)_1\en L_1,~ \boldsymbol(v)_2\en L_2. Para este operador, cualquier vector distinto de cero \boldsymbol(v)_1\en L_1 es el valor propio correspondiente al valor propio \lambda=1 ya que \mathcal(Z)_(L_1) (\boldsymbol(v)_1)= 1\cdot \boldsymbol(v)_1, y cualquier vector distinto de cero \boldsymbol(v)_2\en L_2 es el valor propio correspondiente al valor propio \lambda=-1 , ya que \mathcal(Z)_(L_2) (\boldsymbol(v)_2)= (-1)\cdot \boldsymbol(v)_2. Otros vectores no son vectores propios, ya que la igualdad \mathcal(Z)_(L_1)(\boldsymbol(v)_1+\boldsymbol(v)_2)= \boldsymbol(v)_1- \boldsymbol(v)_2= \lambda(\boldsymbol()_1+ \boldsymbol(v )_2) posible ya sea con \boldsymbol(v)_1=\boldsymbol(o), o en \boldsymbol(v)_2= \boldsymbol(o).

9. En el espacio V_3 de vectores de radio del espacio, trazado desde un punto fijo O, considere una rotación de un ángulo \varphi\ne\pi k,~ k\in\mathbb(Z), alrededor del eje \ell definido por el vector de radio \vec(\ell) . Cualquier vector distinto de cero colineal al vector \vec(\ell) es un valor propio correspondiente al valor propio \lambda=1 . Esta transformación no tiene otros vectores propios.

Ejemplo 9.1. Encuentre los valores propios y vectores propios del operador de diferenciación \mathcal(D)\dos puntos T_1\a T_1, transformando el espacio de polinomios trigonométricos (frecuencia \omega=1):

a) con coeficientes reales T_1=T_1(\mathbb(R))= \operatorname(Lin) (\sin(t),\cos(t));

b) con coeficientes complejos T_1=T_1(\mathbb(C))= \operatorname(Lin) (\sin(t),\cos(t)).

Solución. 1. Elijamos una base estándar e_1(t)=\sin(t),~ e_2(t)=\cos(t) y en base a esto componemos la matriz D del operador \mathcal(D):

D=\begin(pmatrix)0&-1\\ 1&0 \end(pmatrix)\!.

2. Compongamos el polinomio característico de la transformación. \mathcal(D)\colon\, \Delta_(\mathcal(D))(\lambda)= \begin(vmatrix)-\lambda&-1\\ 1&-\lambda\end(vmatrix)= \lambda^2+ 1..

3. La ecuación característica \lambda^2+1=0 tiene raíces conjugadas complejas \lambda_1=i,~ \lambda_2=-i. No hay raíces reales, por lo tanto la transformación \mathcal(D) del espacio real T_1(\mathbb(R)) (caso (a)) no tiene valores propios y, por lo tanto, no tiene vectores propios. La transformación \mathcal(D) del espacio complejo T_1(\mathbb(C)) (caso (b)) tiene valores propios complejos \lambda_1,\,\lambda_2.

4(1). Para la raíz \lambda_1=i encontramos el sistema fundamental \varphi_1 de soluciones del sistema homogéneo de ecuaciones (D-\lambda_1 E)x=o:

\begin(pmatrix)-i&-1\\ 1&-i\end(pmatrix)\!\cdot\! \begin(pmatrix) x_1\\x_2 \end(pmatrix)= \begin(pmatrix)0\\0 \end(pmatrix)\!.

Reduzcamos la matriz del sistema a su forma gradual multiplicando la primera ecuación por (i) y restándola de la segunda ecuación:

\begin(pmatrix)-i&-1\\ 1&-i \end(pmatrix)\sim \begin(pmatrix)1&-i\\ 1&-i \end(pmatrix)\sim \begin(pmatrix)1&-i\ \0&0\end(pmatriz)\!.

Expresamos la variable básica x_1 en términos de la variable libre: x_1=ix_2. Suponiendo x_2=1, obtenemos x_1=i, es decir \varphi=\begin(pmatrix)i&1 \end(pmatrix)^T.

5(1). Anotamos el vector propio correspondiente al valor propio. \lambda_1= i\dos puntos\, s_1(t)=i\cdot\sin(t)+1\cdot\cos(t). El conjunto de todos los vectores propios correspondientes al valor propio \lambda_1=i forman funciones distintas de cero proporcionales a s_1(t) .

4(2). Para la raíz \lambda_2=-i encontramos de manera similar el sistema fundamental (que consta de un vector) \varphi_2=\begin(pmatrix)-i&1 \end(pmatrix)^T soluciones a un sistema homogéneo de ecuaciones (D-\lambda_2E)x=o:

\begin(pmatrix)i&-1\\ 1&i \end(pmatrix)\!\cdot\! \begin(pmatrix) x_1\\x_2 \end(pmatrix)= \begin(pmatrix)0\\0 \end(pmatrix)\!.

5(2). Anotamos el vector propio correspondiente al valor propio. \lambda_2=-i\dos puntos\, s_2(t)=-i\cdot\sin(t)+1\cdot\cos(t). El conjunto de todos los vectores propios correspondientes al valor propio \lambda_2=-i forma funciones distintas de cero proporcionales a s_2(t) .


Ver también Propiedades de vectores propios de operadores lineales (transformaciones) Javascript está deshabilitado en su navegador.
Para realizar cálculos, debe habilitar los controles ActiveX.

Las matrices diagonales tienen la estructura más simple. Surge la pregunta de si es posible encontrar una base en la que la matriz del operador lineal tenga forma diagonal. Esa base existe.
Se nos da un espacio lineal R n y un operador lineal A que actúa en él; en este caso, el operador A toma R n en sí mismo, es decir, A:R n → R n .

Definición. Un vector distinto de cero se denomina vector propio del operador A si el operador A se traduce en un vector colineal, es decir. El número λ se denomina valor propio o valor propio del operador A, correspondiente al vector propio.
Observemos algunas propiedades de los valores propios y los vectores propios.
1. Cualquier combinación lineal de vectores propios. El operador A correspondiente al mismo valor propio λ es un vector propio con el mismo valor propio.
2. Vectores propios El operador A con valores propios diferentes por pares λ 1 , λ 2 ,…, λ m son linealmente independientes.
3. Si los valores propios λ 1 = λ 2 = λ m = λ, entonces el valor propio λ corresponde a no más de m vectores propios linealmente independientes.

Entonces, si hay n vectores propios linealmente independientes , correspondientes a diferentes valores propios λ 1, λ 2, ..., λ n, entonces son linealmente independientes, por tanto, pueden tomarse como base del espacio R n. Encontremos la forma de la matriz del operador lineal A en base a sus vectores propios, para lo cual actuaremos con el operador A en base a vectores: Entonces .
Por lo tanto, la matriz del operador lineal A sobre la base de sus vectores propios tiene una forma diagonal, y los valores propios del operador A están a lo largo de la diagonal.
¿Existe otra base en la que la matriz tenga forma diagonal? La respuesta a esta pregunta viene dada por el siguiente teorema.

Teorema. La matriz de un operador lineal A en la base (i = 1..n) tiene forma diagonal si y sólo si todos los vectores de la base son vectores propios del operador A.

Regla para encontrar valores propios y vectores propios

Sea un vector dado , donde x 1, x 2,…, x n son las coordenadas del vector con respecto a la base y es el vector propio del operador lineal A correspondiente al valor propio λ, es decir. Esta relación se puede escribir en forma matricial.

. (*)


La ecuación (*) se puede considerar como una ecuación para encontrar , y , es decir, nos interesan soluciones no triviales, ya que el vector propio no puede ser cero. Se sabe que existen soluciones no triviales de un sistema homogéneo de ecuaciones lineales si y sólo si det(A - λE) = 0. Por lo tanto, para que λ sea un valor propio del operador A es necesario y suficiente que det(A - λE ) = 0.
Si la ecuación (*) se escribe detalladamente en forma de coordenadas, obtenemos un sistema de ecuaciones lineales homogéneas:

(1)
Dónde - matriz de operadores lineales.

El sistema (1) tiene solución distinta de cero si su determinante D es igual a cero


Recibimos una ecuación para encontrar valores propios.
Esta ecuación se llama ecuación característica y su lado izquierdo se llama polinomio característico de la matriz (operador) A. Si el polinomio característico no tiene raíces reales, entonces la matriz A no tiene vectores propios y no se puede reducir a forma diagonal.
Sean λ 1, λ 2,…, λ n las raíces reales de la ecuación característica, y entre ellas puede haber múltiplos. Sustituyendo estos valores a su vez en el sistema (1), encontramos los vectores propios.

Ejemplo 12. El operador lineal A actúa en R 3 según la ley, donde x 1, x 2, .., x n son las coordenadas del vector en la base , , . Encuentre los valores propios y vectores propios de este operador.
Solución. Construimos la matriz de este operador:
.
Creamos un sistema para determinar las coordenadas de vectores propios:

Redactamos una ecuación característica y la resolvemos:

.
λ 1,2 = -1, λ 3 = 3.
Sustituyendo λ = -1 en el sistema, tenemos:
o
Porque , entonces hay dos variables dependientes y una variable libre.
Sea x 1 una incógnita libre, entonces Resolvemos este sistema de cualquier forma y encontramos la solución general de este sistema: El sistema fundamental de soluciones consta de una solución, ya que n - r = 3 - 2 = 1.
El conjunto de vectores propios correspondiente al valor propio λ = -1 tiene la forma: , donde x 1 es cualquier número distinto de cero. Elijamos un vector de este conjunto, por ejemplo, poniendo x 1 = 1: .
Razonando de manera similar, encontramos el vector propio correspondiente al valor propio λ = 3: .
En el espacio R 3, la base consta de tres vectores linealmente independientes, pero obtuvimos solo dos vectores propios linealmente independientes, a partir de los cuales no se puede componer la base en R 3. En consecuencia, no podemos reducir la matriz A de un operador lineal a forma diagonal.

Ejemplo 13. Dada una matriz .
1. Demuestre que el vector es un vector propio de la matriz A. Encuentre el valor propio correspondiente a este vector propio.
2. Encuentre una base en la que la matriz A tenga forma diagonal.
Solución.
1. Si , entonces es un vector propio

.
El vector (1, 8, -1) es un vector propio. Valor propio λ = -1.
La matriz tiene forma diagonal en una base que consta de vectores propios. Uno de ellos es famoso. Busquemos el resto.
Buscamos vectores propios del sistema:

Ecuación característica: ;
(3 + λ)[-2(2-λ)(2+λ)+3] = 0; (3+λ)(λ 2 - 1) = 0
λ 1 = -3, λ 2 = 1, λ 3 = -1.
Encontremos el vector propio correspondiente al valor propio λ = -3:

El rango de la matriz de este sistema es dos e igual al número de incógnitas, por lo que este sistema solo tiene una solución cero x 1 = x 3 = 0. x 2 aquí puede ser cualquier cosa distinta de cero, por ejemplo, x 2 = 1. Por tanto, el vector (0,1,0) es un vector propio correspondiente a λ = -3. Comprobemos:
.
Si λ = 1, entonces obtenemos el sistema
El rango de la matriz es dos. Tachamos la última ecuación.
Sea x 3 una incógnita libre. Entonces x 1 = -3x 3, 4x 2 = 10x 1 - 6x 3 = -30x 3 - 6x 3, x 2 = -9x 3.
Suponiendo x 3 = 1, tenemos (-3,-9,1) - un vector propio correspondiente al valor propio λ = 1. Verifique:

.
Dado que los valores propios son reales y distintos, los vectores correspondientes a ellos son linealmente independientes, por lo que pueden tomarse como base en R 3 . Así, en la base , , la matriz A tiene la forma:
.
No todas las matrices de un operador lineal A:R n → R n se pueden reducir a forma diagonal, ya que para algunos operadores lineales puede haber menos de n vectores propios lineales independientes. Sin embargo, si la matriz es simétrica, entonces la raíz de la ecuación característica de multiplicidad m corresponde exactamente a m vectores linealmente independientes.

Definición. Una matriz simétrica es una matriz cuadrada en la que los elementos simétricos con respecto a la diagonal principal son iguales, es decir, en la que .
Notas. 1. Todos los valores propios de una matriz simétrica son reales.
2. Los vectores propios de una matriz simétrica correspondientes a valores propios diferentes por pares son ortogonales.
Como una de las muchas aplicaciones del aparato estudiado, consideramos el problema de determinar el tipo de curva de segundo orden.

El vector X ≠ 0 se llama vector propio operador lineal con matriz A, si existe un número tal que AX =X.

En este caso, el número  se llama valor propio operador (matriz A) correspondiente al vector x.

En otras palabras, un vector propio es un vector que, bajo la acción de un operador lineal, se transforma en un vector colineal, es decir simplemente multiplica por algún número. Por el contrario, los vectores impropios son más complejos de transformar.

Anotemos la definición de vector propio en forma de sistema de ecuaciones:

Movamos todos los términos al lado izquierdo:

Este último sistema se puede escribir en forma matricial de la siguiente manera:

(A - E)X = O

El sistema resultante siempre tiene una solución cero X = O. Los sistemas en los que todos los términos libres son iguales a cero se denominan homogéneo. Si la matriz de tal sistema es cuadrada y su determinante no es igual a cero, entonces usando las fórmulas de Cramer siempre obtendremos una solución única: cero. Se puede demostrar que un sistema tiene soluciones distintas de cero si y solo si el determinante de esta matriz es igual a cero, es decir

|A - E| = = 0

Esta ecuación con una incógnita se llama ecuación característica(polinomio característico) matriz A (operador lineal).

Se puede demostrar que el polinomio característico de un operador lineal no depende de la elección de la base.

Por ejemplo, encontremos los valores propios y los vectores propios de un operador lineal definido por la matriz A =.

Para hacer esto, creemos una ecuación característica |A - E| = = (1 -) 2 – 36 = 1 – 2+ 2 - 36 = 2 – 2- 35; D = 4 + 140 = 144; valores propios 1 = (2 - 12)/2 = -5; 2 = (2 + 12)/2 = 7.

Para encontrar vectores propios, resolvemos dos sistemas de ecuaciones.

(A + 5E)X = O

(A-7E)X = O

Para el primero de ellos, la matriz expandida toma la forma

,

de donde x 2 = c, x 1 + (2/3)c = 0; x 1 = -(2/3)s, es decir X (1) = (-(2/3)s;s).

Para el segundo de ellos, la matriz expandida toma la forma

,

de donde x 2 = c 1, x 1 - (2/3)c 1 = 0; x 1 = (2/3)s 1, es decir X (2) = ((2/3)s 1; s 1).

Por lo tanto, los vectores propios de este operador lineal son todos los vectores de la forma (-(2/3)с; с) con valor propio (-5) y todos los vectores de la forma ((2/3)с 1 ; с 1) con valor propio 7 .

Se puede demostrar que la matriz del operador A en la base formada por sus vectores propios es diagonal y tiene la forma:

,

donde  i son los valores propios de esta matriz.

Lo contrario también es cierto: si la matriz A en alguna base es diagonal, entonces todos los vectores de esta base serán vectores propios de esta matriz.

También se puede demostrar que si un operador lineal tiene n valores propios distintos por pares, entonces los vectores propios correspondientes son linealmente independientes y la matriz de este operador en la base correspondiente tiene una forma diagonal.

Definición 5.3. Vector distinto de cero x en el espacio lineal L se llama vector propio del operador lineal A: L → L, si para algún número real A se cumple la relación Ax = λx. En este caso, el número λ se llama valor propio (valor propio) del operador lineal A.

Ejemplo 5.3. El espacio lineal K n [x] de polinomios de grado no superior a n contiene polinomios de grado cero, es decir funciones permanentes. Dado que dc/dx = 0 = 0 c, los polinomios de grado cero p(x) = c ≠ 0 son los vectores propios del operador de diferenciación lineal, y el número λ = 0 es el valor propio de este operador. #

El conjunto de todos los valores propios de un operador lineal se llama espectro del operador lineal . Cada vector propio está asociado con su propio valor propio. De hecho, si un vector x satisface simultáneamente dos igualdades Ax = λx y Ax = μx, entonces λx = μx, de donde (λ - μ)x = 0. Si λ - μ ≠ 0, multiplique la igualdad por el número (λ - μ ) -1 y como resultado obtenemos que x = 0. Pero esto contradice la definición de vector propio, ya que un vector propio siempre es distinto de cero.

Cada valor propio tiene sus propios vectores propios y hay infinitos de ellos. De hecho, si x es un vector propio de un operador lineal A con un valor propio λ, es decir Ах = λx, entonces para cualquier número real distinto de cero α tenemos αx ≠ 0 y А(αх) = α(Ах) = αλx = λ(αx). Esto significa que el vector αx también es un vector propio del operador lineal.

Observación 5.1. A menudo hablan de valores propios (números), espectro y vectores propios de una matriz cuadrada . Esto significa lo siguiente. La matriz A de orden n es matriz alguno operador lineal en un fijo base, operando en espacio lineal n-dimensional. Por ejemplo, si nos detenemos en base estándar en el espacio aritmético lineal R n , entonces la matriz A define un operador lineal A, mapeando un vector x ∈ R n con una columna de coordenadas x en un vector con una columna de coordenadas Ax. La matriz A es precisamente la matriz A. Es natural identificar un operador con su matriz de la misma manera que se identifica un vector aritmético con una columna de sus coordenadas. Esta identificación, que se utiliza con frecuencia y no siempre se especifica, permite transferir términos de “operador” a matrices.

El espectro de un operador lineal está estrechamente relacionado con su ecuación característica.

Teorema 5.3. Para que un número real λ sea un valor propio de un operador lineal, es necesario y suficiente que sea la raíz de la ecuación característica de este operador.

◄ Necesidad. Sea el número λ el valor propio del operador lineal A: L → L. Esto significa que existe un vector x ≠ 0 para el cual

Hacha = λx. (5.2)

Tenga en cuenta que en L hay operador de identidad I: Ix = x para cualquier vector x. Usando este operador, transformamos la igualdad (5.2): Ах = λIx, o

(A - λI)x = 0. (5.3)

Escribamos la igualdad vectorial (5.3) en alguna base b. La matriz del operador lineal A - λI será la matriz A - λE, donde A es la matriz del operador lineal A en base b, y E es la matriz identidad, y sea x la columna de coordenadas del vector propio x . Entonces x ≠ 0, y la igualdad vectorial (5.3) es equivalente a la matriz

(A - λE)x = 0, (5.4)

que es una forma matricial de escribir un sistema homogéneo de ecuaciones algebraicas lineales (SLAE) con una matriz cuadrada A - λE de orden n. Este sistema tiene una solución distinta de cero, que es la columna de coordenadas x del vector propio x. Por lo tanto, la matriz A - λE del sistema (5.4) tiene un determinante cero, es decir det(A - λE) = 0. Esto significa que λ es la raíz de la ecuación característica del operador lineal A.

Adecuación. Es fácil ver que el razonamiento anterior se puede llevar a cabo en orden inverso. Si λ es la raíz de la ecuación característica, entonces en una base dada b se cumple la igualdad det (A - λE) = 0. En consecuencia, la matriz de la SLAE homogénea (5.4), escrita en forma matricial, es degenerada, y la El sistema tiene una solución x distinta de cero. Esta solución distinta de cero es un conjunto de coordenadas en la base b de algún vector x distinto de cero para el cual se cumple la igualdad del vector (5.3) o su igualdad equivalente (5.2). Llegamos a la conclusión de que el número λ es un valor propio del operador lineal A.

Cada valor propio λ de la matriz (operador lineal) está asociado con su multiplicidad, poniéndolo igual a la multiplicidad de la raíz λ de la ecuación característica de esta matriz (de este operador lineal).

El conjunto de todos los vectores propios correspondientes a un valor propio dado de un operador lineal no es subespacio lineal, ya que este conjunto no contiene vector cero, que, por definición, no puede ser adecuado. Pero este obstáculo formal y fácilmente superable es el único. Denotemos por £(A, λ) el conjunto de todos los vectores propios del operador lineal A en el espacio lineal L correspondiente al valor propio λ, con el vector cero añadido a este conjunto.

Teorema 5.4. El conjunto £(A,λ) es un subespacio lineal en L.

◄ Elijamos dos vectores arbitrarios x,y ∈ £(A, λ) y demostremos que para cualquier α y β reales el vector αх + βу también pertenece a £(A, λ). Para ello, calculamos la imagen de este vector bajo la acción del operador lineal A:

А(αх + βу) = А((αx) + А(βу) = αАх + βАу = α(λх) + β(λу) = λ(αx) + λ(βу) = λ(αx + βу).

Así, para el vector z = αх + βу se cumple la relación Az = λz. Si z es un vector cero, entonces pertenece a £(A,λ). Si es distinto de cero, entonces, según la relación probada, es un valor propio con un valor propio λ y nuevamente pertenece al conjunto £(A, λ).

El subespacio lineal £(A,λ) a veces se llama subespacio propio del operador lineal *. es un caso especial subespacio invariante operador lineal A - un subespacio lineal tal que para cualquier vector x ∈ H el vector Ax también pertenece a H.

Un subespacio invariante de un operador lineal es también el tramo lineal de cualquier sistema de sus vectores propios. Un subespacio invariante de un operador lineal no relacionado con sus vectores propios es imagen del operador.

El operador lineal más simple es la multiplicación de un vector por un número \(\lambda\). Este operador simplemente estira todos los vectores \(\lambda \) veces. Su forma matricial en cualquier base es \(diag(\lambda ,\lambda ,...,\lambda)\). Para mayor precisión, fijamos la base \(\(e\)\) en el espacio vectorial \(\mathit(L)\) y consideramos un operador lineal con forma matricial diagonal en esta base, \(\alpha = diag( \lambda _1,\lambda _2,...,\lambda _n)\). Este operador, según la definición de la forma matricial, estira \(e_k\) \(\lambda _k\) veces, es decir \(Ae_k=\lambda _ke_k\) para todos \(k=1,2,...,n\). Es conveniente trabajar con matrices diagonales; el cálculo funcional es sencillo de construir para ellas: para cualquier función \(f(x)\) podemos poner \(f(diag(\lambda _1,\lambda _2,..., \lambda _n))= diag(f(\lambda _1),f(\lambda _2),...,f(\lambda _n))\). Por lo tanto, surge una pregunta natural: si hay un operador lineal \(A\), ¿es posible elegir una base en el espacio vectorial de modo que la forma matricial del operador \(A\) sea diagonal en esta base? Esta pregunta lleva a la definición de valores propios y vectores propios.

Definición. Sea para el operador lineal \(A\) existe un vector distinto de cero \(u\) y un número \(\lambda \) tal que \[ Au=\lambda \cdot u. \quad \quad(59) \] Entonces el vector \(u\) se llama vector propio operador \(A\), y el número \(\lambda \) - el correspondiente valor propio operador \(A\). El conjunto de todos los valores propios se llama espectro del operador lineal \(A\).

Surge un problema natural: encontrar para un operador lineal dado sus valores propios y los vectores propios correspondientes. Este problema se llama problema del espectro de un operador lineal.

Ecuación de valores propios

Para mayor precisión, fijamos la base en el espacio vectorial, es decir Daremos por hecho que se da de una vez por todas. Luego, como se analizó anteriormente, la consideración de operadores lineales se puede reducir a la consideración de matrices: formas matriciales de operadores lineales. Reescribimos la ecuación (59) en la forma \[ (\alpha -\lambda E)u=0. \] Aquí \(E\) es la matriz identidad, y \(\alpha\) es la forma matricial de nuestro operador lineal \(A\). Esta relación se puede interpretar como un sistema de \(n\) ecuaciones lineales para \(n\) incógnitas: las coordenadas del vector \(u\). Además, este es un sistema homogéneo de ecuaciones, y deberíamos encontrarlo no trivial solución. Anteriormente, se dio una condición para la existencia de tal solución: para esto es necesario y suficiente que el rango del sistema sea menor que el número de incógnitas. Esto implica la ecuación para los valores propios: \[ det(\alpha -\lambda E)=0. \quad \quad(60) \]

Definición. La ecuación (60) se llama ecuación característica para el operador lineal \(A\).

Describamos las propiedades de esta ecuación y sus soluciones. Si lo escribimos explícitamente, obtenemos una ecuación de la forma \[ (-1)^n\lambda ^n+...+det(A)=0. \quad \quad(61) \] En el lado izquierdo hay un polinomio en la variable \(\lambda \). Este tipo de ecuaciones se denominan algebraicas de grado \(n\). Proporcionemos la información necesaria sobre estas ecuaciones.

Ayuda sobre ecuaciones algebraicas.

Teorema. Sean primos todos los valores propios del operador lineal \(A\). Entonces, el conjunto de vectores propios correspondientes a estos valores propios forma la base del espacio vectorial.

De las condiciones del teorema se deduce que todos los valores propios del operador \(A\) son diferentes. Supongamos que el conjunto de vectores propios es linealmente dependiente, de modo que hay constantes \(c_1,c_2,...,c_n\), no todas las cuales son cero, que satisfacen la condición: \[ \sum_(k=1)^ nc_ku_k=0. \quad \quad(62) \]

Entre tales fórmulas, consideremos una que incluya el número mínimo de términos y actuemos sobre ella con el operador \(A\). Debido a su linealidad, obtenemos: \[ A\left (\sum_(k=1)^nc_ku_k \right)=\sum_(k=1)^nc_kAu_k=\sum_(k=1)^nc_k\lambda _ku_k= 0. \quad \quad(63) \]

Sea, para mayor precisión, \(c_1 \neq 0\). Multiplicando (62) por \(\lambda _1\) y restando de (63), obtenemos una relación de la forma (62), pero que contiene un término menos. La contradicción prueba el teorema.

Entonces, bajo las condiciones del teorema, aparece una base asociada a un operador lineal dado: la base de sus vectores propios. Consideremos la forma matricial del operador sobre esta base. Como se mencionó anteriormente, la \(k\)ésima columna de esta matriz es la descomposición del vector \(Au_k\) con respecto a la base. Sin embargo, por definición \(Au_k=\lambda _ku_k\), esta expansión (lo que está escrito en el lado derecho) contiene solo un término y la matriz construida resulta ser diagonal. Como resultado, encontramos que bajo las condiciones del teorema, la forma matricial del operador en base a sus vectores propios es igual a \(diag(\lambda _1,\lambda _2,...,\lambda _n)\ ). Por tanto, si es necesario desarrollar cálculo funcional para un operador lineal, es razonable trabajar en base a sus vectores propios.

Si entre los valores propios de un operador lineal hay múltiplos, la descripción de la situación se vuelve más complicada y puede incluir las llamadas celdas de Jordan. Remitimos al lector a tutoriales más avanzados para situaciones relevantes.




Arriba