Factorización QR

En álgebra lineal, la descomposición o factorización QR de una matriz es una descomposición de la misma como producto de una matriz ortogonal por una triangular superior. La descomposición QR es la base del algoritmo QR utilizado para el cálculo de los vectores y valores propios de una matriz.

Definición

La descomposición QR de una matriz cuadrada real A es

A = Q R , {\displaystyle A=QR,\,}

donde Q es una matriz ortogonal (QTQ = I ) y R es una matriz triangular superior.

Cálculo de la descomposición QR

Mediante el método de ortogonalización de Gram-Schmidt

Recurriendo al método de ortogonalización de Gram-Schmidt, con las columnas de A como los vectores a procesar.

A = ( a 1 | | a n ) {\displaystyle A=(\mathbf {a} _{1}|\cdots |\mathbf {a} _{n})} . Entonces

u 1 = a 1 , e 1 = u 1 u 1 {\displaystyle \mathbf {u} _{1}=\mathbf {a} _{1},\qquad \mathbf {e} _{1}={\mathbf {u} _{1} \over \|\mathbf {u} _{1}\|}}
u 2 = a 2 p r o j e 1 a 2 , e 2 = u 2 u 2 {\displaystyle \mathbf {u} _{2}=\mathbf {a} _{2}-\mathrm {proj} _{\mathbf {e} _{1}}\,\mathbf {a} _{2},\qquad \mathbf {e} _{2}={\mathbf {u} _{2} \over \|\mathbf {u} _{2}\|}}
u 3 = a 3 p r o j e 1 a 3 p r o j e 2 a 3 , e 3 = u 3 u 3 {\displaystyle \mathbf {u} _{3}=\mathbf {a} _{3}-\mathrm {proj} _{\mathbf {e} _{1}}\,\mathbf {a} _{3}-\mathrm {proj} _{\mathbf {e} _{2}}\,\mathbf {a} _{3},\qquad \mathbf {e} _{3}={\mathbf {u} _{3} \over \|\mathbf {u} _{3}\|}}
{\displaystyle \vdots }
u k = a k j = 1 k 1 p r o j e j a k , e k = u k u k {\displaystyle \mathbf {u} _{k}=\mathbf {a} _{k}-\sum _{j=1}^{k-1}\mathrm {proj} _{\mathbf {e} _{j}}\,\mathbf {a} _{k},\qquad \mathbf {e} _{k}={\mathbf {u} _{k} \over \|\mathbf {u} _{k}\|}}

Naturalmente, utilizamos los ais de A para obtener:

a 1 = e 1 u 1 {\displaystyle \mathbf {a} _{1}=\mathbf {e} _{1}\|\mathbf {u} _{1}\|}
a 2 = p r o j e 1 a 2 + e 2 u 2 {\displaystyle \mathbf {a} _{2}=\mathrm {proj} _{\mathbf {e} _{1}}\,\mathbf {a} _{2}+\mathbf {e} _{2}\|\mathbf {u} _{2}\|}
a 3 = p r o j e 1 a 3 + p r o j e 2 a 3 + e 3 u 3 {\displaystyle \mathbf {a} _{3}=\mathrm {proj} _{\mathbf {e} _{1}}\,\mathbf {a} _{3}+\mathrm {proj} _{\mathbf {e} _{2}}\,\mathbf {a} _{3}+\mathbf {e} _{3}\|\mathbf {u} _{3}\|}
{\displaystyle \vdots }
a k = j = 1 k 1 p r o j e j a k + e k u k {\displaystyle \mathbf {a} _{k}=\sum _{j=1}^{k-1}\mathrm {proj} _{\mathbf {e} _{j}}\,\mathbf {a} _{k}+\mathbf {e} _{k}\|\mathbf {u} _{k}\|}

Ahora estas ecuaciones pueden ser escritas en forma matricial de esta manera:

( e 1 | | e n ) ( u 1 e 1 , a 2 e 1 , a 3 0 u 2 e 2 , a 3 0 0 u 3 ) {\displaystyle \left(\mathbf {e} _{1}\left|\ldots \right|\mathbf {e} _{n}\right){\begin{pmatrix}\|\mathbf {u} _{1}\|&\langle \mathbf {e} _{1},\mathbf {a} _{2}\rangle &\langle \mathbf {e} _{1},\mathbf {a} _{3}\rangle &\ldots \\0&\|\mathbf {u} _{2}\|&\langle \mathbf {e} _{2},\mathbf {a} _{3}\rangle &\ldots \\0&0&\|\mathbf {u} _{3}\|&\ldots \\\vdots &\vdots &\vdots &\ddots \end{pmatrix}}}  :::::::::

El producto de cada fila con cada columna de las matrices de arriba, nos da la respectiva columna de A con la que comenzamos y, por tanto, dada la matriz A, la hemos factorizado en una matriz ortogonal Q (la matriz de eks), aplicando el proceso de Gram-Schmidt, y la matriz resultante triangular superior es R.

Alternativamente, la matriz R {\displaystyle {\begin{matrix}R\end{matrix}}} puede calcularse de la siguiente manera:

Recordemos que: Q = ( e 1 | | e n ) . {\displaystyle {\begin{matrix}Q\end{matrix}}=\left(\mathbf {e} _{1}\left|\ldots \right|\mathbf {e} _{n}\right).} Entonces, tenemos

R = Q T A = ( e 1 , a 1 e 1 , a 2 e 1 , a 3 0 e 2 , a 2 e 2 , a 3 0 0 e 3 , a 3 ) . {\displaystyle {\begin{matrix}R=Q^{T}A=\end{matrix}}{\begin{pmatrix}\langle \mathbf {e} _{1},\mathbf {a} _{1}\rangle &\langle \mathbf {e} _{1},\mathbf {a} _{2}\rangle &\langle \mathbf {e} _{1},\mathbf {a} _{3}\rangle &\ldots \\0&\langle \mathbf {e} _{2},\mathbf {a} _{2}\rangle &\langle \mathbf {e} _{2},\mathbf {a} _{3}\rangle &\ldots \\0&0&\langle \mathbf {e} _{3},\mathbf {a} _{3}\rangle &\ldots \\\vdots &\vdots &\vdots &\ddots \end{pmatrix}}.}

Note que e j , a j = u j , {\displaystyle \langle \mathbf {e} _{j},\mathbf {a} _{j}\rangle =\|\mathbf {u} _{j}\|,} e j , a k = 0     p a r a     j > k , {\displaystyle \langle \mathbf {e} _{j},\mathbf {a} _{k}\rangle =0\mathrm {~~para~~} j>k,} y Q Q T = I {\displaystyle QQ^{T}=I} , entonces Q T = Q 1 {\displaystyle Q^{T}=Q^{-1}} .

Ejemplo

Si se considera la descomposición de

A = ( 12 51 4 6 167 68 4 24 41 ) . {\displaystyle A={\begin{pmatrix}12&-51&4\\6&167&-68\\-4&24&-41\end{pmatrix}}.}

Se busca la matriz ortogonal Q {\displaystyle Q} tal que

Q Q T = I . {\displaystyle {\begin{matrix}Q\,Q^{T}=I.\end{matrix}}}

Por lo que calculamos Q {\displaystyle Q} mediante Gram-Schmidt como sigue:

U = ( u 1 u 2 u 3 ) = ( 12 69 58 / 5 6 158 6 / 5 4 30 33 ) ; {\displaystyle U={\begin{pmatrix}\mathbf {u} _{1}&\mathbf {u} _{2}&\mathbf {u} _{3}\end{pmatrix}}={\begin{pmatrix}12&-69&-58/5\\6&158&6/5\\-4&30&-33\end{pmatrix}};}
Q = ( u 1 u 1 u 2 u 2 u 3 u 3 ) = ( 6 / 7 69 / 175 58 / 175 3 / 7 158 / 175 6 / 175 2 / 7 6 / 35 33 / 35 ) ; {\displaystyle Q={\begin{pmatrix}{\frac {\mathbf {u} _{1}}{\|\mathbf {u} _{1}\|}}&{\frac {\mathbf {u} _{2}}{\|\mathbf {u} _{2}\|}}&{\frac {\mathbf {u} _{3}}{\|\mathbf {u} _{3}\|}}\end{pmatrix}}={\begin{pmatrix}6/7&-69/175&-58/175\\3/7&158/175&6/175\\-2/7&6/35&-33/35\end{pmatrix}};}

Por lo tanto, tenemos

A = Q Q T A = Q R ; {\displaystyle {\begin{matrix}A=Q\,Q^{T}A=QR;\end{matrix}}}
R = Q T A = ( 14 21 14 0 175 70 0 0 35 ) . {\displaystyle {\begin{matrix}R=Q^{T}A=\end{matrix}}{\begin{pmatrix}14&21&-14\\0&175&-70\\0&0&35\end{pmatrix}}.}

Mediante el uso de reflexiones de Householder

Una transformación de Householder o reflexión de Householder es una transformación que refleja el espacio con respecto a un plano determinado. Esta propiedad se puede utilizar para realizar la transformación QR de una matriz si tenemos en cuenta que es posible elegir la matriz de Householder de manera que un vector elegido quede con una única componente no nula tras ser transformado (es decir, premultiplicando por la matriz de Householder). Gráficamente, esto significa que es posible reflejar el vector elegido respecto de un plano de forma que el reflejo quede sobre uno de los ejes de la base cartesiana.

La manera de elegir el plano de reflexión y formar la matriz de Householder asociada es el siguiente:

Sea x {\displaystyle \mathbf {x} } un vector columna arbitrario m-dimensional tal que || x {\displaystyle \mathbf {x} } || = |α|, donde α es un escalar; (si el algoritmo se implementa utilizando aritmética de coma flotante, entonces α debe adoptar el signo contrario que x {\displaystyle x} 1 para evitar pérdida de precisión).

Entonces, siendo e 1 {\displaystyle \mathbf {e} _{1}} el vector (1,0,...,0)T, y ||·|| la norma euclídea, se define:

u = x α e 1 , {\displaystyle \mathbf {u} =\mathbf {x} -\alpha \mathbf {e} _{1},}
v = u | | u | | , {\displaystyle \mathbf {v} ={\mathbf {u} \over ||\mathbf {u} ||},}
Q = I 2 v v T . {\displaystyle Q=I-2\mathbf {v} \mathbf {v} ^{T}.}

v {\displaystyle v} es un vector unitario perpendicular al plano de reflexión elegido. Q {\displaystyle Q} es una matriz de Householder asociada a dicho plano.

Q x = ( α , 0 , , 0 ) T . {\displaystyle Qx=(\alpha ,0,\cdots ,0)^{T}.\,}

Esta propiedad se puede usar para transformar gradualmente los vectores columna de una matriz A de dimensiones m por n en una matriz triangular superior. En primer lugar se multiplica A con la matriz de Householder Q1 que obtenemos al elegir como vector x {\displaystyle \mathbf {x} } la primera columna de la matriz. Esto proporciona una matriz QA con ceros en la primera columna (excepto el elemento de la primera fila).

Q 1 A = [ α 1 0 A 0 ] {\displaystyle Q_{1}A={\begin{bmatrix}\alpha _{1}&\star &\dots &\star \\0&&&\\\vdots &&A'&\\0&&&\end{bmatrix}}}

el procedimiento se puede repetir para A′ (que se obtiene de A eliminando la primera fila y columna), obteniendo así una matriz de Householder Q2. Hay que tener en cuenta que Q2 es menor que Q1. Para conseguir que esta matriz opere con Q1A en lugar de A′ es necesario expandirla hacia arriba a la izquierda, completando con un uno en la diagonal, o en general:

Q k = ( I k 1 0 0 Q k ) . {\displaystyle Q_{k}={\begin{pmatrix}I_{k-1}&0\\0&Q_{k}'\end{pmatrix}}.}

Tras repetir el proceso t {\displaystyle t} veces, donde t = min ( m 1 , n ) {\displaystyle t=\min(m-1,n)} ,

R = Q t Q 2 Q 1 A {\displaystyle R=Q_{t}\cdots Q_{2}Q_{1}A}

es una matriz triangular superior. De forma que tomando

Q = Q 1 Q 2 Q t {\displaystyle Q=Q_{1}Q_{2}\cdots Q_{t}}

A = Q T R {\displaystyle A=Q^{T}R} es una descomposición QR de la matriz A {\displaystyle A} .

Este método tiene una estabilidad numérica mayor que la del método de Gram-Schmidt descrito arriba.

Una pequeña variación de este método se utiliza para obtener matrices semejantes con la forma de Hessenberg, muy útiles en el cálculo de autovalores por acelerar la convergencia del algoritmo QR reduciendo así enormemente su coste computacional.

Ejemplo

Vamos a calcular la descomposición de la matriz

A = ( 12 51 4 6 167 68 4 24 41 ) . {\displaystyle A={\begin{pmatrix}12&-51&4\\6&167&-68\\-4&24&-41\end{pmatrix}}.}

En primer lugar necesitamos encontrar una reflexión que transforme la primera columna de la matriz A, vector a 1 = ( 12 , 6 , 4 ) T {\displaystyle \mathbf {a} _{1}=(12,6,-4)^{T}} , en a 1 e 1 = ( 14 , 0 , 0 ) T . {\displaystyle \|\mathbf {a} _{1}\|\;\mathrm {e} _{1}=(14,0,0)^{T}.}

usando la expresión,

u = a 1 α e 1 , {\displaystyle \mathbf {u} =\mathbf {a} _{1}-\alpha \mathbf {e} _{1},}

y

v = u | u | , {\displaystyle \mathbf {v} ={\mathbf {u} \over |\mathbf {u} |},}

en nuestro caso :

α = 14 {\displaystyle \alpha =14} y a 1 = ( 12 , 6 , 4 ) T {\displaystyle \mathbf {a} _{1}=(12,6,-4)^{T}}

Por lo tanto

u = ( 2 , 6 , 4 ) T {\displaystyle \mathbf {u} =(-2,6,-4)^{T}} y v = 1 14 ( 1 , 3 , 2 ) T {\displaystyle \mathbf {v} ={1 \over {\sqrt {14}}}(-1,3,-2)^{T}} , entonces
Q 1 = I 2 14 14 ( 1 3 2 ) ( 1 3 2 ) {\displaystyle Q_{1}=I-{2 \over {\sqrt {14}}{\sqrt {14}}}{\begin{pmatrix}-1\\3\\-2\end{pmatrix}}{\begin{pmatrix}-1&3&-2\end{pmatrix}}}
= I 1 7 ( 1 3 2 3 9 6 2 6 4 ) {\displaystyle =I-{1 \over 7}{\begin{pmatrix}1&-3&2\\-3&9&-6\\2&-6&4\end{pmatrix}}}
= ( 6 / 7 3 / 7 2 / 7 3 / 7 2 / 7 6 / 7 2 / 7 6 / 7 3 / 7 ) . {\displaystyle ={\begin{pmatrix}6/7&3/7&-2/7\\3/7&-2/7&6/7\\-2/7&6/7&3/7\\\end{pmatrix}}.}

Ahora observamos:

Q 1 A = ( 14 21 14 0 49 14 0 168 77 ) , {\displaystyle Q_{1}A={\begin{pmatrix}14&21&-14\\0&-49&-14\\0&168&-77\end{pmatrix}},}

con lo que ya casi tenemos una matriz triangular. Sólo necesitamos hacer cero en el elemento (3,2).

Tomando la submatriz bajo el (1, 1) y aplicando de nuevo el proceso a

A = M 11 = ( 49 14 168 77 ) . {\displaystyle A'=M_{11}={\begin{pmatrix}-49&-14\\168&-77\end{pmatrix}}.}

Mediante el mismo método que antes obtenemos la matriz de Householder

Q 2 = ( 1 0 0 0 7 / 25 24 / 25 0 24 / 25 7 / 25 ) {\displaystyle Q_{2}={\begin{pmatrix}1&0&0\\0&-7/25&24/25\\0&24/25&7/25\end{pmatrix}}}

Finalmente obtenemos

Q = Q 1 Q 2 = ( 6 / 7 69 / 175 58 / 175 3 / 7 158 / 175 6 / 175 2 / 7 6 / 35 33 / 35 ) {\displaystyle Q=Q_{1}Q_{2}={\begin{pmatrix}6/7&-69/175&58/175\\3/7&158/175&-6/175\\-2/7&6/35&33/35\end{pmatrix}}}
R = Q A = ( 14 21 14 0 175 70 0 0 35 ) . {\displaystyle R=Q^{\top }A={\begin{pmatrix}14&21&-14\\0&175&-70\\0&0&35\end{pmatrix}}.}

La matriz Q es ortogonal y R es triangular superior, de forma que A = QR es la descomposición QR buscada.

Mediante rotaciones de Givens

Las descomposiciones QR también puden calcularse utilizando una serie de rotaciones de Givens. Cada rotación anula (hace cero) un elemento en la subdiagonal de la matriz, formando de este modo la matriz R. La concatenación de todas las rotaciones de Givens realizadas, forma la matriz ortogonal Q.

En la práctica, las rotaciones de Givens no se utilizan en la actualidad para construir una matriz completa y realizar un producto de matrices. En su lugar, se utiliza un procedimiento de rotación de Givens, que es equivalente a la multiplicación reducida de matrices de Givens, sin el trabajo extra de manejar los elementos reducidos. El procedimiento de rotación de Givens es útil en situaciones donde sólo pocos elementos fuera de la diagonal necesitan ser anulados y es más fácil de paralelizar que las transformaciones de Householder.

Ejemplo

Calculemos la descomposición de

A = ( 12 51 4 6 167 68 4 24 41 ) {\displaystyle A={\begin{pmatrix}12&-51&4\\6&167&-68\\-4&24&-41\end{pmatrix}}}

Primero, necesitamos formar una matriz de rotación tal que hagamos cero el elemento más inferior a la izquierda, a 31 = 4 {\displaystyle \mathbf {a} _{31}=-4} . Construimos esta matriz empleando el método de la rotación de Givens y llamamos la matriz resultante G 1 {\displaystyle G_{1}} . Rotamos primero el vector ( 6 , 4 ) {\displaystyle (6,-4)} , representándolo a lo largo del eje X. Este vector forma un ángulo θ = arctan ( 4 6 ) {\displaystyle \theta =\arctan({-4 \over 6})} . Creamos la matriz ortogonal de rotación de Givens, G 1 {\displaystyle G_{1}} :

G 1 = ( 1 0 0 0 cos ( θ ) sin ( θ ) 0 sin ( θ ) cos ( θ ) ) {\displaystyle G_{1}={\begin{pmatrix}1&0&0\\0&\cos(\theta )&\sin(\theta )\\0&-\sin(\theta )&\cos(\theta )\end{pmatrix}}}
( 1 0 0 0 0.83205 0.55470 0 0.55470 0.83205 ) {\displaystyle \approx {\begin{pmatrix}1&0&0\\0&0.83205&-0.55470\\0&0.55470&0.83205\end{pmatrix}}}

Y el resultado de G 1 A {\displaystyle G_{1}A} tiene ahora un cero en el a 31 {\displaystyle \mathbf {a} _{31}} elemento.

G 1 A ( 12 51 4 7.21110 125.63959 33.83671 0 112.60414 71.83368 ) {\displaystyle G_{1}A\approx {\begin{pmatrix}12&-51&4\\7.21110&125.63959&-33.83671\\0&112.60414&-71.83368\end{pmatrix}}}


Procedemos análogamente con las matrices de Givens G 2 {\displaystyle G_{2}} y G 3 {\displaystyle G_{3}} , que hacen cero los elementos subdiagonales a 21 {\displaystyle a_{21}} y a 32 {\displaystyle a_{32}} , formando una matriz triangular R {\displaystyle R} . La matriz ortogonal Q T {\displaystyle Q^{T}} es formada a partir del producto en cadena de todas las matrices de Givens Q T = G 3 G 2 G 1 {\displaystyle Q^{T}=G_{3}G_{2}G_{1}} . Luego tenemos G 3 G 2 G 1 A = Q T A = R {\displaystyle G_{3}G_{2}G_{1}A=Q^{T}A=R} , y la descomposición QR es A = Q R {\displaystyle A=QR} .

Relación con el determinante

Es posible utilizar la descomposición QR para encontrar el valor absoluto del determinante de una matriz. Suponiendo que una matriz se descompone según A = Q R {\displaystyle A=QR} . Entonces se tiene

det ( A ) = det ( Q ) det ( R ) . {\displaystyle \det(A)=\det(Q)\cdot \det(R).}

Puesto que Q es unitaria, | det ( Q ) | = 1 {\displaystyle |\det(Q)|=1} . Por tanto,

| det ( A ) | = | det ( R ) | = | i r i i | , {\displaystyle |\det(A)|=|\det(R)|={\Big |}\prod _{i}r_{ii}{\Big |},}

donde r i i {\displaystyle r_{ii}} son los valores de la diagonal de R.

Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q653242
  • Wd Datos: Q653242