que cumplen las siguientes condiciones
+
. La suma de los elementos de \(E\) (la suma de vectores) y la suma de los elementos de \(\mathbb{K}\) (la suma de escalares). Del mismo modo, los elementos neutros de ambas sumas también los denotamos iguales, por 0, aunque sean diferentes (uno es un vector y, el otro, es un escalar). El contexto nos dirá en cada momento a qué suma y a qué elemento neutro nos estamos refiriendo.
Ocurre lo mismo con el producto. En caso de que pueda haber confusión, no se denotará ningún símbolo a la hora de referirnos a un producto de escalares, mientras que el producto de un escalar por un vector lo denotaremos por \(\alpha\cdot \vec{x}\). Aunque no siempre seremos capaces de mantener esa notación, del mimso modo que denotaremos indistintamente como vectores \(x\) o \(\vec{x}\)
Ejemplo 1
A continuación se muestran ejemplos de espacios vectoriales
Ejemplo 2
No son espacios vectoriales:
Ejercicio 1
¿Por qué los conjuntos anteriores no son espacios vectoriales?
Demostración
Para ver la unicidad del elemento neutro, supongamos que \(0_1\) y \(0_2\) son dos neutros del espacio vectorial \(E\). Entonces, \[0_1 = 0_1 + 0_2 = 0_2\]
Con lo cual, \(0_1 = 0_2\) tal y como queríamos ver.
Ahora, para ver la unicidad del elemento opuesto, supongamos que \(x\in E\) tiene dos elementos opuestos: \(y,z\). Entonces, tendríamos \[y = y+0 = y + (x+z) = (y+x)+z = 0+z = z\]
Con lo cual, \(y = z\) tal y como queríamos demostrar.
Ejercicio 2. Demostrar estas 6 propiedades formalmente.
De las diapositivas anteriores, se deduce fácilmente que,
Ejercicio 3. Demostrar formalmente esta proposición.
Una gran utilidad de esta proposición es que si se comprueba que \(\vec{0}\not\in F\), entonces este conjunto no puede ser nunca un espacio vectorial.
Ejercicio 4. Demostrar formalmente esta proposición.
\[\sum_{i = 1}^nF_i = F_i+\cdots+F_n = \{x_1+\cdots+x_n\ |\ x_i\in F_i,\ i = 1,\dots, n\}\]
es un subespacio vectorial de \(E\) llamado subespacio vectorial suma que contiene todos los \(F_i\) con \(i = 1,\dots, n\)
Ejercicio 5. Demostrar formalmente esta proposición.
Lo que nos dice la proposición anterior, en otras palabras, es que la intersección infinita de subespacios vectoriales es a su vez subespacio vectorial.
No obstante, la unión (finita o arbitraria) de subespacios vectoriales no es subespacio vectorial.
Por su parte, una suma finita de subespacios vectoriales sí es subespacio vectorial y sus elementos son de la forma descrita anteriormente.
Ejemplo 3
En el \(\mathbb{R}\) espacio vectorial \(\mathbb{R}^2\), consideremos los subespacios vectoriales \(F,G\) dados por los ejes de coordenadas cartesianas. Así pues,
\[F = \{(x,0)\ |\ x\in\mathbb{R}\}\qquad G = \{(0,y)\ |\ y\in\mathbb{R}\}\]
Entonces, es fácil ver que \(F\cap G =\{(0,0)\}\) y que \(F+G = \mathbb{R}^2\), que son efectivamente subespacios vectoriales (de hecho son los impropios).
En cambio, si hacemos la unióin, tenemos \(F\cup G = \{(x,y)\in\mathbb{R}^2\ |\ x=0\text{ o }y = 0\}\), que no es subespacio vectorial de \(\mathbb{R}^2\), ya que tomando los elementos \((1,0), (0,1)\in F\cup G\), tenemos que su suma, \((1,1)\not\in F\cup G\)
En un subespacio vectorial sum \(F+G\), la expresión de cada elemento como suma de un elemento de \(F\) más un elemento de \(G\) no tiene por qué ser única y, por lo general, no lo es.
En este sentido, podemos dar las siguientes definiciones:
Ejercicio 6. Demostrar formalmente esta proposición.
Recordemos el Ejemplo 3
:
En el \(\mathbb{R}\)-e.v \(\mathbb{R}^2\) habíamos considerado
\[F = \{(x,0)\ |\ x\in\mathbb{R}\}\qquad G = \{(0,y)\ |\ y\in\mathbb{R}\}\]
y habíamos visto que \(F+G = \mathbb{R}^2\) y que \(F\cap G = \{0\}\).
Con lo cual, tenemos que \(F\oplus G = \mathbb{R}^2\)
El concepto de suma directa lo podemos generalizar a \(n\) sumandos del siguiente modo:
Ejercicio 7
Se puede demostrar de forma parecida al caso \(n = 2\), que la suma \(F_1+\cdots +F_n\) es directa si, y solo si, para todo \(i = 2,\dots,n\) se tiene \[F_i\cap(F_1+\cdots+F_{i-1}) = \{0\}\]
En ocasiones disponemos de un subconjunto \(S\) de \(E\) que no es subespacio vectorial, pero estamos interesados en el más pequeño subespacio vectorial (con respecto a la inclusión) que contiene este subconjunto \(S\).
Este subespacios siempre existe ya que solo debemos considerar la familia de todos los subespacios vectoriales de \(E\) que contienen a \(S\) y entonces sabemos que su intersección es otro subespacio vectorial que, evidentemente, contiene a \(S\) y este será el más pequeño con la propiedad.
Diremos también que \(S\) es un conjunto o sistema generador o que \(S\) genera a \(\langle S\rangle\).
En definitiva, hemos visto que
\[\langle S\rangle = \bigcap_{\begin{matrix}S\subseteq F\\ F\text{ subespacio}\end{matrix}}F\]
De forma más general, definimos sistema generador como
\[\forall\vec{u}\in E,\ \exists\alpha_1,\alpha_2,\dots,\alpha_n\in\mathbb{K}:\ \vec{u} = \sum_{i = 1}^n\alpha_i\vec{u}_i\]
\[\langle S \rangle = \{\alpha_1\cdot x_1+\cdots +\alpha_n\cdot x_n\ |\ n\in\mathbb{Z}^+;\ x_i\in S;\ \alpha_i\in\mathbb{K},\ i = 1,\dots,n\}\]
Es decir, \(\langle S\rangle\) es el subespacio formado por todas las combinaciones lineales posibles de elementos de \(S\)
Ejercicio 8. Demostrar formalmente esta proposición.
En el caso en que \(S\) es finito, \(S = \{x_1,\dots,x_n\}\), entonces se puede escribir
\[\langle S\rangle = \langle x_1,\dots,x_n\rangle = \{\alpha_1\cdot x_1 +\cdots +\alpha_n\cdot x_n\ |\ \alpha_i\in\mathbb{K},\ i=1,\dots,n\}\]
Ejemplo 4
Los vectores \((1,0,0,\dots,0),\ (0,1,0,\dots,0),\ (0,0,1,\dots,0),\dots,(0,0,0,\dots,1)\) forman un sistema generador de \(\mathbb{K}^n\).
Por lo tanto, podemos decir que \(\mathbb{K}^n\) está finitamente generado.
Ejemplo 5
Análogamente, los vectores \(\{1,x,x^2,\dots,x^n\}\) forman un conjunto de generadores del \(\mathbb{K}\)-e.v. \(\mathbb{K}_n[x]\), que es por lo tanto finitamente generado.
En cambio, \(\mathbb{K}[x]\) es un \(\mathbb{K}\)-e.v. que no es finitamente generado. Si suponemos que \(p_1(x),\dots,p_k(x)\) forma un conjunto finito de generadores de este espacio vectorial, considerando \(n = \max{(\deg(p_1),\dots,\deg(p_k))}\), todo polinomio de grado superior a \(n\) no podría ser expresado como combinación lineal de los \(p_i(x)\), \(i= 1,\dots,k\). Llegamos así a contradicción. Observemos pues que \(\mathbb{K}[x]\) tiene un conjunto infinito (numerable) de generadores: \(\{1,x,\dots,x^n,\dots\}\)
Ejemplo 6
Dentro de \(\mathbb{R}^3\) consideramos el subconjunto \(F = \{(x,y,z)\ |\ 5x-y+3z = 0\}\).
Entonces, está claro que \(F\) es un subespacio vectorial y que además, todo elemento de \(F\) es de la forma \((x,5x+3z,z)\) variando \(x,z\in\mathbb{R}\). Así, todo elemento de \(F\) se escribe de la forma \[u = x\cdot (1,5,0)+z\cdot (0,3,1)\] y, por tanto, los vecotres \((1,5,0)\) y \((0,3,1)\) generan todo \(F\)
Ejercicio 9
Lo que nos viene a decir esta proposición es que un mismo espacio o subespacio vectorial puede tener conjuntos de generadores diferentes.
Ejercicio 10. Demostrar formalmente esta proposición.
Recordemos la definición de Combinación Lineal (CL)
\[\alpha_1\vec{u}_1+\alpha_2\vec{u}_2+\cdots+\alpha_p\vec{u}_p\in\mathbb{K}^n\]
Ejemplo 7
Expresar el vector \((2,-4)\) como combinación lineal de los vectores \((1,1)\) y \((-2,0)\)
Necesitamos \(\alpha,\beta\in\mathbb{R}\) tales que
\[(2,-4) = \alpha(1,1)+\beta(-2,0)\]
Con lo cual, se trata de resolver el sistema \[\left\{\begin{matrix} \alpha &-&2\beta &=& 2\\ && \alpha&=& -4\end{matrix}\right.\]
Así pues, ya tenemos que \(\alpha = -4\). Con lo cual, \[2\beta = \alpha-2 = -6\Rightarrow\beta = -3\]
Entonces, la combinación lineal que buscábamos es
\[(2,-4) = (-4)(1,1)+(-3)(-2,0)\]
\[\sum_{i = 1}^p\alpha_i\vec{u}_i = \vec{0}\]
tiene infinitas soluciones y por tanto los escalares \(\alpha_i\in\mathbb{K}\) pueden tomar valores no nulos
\[\exists1\le i\le p:\ \sum_{k\ne i}\alpha_k\vec{u}_k = \vec{u}_i\]
\[\sum_{i = 1}^p\alpha_i\vec{u}_i = \vec{0}\]
tiene como única solución la solución trivial. Es decir, \(\alpha_i = 0\ \forall i=1,2,\dots,p\)
\[\not\exists1\le i\le p:\ \sum_{k\ne i }\alpha_k\vec{u}_k = \vec{u}_i\]
En el caso de un conjunto \(S\ne\emptyset\), \(S\subseteq E\) finito o no, diremos que \(S\) es linealmente independiente si cualquier subconjunto finito de \(S\) lo es.
Es dedir, si cualquier combinación lineal de un número finito de elementos de \(S\) es igual a 0, implica que todos los escalares deben ser 0.
De forma análoga, diremos que \(S\) es linealmente dependiente si existen un número finito de elementos de \(S\) y una combinación suya igual a 0 donde no todos los escalares son 0
Ejercicio 11. Demostrar formalmente esta proposición.
Ejercicio 12. Demostrar formalmente esta proposición.
\[\forall\vec{u}\in E,\ \exists!\alpha_1,\alpha_2,\dots,\alpha_n\in\mathbb{K}:\ \vec{u} = \sum_{i = 1}^n\alpha_i\vec{u}_i\]
Ejercicio 13. Demostrar formalmente este Teorema.
Ejercicio 14. Demostrar formalmente esta Proposición.
Ejercicio 15. Demostrar formalmente este Teorema.
Ejercicio 16. Demostrar formalmente este Teorema.
Como hemos visto hasta ahora, un espacio vectorial tiene infinitas bases. En cada espacio vectorial, hay una que tiene características especiales. Esta no es otra que la
Ejemplo 8. Base canónica
Como también hemos visto que el número de elementos de una base de un espacio vectorial \(E\) dado es único, tiene sentido definir la dimensión de \(E\).
Ejemplo 9
Entonces, lo que haremos será escribir \(\dim_{\mathbb{K}}(E)\)
Ejemplo 10
Ejercicio 17. Demostrar formalmente esta Proposición.
Ejercicio 18. Demostrar formalmente este Corolario.
Ejemplo 11
Sea \(F\) el subespacio vectorial de \(\mathbb{R}^3\) dado por \[F = \{(x,y,z)\in\mathbb{R}^3\ |\ x-y+z = 0\}\]
Todos los vectores de \(F\) se pueden escribir como \((x,x+z,z)\) variando \(x,z\) en \(\mathbb{R}\) y, por tanto,
\[(x,x+z,z) = x\cdot(1,1,0)+z\cdot(0,1,1)\]
Es evidente que \(u_1 = (1,1,0)\) y \(u_2 = (0,1,1)\) generan \(F\). También son LI. Por lo tanto, forman una base de \(F\).
Veamos ahora como completarla hasta una base de \(\mathbb{R}^3\):
Siguiendo el Teorema de Steinitz, lo que haremos será ir introduciendo sucesivamente \(u_1,u_2\) a una base conocida, como por ejemplo la base canónica \(e_1 = (1,0,0),\ e_2 = (0,1,0),\ e_3 = (0,0,1)\).
Para introducir \(u_2\), primero lo escribimos como combinación lineal de la nueva base \[u_2 = (0,1,1) = -(1,0,0)+(1,1,0)+(0,0,1) = (-1)\cdot e_1+1\cdot u_1+1\cdot e_3\]
Por tanto, podemos sustituir cualquiera de los restantes ya que todos los escalares son distintos a 0. Así, según el Teorema de Steinitz, \(u_1,u_2,e_3\) es una base de \(\mathbb{R}^3\) que evidentemente completa a la de \(F\)
Ejercicio 19. Demostrar formalmente este Teorema.
Teorema
anterior, tenemos \[\dim(F\oplus G) = \dim(F) + \dim(G)\]
Ejercicio 20. Demostrar formalmente este Corolario.
¿Cómo construimos nuevos espacios vectoriales a partir de otros conocidos?
Esto es lo que veremos a lo largo de este apartado
\[(u,v)+(u',v') = (u+u',v+v')\] \[\alpha\cdot(u,v) = (\alpha\cdot u,\alpha\cdot v)\]
donde \(u,u'\in E\), \(v,v'\in F\) y \(\alpha\in\mathbb{K}\). Es inmediato ver que con estas operaciones, el conjunto \((E\times F,+,\cdot)\) es un \(\mathbb{K}\)-e.v. llamado
Lo denotaremos habitualmente por \(E\oplus F\)
De forma análoga, el opuesto de cualquier elemento \((u,v)\in E\oplus F\) será \((-u,-v)\in E\oplus F\)
Así pues, dados dos subespacios vectoriales \(F,G\) de un \(\mathbb{K}\)-e.v. \(E\), tenemos que \(F,G\) pueden ser considerados también como \(\mathbb{K}\)-e.v. y, por tanto \(F\oplus G\) denota a la vez dos objetos inicialmente diferentes:
Lo indicado en la diapositiva anterior no lleva a ninguna confusión porque, como veremos más adelante, los dos conjuntos corresponden a \(\mathbb{K}\)-espacios vectoriales isomorfos, es decir, identificables desde el punto de vista de la estructura de espacio vectorial que manejamos.
La definición de espacio producto o espacio suma directa se puede generalizar a \(n\) sumandos:
Con las operaciones suma y producto por escalares definidas componente a componente
\[(\vec{u}_1,\dots,\vec{u}_n)+(\vec{v}_1,\dots,\vec{v}_n) = (\vec{u}_1+\vec{v}_1,\dots,\vec{u}_n+\vec{v}_n)\]\[\alpha\cdot(\vec{u}_1,\dots,\vec{u}_n) = (\alpha\cdot \vec{u}_1,\dots,\alpha\cdot\vec{u}_n)\]
donde \(\vec{u}_i,\vec{v}_i\in E_i,\ \forall i = 1,\dots, n\) y \(\alpha\in\mathbb{K}\)
Ejemplo 12
De la definición anterior, deducimos que el \(\mathbb{K}\)-espacio vectorial \(\mathbb{K}^n\) lo podemos ver como la siguiente suma directa \[\mathbb{K}^n = \mathbb{K}\oplus\cdots\oplus\mathbb{K}\]
Ejercicio 21. Demostrar formalmente esta Proposición.
\[x\sim_{F}y \Leftrightarrow x-y\in F\]
La relación definida anteriormente sobre \(E\) es siempre una relación de equivalencia cualquiera que sea el subespacio vectorial \(F\) ya que
De esta manera podemos considerar el
De hecho, más generalmente tenemos
\[[x]_F = [0]_F\Leftrightarrow x\sim_F0\Leftrightarrow x\in F\ \text{y en estos casos }[x]_F = F\]
Estas clases de equivalencia se denominan
Como hemos visto, las variedades lineales solamente son subespacios vectoriales cuando \(x\in F\), o equivalentemente, cuando la variedad contiene el \(0\in E\), coincidiendo en estos casos con el propio subespacio \(F\).
Dentro del conjunto cociente \(E/F = \{[x]_F\ |\ x\in E\}\) podemos definir las siguientes operaciones de clases de equivalencia, a través de sus representantes:
\[[u]_F +[v]_F = [u+v]_F\] \[\alpha\cdot[u]_F = [\alpha\cdot u]_F\]
Veamos que las operaciones anteriores están bien definidas. En otras palabras, comprobemos que no dependen del representante elegido:
Con todo lo visto hasta el momento, es fácil ver que el conjunto cociente \(E/F\) junto con estas operaciones es un \(\mathbb{K}\)-espacio vectorial:
\[[u]_F +[v]_F = [u+v]_F\] \[\alpha\cdot[u]_F = [\alpha\cdot u]_F\]
donde \(\alpha\in\mathbb{K}\), \(u,v\in E\)
Ejercicio 22. Demostrar formalmente esta Proposición.
En dimensiones infinitas, la fórmula anterior ya no sería válida. Un ejemplo de ello es el \(\mathbb K\)-espacio vectorial de los polinomios \(\mathbb K[x]\).
Si \(p(x)\in\mathbb K[x]\) es un polinomio no constante cualquiera, y consideramos el subconjunto de los múltiplos de \(p(x)\), que denotamos por
\[F=(p(x)) = \{p(x)q(x)| q(x)\in\mathbb K[x]\}\]
se puede demostrar fácilmente que \(F=(p(x))\) es un subespacio vectorial de \(\mathbb K[x]\), ya que la suma de múltiplos de \(p(x)\) es múltiplo de \(p(x)\) y el producto de un escalar por un múltiplo de \(p(x)\) también es múltiplo de \(p(x)\). Además es de dimensión infinita ya que podemos demostrar que no puede tener un número finito de generadores como ocurría con el caso de \(\mathbb K[x]\).
En este caso podemos definir el \(\mathbb K\)-espacio vectorial cociente \(\mathbb K[x]/F\) con \(F=(p(x))\) donde la relación módulo \(F\) sería:
\[a(x)\sim_F b (x)\Longleftrightarrow a(x) - b(x) \in F = (p(x))\]
Ejercicio 23. Demostrar formalmente esta Proposición.
Ejercicio 24. Demostrar formalmente esta Proposición.
De este modo, \(\mathbb{K}[x]/(p(x))\) sería el \(\mathbb{K}\)-espacio vectorial trivial, el \({0}\).
\[\text{rg}\{\vec{u}_1,\dots,\vec{u}_n\} = \dim(\langle\vec{u}_1,\dots,\vec{u}_n\rangle)\]
que coincide con el número máximo de vectores LI que se pueden extraer del conjunto \(\{\vec{u}_1,\dots,\vec{u}_n\}\)
Otra definición de rango:
En otras palabras, como bien se dijo anteriormente, es el número máximo de vectores LI que pueden extraerse del conjunto.
El rango de \(n\) vectores está relacionado con el rango de una matriz tal y como veremos a continuación.
En primer lugar, recordemos que dado un \(\mathbb{K}\)-espacio vectorial de dimensión \(n\) y \(B=\{e_1,\dots,e_n\}\) una base cualquiera de \(E\), todo vector \(x\in E\) se escribe de manera única como combinación lineal de la base \(B\) de la forma \[x = \sum_{i = 1}^n\alpha_i\cdot e_i = \alpha_1\cdot e_1+\cdots+\alpha_n\cdot e_n\]
Por tanto, podemos dar la siguiente definición:
Más formalmente,
\[u = \sum_{i = 1}^n\alpha_i\cdot e_i\]
Estos escalares se denominan coordenadas del vector \(u\) en la base \(B\).
\[u = (\alpha_1,\dots,\alpha_n)_B\]
Entonces,
Ejercicio 25. Demostrar formalmente esta Proposición.
Por la proposición anterior, un método para calcular el rango de un conjunto de vectores consiste en construir una matriz utilizando los vectores como columnas (o filas) y definir el rango de la matriz como el rango de sus vectores columna (o fila).
También reciben el nombre de
Sabemos que las coordenadas de un vector son únicas en cada base, pero distintas cuando cambian de base.
Partiendo de este punto, el problema que se nos plantea es el de calcular las coordenadas de un vector en cierta base \(B'\) dadas las coordenadas del mismo en otra base \(B\).
Se necesitará pues conocer la relación entre ambas bases.
Dadas las bases \(B_u = \{\vec{u}_1,\dots,\vec{u}_n\}\) y \(B_v = \{\vec{v}_1,\dots,\vec{v}_n\}\) de un espacio vectorial \(E\), si queremos calcular las coordenadas de los vectores de \(B_u\) en la base \(B_v\), se han de expresar los vectores \(\vec{u}_i\) como combinación lineal de los vectores de \(\vec{v}_i\)
Ejemplo 13
Dado el vector \(\vec{u}\in\mathbb{R}^3\) de coordenadas \((-2,3,5)_B\) en la base \[B = \{(2,4,0),(1,0,1),(-1,2,0)\}\] Calculemos sus coordenadas en la base canónica \(C\).
En primer lugar, tenemos que expresar los vectores de la base \(B = \{\vec{u}_1,\vec{u}_2,\vec{u}_3\}\) en la base canónica \(C = \{\vec{e}_1,\vec{e}_2,\vec{e}_3\}\):
\[(2,4,0) = 2(1,0,0)+4(0,1,0)+0(0,0,1)\] \[(1,0,1) = 1(1,0,0)+0(0,1,0)+1(0,0,1)\] \[(-1,2,0) = -1(1,0,0)+2(0,1,0)+0(0,0,1)\]
A continuación, lo que buscamos son 3 escalares \(\alpha,\beta,\gamma\in\mathbb{R}\) tales que
\[\vec{u} = (\alpha,\beta,\gamma)_C = \alpha\vec{e}_1+\beta\vec{e}_2+\gamma\vec{e}_3\]
Pero lo que nosotros sabemos es que,
\[\vec{u} = (-2,3,5)_B = -2\vec{u}_1+3\vec{u}_2+5\vec{u}_3\] \[ = -2(2\vec{e}_1+4\vec{e}_2)+3(\vec{e}_1+\vec{e}_3)+5(-\vec{e}_1+2\vec{e}_2) = (-4+3-5)\vec{e}_1 + (-8+10)\vec{e}_2+3\vec{e}_3 = -6\vec{e}_1+2\vec{e}_2+3\vec{e}_3\]
Así pues, \(\vec{u} = (-6,2,3)_C\)
Ejercicio 26
Dadas las bases \(B_u = \{\vec{u}_1,\vec{u}_2,\vec{u}_3\}\) y \(B_v=\{\vec{v}_1,\vec{v}_2,\vec{v}_3\}\) de un espacio vectorial de dimensión 3 y sabiéndose que
\[\left\{\begin{matrix} \vec{v}_1 &=& 2\vec{u}_1&-&\vec{u}_2&+&\vec{u}_3\\ \vec{v}_2 &=& &-&\vec{u}_2&+&2\vec{u}_3\\ \vec{v}_3 &=& -\vec{u}_1&+&\vec{u}_2&-&3\vec{u}_3 \end{matrix}\right.\]
Considerad el vector \(\vec{u} = (2,0,-1)_{B_u}\) y calculad sus coordenadas en la base \(B_v\)
Veamos de dónde sale la relación anterior:
Sea \(E\) un \(\mathbb{K}\)-espacio vectorial de dimensión finita \(n\) y sean \(B_u = \{u_1,\dots,u_n\}\) y \(B_v = \{v_1,\dots,v_n\}\) dos bases de \(E\).
Considremos un vector \(x\in E\) y sean \((\alpha_1,\dots,\alpha_n)_{B_u}\) y \((\beta_1,\dots,\beta_n)_{B_v}\) las coordenadas del vector \(x\) en las bases \(B_u\) y \(B_v\) respectivamente.
Entonces,
\[x = \sum_{i = 1}^n\alpha_i\cdot u_i\qquad x=\sum_{j = 1}^n\beta_j\cdot v_j\]
Ahora bien, los elementos de la base \(B_v\) tienen también unas coordenadas en la base inicial \(B_u\).
Digamos que \(v_j = \sum_{i = 1}^n a_{ij}\cdot u_i\quad j=1,\dots,n\)
y si sustituimos los \(v_j\) por sus expresiones, obtenemos
\[x=\sum_{j = 1}^n\beta_j\cdot v_j = x=\sum_{j = 1}^n\beta_j\cdot \left(\sum_{i = 1}^n a_{ij}\cdot u_i\right)\] \[= \sum_{j = 1}^n\sum_{i = 1}^n (\beta_j a_{ij})\cdot u_i = \sum_{i = 1}^n\left(\sum_{j = 1}^n \beta_ja_{ij}\right)\cdot u_i\]
Ahora como que las coordenadas de \(x\) en la base \(B\) son únicas, se debe verificar que
\[\alpha_i = \sum_{j = 1}^n\beta_ja_{ij}\quad \text{para todo }i=1,\dots,n\]
Esta expresión la podemos escribir de forma matricial como \(PX_v = X_u\) donde \(X_u\) es la matriz columna formada por las coordenadas de \(x\) en la base \(B_u\) (los \(\alpha_i\)), \(X_v\) es la matriz columna de las coordenadas de \(x\) en la base \(B_v\) y \(P\) es la matriz de las \(a_{ij}\)
De esta manera tenemos la ecuación en forma matricial \[PB_v = B_u\Leftrightarrow \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n}\\ \vdots & \vdots & \ddots & \vdots\\ a_{n1} & a_{n2} & \cdots & a_{nn} \end{pmatrix}\begin{pmatrix} \beta_1\\ \beta_2\\ \vdots\\ \beta_n \end{pmatrix} = \begin{pmatrix} \alpha_1\\ \alpha_2\\ \vdots\\ \alpha_n \end{pmatrix} \]
que nos da las coordenadas de \(x\) en la base \(B_u\) en función de las coordenadas del propio \(x\) en la base \(B_v\)
Además, las coordenadas de un vector \(x\) en la base \(B_u\) se obtienen multiplicando las coordenadas de \(x\) en la base \(B_v\) por la matriz \(P\) del cambio de base
Ejemplo 14
Dadas las bases \(B_u = \{\vec{u}_1,\vec{u}_2,\vec{u}_3\}\) y \(B_v=\{\vec{v}_1,\vec{v}_2,\vec{v}_3\}\) de un espacio vectorial de dimensión 3 y sabiéndose que
\[\left\{\begin{matrix} \vec{v}_1 &=& 2\vec{u}_1&-&\vec{u}_2&+&\vec{u}_3\\ \vec{v}_2 &=& &-&\vec{u}_2&+&2\vec{u}_3\\ \vec{v}_3 &=& -\vec{u}_1&+&\vec{u}_2&-&3\vec{u}_3 \end{matrix}\right.\]
Considerad el vector \(\vec{u} = (2,0,-1)_{B_u}\) y calculad sus coordenadas en la base \(B_v\) haciendo uso de matrices
Expresando el anterior sistema en su forma matricial,
\[\begin{pmatrix}2 & -1 & 1\\ 0 & -1 & 2\\ -1 & 1 & -3\end{pmatrix}\begin{pmatrix}\vec{u}_1\\ \vec{u}_2\\ \vec{u}_3\end{pmatrix}= \begin{pmatrix}\vec{v}_1\\ \vec{v}_2\\ \vec{v}_3\end{pmatrix}\]
o bien
\[\begin{pmatrix}\vec{u}_1 & \vec{u}_2 & \vec{u}_3\end{pmatrix}\begin{pmatrix}2 & 0 & -1\\ -1 & -1 & 1\\ 1 & 2 & -3\end{pmatrix}= \begin{pmatrix}\vec{v}_1 & \vec{v}_2 & \vec{v}_3\end{pmatrix}\]
En la primera forma, las filas de la matriz son las coordenadas de los vectores \(\vec{v}_1,\vec{v}_2,\vec{v}_3\) mientras que en el segundo caso, las columnas son las coordenadas de dichos vectores en la base \(B_u\)
Por otro lado, se puede expresar el vector \(\vec{u}\) en ambas bases de la siguiente manera:
\[\vec{u} = 2\vec{u}_1-\vec{u}_3 = \begin{pmatrix}\vec{u}_1 & \vec{u}_2 & \vec{u}_3\end{pmatrix}\begin{pmatrix}2\\ 0\\ -1\end{pmatrix} = \begin{pmatrix}2 & 0 & -1\end{pmatrix}\begin{pmatrix}\vec{u}_1\\ \vec{u}_2\\ \vec{u}_3\end{pmatrix}\]
\[\vec{u} = \alpha\vec{v}_1+\beta\vec{v}_2+\gamma\vec{v}_3 = \begin{pmatrix}\vec{v}_1 & \vec{v}_2 & \vec{v}_3\end{pmatrix}\begin{pmatrix}\alpha\\ \beta\\ \gamma\end{pmatrix} = \begin{pmatrix}\alpha &\beta & \gamma\end{pmatrix}\begin{pmatrix}\vec{v}_1\\ \vec{v}_2\\ \vec{v}_3\end{pmatrix}\]
Con lo cual, tenemos la siguiente igualdad
\[\begin{pmatrix}2 & 0 & -1\end{pmatrix}_{B_u}\begin{pmatrix}\vec{u}_1\\ \vec{u}_2\\ \vec{u}_3\end{pmatrix} = \begin{pmatrix}\alpha &\beta & \gamma\end{pmatrix}_{B_v}\begin{pmatrix}\vec{v}_1\\ \vec{v}_2\\ \vec{v}_3\end{pmatrix}\]
Si ahora sustituimos en la igualdad anterior \[\begin{pmatrix}\vec{v}_1\\ \vec{v}_2\\ \vec{v}_3\end{pmatrix} = \begin{pmatrix}2 & -1 & 1\\ 0 & -1 & 2\\ -1 & 1 & -3\end{pmatrix}\begin{pmatrix}\vec{u}_1\\ \vec{u}_2\\ \vec{u}_3\end{pmatrix}\]
Lo que tenemos es
\[\begin{pmatrix}2 & 0 & -1\end{pmatrix}_{B_u}\begin{pmatrix}\vec{u}_1\\ \vec{u}_2\\ \vec{u}_3\end{pmatrix} = \begin{pmatrix}\alpha &\beta & \gamma\end{pmatrix}_{B_v}\begin{pmatrix}2 & -1 & 1\\ 0 & -1 & 2\\ -1 & 1 & -3\end{pmatrix}\begin{pmatrix}\vec{u}_1\\ \vec{u}_2\\ \vec{u}_3\end{pmatrix}\] \[= \begin{pmatrix}2\alpha-\gamma &-\alpha-\beta +\gamma& \alpha+2\beta-3\gamma\end{pmatrix}\begin{pmatrix}\vec{u}_1\\ \vec{u}_2\\ \vec{u}_3\end{pmatrix}\]
Ahora ya solo falta resolver el sistema
\[\left\{\begin{matrix}2\alpha &&&-&\gamma &=& 2\\ -\alpha & -&\beta&+&\gamma &=&0\\ \alpha&+&2\beta&-&3\gamma &=&-1\end{matrix}\right.\]
Cuya única solución es \((1,-1,0)\)
Así pues,
\[\begin{pmatrix}2 & 0 & -1\\ -1 & -1 & 1\\ 1 & 2 & -3\end{pmatrix}\begin{pmatrix} 1\\ -1\\ 0\end{pmatrix}_{B_v} = \begin{pmatrix} 2\\ 0\\ -1 \end{pmatrix}_{B_u}\]
Ejercicio 27. Demostrar formalmente esta Proposición.
\[\langle\vec{u}_i,\vec{u}_j\rangle = 0\quad\forall i\ne j\]
\[\langle\vec{u}_i,\vec{u}_j\rangle = 0\quad\forall i\ne j\] \[||\vec{u}_i|| = 1\quad\forall i\]
Método de ortogonalización de Gram-Schmidt
Sea \(B= \{\vec{v}_1,\vec{v}_2,\dots,\vec{v}_n\}\) una base cualquiera de un espacio vectorial \(E\) de \(\dim(E) = n\).
A partir de los vectores de la base \(B\), se construirá una nueva base \(B_o = \{\vec{u}_1,\vec{u}_2,\dots,\vec{u}_n\}\) que será ortogonal y del mismo espacio.
\[\forall\vec{x}\in V,\ \forall\vec{y}\in W\Rightarrow \langle\vec{x},\vec{y}\rangle = 0\]
Recordemos…
\[P_{\vec{u}}(\vec{v}) = \frac{\langle\vec{u},\vec{v}\rangle}{\langle\vec{v},\vec{v}\rangle}\vec{v} = \frac{\langle\vec{u},\vec{v}\rangle}{||\vec{v}||^2}\vec{v} \]
\[\vec{u} = \vec{u}_S+\vec{u}_0\]
Con \(\vec{u}_S\in S\) y \(\vec{u}_0\in S^{\perp}\). En particular, el vector \(\vec{u}_S\in S\) se denomina