Tema 6 Espacios vectoriales
6.1 Definición de Espacio Vectorial
- Ley de composición interna \[\forall\vec{x},\vec{y}\in E\Rightarrow \vec{x}+\vec{y}\in E\]
- Ley de composición externa\[\forall\vec{x}\in E,\alpha\in\mathbb{K}\Rightarrow\alpha\vec{x}\in E\]
que cumplen las siguientes condiciones
- Propiedad conmutativa: \[\vec{x}+\vec{y} = \vec{y}+\vec{x}\quad \forall\vec{x},\vec{y}\in E\]
- Propiedad asociativa: \[\vec{x}+(\vec{y}+\vec{z}) = (\vec{x}+\vec{y})+\vec{z}\quad \forall\vec{x},\vec{y},\vec{z}\in E\]
- Elemento neutro de la suma: \(\exists\vec{0}\in E:\ \vec{x}+\vec{0}= \vec{x}\quad \forall\vec{x}\in E\)
- Existencia del opuesto: \(\forall\vec{x}\in E,\ \exists-\vec{x}\in E:\ \vec{x}+(-\vec{x}) = (-\vec{x})+\vec{x} = \vec{0}\)
- Propiedad asociativa: \[\alpha(\beta\vec{x}) = (\alpha\beta)\vec{x}\quad \forall\vec{x}\in E,\alpha,\beta\in\mathbb{K}\]
- Elemento neutro del producto: \(\exists1\in\mathbb{K}:\ 1\vec{x} = \vec{x}\quad \forall\vec{x}\in E\)
- Propiedad distributiva del producto respecto de la suma de vectores:\[\alpha(\vec{x}+\vec{y}) = \alpha\vec{x}+\alpha\vec{y}\quad \forall\vec{x},\vec{y}\in E,\alpha\in\mathbb{K}\]
- Propiedad distributiva del producto respecto de la suma de escalares:\[(\alpha+\beta)\vec{x} = \alpha\vec{x}+\beta\vec{x}\quad \forall\vec{x}\in E,\alpha,\beta\in\mathbb{K}\]
+
. La suma de los elementos de \(E\) (la suma de vectores) y la suma de los elementos de \(\mathbb{K}\) (la suma de escalares). Del mismo modo, los elementos neutros de ambas sumas también los denotamos iguales, por 0, aunque sean diferentes (uno es un vector y, el otro, es un escalar). El contexto nos dirá en cada momento a qué suma y a qué elemento neutro nos estamos refiriendo.
Ocurre lo mismo con el producto. En caso de que pueda haber confusión, no se denotará ningún símbolo a la hora de referirnos a un producto de escalares, mientras que el producto de un escalar por un vector lo denotaremos por \(\alpha\cdot \vec{x}\). Aunque no siempre seremos capaces de mantener esa notación, del mimso modo que denotaremos indistintamente como vectores \(x\) o \(\vec{x}\)
Ejemplo 1
A continuación se muestran ejemplos de espacios vectoriales
- \(\mathbb{R}^n\) formado por los vectores de \(n\) componentes \((x_1,x_2,\dots,x_n)\)
- El conjunto \(P_n(\mathbb{K}) = \{a_nx^n+a_{n-1}x^{n-1}+\cdots+a_1x+a_0:\ a_i\in\mathbb{K},\ \forall0\le i\le n\}\)
- El espacio \(\mathcal{M}_2(\mathbb{K})\) de las matrices de orden 2 con coeficientes sobre \(\mathbb{K}\)
- El conjunto de las funciones continuas definidas sobre un cuerpo \(\mathbb{K}\)
Ejemplo 2
No son espacios vectoriales:
- El conjunto de matrices \(\mathcal{M}_{m\times n}(\mathbb{Z})\)
- El conjunto de polinomios de grado exactamente igual a 3 con coeficientes reales
Ejercicio 1
¿Por qué los conjuntos anteriores no son espacios vectoriales?
Demostración
Para ver la unicidad del elemento neutro, supongamos que \(0_1\) y \(0_2\) son dos neutros del espacio vectorial \(E\). Entonces, \[0_1 = 0_1 + 0_2 = 0_2\]
Con lo cual, \(0_1 = 0_2\) tal y como queríamos ver.
Ahora, para ver la unicidad del elemento opuesto, supongamos que \(x\in E\) tiene dos elementos opuestos: \(y,z\). Entonces, tendríamos \[y = y+0 = y + (x+z) = (y+x)+z = 0+z = z\]
Con lo cual, \(y = z\) tal y como queríamos demostrar.
- \(0\cdot x = 0\)
- \(\lambda\cdot 0 = 0\)
- Si \(\lambda\cdot x = 0\), entonces \(x = 0\) o \(\lambda = 0\)
- \((-\lambda)\cdot x = -(\lambda\cdot x) = \lambda\cdot (-x)\). En particular, \((-1)\cdot x = -x\)
- \(\lambda\cdot (x-y) = \lambda\cdot x -\lambda \cdot y\)
- \((\lambda-\mu)\cdot x = \lambda \cdot x-\mu\cdot x\)
Ejercicio 2. Demostrar estas 6 propiedades formalmente.
6.2 Subespacios vectoriales
- La suma de dos elementos de \(F\) es otro elemento de \(F\): \[\forall\vec{x},\vec{y}\in F\Rightarrow\vec{x}+\vec{y}\in F\]
- El producto de un escalar por un elemento \(F\) es otro elemento de \(F\): \[\forall\vec{x}\in F,\ \alpha\in\mathbb{K}\Rightarrow\alpha\vec{x}\in F\]
De los resultados anteriores, se deduce fácilmente que,
- \(\vec{0}\in F\)
- Si \(\vec{x}\in F\), entonces \(-\vec{x}\in F\)
Ejercicio 3. Demostrar formalmente esta proposición.
Una gran utilidad de esta proposición es que si se comprueba que \(\vec{0}\not\in F\), entonces este conjunto no puede ser nunca un espacio vectorial.
- \(F\) es un subespacio vectorial
- \(F\) es un \(\mathbb{K}\)-espacio vectorial con las mismas operaciones de \(E\) restringidas a \(F\)
- \(F\) verifica \(ax+by\in F\quad\forall a,b\in\mathbb{K}\) y \(\forall x,y\in F\)
- Cualquier combinación lineal de vectores de \(F\) es un vector de \(F\), es decir, \(\sum a_ix_i\in F\quad\forall a_i\in\mathbb{K}\) y \(\forall x_i\in F\)
Ejercicio 4. Demostrar formalmente esta proposición.
- Si \((F_i)_{i\in I}\) es una familia cualquiera de subespacios vectoriales de \(E\), entonces \(\bigcap_{i\in I}F_i\) es un subespacio vectorial de \(E\) contenido en todos los \(F_i\) con \(i\in I\)
- Si \(F_1,\dots,F_n\) son subespacios vectoriales de \(E\), entonces
\[\sum_{i = 1}^nF_i = F_i+\cdots+F_n = \{x_1+\cdots+x_n\ |\ x_i\in F_i,\ i = 1,\dots, n\}\]
es un subespacio vectorial de \(E\) llamado subespacio vectorial suma que contiene todos los \(F_i\) con \(i = 1,\dots, n\)
Ejercicio 5. Demostrar formalmente esta proposición.
Lo que nos dice la proposición anterior, en otras palabras, es que la intersección infinita de subespacios vectoriales es a su vez subespacio vectorial.
No obstante, la unión (finita o arbitraria) de subespacios vectoriales no es subespacio vectorial.
Por su parte, una suma finita de subespacios vectoriales sí es subespacio vectorial y sus elementos son de la forma descrita anteriormente.
Ejemplo 3
En el \(\mathbb{R}\) espacio vectorial \(\mathbb{R}^2\), consideremos los subespacios vectoriales \(F,G\) dados por los ejes de coordenadas cartesianas. Así pues,
\[F = \{(x,0)\ |\ x\in\mathbb{R}\}\qquad G = \{(0,y)\ |\ y\in\mathbb{R}\}\]
Entonces, es fácil ver que \(F\cap G =\{(0,0)\}\) y que \(F+G = \mathbb{R}^2\), que son efectivamente subespacios vectoriales (de hecho son los impropios).
En cambio, si hacemos la unióin, tenemos \(F\cup G = \{(x,y)\in\mathbb{R}^2\ |\ x=0\text{ o }y = 0\}\), que no es subespacio vectorial de \(\mathbb{R}^2\), ya que tomando los elementos \((1,0), (0,1)\in F\cup G\), tenemos que su suma, \((1,1)\not\in F\cup G\)
En un subespacio vectorial sum \(F+G\), la expresión de cada elemento como suma de un elemento de \(F\) más un elemento de \(G\) no tiene por qué ser única y, por lo general, no lo es.
En este sentido, podemos dar las siguientes definiciones:
Ejercicio 6. Demostrar formalmente esta proposición.
- \(\forall x\in E\), \(\exists y\in F,\ z\in G\ :\ x = y+z\)
- \(F\cap G = \{0\}\)
Recordemos el Ejemplo 3
:
En el \(\mathbb{R}\)-e.v \(\mathbb{R}^2\) habíamos considerado
\[F = \{(x,0)\ |\ x\in\mathbb{R}\}\qquad G = \{(0,y)\ |\ y\in\mathbb{R}\}\]
y habíamos visto que \(F+G = \mathbb{R}^2\) y que \(F\cap G = \{0\}\).
Con lo cual, tenemos que \(F\oplus G = \mathbb{R}^2\)
El concepto de suma directa lo podemos generalizar a \(n\) sumandos del siguiente modo:
Ejercicio 7
Se puede demostrar de forma parecida al caso \(n = 2\), que la suma \(F_1+\cdots +F_n\) es directa si, y solo si, para todo \(i = 2,\dots,n\) se tiene \[F_i\cap(F_1+\cdots+F_{i-1}) = \{0\}\]
En ocasiones disponemos de un subconjunto \(S\) de \(E\) que no es subespacio vectorial, pero estamos interesados en el más pequeño subespacio vectorial (con respecto a la inclusión) que contiene este subconjunto \(S\).
Este subespacios siempre existe ya que solo debemos considerar la familia de todos los subespacios vectoriales de \(E\) que contienen a \(S\) y entonces sabemos que su intersección es otro subespacio vectorial que, evidentemente, contiene a \(S\) y este será el más pequeño con la propiedad.
Diremos también que \(S\) es un conjunto o sistema generador o que \(S\) genera a \(\langle S\rangle\).
En definitiva, hemos visto que
\[\langle S\rangle = \bigcap_{\begin{matrix}S\subseteq F\\ F\text{ subespacio}\end{matrix}}F\]
De forma más general, definimos sistema generador como
\[\forall\vec{u}\in E,\ \exists\alpha_1,\alpha_2,\dots,\alpha_n\in\mathbb{K}:\ \vec{u} = \sum_{i = 1}^n\alpha_i\vec{u}_i\]
\[\langle S \rangle = \{\alpha_1\cdot x_1+\cdots +\alpha_n\cdot x_n\ |\ n\in\mathbb{Z}^+;\ x_i\in S;\ \alpha_i\in\mathbb{K},\ i = 1,\dots,n\}\]
Es decir, \(\langle S\rangle\) es el subespacio formado por todas las combinaciones lineales posibles de elementos de \(S\)
Ejercicio 8. Demostrar formalmente esta proposición.
En el caso en que \(S\) es finito, \(S = \{x_1,\dots,x_n\}\), entonces se puede escribir
\[\langle S\rangle = \langle x_1,\dots,x_n\rangle = \{\alpha_1\cdot x_1 +\cdots +\alpha_n\cdot x_n\ |\ \alpha_i\in\mathbb{K},\ i=1,\dots,n\}\]
Ejemplo 4
Los vectores \((1,0,0,\dots,0),\ (0,1,0,\dots,0),\ (0,0,1,\dots,0),\dots,(0,0,0,\dots,1)\) forman un sistema generador de \(\mathbb{K}^n\).
Por lo tanto, podemos decir que \(\mathbb{K}^n\) está finitamente generado.
Ejemplo 5
Análogamente, los vectores \(\{1,x,x^2,\dots,x^n\}\) forman un conjunto de generadores del \(\mathbb{K}\)-e.v. \(\mathbb{K}_n[x]\), que es por lo tanto finitamente generado.
En cambio, \(\mathbb{K}[x]\) es un \(\mathbb{K}\)-e.v. que no es finitamente generado. Si suponemos que \(p_1(x),\dots,p_k(x)\) forma un conjunto finito de generadores de este espacio vectorial, considerando \(n = \max{(\deg(p_1),\dots,\deg(p_k))}\), todo polinomio de grado superior a \(n\) no podría ser expresado como combinación lineal de los \(p_i(x)\), \(i= 1,\dots,k\). Llegamos así a contradicción. Observemos pues que \(\mathbb{K}[x]\) tiene un conjunto infinito (numerable) de generadores: \(\{1,x,\dots,x^n,\dots\}\)
Ejemplo 6
Dentro de \(\mathbb{R}^3\) consideramos el subconjunto \(F = \{(x,y,z)\ |\ 5x-y+3z = 0\}\).
Entonces, está claro que \(F\) es un subespacio vectorial y que además, todo elemento de \(F\) es de la forma \((x,5x+3z,z)\) variando \(x,z\in\mathbb{R}\). Así, todo elemento de \(F\) se escribe de la forma \[u = x\cdot (1,5,0)+z\cdot (0,3,1)\] y, por tanto, los vecotres \((1,5,0)\) y \((0,3,1)\) generan todo \(F\)
Ejercicio 9
- Demostrar que \(F\) es un subespacio vectorial de \(E\)
- Detallar por qué los elementos de \(F\) tienen esa forma
Lo que nos viene a decir esta proposición es que un mismo espacio o subespacio vectorial puede tener conjuntos de generadores diferentes.
Ejercicio 10. Demostrar formalmente esta proposición.
6.3 Dependencia e Independencia Lineal de vectores
Recordemos la definición de Combinación Lineal (CL)
\[\alpha_1\vec{u}_1+\alpha_2\vec{u}_2+\cdots+\alpha_p\vec{u}_p\in\mathbb{K}^n\]
Ejemplo 7
Expresar el vector \((2,-4)\) como combinación lineal de los vectores \((1,1)\) y \((-2,0)\)
Necesitamos \(\alpha,\beta\in\mathbb{R}\) tales que
\[(2,-4) = \alpha(1,1)+\beta(-2,0)\]
Con lo cual, se trata de resolver el sistema \[\left\{\begin{matrix} \alpha &-&2\beta &=& 2\\ && \alpha&=& -4\end{matrix}\right.\]
Así pues, ya tenemos que \(\alpha = -4\). Con lo cual, \[2\beta = \alpha-2 = -6\Rightarrow\beta = -3\]
Entonces, la combinación lineal que buscábamos es
\[(2,-4) = (-4)(1,1)+(-3)(-2,0)\]
6.3.1 Dependencia lineal
\[\sum_{i = 1}^p\alpha_i\vec{u}_i = \vec{0}\]
tiene infinitas soluciones y por tanto los escalares \(\alpha_i\in\mathbb{K}\) pueden tomar valores no nulos
\[\exists1\le i\le p:\ \sum_{k\ne i}\alpha_k\vec{u}_k = \vec{u}_i\]
6.3.2 Independencia lineal
\[\sum_{i = 1}^p\alpha_i\vec{u}_i = \vec{0}\]
tiene como única solución la solución trivial. Es decir, \(\alpha_i = 0\ \forall i=1,2,\dots,p\)
\[\not\exists1\le i\le p:\ \sum_{k\ne i }\alpha_k\vec{u}_k = \vec{u}_i\]
6.3.3 Dependencia e Independencia Lineal de vectores
En el caso de un conjunto \(S\ne\emptyset\), \(S\subseteq E\) finito o no, diremos que \(S\) es linealmente independiente si cualquier subconjunto finito de \(S\) lo es.
Es dedir, si cualquier combinación lineal de un número finito de elementos de \(S\) es igual a 0, implica que todos los escalares deben ser 0.
De forma análoga, diremos que \(S\) es linealmente dependiente si existen un número finito de elementos de \(S\) y una combinación suya igual a 0 donde no todos los escalares son 0
Ejercicio 11. Demostrar formalmente esta proposición.
Ejercicio 12. Demostrar formalmente esta proposición.
6.4 Bases de un espacio vectorial
- \(\vec{u}_1,\vec{u}_2,\dots,\vec{u}_n\) es un sistema generador de \(E\)
- \(\vec{u}_1,\vec{u}_2,\dots,\vec{u}_n\) son linealmente independientes
\[\forall\vec{u}\in E,\ \exists!\alpha_1,\alpha_2,\dots,\alpha_n\in\mathbb{K}:\ \vec{u} = \sum_{i = 1}^n\alpha_i\vec{u}_i\]
Ejercicio 13. Demostrar formalmente este Teorema.
Ejercicio 14. Demostrar formalmente esta Proposición.
Ejercicio 15. Demostrar formalmente este Teorema.
Ejercicio 16. Demostrar formalmente este Teorema.
Como hemos visto hasta ahora, un espacio vectorial tiene infinitas bases. En cada espacio vectorial, hay una que tiene características especiales. Esta no es otra que la
Ejemplo 8. Base canónica
- En \(\mathbb{R}^2\), la base canónica es \(\{\vec{e}_1,\vec{e}_2\}\) donde \[\vec{e}_1 = (1,0)\qquad \vec{e}_2 = (0,1)\]
- En \(\mathbb{R}^3\), la base canónica es \(\{\vec{e}_1,\vec{e}_2,\vec{e}_3\}\) donde \[\vec{e}_1 = (1,0,0)\qquad \vec{e}_2 = (0,1,0)\qquad \vec{e}_3= (0,0,1)\]
- En \(\mathbb{R}^n\), la base canónica es \(\{\vec{e}_1,\vec{e}_2,\dots,\vec{e}_n\}\) donde \(\vec{e}_i = (0,\dots,0,1,0,\dots,0)\quad \forall i = 1,2,\dots,n\). Es decir, todas las componentes del vector son 0 a excepción de la \(i-\)ésima que vale 1.
Como también hemos visto que el número de elementos de una base de un espacio vectorial \(E\) dado es único, tiene sentido definir la dimensión de \(E\).
Ejemplo 9
- \(\dim(\mathbb{K}^n) = n\)
- \(\dim(\mathbb{K}_n[x]) = n+1\)
- \(\dim(\mathbb{K}[x]) = +\infty\)
- \(\dim(\mathcal{M}_{m\times n}(\mathbb{K})) = m\times n\)
Entonces, lo que haremos será escribir \(\dim_{\mathbb{K}}(E)\)
Ejemplo 10
- \(\dim_{\mathbb{Q}}(\mathbb{R}) = +\infty\)
- \(\dim_{\mathbb{R}}(\mathbb{R}) = 1\)
- \(\dim_{\mathbb{R}}(\mathbb{C}) = 2\), ya que \(\{1,i\}\) es una base de \(\mathbb{C}\) como \(\mathbb{R}-\)e.v.
- Si \(v_1,\dots,v_n\) son L.I., entonces son base de \(E\)
- Si \(v_1,\dots,v_n\) generan todo \(E\), entonces son base de \(E\)
- La dimensión de \(E\), coincide con el máximo número de vectores LI y con el mínimo número de generadores
- Todo conjunto de vectores LI de \(E\) se puede completar hasta una base de \(E\)
- Si \(F\) es un sub-e.v. de \(E\), entonces \(F\) también es de dimensión finita y \(\dim(F)\le\dim(E)\). Además, \(\dim(F) = \dim(E)\) si, y solo si \(F = E\)
Ejercicio 17. Demostrar formalmente esta Proposición.
Ejercicio 18. Demostrar formalmente este Corolario.
Ejemplo 11
Sea \(F\) el subespacio vectorial de \(\mathbb{R}^3\) dado por \[F = \{(x,y,z)\in\mathbb{R}^3\ |\ x-y+z = 0\}\]
Todos los vectores de \(F\) se pueden escribir como \((x,x+z,z)\) variando \(x,z\) en \(\mathbb{R}\) y, por tanto,
\[(x,x+z,z) = x\cdot(1,1,0)+z\cdot(0,1,1)\]
Es evidente que \(u_1 = (1,1,0)\) y \(u_2 = (0,1,1)\) generan \(F\). También son LI. Por lo tanto, forman una base de \(F\).
Veamos ahora como completarla hasta una base de \(\mathbb{R}^3\):
Siguiendo el Teorema de Steinitz, lo que haremos será ir introduciendo sucesivamente \(u_1,u_2\) a una base conocida, como por ejemplo la base canónica \(e_1 = (1,0,0),\ e_2 = (0,1,0),\ e_3 = (0,0,1)\).
- Como que \(u_1 = (1,1,0) = 1\cdot e_1+1\cdot e_2\), podemos sustituir por ejemplo \(e_2\) por \(u_1\) obteniendo así una nueva base \(e_1,u_1,e_3\)
Para introducir \(u_2\), primero lo escribimos como combinación lineal de la nueva base \[u_2 = (0,1,1) = -(1,0,0)+(1,1,0)+(0,0,1) = (-1)\cdot e_1+1\cdot u_1+1\cdot e_3\]
Por tanto, podemos sustituir cualquiera de los restantes ya que todos los escalares son distintos a 0. Así, según el Teorema de Steinitz, \(u_1,u_2,e_3\) es una base de \(\mathbb{R}^3\) que evidentemente completa a la de \(F\)
Ejercicio 19. Demostrar formalmente este Teorema.
Teorema
anterior, tenemos \[\dim(F\oplus G) = \dim(F) + \dim(G)\]
- \(F\) y \(G\) son complementarios (\(E = F\oplus G\))
- \(F\cap G = \{0\}\) y \(\dim(E)= \dim(F)+\dim(G)\)
Ejercicio 20. Demostrar formalmente este Corolario.
6.5 Construcción de espacios vectoriales
¿Cómo construimos nuevos espacios vectoriales a partir de otros conocidos?
Esto es lo que veremos a lo largo de este apartado
6.5.1 Espacio vectorial producto
\[(u,v)+(u',v') = (u+u',v+v')\] \[\alpha\cdot(u,v) = (\alpha\cdot u,\alpha\cdot v)\]
donde \(u,u'\in E\), \(v,v'\in F\) y \(\alpha\in\mathbb{K}\). Es inmediato ver que con estas operaciones, el conjunto \((E\times F,+,\cdot)\) es un \(\mathbb{K}\)-e.v. llamado
Lo denotaremos habitualmente por \(E\oplus F\)
De forma análoga, el opuesto de cualquier elemento \((u,v)\in E\oplus F\) será \((-u,-v)\in E\oplus F\)
Así pues, dados dos subespacios vectoriales \(F,G\) de un \(\mathbb{K}\)-e.v. \(E\), tenemos que \(F,G\) pueden ser considerados también como \(\mathbb{K}\)-e.v. y, por tanto \(F\oplus G\) denota a la vez dos objetos inicialmente diferentes:
- Suma directa de subespacios vectoriales de \(E\) \[F\oplus G = \{z\in E\ |\ z = x+y\ \text{ para ciertos }x\in F,\ y\in G\}\]
- Suma directa como \(\mathbb{K}\)-espacios vectoriales \[F\oplus G = \{(x,y)\ |\ x\in F,\ y\in G\}\]
Lo indicado en la diapositiva anterior no lleva a ninguna confusión porque, como veremos más adelante, los dos conjuntos corresponden a \(\mathbb{K}\)-espacios vectoriales isomorfos, es decir, identificables desde el punto de vista de la estructura de espacio vectorial que manejamos.
La definición de espacio producto o espacio suma directa se puede generalizar a \(n\) sumandos:
Con las operaciones suma y producto por escalares definidas componente a componente
\[(\vec{u}_1,\dots,\vec{u}_n)+(\vec{v}_1,\dots,\vec{v}_n) = (\vec{u}_1+\vec{v}_1,\dots,\vec{u}_n+\vec{v}_n)\]\[\alpha\cdot(\vec{u}_1,\dots,\vec{u}_n) = (\alpha\cdot \vec{u}_1,\dots,\alpha\cdot\vec{u}_n)\]
donde \(\vec{u}_i,\vec{v}_i\in E_i,\ \forall i = 1,\dots, n\) y \(\alpha\in\mathbb{K}\)
Ejemplo 12
De la definición anterior, deducimos que el \(\mathbb{K}\)-espacio vectorial \(\mathbb{K}^n\) lo podemos ver como la siguiente suma directa \[\mathbb{K}^n = \mathbb{K}\oplus\cdots\oplus\mathbb{K}\]
- Si \(E,F\) son de dimensión finita, entonces \(E\oplus F\) también lo es y \[\dim(E\oplus F) = \dim(E)+\dim(F)\]
- Si todos los \(E_i\) son de dimensión finita y \(\dim(E_i) = n_i\ \forall i=1,\dots,n\), entonces \(E_1\oplus\cdots\oplus E_n\) también es de dimensión finita y \[\dim(E_1\oplus\cdots\oplus E_n)=\dim(E_1)+\cdots+\dim(E_n) = \sum_{i = 1}^n n_i\]
Ejercicio 21. Demostrar formalmente esta Proposición.
6.5.2 Espacio vectorial cociente
\[x\sim_{F}y \Leftrightarrow x-y\in F\]
La relación definida anteriormente sobre \(E\) es siempre una relación de equivalencia cualquiera que sea el subespacio vectorial \(F\) ya que
- Reflexiva: \(\forall x\in E\), tenemos que \(x\sim_F x\) ya que \(x-x = 0\in F\) por ser \(F\) subespacio vectorial
- Simétrica: \(\forall x,y\in E\), si \(x\sim_F y\), tenemos que \(x-y\in F\) y, por tanto, su opuesto también pertenece a \(F\), \(y-x\in F\). Es decir, tenemos \(y\sim_F x\)
- Trasitiva: Si tenemos \(x,y,z\in E\) tales que \(x\sim_F y\) y \(y\sim_F z\), entonces \(x-y,y-z\in F\). Por tanto, su suma también es de \(F\), es decir, \[(x-y)+(y-z) = x-z\in F\Leftrightarrow x\sim_F z\]
De esta manera podemos considerar el
De hecho, más generalmente tenemos
\[[x]_F = [0]_F\Leftrightarrow x\sim_F0\Leftrightarrow x\in F\ \text{y en estos casos }[x]_F = F\]
Estas clases de equivalencia se denominan
Como hemos visto, las variedades lineales solamente son subespacios vectoriales cuando \(x\in F\), o equivalentemente, cuando la variedad contiene el \(0\in E\), coincidiendo en estos casos con el propio subespacio \(F\).
Dentro del conjunto cociente \(E/F = \{[x]_F\ |\ x\in E\}\) podemos definir las siguientes operaciones de clases de equivalencia, a través de sus representantes:
\[[u]_F +[v]_F = [u+v]_F\] \[\alpha\cdot[u]_F = [\alpha\cdot u]_F\]
Veamos que las operaciones anteriores están bien definidas. En otras palabras, comprobemos que no dependen del representante elegido:
SUMA: Supongamos que \([x]_F = [x']_F\) y que \([y]_F = [y']_F\). Queremos ver que si sumamos a través de los representantes \(x,y\) o \(x',y'\), el resultado es el mismo. Como era de esperar \[[x]_F = [x']_F\Leftrightarrow x\sim_F x'\Leftrightarrow x-x'\in F\]\[[y]_F = [y']_F\Leftrightarrow y\sim_F y'\Leftrightarrow y-y'\in F\] y consecuentemente sumando obtenemos que \[x+y-(x'+y')\in F\Leftrightarrow (x+y)\sim_F(x'+y')\Leftrightarrow [x+y]_F = [x'+y']_F\]
PRODUCTO por escalares: De forma similar, si \(\alpha\in\mathbb{K}\) y \([x]_F = [x']_F\), tenemos que \(x-x'\in F\) y, entonces, \[\alpha\cdot(x-x')\in F\Leftrightarrow \alpha\cdot x-\alpha\cdot x'\in F\Leftrightarrow [\alpha\cdot x]_F = [\alpha\cdot x']_F\]
Con todo lo visto hasta el momento, es fácil ver que el conjunto cociente \(E/F\) junto con estas operaciones es un \(\mathbb{K}\)-espacio vectorial:
\[[u]_F +[v]_F = [u+v]_F\] \[\alpha\cdot[u]_F = [\alpha\cdot u]_F\]
donde \(\alpha\in\mathbb{K}\), \(u,v\in E\)
Ejercicio 22. Demostrar formalmente esta Proposición.
En dimensiones infinitas, la fórmula anterior ya no sería válida. Un ejemplo de ello es el \(\mathbb K\)-espacio vectorial de los polinomios \(\mathbb K[x]\).
Si \(p(x)\in\mathbb K[x]\) es un polinomio no constante cualquiera, y consideramos el subconjunto de los múltiplos de \(p(x)\), que denotamos por
\[F=(p(x)) = \{p(x)q(x)| q(x)\in\mathbb K[x]\}\]
se puede demostrar fácilmente que \(F=(p(x))\) es un subespacio vectorial de \(\mathbb K[x]\), ya que la suma de múltiplos de \(p(x)\) es múltiplo de \(p(x)\) y el producto de un escalar por un múltiplo de \(p(x)\) también es múltiplo de \(p(x)\). Además es de dimensión infinita ya que podemos demostrar que no puede tener un número finito de generadores como ocurría con el caso de \(\mathbb K[x]\).
En este caso podemos definir el \(\mathbb K\)-espacio vectorial cociente \(\mathbb K[x]/F\) con \(F=(p(x))\) donde la relación módulo \(F\) sería:
\[a(x)\sim_F b (x)\Longleftrightarrow a(x) - b(x) \in F = (p(x))\]
Ejercicio 23. Demostrar formalmente esta Proposición.
Ejercicio 24. Demostrar formalmente esta Proposición.
De este modo, \(\mathbb{K}[x]/(p(x))\) sería el \(\mathbb{K}\)-espacio vectorial trivial, el \({0}\).
6.6 Rango y Coordenadas
6.6.1 Rango de un conjunto de vectores
\[\text{rg}\{\vec{u}_1,\dots,\vec{u}_n\} = \dim(\langle\vec{u}_1,\dots,\vec{u}_n\rangle)\]
que coincide con el número máximo de vectores LI que se pueden extraer del conjunto \(\{\vec{u}_1,\dots,\vec{u}_n\}\)
Otra definición de rango:
En otras palabras, como bien se dijo anteriormente, es el número máximo de vectores LI que pueden extraerse del conjunto.
6.6.2 Coordenadas en una base
El rango de \(n\) vectores está relacionado con el rango de una matriz tal y como veremos a continuación.
En primer lugar, recordemos que dado un \(\mathbb{K}\)-espacio vectorial de dimensión \(n\) y \(B=\{e_1,\dots,e_n\}\) una base cualquiera de \(E\), todo vector \(x\in E\) se escribe de manera única como combinación lineal de la base \(B\) de la forma \[x = \sum_{i = 1}^n\alpha_i\cdot e_i = \alpha_1\cdot e_1+\cdots+\alpha_n\cdot e_n\]
Por tanto, podemos dar la siguiente definición:
Más formalmente,
\[u = \sum_{i = 1}^n\alpha_i\cdot e_i\]
Estos escalares se denominan coordenadas del vector \(u\) en la base \(B\).
\[u = (\alpha_1,\dots,\alpha_n)_B\]
Entonces,
- \(u_1,\dots,u_m\) son LI si, y solo si, \(\text{rg}(A) = m\le n\)
- \(\text{rg}(u_1,\dots,u_m) = \text{rg}(A)\)
Ejercicio 25. Demostrar formalmente esta Proposición.
Por la proposición anterior, un método para calcular el rango de un conjunto de vectores consiste en construir una matriz utilizando los vectores como columnas (o filas) y definir el rango de la matriz como el rango de sus vectores columna (o fila).
También reciben el nombre de
6.7 Cambio de base
Sabemos que las coordenadas de un vector son únicas en cada base, pero distintas cuando cambian de base.
Partiendo de este punto, el problema que se nos plantea es el de calcular las coordenadas de un vector en cierta base \(B'\) dadas las coordenadas del mismo en otra base \(B\).
Se necesitará pues conocer la relación entre ambas bases.
Dadas las bases \(B_u = \{\vec{u}_1,\dots,\vec{u}_n\}\) y \(B_v = \{\vec{v}_1,\dots,\vec{v}_n\}\) de un espacio vectorial \(E\), si queremos calcular las coordenadas de los vectores de \(B_u\) en la base \(B_v\), se han de expresar los vectores \(\vec{u}_i\) como combinación lineal de los vectores de \(\vec{v}_i\)
Ejemplo 13
Dado el vector \(\vec{u}\in\mathbb{R}^3\) de coordenadas \((-2,3,5)_B\) en la base \[B = \{(2,4,0),(1,0,1),(-1,2,0)\}\] Calculemos sus coordenadas en la base canónica \(C\).
En primer lugar, tenemos que expresar los vectores de la base \(B = \{\vec{u}_1,\vec{u}_2,\vec{u}_3\}\) en la base canónica \(C = \{\vec{e}_1,\vec{e}_2,\vec{e}_3\}\):
\[(2,4,0) = 2(1,0,0)+4(0,1,0)+0(0,0,1)\] \[(1,0,1) = 1(1,0,0)+0(0,1,0)+1(0,0,1)\] \[(-1,2,0) = -1(1,0,0)+2(0,1,0)+0(0,0,1)\]
A continuación, lo que buscamos son 3 escalares \(\alpha,\beta,\gamma\in\mathbb{R}\) tales que
\[\vec{u} = (\alpha,\beta,\gamma)_C = \alpha\vec{e}_1+\beta\vec{e}_2+\gamma\vec{e}_3\]
Pero lo que nosotros sabemos es que,
\[\vec{u} = (-2,3,5)_B = -2\vec{u}_1+3\vec{u}_2+5\vec{u}_3\] \[ = -2(2\vec{e}_1+4\vec{e}_2)+3(\vec{e}_1+\vec{e}_3)+5(-\vec{e}_1+2\vec{e}_2) = (-4+3-5)\vec{e}_1 + (-8+10)\vec{e}_2+3\vec{e}_3 = -6\vec{e}_1+2\vec{e}_2+3\vec{e}_3\]
Así pues, \(\vec{u} = (-6,2,3)_C\)
Ejercicio 26
Dadas las bases \(B_u = \{\vec{u}_1,\vec{u}_2,\vec{u}_3\}\) y \(B_v=\{\vec{v}_1,\vec{v}_2,\vec{v}_3\}\) de un espacio vectorial de dimensión 3 y sabiéndose que
\[\left\{\begin{matrix} \vec{v}_1 &=& 2\vec{u}_1&-&\vec{u}_2&+&\vec{u}_3\\ \vec{v}_2 &=& &-&\vec{u}_2&+&2\vec{u}_3\\ \vec{v}_3 &=& -\vec{u}_1&+&\vec{u}_2&-&3\vec{u}_3 \end{matrix}\right.\]
Considerad el vector \(\vec{u} = (2,0,-1)_{B_u}\) y calculad sus coordenadas en la base \(B_v\)
Veamos de dónde sale la relación anterior:
Sea \(E\) un \(\mathbb{K}\)-espacio vectorial de dimensión finita \(n\) y sean \(B_u = \{u_1,\dots,u_n\}\) y \(B_v = \{v_1,\dots,v_n\}\) dos bases de \(E\).
Considremos un vector \(x\in E\) y sean \((\alpha_1,\dots,\alpha_n)_{B_u}\) y \((\beta_1,\dots,\beta_n)_{B_v}\) las coordenadas del vector \(x\) en las bases \(B_u\) y \(B_v\) respectivamente.
Entonces,
\[x = \sum_{i = 1}^n\alpha_i\cdot u_i\qquad x=\sum_{j = 1}^n\beta_j\cdot v_j\]
Ahora bien, los elementos de la base \(B_v\) tienen también unas coordenadas en la base inicial \(B_u\).
Digamos que \(v_j = \sum_{i = 1}^n a_{ij}\cdot u_i\quad j=1,\dots,n\)
y si sustituimos los \(v_j\) por sus expresiones, obtenemos
\[x=\sum_{j = 1}^n\beta_j\cdot v_j = x=\sum_{j = 1}^n\beta_j\cdot \left(\sum_{i = 1}^n a_{ij}\cdot u_i\right)\] \[= \sum_{j = 1}^n\sum_{i = 1}^n (\beta_j a_{ij})\cdot u_i = \sum_{i = 1}^n\left(\sum_{j = 1}^n \beta_ja_{ij}\right)\cdot u_i\]
Ahora como que las coordenadas de \(x\) en la base \(B\) son únicas, se debe verificar que
\[\alpha_i = \sum_{j = 1}^n\beta_ja_{ij}\quad \text{para todo }i=1,\dots,n\]
Esta expresión la podemos escribir de forma matricial como \(PX_v = X_u\) donde \(X_u\) es la matriz columna formada por las coordenadas de \(x\) en la base \(B_u\) (los \(\alpha_i\)), \(X_v\) es la matriz columna de las coordenadas de \(x\) en la base \(B_v\) y \(P\) es la matriz de las \(a_{ij}\)
De esta manera tenemos la ecuación en forma matricial \[PB_v = B_u\Leftrightarrow \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n}\\ \vdots & \vdots & \ddots & \vdots\\ a_{n1} & a_{n2} & \cdots & a_{nn} \end{pmatrix}\begin{pmatrix} \beta_1\\ \beta_2\\ \vdots\\ \beta_n \end{pmatrix} = \begin{pmatrix} \alpha_1\\ \alpha_2\\ \vdots\\ \alpha_n \end{pmatrix} \]
que nos da las coordenadas de \(x\) en la base \(B_u\) en función de las coordenadas del propio \(x\) en la base \(B_v\)
Además, las coordenadas de un vector \(x\) en la base \(B_u\) se obtienen multiplicando las coordenadas de \(x\) en la base \(B_v\) por la matriz \(P\) del cambio de base
Ejemplo 14
Dadas las bases \(B_u = \{\vec{u}_1,\vec{u}_2,\vec{u}_3\}\) y \(B_v=\{\vec{v}_1,\vec{v}_2,\vec{v}_3\}\) de un espacio vectorial de dimensión 3 y sabiéndose que
\[\left\{\begin{matrix} \vec{v}_1 &=& 2\vec{u}_1&-&\vec{u}_2&+&\vec{u}_3\\ \vec{v}_2 &=& &-&\vec{u}_2&+&2\vec{u}_3\\ \vec{v}_3 &=& -\vec{u}_1&+&\vec{u}_2&-&3\vec{u}_3 \end{matrix}\right.\]
Considerad el vector \(\vec{u} = (2,0,-1)_{B_u}\) y calculad sus coordenadas en la base \(B_v\) haciendo uso de matrices
Expresando el anterior sistema en su forma matricial,
\[\begin{pmatrix}2 & -1 & 1\\ 0 & -1 & 2\\ -1 & 1 & -3\end{pmatrix}\begin{pmatrix}\vec{u}_1\\ \vec{u}_2\\ \vec{u}_3\end{pmatrix}= \begin{pmatrix}\vec{v}_1\\ \vec{v}_2\\ \vec{v}_3\end{pmatrix}\]
o bien
\[\begin{pmatrix}\vec{u}_1 & \vec{u}_2 & \vec{u}_3\end{pmatrix}\begin{pmatrix}2 & 0 & -1\\ -1 & -1 & 1\\ 1 & 2 & -3\end{pmatrix}= \begin{pmatrix}\vec{v}_1 & \vec{v}_2 & \vec{v}_3\end{pmatrix}\]
En la primera forma, las filas de la matriz son las coordenadas de los vectores \(\vec{v}_1,\vec{v}_2,\vec{v}_3\) mientras que en el segundo caso, las columnas son las coordenadas de dichos vectores en la base \(B_u\)
Por otro lado, se puede expresar el vector \(\vec{u}\) en ambas bases de la siguiente manera:
\[\vec{u} = 2\vec{u}_1-\vec{u}_3 = \begin{pmatrix}\vec{u}_1 & \vec{u}_2 & \vec{u}_3\end{pmatrix}\begin{pmatrix}2\\ 0\\ -1\end{pmatrix} = \begin{pmatrix}2 & 0 & -1\end{pmatrix}\begin{pmatrix}\vec{u}_1\\ \vec{u}_2\\ \vec{u}_3\end{pmatrix}\]
\[\vec{u} = \alpha\vec{v}_1+\beta\vec{v}_2+\gamma\vec{v}_3 = \begin{pmatrix}\vec{v}_1 & \vec{v}_2 & \vec{v}_3\end{pmatrix}\begin{pmatrix}\alpha\\ \beta\\ \gamma\end{pmatrix} = \begin{pmatrix}\alpha &\beta & \gamma\end{pmatrix}\begin{pmatrix}\vec{v}_1\\ \vec{v}_2\\ \vec{v}_3\end{pmatrix}\]
Con lo cual, tenemos la siguiente igualdad
\[\begin{pmatrix}2 & 0 & -1\end{pmatrix}_{B_u}\begin{pmatrix}\vec{u}_1\\ \vec{u}_2\\ \vec{u}_3\end{pmatrix} = \begin{pmatrix}\alpha &\beta & \gamma\end{pmatrix}_{B_v}\begin{pmatrix}\vec{v}_1\\ \vec{v}_2\\ \vec{v}_3\end{pmatrix}\]
Si ahora sustituimos en la igualdad anterior \[\begin{pmatrix}\vec{v}_1\\ \vec{v}_2\\ \vec{v}_3\end{pmatrix} = \begin{pmatrix}2 & -1 & 1\\ 0 & -1 & 2\\ -1 & 1 & -3\end{pmatrix}\begin{pmatrix}\vec{u}_1\\ \vec{u}_2\\ \vec{u}_3\end{pmatrix}\]
Lo que tenemos es
\[\begin{pmatrix}2 & 0 & -1\end{pmatrix}_{B_u}\begin{pmatrix}\vec{u}_1\\ \vec{u}_2\\ \vec{u}_3\end{pmatrix} = \begin{pmatrix}\alpha &\beta & \gamma\end{pmatrix}_{B_v}\begin{pmatrix}2 & -1 & 1\\ 0 & -1 & 2\\ -1 & 1 & -3\end{pmatrix}\begin{pmatrix}\vec{u}_1\\ \vec{u}_2\\ \vec{u}_3\end{pmatrix}\] \[= \begin{pmatrix}2\alpha-\gamma &-\alpha-\beta +\gamma& \alpha+2\beta-3\gamma\end{pmatrix}\begin{pmatrix}\vec{u}_1\\ \vec{u}_2\\ \vec{u}_3\end{pmatrix}\]
Ahora ya solo falta resolver el sistema
\[\left\{\begin{matrix}2\alpha &&&-&\gamma &=& 2\\ -\alpha & -&\beta&+&\gamma &=&0\\ \alpha&+&2\beta&-&3\gamma &=&-1\end{matrix}\right.\]
Cuya única solución es \((1,-1,0)\)
Así pues,
\[\begin{pmatrix}2 & 0 & -1\\ -1 & -1 & 1\\ 1 & 2 & -3\end{pmatrix}\begin{pmatrix} 1\\ -1\\ 0\end{pmatrix}_{B_v} = \begin{pmatrix} 2\\ 0\\ -1 \end{pmatrix}_{B_u}\]
Ejercicio 27. Demostrar formalmente esta Proposición.
6.8 Bases ortogonales y ortonormales
\[\langle\vec{u}_i,\vec{u}_j\rangle = 0\quad\forall i\ne j\]
\[\langle\vec{u}_i,\vec{u}_j\rangle = 0\quad\forall i\ne j\] \[||\vec{u}_i|| = 1\quad\forall i\]
6.8.1 Método de ortogonalización de Gram-Schmidt
Método de ortogonalización de Gram-Schmidt
Sea \(B= \{\vec{v}_1,\vec{v}_2,\dots,\vec{v}_n\}\) una base cualquiera de un espacio vectorial \(E\) de \(\dim(E) = n\).
A partir de los vectores de la base \(B\), se construirá una nueva base \(B_o = \{\vec{u}_1,\vec{u}_2,\dots,\vec{u}_n\}\) que será ortogonal y del mismo espacio.
Se toma \(\vec{u}_1 =\vec{v}_1\) como primer vetor de la base nueva.
El segundo vector será una combinación lineal de \(\vec{v}_1\) y \(\vec{v}_2\) de la forma \(\vec{u}_2 = \vec{v}_2-\alpha\vec{u}_1\), al cual se le impondrá la condición de que debe ser perpendicular a \(\vec{u}_1\). Es decir, \(\vec{u}_1\perp\vec{u}_2\). De este modo obtendremos \[\alpha = \frac{\langle\vec{u}_1,\vec{v}_2\rangle}{\langle\vec{u}_1,\vec{u}_1\rangle}\Rightarrow \vec{u}_2 = \vec{v}_2-\frac{\langle\vec{u}_1,\vec{v}_2\rangle}{\langle\vec{u}_1,\vec{u}_1\rangle}\vec{v_1}\]
Para calcular el tercer vector, se procede del mismo modo: el tercer vector será una combinación lineal de \(\vec{v}_1,\vec{v}_2,\vec{v}_3\) de la forma \(\vec{u}_3= \vec{v}_3-\alpha_1\vec{u_1}-\alpha_2\vec{u}_2\) a la cual se impondrán las condiciones \(\vec{u}_1\perp\vec{u}_3\) y \(\vec{u}_2\perp\vec{u}_3\). Operando se obtniene:\[\alpha_1 = \frac{\langle\vec{u}_1,\vec{v}_3\rangle}{\langle\vec{u}_1,\vec{u}_1\rangle};\quad\alpha_2 = \frac{\langle\vec{u}_2,\vec{v}_3\rangle}{\langle\vec{u}_2,\vec{u}_2\rangle}\] \[\vec{u}_3 = \vec{v}_3-\frac{\langle\vec{u}_1,\vec{v}_3\rangle}{\langle\vec{u}_1,\vec{u}_1\rangle}\vec{u}_1-\frac{\langle\vec{u}_2,\vec{v}_3\rangle}{\langle\vec{u}_2,\vec{u}_2\rangle}\vec{u}_2\]
Y operamos de forma análoga hasta llegar a \[\vec{u}_n = \vec{v}_n-\sum_{i=1}^{n-1}\frac{\langle\vec{u}_i,\vec{v}_n\rangle}{\langle\vec{u}_i,\vec{u}_i\rangle}\vec{u}_i\]
Finalmente, si lo que se quiere es una base ortonormal, bastará con dividir cada vector por su norma para así normalizar todos los elementos de la base.
6.8.2 Proyección ortogonal de un vector sobre un subespacio
\[\forall\vec{x}\in V,\ \forall\vec{y}\in W\Rightarrow \langle\vec{x},\vec{y}\rangle = 0\]
Recordemos…
\[P_{\vec{u}}(\vec{v}) = \frac{\langle\vec{u},\vec{v}\rangle}{\langle\vec{v},\vec{v}\rangle}\vec{v} = \frac{\langle\vec{u},\vec{v}\rangle}{||\vec{v}||^2}\vec{v} \]
\[\vec{u} = \vec{u}_S+\vec{u}_0\]
Con \(\vec{u}_S\in S\) y \(\vec{u}_0\in S^{\perp}\). En particular, el vector \(\vec{u}_S\in S\) se denomina