Archivo de la etiqueta: espacio vectorial

Ecuaciones Diferenciales I – Videos: Propiedades del conjunto de soluciones a un sistema lineal de ecuaciones de primer orden

Por Eduardo Vera Rosales

Introducción

En la entrada anterior comenzamos el estudio de los sistemas de ecuaciones diferenciales de primer orden $$\begin{alignedat}{4} \dot{x}_{1} &= F_{1}(t,x_{1},x_{2},…,x_{n}) \\ \dot{x}_{2} &= F_{2}(t,x_{1},x_{2},…,x_{n}) \\ & \; \; \vdots \notag \\ \dot{x}_{n} &= F_{n}(t,x_{1},x_{2},…,x_{n}) \end{alignedat}$$ donde revisamos las principales definiciones y enunciamos el teorema de existencia y unicidad correspondiente a sistemas de primer orden y sus problemas de condición inicial. Es momento ahora de estudiar las principales propiedades que cumple el conjunto de soluciones a un sistema lineal de ecuaciones de primer orden, las cuales se comportan de una manera bastante similar al conjunto de soluciones a una ecuación de segundo orden lineal que revisamos en la unidad anterior.

Iniciaremos revisando al conjunto de soluciones al sistema lineal homogéneo $$\dot{\textbf{X}}={\textbf{A}}{\textbf{X}}$$ el cual cumple el principio de superposición, es decir, si tenemos $n$ soluciones, digamos ${\textbf{X}_{1}}(t), {\textbf{X}_{2}}(t),…,{\textbf{X}_{n}}(t)$, entonces cualquier combinación lineal de estas también lo será. Si recuerdas tus cursos de Álgebra Lineal, esta última propiedad nos dice que el conjunto de soluciones es cerrado bajo la suma y producto por escalar usuales definidos para matrices. Con estas operaciones, veremos que el conjunto de soluciones al sistema lineal homogéneo forma un espacio vectorial.

Posteriormente definiremos el Wronskiano de un subconjunto de soluciones al sistema lineal homogéneo, el cual es similar más no igual al Wronskiano que definimos para ecuaciones lineales de segundo orden. En la tarea moral demostrarás la relación que tienen estos dos Wronskianos.

Si hablamos del Wronskiano y del conjunto de soluciones como un espacio vectorial, debemos hablar también de dependencia e independencia lineal entre las soluciones al sistema. Además, demostraremos que si el Wronskiano no se anula entonces el subconjunto de soluciones es linealmente independiente. Además si lo último ocurre podremos expresar cualquier solución como una combinación lineal de las soluciones linealmente independientes. Con estos conceptos podremos definir a la matriz fundamental de soluciones del sistema, la cual revisaremos más a detalle en entradas posteriores.

Terminaremos revisando el caso no homogéneo $$\dot{\textbf{X}}={\textbf{A}}{\textbf{X}}+ {\textbf{Q}}$$ demostrando que su solución general será la suma de la solución general al sistema homogéneo y una solución particular al sistema no homogéneo.

El espacio vectorial del conjunto de soluciones a un sistema lineal homogéneo

En el primer video probamos el principio de superposición de soluciones al sistema lineal homogéneo. Además, vemos que el conjunto de soluciones al sistema forma un espacio vectorial con la suma y producto por escalar usuales para matrices.

El Wronskiano de un subconjunto de soluciones e independencia lineal

Definimos el Wronskiano de un subconjunto de soluciones al sistema lineal homogéneo, así como los conceptos de dependencia e independencia lineal de soluciones. Probamos un importante teorema que relaciona estos dos conceptos y nos dice cómo se ve la solución general al sistema. Finalizamos definiendo la matriz fundamental de soluciones del sistema.

Solución general al sistema lineal no homogéneo

Finalizamos la entrada demostrando que la solución general al sistema lineal no homogéneo es la suma de la solución general al sistema homogéneo y una solución particular al sistema no homogéneo.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • ¿El conjunto de soluciones a un sistema lineal no homogéneo forma un espacio vectorial con las operaciones usuales de matrices?
  • Prueba que $$\textbf{X}_{1}(t)=\begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix} ; \, \textbf{X}_{2}(t)=\begin{pmatrix} t \\ 2 \\ 0 \end{pmatrix} ; \, \textbf{X}_{3}(t)=\begin{pmatrix} t^{2} \\ t \\ 0 \end{pmatrix}$$ son linealmente independientes en $\mathbb{R}.$
  • Sean ${\textbf{X}_{1}}(t), {\textbf{X}_{2}}(t),…,{\textbf{X}_{n}}(t)$ soluciones al sistema $$\dot{\textbf{X}}={\textbf{A}}{\textbf{X}}$$ en el intervalo $[a,b]$. Demuestra que $W[{\textbf{X}_{1}}, {\textbf{X}_{2}},…,{\textbf{X}_{n}}](t)=0 \, \, \forall t \in [a,b]$, ó $W[{\textbf{X}_{1}}, {\textbf{X}_{2}},…,{\textbf{X}_{n}}](t) \neq 0 \, \, \forall t \in [a,b]$.
  • Considera el sistema lineal $$\dot{\textbf{X}}=\begin{pmatrix} 0 & -1 \\ -1 & 0 \end{pmatrix} \textbf{X}.$$ Prueba que $$\textbf{X}_{1}(t)=\begin{pmatrix} e^{t} \\ -e^{t} \end{pmatrix} ; \, \textbf{X}_{2}(t)=\begin{pmatrix} e^{-t} \\ e^{-t} \end{pmatrix}$$ son soluciones al sistema. Además prueba que son linealmente independientes en $\mathbb{R}$ y por lo tanto forma una matriz fundamental de soluciones al sistema.
  • Considera la ecuación $$\ddot{y}+p(t)\dot{y}+q(t)y=0$$ y su sistema de ecuaciones correspondiente $$\dot{\textbf{X}}=\begin{pmatrix} 0 & 1 \\ -q(t) & -p(t) \end{pmatrix} \textbf{X}.$$ Prueba que si $\textbf{X}_{1}(t)$, $\textbf{X}_{2}(t)$ son soluciones linealmente independientes al sistema de ecuaciones, y si $y_{1}(t)$, $y_{2}(t)$ forman un conjunto fundamental de soluciones a la ecuación de segundo orden, entonces se satisface la identidad $$W[y_{1}, y_{2}](t)=cW[\textbf{X}_{1}, \textbf{X}_{2}](t)$$ para alguna constante $c \neq 0$.

Más adelante

En la siguiente entrada comenzaremos a resolver algunos sistemas lineales bastante sencillos. El método que estudiaremos será el de eliminación de variables, el cual consiste en eliminar variables dependientes hasta quedarnos con una ecuación diferencial de orden superior. Resolviendo esta última ecuación podremos encontrar la solución general al sistema original. Este método funciona para sistemas lineales con coeficientes constantes.

¡Hasta la próxima!

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Geometría Analítica I: El espacio vectorial R²

Por Elsa Fernanda Torres Feria

Introducción

En la entrada anterior llegamos a una equivalencia entre un punto en el plano euclidiano y parejas de números $(x,y)$, donde $x, y \in \mathbb{R}$. Podemos imaginarnos entonces el conjunto de todas las parejas ordenadas de números reales como $\mathbb{R} \times \mathbb{R} = \mathbb{R}^2$, donde $\times$ hace referencia al producto cartesiano (en general para conjuntos $A$ y $B$, $A \times B := \{ (a,b) : a \in A, b \in B \}$).

Con esto en mente, es posible imaginaros a los postulados de Euclides ya no como afirmaciones incuestionables, sino como consecuencias de una geometría construida a partir de las parejas de números reales. Ahora nuestra base será la teoría de conjuntos, los números reales y las parejas ordenadas. Usaremos los axiomas y propiedades que tienen para construir nuestros objetos.

Para entender mejor cómo se trabajará en el espacio formado por todas las parejas $(x,y)$ de reales, comencemos esta entrada hablando de los números reales.

Los números reales

Como advertencia, esta sección tiene muchos símbolos. Es normal. Muy muy a grandes rasgos, lo que queremos recordar aquí es que los reales se pueden sumar, restar, multiplicar y dividir (excepto divisiones entre cero). Y que todas estas operaciones tienen propiedades bonitas.

A partir de este punto, pensaremos en los reales como algo que sabemos con seguridad puede ser construido, y tomaremos como ciertos todos los axiomas que éstos cumplen. Los axiomas se pueden resumir en la siguiente frase, que desglosaremos una vez enunciada:

«$\mathbb{R}$ es un campo ordenado y completo»

Que $\mathbb{R}$ sea un campo hace referencia a que como conjunto, tiene las operaciones de suma ($+$) y producto ($\cdot$) definidas tales que:

  • $\mathbb{R}$ con la suma, es un grupo conmutativo.
    • La suma es asociativa, es decir: $ \forall a,b,c \in \mathbb{R}$, se tiene que $(a+b)+c=a+(b+c)$ ($\forall$ se lee para todo).
    • Existe $ 0 \in \mathbb{R}$ tal que $\forall a \in \mathbb{R}$, $a+0=a=0+a$.
    • Existe $ b \in \mathbb{R}$ tal que $a+b=0=b+a$. ($b=-a$).
    • Es conmutativa, es decir, $\forall a,b \in \mathbb{R}$, se tiene que $a+b=b+a$.
  • $\mathbb{R} \setminus \{0\}$ (los reales sin el elemento cero) con el producto, es un grupo conmutativo; de manera análoga a la suma tenemos:
    • El producto es asociativo: $\forall a,b,c \in \mathbb{R}$, se tiene que $(ab)c=a(bc)$ (nota que estamos omitiendo el símbolo de multiplicación).
    • Existe $ 1 \in \mathbb{R}$ tal que $\forall a \in \mathbb{R}$, $a\cdot1=a=1\cdot a$.
    • Existe $ b \in \mathbb{R}$ tal que $ab=1=ba$. ($b=\frac{1}{a}$).
    • Es conmutativo, es decir, $\forall a,b \in \mathbb{R}$, se tiene que $ab=ba$.
  • La suma y el producto se distribuyen: $\forall a,b,c \in \mathbb{R}$, se tiene que $a(b+c)=ab+ac$.

Que sea ordenado nos indica que tenemos una relación que es un orden total y es compatible con la suma y el producto. $\forall a,b,c\in \mathbb{R}$:

  • Se cumple exactamente una de las siguientes relaciones: $a<b$, $b<a$, $a=b$.
  • Si $a \leq b$ y $b \leq c$, entonces $a \leq c$.
  • Si $a \leq b$, entonces $a+c \leq b+c$.
  • Si $a,b \geq 0$ , entonces $ab \geq 0$.

Por último, que sea completo es una noción formal en la cual no nos enfocaremos mucho, pero que a grandes rasgos quiere decir que en los números reales «no hay hoyos», lo cual es muy importante para cuando se quiere usar este sistema numérico para hacer cálculo diferencial e integral.

Por lo que vimos en la entrada anterior, podemos representar cualquier punto en el espacio euclidiano con una pareja de números reales. Ya que hemos dado un pequeño repaso formal de la estructura de $\mathbb{R}$ (todo esto lo cumple cada entrada de un punto $(a,b)$), demos el siguiente paso y exploremos el espacio vectorial $\mathbb{R}^2$.

Espacio vectorial $\mathbb{R}^2$

Comencemos definiendo formalmente un concepto que exploramos en la entrada anterior: el vector.

Definición. Un vector $v$ con dos entradas, es una pareja ordenada de números reales $v=(x,y)$.

Ejemplos. Algunos vectores en $\mathbb{R}^2$ son:

  • $(1,4)$
  • $(-3,2)$
  • $(\pi,1)$
  • $(2.3,-e)$

Utiliza el siguiente interactivo de GeoGebra: mueve el punto $C$ y explora cómo el vector cambia con esta acción.

Definición. El conjunto de todos los vectores con dos elementos (ambos reales) es $\mathbb{R}^2$. En símbolos tenemos que:

$\mathbb{R}^2=\{(x,y): x,y \in \mathbb{R} \}$

Si realizaste la tarea moral anterior, te habrás dado cuenta que podemos encontrar ciertas regiones geométricas al imponer condiciones sobre las entradas de un vector. En la tarea se hace referencia a áreas muy determinadas conocidas como cuadrantes, pero no son las únicas regiones existentes. Hagamos un ejercicio de esto.

Problema. Ubica dentro del plano de dos dimensiones las siguientes regiones geométricas definidas al imponer ciertas restricciones en las entradas de un vector:

  1. $\{ (x,y) \in \mathbb{R}^2 : x \leq 0, y \geq 1 \}$
  2. $\{ (x,y) \in \mathbb{R}^2 : x \geq \pi , y \leq \pi \}$
  3. $\{ (x,y) \in \mathbb{R}^2 : x \geq y \}$

Solución. Para encontrar estas áreas basta con ubicar la región en la que se vale cada condición por separado. La intersección de las regiones será la región que buscamos. Esto se vale para los dos primeros incisos.

Utiliza el siguiente interactivo de GeoGebra en el que ya están las condiciones para visualizar la primera región geométrica para localizar la región del segundo inciso.

¿Qué pasa con el inciso 3? Puede parecer más complicado porque ahora las coordenadas están conectadas en una sola restricción. Antes de introducir la condición en GeoGebra, imagina cuál es la región en la que la condición se cumple.

Ahora, utilicemos el siguiente interactivo para usar lo que ya sabemos y determinar intuitivamente cuál es el área que determina la condición $x \geq y$. Pensemos en el caso específico $x = 1$, $y$ puede ser a lo más $1$ ($y \leq 1$); al restringir nuestra $x$ podemos obtener dos condiciones a partir de las cuales ya sabemos cómo encontrar la región en las que se cumplen. Si ves el interactivo, notarás que la intersección de las regiones es únicamente la recta definida por $x=1$ pero no toda, sino que sólo a partir de cuando $y=1$ hacia abajo. ¿qué pasa si mueves los deslizadores para cambiar los valores de $x$ y $y$ ? Se obtienen segmentos de recta correspondientes a un valor de $x$ fijo que comienzan cuando $y$ es menor o igual a ese valor.

Resulta que estos segmentos de recta se obtienen para cualquier valor de $x$. ¿qué pasa ahora cuando unes todas estas líneas? En este punto es importante recordar que en $\mathbb{R}$ hay un real entre cada dos reales. Entonces, se puede construir el segmento de recta del que hemos hablado. Por lo que la únión de todas estas rectas define un área, ¿ya imaginas cuál es? Verifícalo al escribir la condición $y \leq x$ en el interactivo anterior.

$\triangle$

La suma en $\mathbb{R}^2$

Regresando a la teoría, el siguiente paso lógico después de definir ciertos objetos (en este caso vectores), es averiguar cómo operan. Definamos entonces la suma y el producto escalar de vectores haciendo uso del conocimiento que ya tenemos acerca de las operaciones en los reales.

Definición. Sean $v_1, v_2 \in \mathbb{R}^2$ dados por $v_1=(x_1,y_1)$ y $v_1=(y_1,y_2)$. Su suma está dada por el vector

$v_1+v_2 := (x_1+x_2,y_1+y_2)$

Esto es, que la suma de vectoes se hace entrada a entrada y esta bien definida pues al final lo que estamos sumando son números reales.

Ejemplos.

  • $(-3,4) + (2,2)=(-3+2,4+2)=(-1,6)$
  • $(7,4) + (2,1)=(7+2,4+1)=(9,5)$
  • $(-3.-7) + (1,2)=(-3+1,-7+2)=(-2,-5)$

En el siguiente interactivo podrás ver el primer ejemplo de manera gráfica en el plano, donde los vectores de colores son los que se suman y el vector negro es el resultante.

Además de poder obtener el vector suma de manera algebraica hay otra manera más de hacerlo: En el mismo interactivo hay una copia de cada vector de color, escoge uno de los dos vectores de la suma y transpórtalo por completo y paralelo a sí mismo para que su punto de inicio no sea el origen, si no el punto donde termina el otro vector. Por ejemplo, deja el vector azul en su lugar y transporta al verde para que su punto de partida sea la flecha del vector azul. Si lo hiciste correctamente, notarás que ahora ese vector transportado termina en donde el vector resultante de la suma (negro) termina. Resulta que si quieres sumar dos vectores, puedes avanzar desde el origen hasta las coordenadas de uno de ellos y ahora »tomando» como origen ese punto al que llegaste, avanzar las coordenadas del otro vector. Al final llegarás al punto del vector resultante de la suma. Este método es conocido como el método del paralelogramo.

El producto escalar en $\mathbb{R}^2$

Otra operación importante en $\mathbb{R}^2$ es el producto escalar, que intuitivamente combina a un real y a un vector y «reescala» al vector por el factor dado por el número real.

Definición. Para $r$ un número real y $v_1 \in \mathbb{R}^2$ dado por $v_1=(x,y)$, el producto escalar $rv$ está dado por:

$rv:=(rx,ry)$

Ejemplos.

  • $4(7,3.5)=(28,14)$
  • $2(5,3)=(10,6)$
  • $2.3(6,3)=(13.8,6.9)$

Utiliza el siguiente interactivo moviendo el deslizador del valor $a$ que multiplica al vector $(5,3)$ para interiorizar lo que implica multiplicar un vector por un escalar. Si lo notas, lo único que hace es reescalarlo, y si el escalar es negativo, entonces le cambia el sentido, pero no la dirección.

Una última cosa que es muy importante mencionar es que hasta ahora no hemos dicho cómo multiplicar dos (o más vectores). Sólo tenemos un producto que toma un escalar (un real) y lo multiplica con un vector, cuyo resultado acaba siendo un vector.

Más adelante…

En esta entrada dimos un breve repaso acerca de los números reales que nos sirvió para entender el espacio $\mathbb{R}^2$ y las operaciones dentro de este. El desarrollo aquí hecho servirá como herramienta para construir la representación algebraica de una recta.

Tarea moral

  • Sean $v=(8,9)$, $w=(3,-2)$, $u=(-5-4)$. Calcula y dibuja las siguientes operaciones de vectores:
    • $5v+3u$
    • $u-3w$
    • $2.5v+9w-u$
  • Demuestra en $\mathbb{R}$ que si $-1$ es el inverso aditivo de $1$, entonces $-a$ es el inverso aditivo de $a$.
  • Por los axiomas, sabemos que la conmutatividad se vale para la suma de reales, es decir, que si $a$ y $b$ son reales, entonces $a+b=b+a$. Pero en esta entrada definimos una nueva suma: la de vectores. De entrada, no sabemos qué propiedades cumple. A partir de las definiciones que dimos, y de los axiomas de los reales, demuestra que también se tiene $u+v=v+u$ para $u$ y $v$ vectores en $\mathbb{R}^2$.
  • Determina, si es posible, las regiones siguientes geométricas. Si dicha región es vacía, argumenta por qué.
    • $\{ (x,y) \in \mathbb{R}^2 : x \leq y, y \geq x \}$
    • $\{ (x,y) \in \mathbb{R}^2 : x \leq y, y > x \}$
    • $\{ (x,y) \in \mathbb{R}^2 : x \leq 3, y > \pi \}$
  • En el interactivo de producto escalar siempre sucede que la línea que pasa por el extremo del vector verde y el extremo del vector rojo siempre pasa por el origen. ¿Por qué sucede esto?

Álgebra Lineal I: Problemas de bases y dimensión de espacios vectoriales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En las entradas anteriores vimos cómo se puede definir la dimensión de un espacio vectorial. Para ello, necesitamos encontrar una base. En el caso finito, la dimensión del espacio es la cardinalidad de una base. Esto está bien definido pues todas las bases tienen la misma cardinalidad. A continuación solucionaremos algunos ejemplos para reforzar los temas vistos.

Recordatorio de truco para mostrar que algo es base

En varios de los problemas usamos el siguiente resultado. Ya lo enunciamos y demostramos previamente. Pero como es sumamente útil, lo volvemos a enunciar, en términos más prácticos.

Proposición. Sea $V$ un espacio vectorial que ya sepamos que tiene dimensión finita $n$. Sea $B=\{v_1,v_2,\dots, v_n\}$ un conjunto de $n$ vectores de $v$. Entonces, cualquiera de las siguientes afirmaciones implica las otras dos:

  1. $B$ es un conjunto linealmente independiente en $V$.
  2. $B$ es un conjunto generador para $V$.
  3. $B$ es una base de $V$.

Por supuesto, el tercer punto implica los otros dos por la definición de base. Lo que es realmente útil en situaciones teóricas y prácticas es que si ya sabemos que un espacio tiene dimensión $n$, y tenemos un conjunto de $n$ vectores, entonces basta verificar que o bien (1) o bien (2). Con esto tendremos la otra afirmación gratuitamente.

Al usar este resultado, es muy importante verificar las hipótesis. Es decir, para usarlo se necesita:

  • Argumentar por qué la dimensión de un espacio vectorial es cierto entero $n$.
  • Argumentar que se está estudiando un conjunto con $n$ vectores.
  • Demostrar ya sea (1) o (2).

Problemas resueltos

Problema 1. Muestra que las siguientes cuatro matrices $A=\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}$, $B=\begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}$, $C=\begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}$, $D=\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}$ son una base del espacio vectorial $M_2(\mathbb{R})$.

Solución. Ya sabemos que $M_2(\mathbb{R})$ es un espacio vectorial de dimensión $4$, pues una base está conformada por las matrices $E_{11}$, $E_{12}$, $E_{21}$ y $E_{22}$ de la base canónica. El conjunto que tenemos consiste de $4$ matrices. Así, para mostrar que conforman una base, es suficiente con que mostremos que son un conjunto linealmente independiente.

Supongamos que existen reales $a,b,c,d$ tales que $$aA+bB+cC+dD=O_2.$$ Haciendo las operaciones entrada por entrada en esta igualdad, obtenemos que esto sucede si y sólo si $a,b,c,d$ son soluciones al sistema de ecuaciones
$$\begin{cases}a+c&=0\\b-d&=0\\b+d&=0\\a-c&=0.\end{cases}$$

Podríamos encontrar todas las soluciones a este sistema usando reducción gaussiana. Sin embargo, afortunadamente para este sistema hay una forma más sencilla de proceder. Sumando la primera y cuarta igualdad, obtenemos $2a=0$, de donde $a=0$ y entonces por la primer ecuación $c=0$. De manera simétrica, $b=d=0$. De esta forma, la única combinación lineal de $A,B,C,D$ que da la matriz cero es la trivial. Concluimos que $A,B,C,D$ son linealmente independientes, y por lo tanto son una base de $M_2(\mathbb{R})$.

$\square$

En el problema anterior resultó más práctico mostrar que las matrices eran linealmente independientes, pero también pudimos simplemente mostrar que generaban a $M_2(\mathbb{R})$. Por la proposición que enunciamos, cualquiera de los dos implica que en este contexto las matrices forman una base.

Veamos ahora un ejemplo en el que es más conveniente mostrar que el conjunto propuesto es generador.

Problema 2. Encuentra una base de $\mathbb{R}_4[x]$ que tenga al polinomio $$p(x)=1+x+x^2+x^3+x^4.$$

Solución. Ya sabemos que $\mathbb{R}_4[x]$ tiene dimensión $5$, pues una base es el conjunto de polinomios $\mathcal{B}=\{1,x,x^2,x^3,x^4\}$.

Proponemos al conjunto $$\mathcal{B}’=\{1,x,x^2,x^3,p(x)\}$$ como solución al problema.

Como $\mathcal{B}’$ es un conjunto con $5$ elementos, basta con mostrar que es un conjunto que genera a $\mathbb{R}_4[x]$. Para ello, notemos que $\mathcal{B}’$ puede generar al polinomio $x^4$ pues se obtiene mediante la combinación lineal $$x^4=p(x)-1-x-x^2-x^3.$$

De esta forma, $\mathcal{B}’$ puede generar todo lo que puede generar $\mathcal{B}$. En símbolos: $$\mathbb{R}_4[x]\subseteq \text{span}(\mathcal{B})\subseteq \text{span}(\mathcal{B}’) \subseteq \mathbb{R}_4[x].$$

Concluimos que $\text{span}(\mathcal{B}’) = \mathbb{R}_4[x]$. Esto muestra que $\mathcal{B}’$ es una base de $\mathbb{R}_4[x]$ que tiene al polinomio $p(x)$.

$\triangle$

Problema 3. Exactamente uno de los vectores $u=(9,5,1)$ y $v=(9,-5,1)$ puede ser escrito como combinación lineal de los vectores columna de la matriz $$A=\begin{pmatrix} 3 & 0 & 3 \\ 2 & 1 & 1 \\ 1 & 2 & -1 \end{pmatrix}.$$ Determina cuál de ellos es y exprésalo como una combinación lineal de los vectores columna de $A$.

Solución. Un vector $b$ se puede escribir como combinación lineal de las columnas de una matriz $A$ si y sólo si el sistema lineal de ecuaciones $AX=b$ tiene solución. En efecto, si $X=(x,y,z)$, recordemos que $$AX=xC_1+yC_2+zC_3,$$ en donde $C_1$, $C_2$ y $C_3$ son las columnas de la matriz $A$.

De esta forma, una forma de proceder es plantear los sistemas de ecuaciones $AX=u$ y $AX=v$, y ver cuál de ellos tiene solución. Esto se puede hacer y dará la solución al problema.

Sin embargo, aprovecharemos este problema para introducir un truco más. Como queremos resolver ambos sistemas, podemos hacer reducción gaussiana en la matriz aumentada $(A|u|v)$, en donde estamos agregando dos vectores columna nuevos. De la forma escalonada reducida podremos leer todo lo que queremos. La matriz que nos interesa es
\begin{align*}\begin{pmatrix}
3 & 0 & 3 & 9 & 9 \\ 2 & 1 & 1 & 5 & -5\\ 1 & 2 & -1 & 1 & 1
\end{pmatrix}.\end{align*}

Usando la herramienta online de eMathHelp para calcular la forma escalonada reducida de esta matriz, obtenemos

\begin{align*}(A_{red}|u’|v’)=\begin{pmatrix}
1 & 0 & 1 & 3 & 0 \\ 0 & 1 & -1 & -1 & 0\\ 0 & 0 & 0 & 0 & 1
\end{pmatrix}.\end{align*}

Estamos listos para hacer el análisis. Tomando la submatriz conformada por las primeras cuatro columnas (las correspondientes a $A_{red}$ y $u’$), vemos que no queda pivote en la última columna. De este modo, sí hay una solución para $AX=u$.

Para obtener una solución, basta trabajar con esta submatriz y usar nuestros argumentos usuales de sistemas de ecuaciones lineales. La variable $z$ es libre. Las variables $x$ y $y$ son pivote. Haciendo $z=0$ obtenemos $x=3$ y $y=-1$. Concluimos que $$\begin{pmatrix} 9 \\ 5 \\ 1 \end{pmatrix} = 3\begin{pmatrix} 3 \\ 2 \\ 1 \end{pmatrix} + (-1) \begin{pmatrix} 0 \\ 1 \\ 2 \end{pmatrix} + 0 \begin{pmatrix} 3 \\ 1 \\ -1 \end{pmatrix}.$$

Esto sería suficiente para terminar el problema, pues el enunciado garantiza que uno y sólo uno de los vectores es combinación lineal de las columnas.

Pero estudiemos el otro caso para ver qué sucede. Tomando la submatriz conformada por las columnas $1$, $2$, $3$, $5$ de $(A_{red}|u’|v’)$ (correspondientes a $A_{red}$ y $v’$), vemos que sí hay un pivote en la última columna: el de la tercera fila. Entonces, no hay solución para $AX=v$.

$\triangle$

El problema anterior ayuda a fortalecer mucho nuestra intuición para resolver sistemas de ecuaciones lineales: el sistema $AX=b$ tiene solución si y sólo si el vector $b$ es combinación lineal de los vectores columna de $A$. Cada solución al sistema corresponde a una de estas combinaciones lineales.

Problema 4. Para $n$ un entero positivo y $k$ un entero de $0$ a $n$, definimos al polinomio $P_k(x)=x^k(1-x)^{(n-k)}$. Muestra que $P_0(x),\ldots, P_n(x)$ es una base para el espacio $\mathbb{R}_n[x]$.

Solución. Como $\mathbb{R}_n[x]$ tiene dimensión $n+1$ y estamos considerando un conjunto de $n+1$ polinomios, entonces basta mostrar que este conjunto es linealmente independiente. Supongamos que hay una combinación lineal de ellos que es igual a cero, digamos $$\alpha_0 (1-x)^n + \alpha_1 x(1-x)^{n-1} + \ldots + \alpha_{n-1} x^{n-1} (1-x) + \alpha_n x^n=0.$$

Si evaluamos la expresión anterior en $x=1$, casi todos los sumandos se anulan, excepto el último. De aquí, obtenemos que $\alpha_n 1^n=0$, de donde $\alpha_n=0$. La expresión se convierte entonces en $$\alpha_0 (1-x)^n + \alpha_1 x(1-x)^{n-1} + \ldots + \alpha_{n-1} x^{n-1} (1-x)=0.$$

Factorizando $1-x$ de todos los sumandos y usando que el polinomio $1-x\neq 0$, podemos «cancelar» al factor $1-x$. En otras palabras, podemos «dividir» la combinación lineal entre $1-x$ para obtener $$\alpha_0 (1-x)^{n-1} + \alpha_1 x(1-x)^{n-2} + \ldots + \alpha_{n-1} x^{n-1}=0.$$

De aquí podemos seguir aplicando el mismo argumento: evaluamos en $1$, concluimos que el último coeficiente es igual a $0$, y entonces podemos dividir subsecuentemente entre $1-x$. De esta forma, obtenemos $\alpha_n=\alpha_{n-1}=\ldots=\alpha_0=0$. Concluimos entonces que los polinomios propuestos son linealmente independientes, y por lo tanto forman una base de $\mathbb{R}_n[x]$.

$\square$

El argumento del último párrafo se puede formalizar todavía más usando inducción sobre $n$. Piensa en lo complicado que hubiera sido mostrar de manera directa que los polinomios propuestos generan a $\mathbb{R}_n[x]$. Gracias a la proposición que discutimos al inicio, esto lo obtenemos de manera automática.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de combinaciones lineales, generadores e independientes

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores ya hablamos de combinaciones lineales, de conjuntos generadores y de conjuntos independientes. Lo que haremos aquí es resolver problemas para reforzar el contenido de estos temas.

Problemas resueltos

Problema 1. Demuestra que el polinomio $p(x)=x^2+x+1$ no puede ser escrito en el espacio vectorial $\mathbb{R}[x]$ como una combinación lineal de los polinomios \begin{align*} p_1(x)=x^2-x\\ p_2(x) = x^2-1\\ p_3(x) = x-1.\end{align*}

Solución. Para resolver este problema, podemos plantearlo en términos de sistemas de ecuaciones. Supongamos que existen reales $a$, $b$ y $c$ tales que $$p(x)=ap_1(x)+bp_2(x)+cp_3(x).$$

Desarrollando la expresión, tendríamos que
\begin{align*}
x^2+x+1 &= a(x^2-x)+b(x^2-1)+c(x-1)\\
&= (a+b)x^2+(-a+c)x+(-b-c),
\end{align*}

de donde igualando coeficientes de términos del mismo grado, obtenemos el siguiente sistema de ecuaciones: $$\begin{cases}a+b & = 1\\ -a + c &= 1 \\ -b-c &= 1.\end{cases}$$

Para mostrar que este sistema de ecuaciones no tiene solución, le aplicaremos reducción gaussiana a la siguiente matriz extendida: $$\begin{pmatrix} 1 & 1 & 0 & 1 \\ -1 & 0 & 1 & 1 \\ 0 & -1 & -1 & 1 \end{pmatrix}.$$

Tras la transvección $R_2+R_1$, obtenemos $$\begin{pmatrix} 1 & 1 & 0 & 1 \\ 0 & 1 & 1 & 2 \\ 0 & -1 & -1 & 1 \end{pmatrix}.$$

Tras la transvección $R_3+R_2$, obtenemos $$\begin{pmatrix} 1 & 1 & 0 & 1 \\ 0 & 1 & 1 & 2 \\ 0 & 0 & 0 & 3 \end{pmatrix}.$$

De aquí se ve que la forma escalonada reducida tendrá un pivote en la última columna. Por el teorema de existencia y unicidad el sistema original no tiene solución.

$\square$

En el problema anterior usamos un argumento de reducción gaussiana para mostrar que el sistema no tiene solución. Este es un método general que funciona en muchas ocasiones. Una solución más sencilla para ver que el sistema del problema no tiene solución es que al sumar las tres ecuaciones se obtiene $0=3$.

Problema 2. Sea $n$ un entero positivo. Sea $W$ el subconjunto de vectores en $\mathbb{R}^n$ cuya suma de entradas es igual a $0$. Sea $Z$ el espacio generado por el vector $(1,1,\ldots,1)$ de $\mathbb{R}^n$. Determina si es cierto que $$\mathbb{R}^n=W\oplus Z.$$

Solución. El espacio $Z$ está generado por todas las combinaciones lineales que se pueden hacer con el vector $v=(1,1,\ldots,1)$. Como sólo es un vector, las combinaciones lineales son de la forma $av$ con $a$ en $\mathbb{R}$, de modo que $Z$ es precisamente $$Z=\{(a,a,\ldots,a): a\in\mathbb{R}\}.$$

Para obtener la igualdad $$\mathbb{R}^n=W\oplus Z,$$ tienen que pasar las siguientes dos cosas (aquí estamos usando un resultado de la entrada de suma y suma directa de subespacios):

  • $W\cap Z = \{0\}$
  • $W+Z=\mathbb{R}^n$

Veamos qué sucede con un vector $v$ en $W\cap Z$. Como está en $Z$, debe ser de la forma $v=(a,a,\ldots,a)$. Como está en $W$, la suma de sus entradas debe ser igual a $0$. En otras palabras, $0=a+a+\ldots+a=na$. Como $n$ es un entero positivo, esta igualdad implica que $a=0$. De aquí obtenemos que $v=(0,0,\ldots,0)$, y por lo tanto $W\cap Z = \{0\}$.

Veamos ahora si se cumple la igualdad $\mathbb{R}^n=W+Z$. Por supuesto, se tiene que $W+Z\subseteq \mathbb{R}^n$, pues los elementos de $W$ y $Z$ son vectores en $\mathbb{R}^n$. Para que la igualdad $\mathbb{R}^n\subseteq W+Z$ se cumpla, tiene que pasar que cualquier vector $v=(x_1,\ldots,x_n)$ en $\mathbb{R}^n$ se pueda escribir como suma de un vector $w$ uno con suma de entradas $0$ y un vector $z$ con todas sus entradas iguales. Veamos que esto siempre se puede hacer.

Para hacerlo, sea $S=x_1+\ldots+x_n$ la suma de las entradas del vector $v$. Consideremos al vector $w=\left(x_1-\frac{S}{n},\ldots, x_n-\frac{S}{n} \right)$ y al vector $z=\left(\frac{S}{n},\ldots,\frac{S}{n}\right)$.

Por un lado, $z$ está en $Z$, pues todas sus entradas son iguales. Por otro lado, la suma de las entradas de $w$ es
\begin{align*}
\left(x_1-\frac{S}{n}\right)+\ldots + \left(x_n-\frac{S}{n}\right)&=(x_1+\ldots+x_n)-n\cdot \frac{S}{n}\\ &= S-S=0,
\end{align*}

lo cual muestra que $w$ está en $W$. Finalmente, notemos que la igualdad $w+z=v$ se puede comprobar haciendo la suma entrada a entrada. Con esto mostramos que cualquier vector de $V$ es suma de vectores en $W$ y $Z$ y por lo tanto concluimos la igualdad $\mathbb{R}^n=W\oplus Z$.

$\square$

En el problema anterior puede parecer algo mágico la propuesta de vectores $w$ y $z$. ¿Qué es lo que motiva la elección de $\frac{S}{n}$? Una forma de enfrentar los problemas de este estilo es utilizar la heurística de trabajar hacia atrás. Sabemos que el vector $w$ debe tener todas sus entradas iguales a cierto número $a$ y queremos que $z=v-w$ tenga suma de entradas igual a $0$. La suma de las entradas de $v-w$ es $$(x_1-a)+\ldots+(x_n-a)= S -na.$$ La elección de $a=\frac{S}{n}$ está motivada en que queremos que esto sea cero.

Problema 3. Considera las siguientes tres matrices en $M_2(\mathbb{C})$:
\begin{align*}
A&= \begin{pmatrix} -i & -3 \\ 2 & 3 \end{pmatrix}\\
B&= \begin{pmatrix} 2i& 1 \\ 3 & -1 \end{pmatrix}\\
C&= \begin{pmatrix} i & -7 \\ 12 & 7 \end{pmatrix}.
\end{align*}

Demuestra que $A$, $B$ y $C$ son matrices linealmente dependientes. Da una combinación lineal no trivial de ellas que sea igual a $0$.

Solución. Para mostrar que son linealmente dependientes, basta dar la combinación lineal no trivial buscada. Buscamos entonces $a,b,c$ números complejos no cero tales que $aA+bB+cC=O_2$, la matriz cero en $M_2(\mathbb{C})$. Para que se de esta igualdad, es necesario que suceda entrada a entrada. Tenemos entonces el siguiente sistema de ecuaciones:
$$\begin{cases}
-i a + 2i b + ic &= 0\\
-3a + b -7c &=0\\
2a + 3b + 12c &= 0\\
3a -b +7c &=0.
\end{cases}$$

En este sistema de ecuaciones tenemos números complejos, pero se resuelve exactamente de la misma manera que en el caso real. Para ello, llevamos la matriz correspondiente al sistema a su forma escalonada reducida. Comenzamos dividiendo el primer renglón por $-i$ y aplicando transvecciones para hacer el resto de las entradas de la columna iguales a $0$. Luego intercambiamos la tercera y cuarta filas.

\begin{align*}
&\begin{pmatrix}
-i & 2i & i \\
-3 & 1 & -7 \\
2 & 3 & 12 \\
3 & -1 & 7
\end{pmatrix}\\
\to&\begin{pmatrix}
1 & -2 & -1 \\
0 & -5 & -10 \\
0 & 7 & 14 \\
0 & 5 & 10
\end{pmatrix}
\end{align*}

Ahora reescalamos con factor $-\frac{1}{5}$ la segunda fila y hacemos transvecciones para hacer igual a cero el resto de entradas de la columna 2:

\begin{align*}
&\begin{pmatrix}
1 & 0& 3 \\
0 & 1 & 2 \\
0 & 0 & 0 \\
0 & 0 & 0
\end{pmatrix}
\end{align*}

Con esto llegamos a la forma escalonada reducida de la matriz. De acuerdo al procedimiento que discutimos en la entrada de sistemas lineales homogéneos, concluimos que las variables $a$ y $b$ son pivote y la variable $c$ es libre. Para poner a $a$ y $b$ en términos de $c$, usamos la primera y segunda ecuaciones. Nos queda \begin{align*} a &= -3c \\ b &= -2c. \end{align*}

En resumen, concluimos que para cualqueir número complejo $c$ en $\mathbb{C}$ se tiene la combinación lineal $$-3c\begin{pmatrix} -i & -3 \\ 2 & 3 \end{pmatrix} – 2c \begin{pmatrix} 2i& 1 \\ 3 & -1 \end{pmatrix} + c\begin{pmatrix} i & -7 \\ 12 & 7 \end{pmatrix} = \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}.$$

Una posible combinación lineal no trivial se obtiene tomando $c=1$.

$\square$

En el problema anterior bastaba encontrar una combinación lineal no trivial para acabar el ejercicio. Por supuesto, esto también se puede hacer por prueba y error. Sin embargo, la solución que dimos da una manera sistemática de resolver problemas de este estilo.

Problema 4. Consideremos el espacio vectorial $V$ de funciones $f:\mathbb{R}\to \mathbb{R}$. Para cada real $a$ en $(0,\infty)$, definimos a la función $f_a\in V$ dada por $$f_a(x)=e^{ax}.$$

Tomemos reales distintos $0<a_1<a_2<\ldots<a_n$. Supongamos que existe una combinación lineal de las funciones $f_{a_1},\ldots,f_{a_n}$ que es igual a $0$, es decir, que existen reales $\alpha_1,\ldots,\alpha_n$ tales que $$\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_n e^{a_nx} = 0$$ para todo real $x\geq 0$.

Muestra que $\alpha_1=\ldots=\alpha_n=0$. Concluye que la familia $(f_a)_{a\in \mathbb{R}}$ es linealmente independiente en $V$.

Solución. Procedemos por inducción sobre $n$. Para $n=1$, si tenemos la igualdad $\alpha e^{ax}=0$ para toda $x$, entonces $\alpha=0$, pues $e^{ax}$ siempre es un número positivo. Supongamos ahora que sabemos el resultado para cada que elijamos $n-1$ reales cualesquiera. Probaremos el resultado para $n$ reales cualesquiera.

Supongamos que tenemos la combinación lineal $$\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_n e^{a_nx} = 0$$ para todo real $x\geq 0$.

Dividamos esta igualdad que tenemos entre $e^{a_nx}$:

$$\alpha_1 e^{(a_1-a_n)x} + \alpha_2e^{(a_2-a_n)x} + \ldots + \alpha_{n-1}e^{(a_{n-1}-a_n)x}+\alpha_n = 0.$$

¿Qué sucede cuando hacemos $x\to \infty$? Cada uno de los sumandos de la forma $\alpha_i e^{(a_i-a_n)x}$ se hace cero, pues $a_i<a_n$ y entonces el exponente es negativo y se va a $-\infty$. De esta forma, queda la igualdad $\alpha_n=0$. Así, nuestra combinación lineal se ve ahora de la forma $$\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_{n-1} e^{a_{n-1}x} = 0.$$

Por la hipótesis inductiva, $\alpha_1=\ldots=\alpha_{n-1}=0$. Como también ya demostramos $\alpha_n=0$, hemos terminado el paso inductivo.

Concluimos que la familia (infinita) $(f_a)_{a\in \mathbb{R}}$ es linealmente independiente en $V$ pues cualquier subconjunto finito de ella es linealmente independiente.

$\square$

El problema anterior muestra que la razón por la cual ciertos objetos son linealmente independientes puede deberse a una propiedad analítica o de cálculo. A veces dependiendo del contexto en el que estemos, hay que usar herramientas de ese contexto para probar afirmaciones de álgebra lineal.

Entradas relacionadas

Agradecimiento

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Bases y dimensión de espacios vectoriales

Por Ayax Calderón

Introducción

Ya hablamos de conjuntos generadores y de independencia lineal. Además, ya platicamos también del lema de intercambio de Steinitz. Con estas herramientas, tenemos todo a nuestra disposición para desarrollar la teoría de dimensión de espacios vectoriales.

Para espacios vectoriales en general, esto puede no resultar tan sencillo. Por esta razón, para este tema nos enfocaremos en el caso en el que la dimensión es finita. Sin embargo, también veremos ejemplos de espacios que no son así, y hablaremos un poco de cómo son.

Espacios de dimensión finita

Definición. Se dice que un espacio vectorial es de dimensión finita si tiene un conjunto generador con una cantidad finita de elementos.

Otra forma de interpretar la definición anterior es la siguiente:
$V$ es un espacio vectorial de dimensión finita si existe una familia finita de vectores $v_1, v_2, \dots , v_n \in V$ tal que todos los vectores en $V$ se pueden expresar como combinación lineal de dicha familia. Por ejemplo, los espacios $F^n, \hspace{2mm} M_{m,n}(F), \hspace{2mm}$ y $\hspace{2mm} \mathbb{R}_n[x]$ son de dimensión finita. Sin embargo, no todos los espacios vectoriales son de dimensión finita, de hecho la mayoría no lo son.

Problema. Demuestra que el espacio vectorial $V$ de todos los polinomios con coeficientes reales no es un espacio vectorial sobre $\mathbb{R}$ de dimensión finita.

Demostración. Supongamos que $V$ tiene un conjunto generador finito, entonces existen polinomios $p_1,p_2,\dots,p_n\in V$ tales que $V=\text{span}(p_1,p_2,\dots,p_n)$. Sea $d=\max\{deg(p_1), \dots, deg(p_n)\}$. Como todos los $p_i$ tienen grado a lo más $d$, entonces cualquier combinación lineal de $p_1,p_2,\dots,p_n$ también tiene grado a lo más $d$. Se sigue que todo vector en $V$ tiene grado a lo más $d$, pero eso es imposible, pues $deg(x^{d+1})=d+1>d$. Por lo tanto $V$ no es de dimensión finita.

$\square$

Nos gustaría definir la dimensión de un espacio vectorial. Para ilustrar esto es bueno pensar primero en $\mathbb{R}^n$ para distintos valores de $n$. Una linea (digamos $\mathbb{R}$) debería tener dimensión $1$, un plano (digamos $\mathbb{R}^2$) debería tener dimensión 2, y en general $\mathbb{R}^n$ debería tener dimensión $n$.

Antes de profundizar más en esto, es conveniente mencionar algunas definiciones y problemas prácticos para generar una mejor intuición sobre el rumbo que estamos a punto de tomar.

Definición. Una base de un espacio vectorial $V$ es un subconjunto $B$ de $V$ tal que $B$ es linealmente independiente y generador.

Ejemplos.

  • El conjunto $B=\{e_1,\ldots,e_n\}$ de vectores canónicos en $\mathbb{F}^n$ es una base. Esto se puede verificar con lo que hicimos al inicio del curso, cuando mostramos que cualquier vector $v$ en $\mathbb{F}^n$ se puede escribir de manera única como $v=x_1e_1+\ldots+x_ne_n$ con $x_1,\ldots,x_n$ escalares. Como existe al menos una forma, entonces $\text{span}(B)=F^n$. Como es única, en particular la única forma de escribir al vector $0$ es si $x_1=\ldots=x_n=0$. Esto muestra que $B$ es generador y linealmente independiente.
  • El conjunto $B=\{E_{ij}\}$ de matrices canónicas en $M_{m,n}(F)$ es una base.
  • El conjunto $1,x,\ldots,x^n$ es una base de $\mathbb{R}_n[x]$.

Encontrar bases de subespacios

Como los subespacios de espacios vectoriales también son espacios vectoriales, entonces también tiene sentido hablar de si un conjunto de vectores es base para un subespacio. Veamos ahora varios problemas para entender mejor esto.

Problema 1. Dada la matriz $A\in M_2(\mathbb{R})$
\begin{align*}
A=\begin{pmatrix}
2 & 0\\
0 & 3
\end{pmatrix}
\end{align*}
encuentra una base para el subespacio $U$ de $M_2(\mathbb{R})$ definido por
\begin{align*}
U=\{X\in M_2(\mathbb{R}): XA=AX\}.
\end{align*}

Solución. Considera la matriz $X=\begin{pmatrix}
a_1 & a_2\\
a_3 & a_4\end{pmatrix}$. Entonces $X\in U$ si y sólo si $XA=AX$, lo anterior lo escribimos como
\begin{align*}
\begin{pmatrix}
2a_1 & 3 a_2\\
2a_3 & 3a_4
\end{pmatrix} = \begin{pmatrix}
2a_1 & 2 a_2\\
3a_3 & 3a_4
\end{pmatrix}.
\end{align*}
De la igualdad anterior obtenemos que $a_2=a_3=0$. Por lo tanto
\begin{align*}
U=\left\{\begin{pmatrix}
a_1 & 0\\
0 & a_4\end{pmatrix}:a_1,a_4\in \mathbb{R}\right\}.
\end{align*}

Este es un primer paso, pues nos permite poner al subespacio $U$ en una forma en la que es más fácil de entender. Ahora es más fácil encontrar una base para $U$. Proponemos al siguiente conjunto de dos matrices:
\begin{align*}
B=\left\{ \begin{pmatrix}
1 & 0\\
0 & 0\end{pmatrix} , \begin{pmatrix}
0&0\\
0 & 1\end{pmatrix}\right\}.
\end{align*}

Por un lado, este es un conjunto generador para $U$, pues cualquier elemento de $U$ se puede escribir como combinación lineal de elementos en $B$ como sigue: $$\begin{pmatrix} a_1 & 0 \\ 0 & a_4 \end{pmatrix}=a_1 \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} + a_4 \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}.$$

Por otro lado, $B$ es un conjunto linealmente independiente pues si $a$ y $b$ son escalares que tan una combinación lineal igual a cero entonces tendríamos $$\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix} = a \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} + b \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} a & 0 \\ 0 & b \end{pmatrix}.$$

Igualando la primera y última matriz entrada a entrada, tenemos que $a=b=0$.

$\triangle$

Es importante que revises el problema anterior con profundidad, pues da una idea de cómo encontrar una base $B$ de un subespacio $U$ de un espacio vectorial $V$. Una receta que funciona en algunos casos es la siguiente:

  • Entender bien el subespacio $U$ del que hay que dar una base.
  • Expresar a $U$ en términos simples.
  • Ver cómo son los vectores de $U$, y de ahí proponer una base $B$. Para esta parte hay que jugar un poco con conjuntos de vectores, para ver si son suficientes para generar y no son demasiados como para ya no ser linealmente independientes.
  • Mostrar que $B$ genera a $U$.
  • Mostrar que $B$ es linealmente independiente en $V$.

Veamos más ejemplos.

Problema 2. Determina una base para el subespacio $U$ de $\mathbb{R}^4$ dado por
\begin{align*}
U=\{(a,b,c,d)\in \mathbb{R}^4:a+b=0, c=2d\}.
\end{align*}

Solución. Como $b=-a$ y $c=2d$, entonces
\begin{align*}
U=\{(a,-a,2d,d)\in \mathbb{R}^4:a,d\in \mathbb{R}\}=\{av_1+dv_2|a,d\in \mathbb{R}\},
\end{align*}
donde $v_1=(1,-1,0,0)$ y $v_2=(0,0,2,1)$. Por lo tanto $v_1,v_2$ generan a $U$. También son linealmente independientes, pues la relación $av_1+dv_2=0$ es equivalente a $(a,-a,2d,d)=(0,0,0,0)$ e implica $a=d=0$.Se sigue que $\{v_1,v_2\}$ es una base para $U$.

$\triangle$

Problema 3. Considera los subespacios $U,V$ de $\mathbb{R}^4$ definidos por
\begin{align*}
U=\{(x,y,z,w)\in\mathbb{R}^4:y+z+w=0\}
\end{align*}
y
\begin{align*}
V=\{(x,y,z,w)\in\mathbb{R}^4:x=-y, \hspace{2mm}z=2w\}.
\end{align*}
Encuentra una base para cada uno de los subespacios $U,V$ y $U\cap V$ de $\mathbb{R}^4$.

Solución. Expresando a $w$ en términos de $y$ y $z$, obtenemos
\begin{align*}
U&=\{(x,y,z,-y-z)|y,z\in\mathbb{R}\}\\
&=\{xu_1+yu_2+zu_3|x,y,z \in \mathbb{R}\},
\end{align*}
donde $u_1=(1,0,0,0), u_2=(0,1,0,-1)$ y $u_3=(0,0,1,-1)$.

Veamos si $u_1,u_2,u_3$ son linealmente independientes. La igualdad $xu_1+yu_2+zu_3=0$ es equivalente a $(x,y,z,-y-z)=(0,0,0,0)$ e implica $x=y=z=0$. Por lo tanto, los vectores $u_1,u_2,u_3$ son linealmente independientes y forman una base de $U$.

Ahora, para $V$. Es fácil ver que
\begin{align*}
V&=\{(-y,y,2w,w)| y,w\in\mathbb{R}\}\\
&=\{yv_1+wv_2| y,w\in \mathbb{R}\},
\end{align*}
donde $v_1=(-1,1,0,0) \hspace{2mm}$ y $v_2=(0,0,2,1)$.

Nuevamente, $v_1, v_2$ son linealmente independientes, pues la relación $yv_1+wv_2=0$ es equivalente a $(-y,y,2w,w)=(0,0,0,0)$ e implica $y=w=0$. Por lo tanto $v_1,v_2$ forman una base de $V$.

Finalmente, el vector $(x,y,z,w)\in\mathbb{R}^4$ pertenece a $U\cap V$ si y sólo si
\begin{align*}
x=-y, \hspace{3mm} z=2w, \hspace{3mm} y+z+w=0.
\end{align*}
Se sigue que $x=3w, \hspace{2mm} z=2w \hspace{2mm}$ y $y=-3w$, o bien
\begin{align*}
(x,y,z,w)=(3w,-3w,2w,w)=w(3,-3,2,1).
\end{align*}
Por lo tanto $\{(3,-3,2,1)\}$ es una base de $U \cap V$.

$\triangle$

Problema 4. Sea $V$ el espacio de funciones $f:\mathbb{R}\longrightarrow \mathbb{R}$ generado por las funciones en $B=\{1,x\mapsto \sin (2x), x\mapsto \cos(2x)\}$.

a) Demuestra que $B$ es una base de $V$.
b) Demuestra que $x\mapsto \sin ^2 (x)$ es una función en $V$ y exprésala como combinación lineal de los elementos de $B$.

Solución. a) . Como $V$ es el generado de $B$, por definición $B$ es generador. Así, basta demostrar que los vectores en $B$ son linealmente independientes. En otras palabras, queremos ver que si $a,b,c$ son números reales tales que
\begin{align*}
a+b\sin (2x) + c\cos (2x)=0
\end{align*}
para todo $x\in \mathbb{R}$, entonces $a=b=c=0$.

Tomando $x=0$ se obtiene que $a+c=0$. Si tomamos $x=\frac{\pi}{2}$ obtenemos $a-c=0$. Por lo tanto $a=c=0$. Finalmente, si tomamos $x=\frac{\pi}{4}$ obtenemos $b=0$.

b) Para cada $x\in\mathbb{R}$ se tiene
\begin{align*}
\cos (2x)&=2\cos^2(x)-1\\
&=2(1-\sin^2(x))-1\\
&=1-2\sin^2(x),
\end{align*}
por lo tanto
\begin{align*}
\sin^2(x)=\frac{1-\cos (2x)}{2}.
\end{align*}
Por lo tanto $x\mapsto \sin^2(x)$ pertence a $V$ y lo expresamos como combinación lineal de los elementos de $B$ de la siguiente manera:
\begin{align*}
\sin^2(x)=\frac{1}{2}\cdot 1 + 0\cdot \sin(2x) – \frac{1}{2} \cos (2x).
\end{align*}

$\square$

Dimensión finita y bases

Ahora veamos un teorema muy importante en la teoría de la dimensión de espacios vectoriales.

Teorema. Sea $V$ un espacio vectorial de dimensión finita. Entonces
a) $V$ contiene una base con una cantidad finita de elementos.
b) Cualesquiera dos bases de $V$ tienen el mismo número de elementos (en particular, cualquier base tiene una cantidad finita de elementos).

Demostración. a) Como $V$ es de dimensión finita, entonces tiene al menos un conjunto generador finito. Sea $B$ un conjunto generador de $V$ con el menor número posible de elementos. Vamos a demostrar que $B$ es una base para $V$. $B$ ya es conjunto generador porque así lo escogimos, sólo falta probar que es linealmente independiente.

Supongamos por el contrario que $B$ no es linealmente independiente, entonces existe $v\in B$ tal que $v\in \text{span}(B\backslash \{v\})$. Por lo tanto $$\text{span}(B\setminus\{v\})=\text{span}(B)=V.$$

Pero eso es imposible pues $B$ se tomó de tamaño mínimo. Por lo tanto $B$ es linealmente independiente. Se sigue el resultado deseado.

b) Sea $B$ una base con una cantidad finita de elementos, digamos $n$. Sea $B’$ otra base de $V$. Por definición de base, $B’$ es linealmente independiente y $B$ es un conjunto generador con $n$ elementos.

Por el lema de Steinitz, $B’$ es finito y tiene a lo más $n$ elementos. Lo anterior nos muestra que cualquier base tiene a lo más $n$ elementos. De hecho, si $B’$ tiene $d$ elementos, el lema de Steinitz garantiza que $n\leq d$.

Ahora volvemos a aplicar el mismo argumento que antes, pero pensando a $B$ como linealmente independiente y a $B’$ como generador. Concluimos que $k\leq d$. De este modo, $k=d$ y por lo tanto toda base de $V$ tiene la misma cantidad de elementos.

$\square$

El resultado anterior justifica que la siguiente definición esté bien hecha.

Definición. Sea $V$ un espacio vectorial de dimensión finita. Definimos la dimensión $dim V$ de $V$ como el número de elementos de una base de $V$.

Ejemplos y problemas de dimensión

Ejemplo 1. Considera el espacio vectorial $\mathbb{R}^n$ y su base canónica $B=\{e_1,e_2,\dots , e_n\}$. Como $B$ es base y tiene $n$ elementos, entonces $dim(\mathbb{R}^n)=n$.

$\triangle$

Ejemplo 2. Considera el espacio vectorial $\mathbb{R}_n[x]$ de polinomios con coeficientes reales y grado a lo más $n$. Una base para $\mathbb{R}_n[x]$ es $\{1,x,\dots, x^n\}$, por lo tanto $dim(\mathbb{R}_n[x])=n+1$.

$\triangle$

Ejemplo 3. Considera el espacio vectorial $M_{m,n}(\mathbb{R})$. Sea $E_{ij}\in M_{m,n}(\mathbb{R})$ la matriz cuya entrada $(i,j)$ es $1$ y el resto de sus entradas son $0$. Entonces $B=\{E_{ij}| 1\leq i \leq m, 1\leq j \leq n \}$ es una base para $M_{m,n}(\mathbb{R})$. Así, $\dim(M_{m,n}(\mathbb{R}))=mn$.

$\triangle$

Problema 4. Encuentra una base y la dimensión del subespacio
\begin{align*}
V=\{(a,2a)|a\in \mathbb{R}\}\subset \mathbb{R}^2.
\end{align*}

Solución. Notemos que $V=\text{span}((1,2))$, pues $(a,2a)=a(1,2)$. Como $(1,2)\neq (0,0)$, entonces $B=\{(1,2)\}$ es una base de $V$. Por lo tanto $\dim(V)=1$.

$\triangle$

Un lema útil para demostrar que algo es base

Para finalizar esta entrada demostraremos otro teorema muy importante en la teoría de la dimensión de espacios vectoriales. En este resultado usamos de nuevo de manera repetida el lema de intercambio de Steinitz.

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n$. Entonces
a) Cualquier conjunto linealmente independiente de vectores de $V$ tiene a lo más $n$ elementos.
b) Cualquier conjunto generador de $V$ tiene al menos $n$ elementos.
c) Si $S$ es un subconjunto de $V$ con $n$ elementos, entonces las siguientes afirmaciones son equivalentes:

  1. $S$ es linealmente independiente.
  2. $ S $ es un conjunto generador.
  3. $S$ es una base de $V$.

Demostración. Sea $V$ una base de $B$. Por definición $B$ tiene $n$ elementos.

a) Como $B$ es un conjunto generador con $n$ elementos, por el lema de intercambio se tiene que cualquier conjunto linealmente independiente tiene a lo más $n$ elementos.

b) Sea $S$ un conjunto generador de $V$ y supongamos que $S$ tiene $d<n$ elementos. Como $B$ es linealmente independiente, entonces por el lema de intercambio se tiene que $n \leq d$, lo cual sería una contradicción.

c) Es claro que (3) implica (1) y (2), por lo que solamente probaremos que (1) implica (3) y que (2) implica (3).

Supongamos que $S$ es linealmente independiente, entonces por el lema de intercambio de Steintz podemos agregar $n-n=0$ vectores a $S$ de manera que el nuevo conjunto es generador. Claramente el nuevo conjunto es $S$ mismo, pues no le agregamos nada. Por lo tanto $S$ es un conjunto generador y como estamos bajo el supuesto de que $S$ es linealmente independiente, entonces $S$ es una base de $V$.

Ahora supongamos que $S$ es un conjunto generador que no es linealmente independiente. Entonces existe $v\in S$ tal que $v\in \text{span}(S\setminus \{v\})$. Se sigue que $S\setminus \{v\}$ es un conjunto generador de $n-1$ elementos (al generar a $v$, genera todo lo que generaba $S$). Pero esto contradice el inciso b). Por lo tanto $S$ es linealmente independiente y por lo tanto es una base de $V$.

$\square$

El resultado anterior nos permite pensar a las bases de un espacio vectorial como los conjuntos linealmente independientes «más grandes», o bien como los conjuntos generadores «más chicos». En la siguiente entrada veremos ejemplos prácticos del uso del teorema anterior.

Más adelante…

A partir de la definición de dimensión, más adelante construiremos la noción de rango, que nos permite decir «qué tanta información guarda una matriz». La dimensión ayuda también a comprender cuándo hay cierto tipo de transformaciones lineales entre espacios vectoriales. Una aplicación más de la dimensión es que en muchos casos queremos probar afirmaciones para todos los espacios vectoriales de dimensión finita. Como la dimensión nos permite asociar a cada uno de estos un entero, muchas de estas demostraciones se pueden hacer por inducción.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • En todos los problemas en donde se hable de subespacios, verifica que en efecto los conjuntos dados son subespacios del espacio vectorial mencionado.
  • En todos los ejemplos y problemas en los que se menciona que algo es base, verifica que en efecto se tiene un conjunto que es generador y linealmente independiente.
  • Sea $V$ un espacio vectorial sobre $\mathbb{C}$ y de dimensión $n$. Demuestra que si ves a $V$ como un espacio vectorial sobre $\mathbb{R}$, entonces $\dim(V)=2n$.
  • Sea $V$ un espacio vectorial de dimensión finita y $W$ un subespacio de $V$. Demuestra que $W$ es de dimensión finita, que $\dim(W)\leq \dim(V)$ y que la igualdad se da si y sólo si $W=V$.
  • Sean $W_1,W_2$ subespacios de un espacio vectorial $V$ con dimensiones $m$ y $n$, respectivamente, con $m\geq n$.
    a) Demuestra que $\dim(W_1\cap W_2)\leq n$.
    b) Demuestra que $\dim(W_1 + W_2)\leq m+n$.
  • Encuentra la dimensión del subespacio de matrices en $M_n(\mathbb{R})$ que son simétricas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»