Archivo del Autor: Blanca Radillo

Álgebra Lineal I: Problemas de formas cuadráticas y producto interior

Por Blanca Radillo

Introducción

En las últimas sesiones, hemos introducido el tema de formas bilineales y formas cuadráticas. Más adelante, hablamos de positividad de formas cuadráticas y de producto interior. Ahora veremos algunos problemas de formas cuadráticas y producto interior.

Problemas resueltos de formas cuadráticas

Sabemos que si $T:V\times V\rightarrow \mathbb{R}$ es una transformación lineal, $T$ no necesariamente es una forma bilineal (durante la clase del viernes se discutió un ejemplo), entonces una pregunta interesante es ¿qué información tenemos sobre el núcleo de una forma cuadrática? Es fácil ver que una forma cuadrática no es una transformación lineal, pero está asociada a una forma bilineal. Interesadas en esta pregunta, analizaremos algunas propiedades del núcleo de una forma bilineal y de una forma cuadrática.

Problema 1. a) Si $q$ es una forma cuadrática en $\mathbb{R}^n$, ¿el conjunto $\{ x\in \mathbb{R}^n: q(x)=0 \}$ es un subespacio de $\mathbb{R}^n$?
b) Describe ${ x\in \mathbb{R}^n:q(x)=0}$ si:
1) $q(x,y)=x^2+y^2$,
2) $q(x,y,z)=xy+yz+zx$
3) $q(x,y,z)=(x-y)^2+(y-z)^2+(z-x)^2$.

Solución. a) La respuesta es: no, el conjunto $\{ x\in \mathbb{R}^n: q(x)=0 \}$ no necesariamente es un subespacio, ya que no necesariamente es cerrado bajo la suma. Daremos un ejemplo.

Sea $q:\mathbb{R}^2\rightarrow \mathbb{R}$ definido como $q((x,y))=x^2-y^2$. Sabemos que ésta es una forma cuadrática. Notemos que para todo $x,y \in\mathbb{R}$, si $v_1=(x,x),v_2=(y,-y)$, entonces $q(v_1)=x^2-x^2=0$ y $q(v_2)=y^2-(-y)^2=0$, entonces $v_1,v_2 \in \{ x\in \mathbb{R}^n: q(x)=0 \}$. Pero $v_1+v_2=(x+y,x-y)$ no pertenecen al núcleo de $q$, ya que $q(v_1+v_2)=q((x+y,x-y))=(x+y)^2-(x-y)^2=4xy\neq 0$ si $x,y\neq 0$.

b.1) Sea $(x,y)\in\mathbb{R}^2$ tal que $q((x,y))=x^2+y^2=0$. Como $x,y\in\mathbb{R}$, sabemos que la única posibilidad en que la suma de dos cuadrados sea cero es que ambos sean cero, por lo tanto $\{ x\in \mathbb{R}^2: q(x)=0 \}=\{(0,0)\}$.

b.2) Sea $(x,y,z)\in\mathbb{R}^3$ tal que $q((x,y,z))=xy+yz+zx=0$. Si $x=0$ entonces $yz=0$, esto es posible sólo si $y=0$ o $z=0$. Entonces el núcleo contiene a los ejes $(x,0,0)$, $(0,y,0)$ y $(0,0,z)$. Ahora, si $x=-y$, entonces $xy+yz+zx=-x^2-xz+zx=-x^2=0$, por lo tanto $x=0=y$, obteniendo nuevamente a los ejes. Ahora suponemos que $x+y\neq 0$. Entonces $xy+yz+zx=xy+z(x+y)=0$, obteniendo que $z=-\frac{xy}{x+y}$ (el cono elíptico). Por lo tanto el núcleo de $q$ son los ejes y el cono elíptico.

b.3) Sea $(x,y,z)\in\mathbb{R}^3$ tal que $q((x,y,z))=(x-y)^2+(y-z)^2+(z-x)^2=0$. Al igual que en el inciso (b.1), esto sólo es posible si $x-y=y-z=z-x=0$, entonces $x=y=z$. Por lo tanto, $\{ x\in \mathbb{R}^n: q(x)=0 \}=\{(x,x,x):x\in\mathbb{R}\}$.

$\triangle$

Problema 2. Sea $V=P_2(\mathbb{R})$ el espacio de polinomios en $[-1,1]$ con coeficientes reales de grado a lo más 2 y considera el mapeo $b:V\times V\rightarrow \mathbb{R}$ definido como

$b(f,g)=\int_{-1}^1 tf(t)g(t) dt.$

Prueba que $b$ es una forma bilineal simétrica de $V$. Si $q$ es la forma cuadrática asociada, encuentra las $f$ en $V$ tales que $q(f)=0$.

Solución. Mostrar que $b$ es bilineal es sencillo, y queda como tarea moral. Es fácil ver que es simétrica, ya que

\begin{align*}
b(f,g)&=\int_{-1}^1 tf(t)g(t) dt \\
&=\int_{-1}^1 tg(t)f(t)dt=b(g,f).
\end{align*}

Ahora, queremos encontrar las funciones $f$ tales que $q(f)=b(f,f)=\int_{-1}^1 tf^2(t)dt=0$. Como $f$ es un polinomio de grado $2$, es de la forma $f(x)=ax^2+bx+c$ para reales $a,b,c$ y entonces

\begin{align*}
0&=q(f)\\
&=\int_{-1}^1 tf^2(t)dt \\
&=\int_{-1}^1 t(at^2+bt+c)^2dt \\
& = \int_{-1}^1 t(a^2t^4+2abt^3+(b^2+2ac)t^2+2bct+c^2)dt \\
&=\int_{-1}^1 (a^2t^5+2abt^4+(b^2+2ac)t^3+2bct^2+c^2t)dt \\
&=\frac{4ab}{5}+\frac{4bc}{3}=0
\end{align*}

Esto implica que $4b(3a+5c)=0$, entonces $b=0$ o $3a+5c=0$. Por lo tanto $$\{f\in V:q(f)=0\}=\{ax^2+c \}\cup \{ax^2+bx-\frac{3a}{5}\}.$$

$\square$

Problemas resueltos de producto interior

Ahora recordemos que en la clase de ayer, definimos formas bilineales y cuadráticas positivas y definidas positivas, y a partir de ello, definimos qué es un producto interior. Así, en los siguientes problemas, veremos algunos ejemplos de estas definiciones.

Problema 3. Determina cuáles de las siguientes formas cuadráticas son positivas. ¿Cuáles también son definidas positivas?

  1. $q(x,y,z)=xy+yz+zx$.
  2. $q(x,y,z)=(x-y)^2+(y-z)^2+(z-x)^2$.
  3. $q(x,y,z)=x^2-y^2+z^2-xy+2yz-3zx$.

Solución. Sea $v=(x,y,z)\in\mathbb{R}^3$, recordemos que para cada uno de los incisos $q$ es positiva si $q(v)\geq 0$ para toda $v$ y es definida positiva si es positiva y $q(v)=0$ si y sólo si $v=0$.

1) Si escogemos a $v$ como $v=(1,-2,1)$ tenemos que
\begin{align*}q(v)&=q(1,-2,1)\\&=1(-2)+(-2)(1)+1(1)\\&=-2-2+1\\&=-3.\end{align*} Por lo tanto no es positiva ni definida positiva.

2) Dado que para todo $x,y,z$, tenemos que $(x-y)^2,(y-z)^2,(z-x)^2\geq 0$, entonces $q(v)\geq 0$ para todo $v\in\mathbb{R}^3$. Pero si $q(v)=0$, entonces $x=y=z$, pero no necesariamente son iguales a cero. Por lo tanto, $q$ es positiva pero no es definida positiva.

3) Si tomamos $v=(3,0,3)$, obtenemos que \begin{align*}q(v)&=(3)^2+(3)^2-3(3)(3)\\&=9+9-27\\&=-9\\&<0.\end{align*} Por lo tanto no es positiva ni definida positiva.

$\triangle$

Problema 4. Sea $V=C([a,b],\mathbb{R})$. Prueba que el mapeo $\langle \cdot , \cdot \rangle$ definido por $$\langle f,g \rangle = \int_a^b f(x)g(x) dx$$ es un producto interior en $V$.

Solución. Por lo visto en la clase de ayer, tenemos que un producto interior es una forma bilineal simétrica y definida positiva.
Es fácil ver que es forma bilineal simétrica. Basta con probar que es una forma definida positiva. Entonces $\langle f,f\rangle=\int_0^1 f^2(x)dx \geq 0$ ya que $f^2(x)\geq 0$ para toda $x$. Por lo tanto $\langle \cdot, \cdot \rangle$ es positiva. Como $f^2$ es continua y positiva, si $\int_0^1 f^2(x)dx=0$, implica que $f^2=0$, entonces $f=0$. Por lo tanto, $\langle \cdot , \cdot \rangle$ es definida positiva, y por ende, es un producto interior.

$\triangle$

Para finalizar, el siguiente problema es un ejemplo que pareciera ser producto interior, pero resulta que no serlo.

Problema 5. Sea $C^\infty([0,1],\mathbb{R})$ es el espacio de funciones suaves (funciones continuas cuyas derivadas de cualquier orden existen y son continuas). Definimos el espacio $V={ f\in C^\infty([0,1],\mathbb{R}): f(0)=f(1)=0 }$. Si definimos $$\langle f,g \rangle:=\int_0^1 (f(x)g'(x)+f'(x)g(x))dx,$$ ¿es $\langle \cdot , \cdot \rangle$ un producto interior en $V$?

Solución. Es claro ver que $\langle \cdot, \cdot \rangle$ es bilineal y simétrica, entonces falta demostrar si es o no es una forma definida positiva. Para $f\in V$, tenemos que $\langle f,f \rangle=\int_0^1 2f(x)f'(x)dx.$

Notemos que, por la regla de la cadena, $\frac{d}{dx}f^2(x)=2f(x)f'(x)$, entonces \begin{align*}\langle f,f \rangle&=\int_0^1 \frac{d}{dx} f^2(x) dx\\&=f^2(1)-f^2(0)\\&=0.\end{align*}

Por lo tanto $\langle f,f\rangle=0$ para toda $f$. Esto implica que no es definida positiva, y como consecuencia, no es producto interior de $V$.

$\triangle$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de dualidad y base dual

Por Blanca Radillo

Introducción

En esta ocasión, comenzaremos a resolver problemas sobre un nuevo tema: espacio dual. La parte teórica ya la hemos cubierto en entradas anteriores. En la entrada de introducción a dualidad definimos el espacio dual y las formas coordenadas. Después, en una siguiente entrada, de bases duales vimos que las formas coordenadas son una base del espacio dual, hablamos de ciertos problemas prácticos para resolver, y vimos un teorema que relaciona bases, bases duales y una matriz invertible.

Problemas resueltos

Uno de los problemas de dualidad que discutimos la ocasión anterior es expresar a una base dual de vectores en $V$ en términos de la base dual de la base canónica. Veamos un ejemplo de esto.

Problema 1. Sean $v_1,v_2,v_3,v_4$ los vectores en $\mathbb{R}^4$ definidos como $$v_1=\begin{pmatrix} 1 \\ 1 \\ 1 \\ 1 \end{pmatrix}, v_2=\begin{pmatrix} 1 \\ 2 \\ 3 \\ 4 \end{pmatrix}, v_3=\begin{pmatrix} 0 \\ 0 \\ 1 \\ 2 \end{pmatrix}, v_4=\begin{pmatrix} 1 \\ 0 \\ 0 \\ 5 \end{pmatrix}.$$ Demuestra que $V:=\{v_1,v_2,v_3,v_4\}$ es una base de $\mathbb{R}^4$ y encuentra la base dual de $V$ en términos de $e_i^\ast$, donde $e_i^\ast$ es la base dual de la base canónica de $\mathbb{R}^4$.

Solución. Dado que $V$ está conformado por cuatro vectores y la dimensión de $\mathbb{R}^4$ es $4$, basta con probar que son vectores linealmente independientes. Hay dos maneras de hacerlo.

Manera 1: Sean $a,b,c,d \in \mathbb{R}$ tales que $0=av_1+bv_2+cv_3+dv_4$. Esto da cuatro ecuaciones

\begin{align*}
0&=a+b+d\\
0&=a+2b\\
0&=a+3b+c\\
0&=a+4b+2c+5d.
\end{align*}

De la segunda obtenemos que $a=-2b$, sustituyendo en la primera y en la tercera
\begin{align*}
d&=2b-b=b,\\
c&=2b-3b=-b,
\end{align*}
y sustituyendo ésto en la cuarta, tenemos que $0=-2b+4b-2b+5b=5b$. Por lo tanto $a=b=c=d=0$, implicando que los vectores en $V$ son linealmente independientes, y por consiguiente forman una base de $\mathbb{R}^4$.

Manera 2: También podemos hacer la reducción gaussiana en la matriz $(A|I)$ donde $A$ es la matriz cuyas columnas son los vectores de $V$. Esta forma tiene la ventaja de que a la vez calcularemos la matriz inversa que nos interesa encontrar.
$$\left( \begin{array}{cccc|cccc} 1 & 1 & 0 & 1 & 1 & 0 & 0 & 0 \\ 1 & 2 & 0 & 0 & 0 & 1 & 0 & 0 \\ 1 & 3 & 1 & 0 & 0 & 0 & 1 & 0 \\ 1 & 4 & 2 & 5 & 0 & 0 & 0 & 1 \end{array} \right)$$

$$\to \left( \begin{array}{cccc|cccc} 1 & 1 & 0 & 1 & 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & -1 & -1 & 1 & 0 & 0 \\ 0 & 2 & 1 & -1 & -1 & 0 & 1 & 0 \\ 0 & 3 & 2 & 4 & -1 & 0 & 0 & 1 \end{array} \right)$$

$$\to \left( \begin{array}{cccc|cccc} 1 & 1 & 0 & 1 & 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & -1 & -1 & 1 & 0 & 0 \\ 0 & 0 & 1 & 1 & 1 & -2 & 1 & 0 \\ 0 & 0 & 2 & 7 & 2 & -3 & 0 & 1 \end{array} \right)$$

$$\to \left( \begin{array}{cccc|cccc} 1 & 0 & 0 & 0 & 2 & -7/5 & 4/5 & -2/5 \\ 0 & 1 & 0 & 0 & -1 & 6/5 & -2/5 & 1/5 \\ 0 & 0 & 1 & 0 & 1 & -11/5 & 7/5 & -1/5 \\ 0 & 0 & 0 & 1 & 0 & 1/5 & -2/5 & 1/5 \end{array} \right)$$


Como podemos reducir a la identidad, los vectores iniciales son linealmente independientes y forman una base. Más aún, ya obtuvimos la inversa de $A$.

Ahora, para obtener la base dual $V^{\ast}:=\{v_1^\ast,v_2^\ast,v_3^\ast,v_4^\ast\}$ de la base $V$, por lo visto en la última entrada, podemos escribir a cada elemento de $V^\ast$ como combinación lineal de $e_i^\ast$, donde los coeficientes del vector $v_i^\ast$ están en la $i$-ésima fila de $A^{-1}$. Por lo tanto,
\begin{align*}
v_1^\ast &= 2e_1^\ast -\frac{7}{5} e_2^\ast +\frac{4}{5} e_3^\ast -\frac{2}{5}e_4^\ast\\
v_2^\ast &= -e_1^\ast +\frac{6}{5} e_2^\ast -\frac{2}{5} e_3^\ast +\frac{1}{5}e_4^\ast\\
v_3^\ast &= e_1^\ast -\frac{11}{5} e_2^\ast +\frac{7}{5} e_3^\ast -\frac{1}{5}e_4^\ast\\
v_4^\ast &= \frac{1}{5} e_2^\ast -\frac{2}{5} e_3^\ast +\frac{1}{5}e_4^\ast.
\end{align*}

$\square$

Otro tipo de problemas de dualidad consisten en determinar algunos vectores en $V$ cuya base dual sea una base dada de $V^\ast$.

Problema 2. Considera las siguientes formas lineales en $\mathbb{R}^3$: \begin{align*}
l_1(x,y,z)&=x-y, \\
l_2(x,y,z)&=y-z, \\
l_3(x,y,z)&=x+y-z.
\end{align*}

  1. Prueba que $l_1,l_2,l_3$ forman una base del dual de $\mathbb{R}^3$.
  2. Encuentra una base de $\mathbb{R}^3$ cuya base dual es $l_1,l_2,l_3$.

Solución. (1) Por el último teorema de la entrada de bases duales, sabemos que $l_1,l_2,l_3$ forman una base si la matriz $A=[l_i(e_j)]$ es invertible, donde $e_j$ es la base canónica de $\mathbb{R}^3$.

Para mostrar que $A$ es invertible, calcularemos la forma escalonada reducida de la matríz $(A|I)$. Entonces,

\begin{align*}
&\left( \begin{array}{ccc|ccc} 1 & -1 & 0 & 1 & 0 & 0 \\ 0 & 1 & -1 & 0 & 1 & 0 \\ 1 & 1 & -1 & 0 & 0 & 1 \end{array} \right) \\ \to &\left( \begin{array}{ccc|ccc} 1 & -1 & 0 & 1 & 0 & 0 \\ 0 & 1 & -1 & 0 & 1 & 0 \\ 0 & 2 & -1 & -1 & 0 & 1 \end{array} \right) \\
\to &\left( \begin{array}{ccc|ccc} 1 & -1 & 0 & 1 & 0 & 0 \\ 0 & 1 & -1 & 0 & 1 & 0 \\ 0 & 0 & 1 & -1 & -2 & 1 \end{array} \right) \\ \to &\left( \begin{array}{ccc|ccc} 1 & 0 & 0 & 0 & -1 & 1 \\ 0 & 1 & 0 & -1 & -1 & 1 \\ 0 & 0 & 1 & -1 & -2 & 1 \end{array} \right)
\end{align*}

Con esto concluimos que $A$ es invertible, y por lo tanto $l_1,l_2,l_3$ forman una base del dual de $\mathbb{R}^3$.

(2) En el inciso anterior, calculamos la inversa de $A$, obteniendo $$A^{-1}=\begin{pmatrix} 0 & -1 & 1 \\ -1 & -1 & 1 \\ -1 & -2 & 1 \end{pmatrix}.$$
Recordemos que la base $v_1,v_2,v_3$ de $\mathbb{R}^3$ está determinada por las columnas de $B=A^{-1}$, entonces $$v_1=\begin{pmatrix} 0 \\ -1 \\ -1 \end{pmatrix}, \ v_2=\begin{pmatrix} -1 \\ -1 \\ -2 \end{pmatrix}, \ v_3=\begin{pmatrix} 1 \\ 1 \\ 1 \end{pmatrix}.$$

$\square$

Veamos otro ejemplo, en el que veremos formas lineales un poco más interesantes, relacionadas con cálculo.

Problema 3. Sea $V=\mathbb{C}_2[X]$ el espacio vectorial de polinomios de grado a lo más 2 con coeficientes complejos, y para cada $P\in V$ definimos
\begin{align*}
l_1(P)&=P(0), \\ l_2(P)&=\int_0^1 P(x) \, dx, \\ l_3(P)&=\int_0^1 P(x)e^{-2\pi ix}\, dx.
\end{align*}

  1. Prueba que $l_1,l_2,l_3$ pertenecen a $V^*$. Más aún, forman una base de $V^*$.
  2. Encuentra una base $v_1,v_2,v_3$ de $V$ cuya base dual es $l_1,l_2,l_3$.

Solución. (1) No es difícil ver que son formas lineales. Para $l_1$, notamos que \begin{align*}
l_1(P+Q)&=P(0)+Q(0)=l_1(P)+l_1(Q)\\
l_1(aP)&=aP(0)=al_1(P)
\end{align*} para cualesquiera polinomios $P$ y $Q$, y cualquier escalar $a$ en $\mathbb{C}$. Para $l_2$ y $l_3$, la linealidad se sigue por las propiedades de la integral.

Para probar que $l_1, l_2,l_3$ forman una base de $V^\ast$, lo haremos de manera similar al problema anterior. Sabemos que $1,x,x^2$ forman la base canónica de $V$, entonces $L:=\{l_1,l_2,l_3\}$ es una base de $V^\ast$ si la matriz $A=[l_i(e_j)]$ es invertible. Calculando $$l_1(1)=1, \ l_1(x)=l_1(x^2)=0,$$ $$l_2(1)=1, \ l_2(x)=\int_0^1 xdx=\frac{1}{2},$$ $$ l_2(x^2)=\int_0^1 x^2 dx=\frac{1}{3},$$ $$l_3(1)=\int_0^1 e^{-2\pi i x}dx=0, \ l_3(x)=\int_0^1 xe^{-2\pi i x}dx=\frac{i}{2\pi},$$ $$l_3(x^2)=\int_0^1 x^2e^{-2\pi i x}dx=\frac{1+i\pi}{2\pi^2}.$$
(Para calcular $l_3(x),l_3(x^2)$ se usa integración por partes). Entonces la matriz es $$A=\begin{pmatrix} 1 & 0 & 0 \\ 1 & 1/2 & 1/3 \\ 0 & \frac{i}{2\pi} & \frac{1+i\pi}{2\pi^2} \end{pmatrix}.$$

Ahora, reduciremos la matriz $(A|I)$ para simultáneamente probar que $A$ es invertible y encontrar $A^{-1}$. Tenemos que

\begin{align*}
&\left( \begin{array}{ccc|ccc} 1 & 0 & 0 & 1 & 0 & 0 \\ 1 & 1/2 & 1/3 & 0 & 1 & 0 \\ 0 & \frac{i}{2\pi} & \frac{1+i\pi}{2\pi^2} & 0 & 0 & 1 \end{array} \right)\\
\to &\left( \begin{array}{ccc|ccc} 1 & 0 & 0 & 1 & 0 & 0 \\ 0 & 1/2 & 1/3 & -1 & 1 & 0 \\ 0 & i\pi & 1+i\pi & 0 & 0 & 2\pi^2 \end{array} \right)\\
\to & \left( \begin{array}{ccc|ccc} 1 & 0 & 0 & 1 & 0 & 0 \\ 0 & 3 & 2 & -6 & 6 & 0 \\ 0 & 1 & \frac{1+i\pi}{i\pi} & 0 & 0 & -2i\pi \end{array} \right)\\
\to &\left( \begin{array}{ccc|ccc} 1 & 0 & 0 & 1 & 0 & 0 \\ 0 & 1 & 0 & \frac{-6-6\pi i}{3+\pi i} & \frac{6+6\pi i}{3+\pi i} & \frac{-4\pi^2}{3+\pi i} \\ 0 & 0 & 1 & \frac{6\pi i}{3+\pi i} & \frac{-6\pi i}{3+\pi i} & \frac{6\pi^2}{3+\pi i} \end{array} \right)
\end{align*}

Por lo tanto $A$ es invertible, implicando que $L$ es una base de $V^*$.

(2) Ya calculada en el inciso anterior, tenemos que $$A^{-1}=\frac{1}{3+\pi i} \begin{pmatrix} 3+\pi i & 0 & 0 \\ -6-6\pi i & 6+6\pi i & -4\pi^2 \\ 6\pi i & -6 \pi i & 6\pi^2 \end{pmatrix}.$$ De esta matriz leemos a las coordenadas de la base que estamos buscando en términos de la la base canónica $\{1,x,x^2\}$. Las columnas son los vectores de coordenadas. Por lo tanto, la base de $V$ tal que $L$ es la base dual es:

\begin{align*}
v_1&= \frac{1}{3+\pi i} \left(3+\pi i – (6+6\pi i) x + 6\pi i x^2\right) \\
v_2&= \frac{1}{3+\pi i} \left((6+6\pi i)x-6\pi i x^2 \right) \\
v_3&= \frac{1}{3+\pi i} \left( -4\pi^2 x+6\pi^2x^2 \right).
\end{align*}

$\square$

Fórmula de interpolación de Lagrange

La teoría de dualidad tiene amplias aplicaciones. Con ella se puede probar un resultado clásico: podemos construir un polinomio de grado $n$ que pase por $n+1$ puntos que nosotros queramos. En el siguiente ejercicio vemos los detalles.

Problema. (Interpolación de Lagrange) Sea $V=\mathbb{R}_n[X]$ el espacio vectorial de polinomios de grado a lo más $n$ con coeficientes reales. Sean $x_0,\dots,x_n$ números reales distintos. Para $0\leq i \leq n$ definimos $$L_i(x)=\prod_{0\leq j\leq n, j\neq i} \frac{x-x_j}{x_i-x_j}.$$

  1. Demuestra que $L_i(x_j)=\delta_{ij}$ para todo $1\leq i,j \leq n$, donde $\delta_{ij}$ es igual a 1 si $i=j$ y es igual a 0 si $i\neq j$.
  2. Prueba que $L_0,\dots,L_n$ forman una base de $V$.
  3. Encuentra la base dual de $L_0,\dots,L_n$.
  4. Prueba la Fórmula de Interpolación de Lagrange: para todo $P\in V$ tenemos que $$P=\sum_{i=0}^n P(x_i)L_i.$$
  5. Demuestra que para cualquiera $b_0,\dots,b_n \in\mathbb{R}$, podemos encontrar un único polinomio $P\in V$ tal que $P(x_i)=b_i$ para todo $0\leq i \leq n$. Este polinomio $P$ es llamado el polinomio de interpolación de Lagrange asociado a $b_0,\dots,b_n$.

Solución. (1) Si $j\neq i$, entonces $$L_i(x_j)=\frac{x_j-x_j}{x_i-x_j}\cdot\prod_{k\neq j,i} \frac{x_j-x_k}{x_i-x_k}=0.$$ Por otro lado si $i=j$, $$L_i(x_j)=L_i(x_i)=\prod_{k\neq i} \frac{x_i-x_k}{x_i-x_k} =1 .$$

(2) Dado que $\text{dim}(V)=n+1$, cuya base canónica es $1,x,\ldots,x^n$ y $L_0,\dots,L_n$ son $n+1$ vectores, para probar que son base, basta con demostrar que son linealmente independientes. Sean $a_0,\dots,a_n$ tales que $a_0L_0+\dots+a_nL_n=0$. Evaluando en $x_i$ y usando el inciso anterior, tenemos que $$0=\sum_{j=0}^n a_jL_j(x_i)=\sum_{j=0}^n a_j\delta_{ij}=a_i,$$ pero esto pasa cualquier $0\leq i \leq n$. Por lo tanto $L_0,\dots,L_n$ son linealmente independientes, y por consiguiente, son base de $V$.

(3) Por definición de la base dual $L_i^*(L_j)=\delta_{ij}$, y por el inciso (a) tenemos que $L_j(x_i)=\delta_{ij}$, entonces $L_i^*(L_j)=L_j(x_i)$, para toda $i,j$. Ahora, fijamos $i$. Dado que $L_0,\dots, L_n$ forman una base de $V$ y dado que $L_i^*$ es lineal, para todo polinomio $P$ en $V$, escrito en términos de la base como $$P(x)=a_0L_0+a_1L_1+\ldots+a_nL_n,$$ tenemos que
\begin{align*}
L_i^*(P)&=a_0L_i^*(L_0)+\ldots+a_nL_i^\ast(L_n)\\
&=a_0L_0(x_i)+\ldots+a_nL_n(x_i)\\
&=P(x_i).
\end{align*}

Por lo tanto la base dual es $L_i^*=\text{ev}_{x_i}$. Dicho de otra forma, la $i$-ésima forma coordenada consiste en evaluar en $x_i$.

(4) Sabemos que la base dual satisface que $$P=\sum_{i=0}^n \langle L_i^*,P \rangle L_i.$$ Pero por el inciso anterior, $\langle L_i^*,P\rangle =L_i^*(P)=P(x_i)$, entonces $P=\sum_i P(x_i)L_i$.

(5) Definimos $P=\sum_{i=0}^n b_iL_i$. Por el inciso (1), tenemos que $$P(x_j)=\sum_i b_iL_i(x_j)=\sum_i b_i\delta_{ij}=b_j.$$ Entonces el polinomio existe. Falta probar la unicidad.

Suponemos que existe $Q\in V$ tal que $Q(x_i)=b_i$ para todo $i$. Notemos que $P-Q$ es un polinomio de grado a lo más $n$ (por definición) y $(P-Q)(x_i)=0$ para todo $i$, esto implica que $P-Q$ tiene $n+1$ raíces distintas, lo cual es imposible si $P-Q \neq 0$, por lo tanto, $P-Q=0$, es decir $P=Q$.

$\square$

El último argumento viene de la teoría de polinomios. Puedes repasarla en otro curso que tenemos en el blog. Observa que este problema también se satisface para los polinomios con coeficientes complejos, $V=\mathbb{C}_n[X]$. Intenta reproducir la demostración por tu cuenta.

Expresar integral como suma de evaluaciones

Terminamos esta entrada con el siguiente problema. El enunciado no menciona dualidad, pero podemos usar la teoría desarrollada hasta ahora para resolverlo.

Problema. Sean $x_0,x_1,x_2\in [0,1]$, y sea $V=\mathbb{R}_2[X]$. Definimos el mapeo $$l(P)=\int_0^1 P(x)e^{-x} dx.$$ Demuestra que $l$ es una forma lineal en $V$ y prueba que existe una única tercia $(a_0,a_1,a_2)$ de números reales tales que para todo polinomio $P$ en $V$ se cumple que $$\int_0^1 P(x)e^{-x}dx=a_0P(x_0)+a_1P(x_1)+a_2P(x_2).$$

Solución. Debido a las propiedades de la integral, es fácil ver que $l$ es lineal, ya que

\begin{align*}
l(aP+Q)&=\int_0^1 (aP(x)+Q(x))e^{-x} dx \\
&= a\int_0^1 P(x)e^{-x}dx+\int_0^1 Q(x)e^{-x}dx \\
&=al(P)+l(Q).
\end{align*}

Usando el problema anterior, tenemos que $L_0^*=\text{ev}_{x_0}$, $L_1^*=\text{ev}_{x_1}$ y $L_2^*=\text{ev}_{x_2}$ forman una base de $V^$. Por lo tanto existen $(a_0,a_1,a_2)$ tales que $l=a_0L_0^*+a_1L_1^*+a_2L_2^*.$ Entonces

\begin{align*}
\int_0^1 P(x)e^{-x}&=l(P)=a_0L_0^*(P) + a_1L_1^*(P) + a_2L_3^*(P) \\
&= a_0P(x_0) + a_1P(x_1) + a_2P(x_2).
\end{align*}

Es fácil ver que es única esa tercia, ya que, si existiera otra $(b_0,b_1,b_2)$ tal que $$l=b_0L_0^*+b_1L_1^*+b_2L_2^*,$$ esto implica que $$0=(a_0-b_0)L_0^*+(a_1-b_1)L_1^*+(a_2-b_2)L_2^*,$$ y dado que $L_i^*$ son una base, tendríamos $a_i=b_i$ para $i=0,1,2$.

$\square$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de cambio de base

Por Blanca Radillo

Introducción

En las entradas anteriores platicamos acerca de matrices de cambio de base. Vimos cómo nos ayudan a pasar un vector expresado en una base a otra. También vimos cómo nos ayudan a entender una transformación lineal en bases distintas. En esta entrada, veremos algunos ejemplos para repasar estos conceptos.

Problemas resueltos

Problema 1. Considera las familias de vectores $B=\{v_1,v_2,v_3\}$, $B’=\{w_1,w_2,w_3\}$, donde $$v_1=(0,1,1), \ v_2=(1,0,1), \ v_3=(1,1,0)$$ y $$w_1=(1,1,-1), \ w_2=(1,0,-1), \ w_3=(-1,-1,0).$$

  1. Prueba que $B$ y $B’$ son bases de $\mathbb{R}^3$.
  2. Encuentra la matriz de cambio de base $P$ de $B$ a $B’$ usando la definición de $P$.
  3. Encuentra la matriz de cambio de base $P$ usando la base canónica de $\mathbb{R}^3$ y la última proposición de esta entrada.

Solución. (1) Dado que $\dim \mathbb{R}^3=3$ y estas familias son de tres vectores, basta con demostrar que son vectores linealmente independientes. Una manera de hacerlo es formando la matriz obtenida al colocar a los vectores como renglones y reducirla hasta la matriz identidad $I_3$.

Para $B$, la matriz asociada es $$\begin{pmatrix} 0 & 1 & 1 \\ 1 & 0 & 1 \\ 1 & 1 & 0 \end{pmatrix}.$$

Haciendo los cálculos de la reducción, obtenemos que

\begin{align*}
&\begin{pmatrix} 0 & 1 & 1 \\ 1 & 0 & 1 \\ 1 & 1 & 0 \end{pmatrix}\\
\to&\begin{pmatrix} 1 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 1 & 1 \end{pmatrix}\\
\to &\begin{pmatrix} 1 & 0 & 1 \\ 0 & 1 & -1 \\ 0 & 1 & 1 \end{pmatrix}\\
\to &\begin{pmatrix} 1 & 0 & 1 \\ 0 & 2 & 0 \\ 0 & 0 & 2 \end{pmatrix} \\
\to &\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}.
\end{align*}

Esto implica que los vectores en $B$ son linealmente independientes y, por lo tanto, forman una base $\mathbb{R}^3$.

Para $B’$, la matriz asociada es $$\begin{pmatrix} 1 & 1 & -1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix}.$$

Reduciendo la matriz, tenemos que

\begin{align*}&\begin{pmatrix} 1 & 1 & -1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix} \\
\to &\begin{pmatrix} 1 & 1 & -1 \\ 0 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} \\
\to &\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}.\end{align*}

Por lo tanto, $B’$ también es una base de $\mathbb{R}^3$.

(2) Recordemos que la matriz de cambio de base $P$ está definida como la matriz $[p_{ij}]$ cuya columna $j$ tiene como entradas a las coordenadas de $w_j$ escrito en términos de la base $B$. Entonces, expresemos

\begin{align*}
(1,1,-1)&=w_1=av_1+bv_2+cv_3=(b+c,a+c,a+b),\\
(1,0,-1)&=w_2=dv_1+ev_2+fv_3=(e+f,d+f,d+e),\\
(-1,-1,0)&=w_3=gv_1+hv_2+kv_3=(h+k,g+k,g+h),
\end{align*}

obteniendo que

\begin{align*}
b+c&=1\\
a+c&=1\\
a+b&=-1\\
e+f&=1\\
d+f&=0\\
d+e&=-1\\
h+k&=-1\\
g+k&=-1\\
g+h&=0.
\end{align*}

Si resolvemos el sistema anterior, concluimos que $a=b=-\frac{1}{2}$, $c=\frac{3}{2}$, $d=-1$, $e=0$, $f=1$, $g=h=0$, $k=-1$. Por lo tanto

$$P=\begin{pmatrix} a & d & g \\ b & e & h \\ c & f & k \end{pmatrix}= \begin{pmatrix} -\frac{1}{2} & -1 & 0 \\ -\frac{1}{2} & 0 & 0 \\ \frac{3}{2} & 1 & -1 \end{pmatrix}.$$

(3) Sea $B»=\{e_1,e_2,e_3\}$ la base canónica de $\mathbb{R}^3$. Queremos encontrar la matriz de cambio de base denotada como $\text{Mat}_B (B’)$. Usando la última proposición de la clase del lunes, tenemos que

$$\text{Mat}_B (B’)=\text{Mat}_{B} (B») \cdot \text{Mat}_{B»} (B’)=(\text{Mat}_{B»} (B))^{-1} \cdot \text{Mat}_{B»} (B’).$$

Por definición,

$$\text{Mat}_{B»} (B)=\begin{pmatrix} 0 & 1 & 1 \\ 1 & 0 & 1 \\ 1 & 1 & 0 \end{pmatrix}, \ \text{Mat}_{B»} (B’)=\begin{pmatrix} 1 & 1 & -1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix}.$$

Para calcular $(\text{Mat}_{B»} (B))^{-1}$, lo haremos como ya lo hemos visto en clases: pegando a la derecha una matriz identidad y aplicando reducción gaussiana:

\begin{align*} &\left( \begin{array}{ccc|ccc} 0 & 1 & 1 & 1 & 0 & 0 \\ 1 & 0 & 1 & 0 & 1 & 0 \\ 1 & 1 & 0 & 0 & 0 & 1 \end{array} \right) \\
\rightarrow &\left( \begin{array}{ccc|ccc} 1 & 0 & 1 & 0 & 1 & 0 \\ 1 & 1 & 0 & 0 & 0 & 1 \\ 0 & 1 & 1 & 1 & 0 & 0 \end{array} \right) \\ \rightarrow &\left( \begin{array}{ccc|ccc} 1 & 0 & 1 & 0 & 1 & 0 \\ 0 & 1 & -1 & 0 & -1 & 1 \\ 0 & 1 & 1 & 1 & 0 & 0 \end{array} \right) \\
\rightarrow &\left( \begin{array}{ccc|ccc} 1 & 0 & 1 & 0 & 1 & 0 \\ 0 & 2 & 0 & 1 & -1 & 1 \\ 0 & 0 & 2 & 1 & 1 & -1 \end{array} \right) \\ \rightarrow &\left( \begin{array}{ccc|ccc} 1 & 0 & 0 & -1/2 & 1/2 & 1/2 \\ 0 & 1 & 0 & 1/2 & -1/2 & 1/2 \\ 0 & 0 & 1 & 1/2 & 1/2 & -1/2 \end{array} \right).
\end{align*}

Por lo tanto, $$(\text{Mat}_{B»}(B))^{-1}=\begin{pmatrix} -1/2 & 1/2 & 1/2 \\ 1/2 & -1/2 & 1/2 \\ 1/2 & 1/2 & -1/2 \end{pmatrix}.$$

Finalmente, usando la proposición, tenemos que

$$P=\text{Mat}_B (B’)=\begin{pmatrix} -\frac{1}{2} & \frac{1}{2} & \frac{1}{2} \\ \frac{1}{2} & -\frac{1}{2} & \frac{1}{2} \\ \frac{1}{2} & \frac{1}{2} & -\frac{1}{2} \end{pmatrix}\cdot\begin{pmatrix} 1 & 1 & -1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix}$$

$$=\begin{pmatrix} -\frac{1}{2} & -1 & 0 \\ -\frac{1}{2} & 0 & 0 \\ \frac{3}{2} & 1 & -1 \end{pmatrix}. $$

Esto coincide con el cálculo que hicimos previamente.

$\square$

Problema 2. Considera la matriz $$A=\begin{pmatrix} 2 & -1 & 0 \\ -2 & 1 & -2 \\ 1 & 1 & 3 \end{pmatrix}$$

y sea $T:\mathbb{R}^3 \rightarrow \mathbb{R}^3$ la transformación lineal asociada, es decir $T(X)=AX$ para todo $X\in\mathbb{R}^3$. Considera los vectores

$$v_1=\begin{pmatrix} 1 \\ 1 \\ -1 \end{pmatrix}, \ v_2=\begin{pmatrix} 1 \\ 0 \\ -1 \end{pmatrix}, \ v_3=\begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix}.$$

  1. Prueba que $v_1,v_2,v_3$ forman una base de $\mathbb{R}^3$ y calcula la matriz de $T$ con respecto a esta base.
  2. Encuentra la matriz de cambio de base de la base canónica a la base $\{v_1,v_2,v_3\}$.
  3. Calcula $A^n$ para todo entero positivo $n$.

Antes de ver la solución a este problema este problema, observa que sería muy difícil decir quién es $A^{100}$ «a mano» si procedes directamente. Se tendrían que hacer muchas multiplicaciones matriciales, que son difíciles. Ten en mente esto cuando leas la solución de la parte 3.

Solución. (1) Dado que la dimensión de $\mathbb{R}^3$ es 3 y $\{v_1,v_2,v_3\}$ son tres vectores, basta con demostrar que éstos son linealmente independientes para probar que forman una base. Sean $a,b,c\in\mathbb{R}$ tales que $av_1+bv_2+cv_3=0$, entonces

\begin{align*}
&a+b+c=0, \ a-c=0, \ -a-b=\\
\Rightarrow &a=c, -a=b, a-a+a=0 \\
\Rightarrow &a=0, c=0, b=0.
\end{align*}

Entonces, son linealmente independientes y, por lo tanto, forman una base de $\mathbb{R}^3$.

Nota: Otra manera de demostrarlo es considerar la matriz formada por los vectores $v_1,v_2,v_3$ como sus columnas, reducirla y llegar a que la matriz reducida es la matriz identidad.

Ahora, para calcular la matriz de $T$ con respecto a la nueva base, expresaremos $T(v_1),T(v_2), T(v_3)$ en términos de $v_1,v_2,v_3$. Entonces tenemos que

$$T(v_1)=Av_1=\begin{pmatrix} 2 & -1 & 0 \\ -2 & 1 & -2 \\ 1 & 1 & 3 \end{pmatrix}\cdot \begin{pmatrix} 1 \\ 1 \\ -1 \end{pmatrix}=\begin{pmatrix} 1 \\ 1 \\ -1 \end{pmatrix}=v_1,$$

$$T(v_2)=Av_2=\begin{pmatrix} 2 & -1 & 0 \\ -2 & 1 & -2 \\ 1 & 1 & 3 \end{pmatrix}\cdot \begin{pmatrix} 1 \\ 0 \\ -1 \end{pmatrix}=\begin{pmatrix} 2 \\ 0 \\ -2 \end{pmatrix}=2v_2,$$

$$T(v_3)=Av_3=\begin{pmatrix} 2 & -1 & 0 \\ -2 & 1 & -2 \\ 1 & 1 & 3 \end{pmatrix}\cdot \begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix}=\begin{pmatrix} 3 \\ -3 \\ 0 \end{pmatrix}=3v_3.$$

Por lo tanto, la matriz que buscamos es $$B=\begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{pmatrix}.$$

(2) Lo haremos de la misma manera que en el inciso (2) del problema anterior, que consiste en escribir a los $v_1,v_2,v_3$ en la base canónica, pero ésto es obvio ya que están escritos de esa manera, por lo tanto $$P=\begin{pmatrix} 1 & 1 & 1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix}.$$

(3) Sabemos que la matriz de $T$ con respecto a $v_1,v_2,v_3$ (que nombramos en el inciso (1) como $B$) es igual a $P^{-1}AP$, gracias al último corolario de la sección «Matrices de cambio de base y transformaciones lineales» de la entrada anterior. Entonces $$P^{-1}AP=\begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{pmatrix}.$$

Es fácil ver (pero lo pueden demostrar por inducción en $n$) que $$(P^{-1}AP)^n=(P^{-1}AP)(P^{-1}AP)\dots (P^{-1}AP)=P^{-1}A^n P.$$

Esto implica que $P^{-1}A^n P=B^n$, es decir $$P^{-1}A^n P=\begin{pmatrix} 1 & 0 & 0 \\ 0 & 2^n & 0 \\ 0 & 0 & 3^n \end{pmatrix}.$$

Multiplicando por $P$ a la izquierda y por $P^{-1}$ a la derecha, obtenemos que $$A^n=P\begin{pmatrix} 1 & 0 & 0 \\ 0 & 2^n & 0 \\ 0 & 0 & 3^n \end{pmatrix}P^{-1} .$$

Para ello, nos falta calcular la inversa de $P$, y eso lo haremos como siempre lo hemos hecho: reduciendo la matriz. Entonces

\begin{align*} &\left( \begin{array}{ccc|ccc} 1 & 1 & 1 & 1 & 0 & 0 \\ 1 & 0 & -1 & 0 & 1 & 0 \\ -1 & -1 & 0 & 0 & 0 & 1 \end{array} \right) \\\rightarrow &\left( \begin{array}{ccc|ccc} 1 & 1 & 1 & 1 & 0 & 0 \\ 0 & 1 & 2 & 1 & -1 & 0 \\ 0 & 0 & 1 & 1 & 0 & 1 \end{array} \right) \\
\rightarrow &\left( \begin{array}{ccc|ccc} 1 & 1 & 1 & 1 & 0 & 0 \\ 0 & 1 & 0 & -1 & -1 & -2 \\ 0 & 0 & 1 & 1 & 0 & 1 \end{array} \right) \\\rightarrow &\left( \begin{array}{ccc|ccc} 1 & 0 & 0 & 1 & 1 & 1 \\ 0 & 1 & 0 & -1 & -1 & -2 \\ 0 & 0 & 1 & 1 & 0 & 1 \end{array} \right). \end{align*}

Como consecuencia, tenemos que $$P^{-1}=\begin{pmatrix} 1 & 1 & 1 \\ -1 & -1 & -2 \\ 1 & 0 & 1 \end{pmatrix}.$$

Por lo tanto,

\begin{align*}
A^n &=P \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2^n & 0 \\ 0 & 0 & 3^n \end{pmatrix} P^{-1}\\
&=\begin{pmatrix} 1 & 1 & 1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix} \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2^n & 0 \\ 0 & 0 & 3^n \end{pmatrix}\begin{pmatrix} 1 & 1 & 1 \\ -1 & -1 & -2 \\ 1 & 0 & 1 \end{pmatrix}
\end{align*}

$$A^n= \begin{pmatrix} 1-2^n+3^n & 1-2^n & 1-2^{n+1}+3^n \\ 1-3^n & 1 & 1-3^n \\ 2^n-1 & 2^n-1 & 2^{n+1}-1 \end{pmatrix}.$$

$\square$

El ejercicio anterior deja una moraleja importante de álgebra lineal: si tenemos una matriz $A$ y logramos encontrar una matriz diagonal $B$ similar a ella, entonces será fácil encontrar $A^n$. Para finalizar esta sesión, tenemos el siguiente problema.

Problema 3. Prueba que las matrices $$A=\begin{pmatrix} 1 & 1 & 0 & 0 \\ 0 & 1 & 1 & 0 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 0 & 1 \end{pmatrix} \ \text{y} \ B=\begin{pmatrix} 1 & 2 & 3 & 4 \\ 0 & 1 & 2 & 3 \\ 0 & 0 & 1 & 2 \\ 0 & 0 & 0 & 1 \end{pmatrix}$$ son similares.

Solución. Para resolverlo usaremos el corolario de la entrada anterior. Al escribirlo en este contexto, dice lo siguiente:

Corolario. Sea $T:\mathbb{R}^4\rightarrow \mathbb{R}^4$ una transformación lineal. Sean $B’$ y $B»$ bases de $\mathbb{R}^4$ y $P$ la matriz de cambio de base de $B’$ a $B»$. Entonces $\text{Mat}_{B»}(T)=P^{-1} \text{Mat}_{B’}(T) P.$

Si podemos encontrar una transformación $T$ y bases $B’$ y $B»$ tales que $\text{Mat}_{B’}(T)=A$ y $\text{Mat}_{B»} (T)=B$, podemos calcular la matriz de cambio de base $P$, y satisface que $B=P^{-1}AP$, implicando que $A$ y $B$ sean matrices similares. Entonces, el problema se reduce a encontrar la transformación, las bases y calcular $P$.

Dado que $\text{Mat}_{B’}(T)=A$, si $B’$ es la base canónica, es claro que la transformación $T$ satisface que $T(X)=AX$ para todo $X\in\mathbb{R}^4$.

Ahora, encontremos $B»$. Sea $B»=\{ v_1,v_2,v_3,v_4 \}$ con

$$v_1=\begin{pmatrix} x_1 \\ y_1 \\ z_1 \\ w_1 \end{pmatrix}, v_2=\begin{pmatrix} x_2 \\ y_2 \\ z_2 \\ w_2 \end{pmatrix}, v_3=\begin{pmatrix} x_3 \\ y_3 \\ z_3 \\ w_3 \end{pmatrix}, v_4=\begin{pmatrix} x_4 \\ y_4 \\ z_4 \\ w_4 \end{pmatrix}.$$

Dado que $\text{Mat}_{B»}(T)=B$, entonces satisface

$$T(v_1)=Av_1=v_1, \ T(v_2)=Av_2=2v_1+v_2,$$

$$T(v_3)=Av_3=3v_1+2v_2+v_3, \ T(v_4)=Av_4=4v_1+3v_2+2v_3+v_4.$$

Resolviendo lo anterior, obtenemos que

$$Av_1=\begin{pmatrix} x_1+y_1 \\ y_1+z_1 \\ z_1+w_1 \\ w_1 \end{pmatrix}=\begin{pmatrix} x_1 \\ y_1 \\ z_1 \\ w_1 \end{pmatrix} \ \Rightarrow \ v_1=\begin{pmatrix} 1 \\ 0 \\ 0 \\ 0 \end{pmatrix},$$

$$Av_2=\begin{pmatrix} x_2+y_2 \\ y_2+z_2 \\ z_2+w_2 \\ w_2 \end{pmatrix}=\begin{pmatrix} x_2+2 \\ y_2 \\ z_2 \\ w_2 \end{pmatrix} \ \Rightarrow \ v_2=\begin{pmatrix} 1 \\ 2 \\ 0 \\ 0 \end{pmatrix},$$

$$Av_3=\begin{pmatrix} x_3+y_3 \\ y_3+z_3 \\ z_3+w_3 \\ w_3 \end{pmatrix}=\begin{pmatrix} x_3+5 \\ y_3+4 \\ z_3 \\ w_3 \end{pmatrix} \ \Rightarrow \ v_3=\begin{pmatrix} 1 \\ 5 \\ 4 \\ 0 \end{pmatrix},$$

y por último

$$Av_4=\begin{pmatrix} x_4+y_4 \\ y_4+z_4 \\ z_4+w_4 \\ w_4 \end{pmatrix}=\begin{pmatrix} x_4+9 \\ y_4+16 \\ z_4+8 \\ w_4 \end{pmatrix} \ \Rightarrow \ v_4=\begin{pmatrix} 1 \\ 9 \\ 16 \\ 8 \end{pmatrix}$$

Aquí estamos usando que los sistemas de ecuaciones que se obtienen tienen como variables libres a $x_1,x_2,x_3,x_4$, las cuales las estamos tomando todas ellas iguales a $1$.

Estos vectores son linealmente independientes pues la matriz con ellos como columnas es triangular superior con entradas en la diagonal distintas de cero, de modo que su matriz reducida es la identidad. Como $\mathbb{R}^4$ es de dimensión $4$ y $B»$ es un conjunto de cuatro vectores linealmente independientes, entonces $B»$ es una base. Más aún, $B»$ es una base tal que $\text{Mat}_{B»} (T)=B$, por construcción.

Finalmente, podemos calcular la matriz de cambio de base $P$ de $B’$ a $B»$, pero es fácil ya que $B’$ es la base canónica, entonces $$P=\begin{pmatrix} 1 & 1 & 1 & 1 \\ 0 & 2 & 5 & 9 \\ 0 & 0 & 4 & 16 \\ 0 & 0 & 0 & 8 \end{pmatrix}.$$

Por propiedades de la matriz de cambio de base, sabemos que $P$ es invertible. Entonces, para terminar la prueba, podemos encontrar $P^{-1}$ y verificar que $B=P^{-1}AP$, o simplemente verificamos que $PB=AP$, y por lo tanto $A$ y $B$ son matrices similares. Lo haremos de la segunda manera. En efecto,

$$PB=\begin{pmatrix} 1 & 1 & 1 & 1 \\ 0 & 2 & 5 & 9 \\ 0 & 0 & 4 & 16 \\ 0 & 0 & 0 & 8 \end{pmatrix}\begin{pmatrix} 1 & 2 & 3 & 4 \\ 0 & 1 & 2 & 3 \\ 0 & 0 & 1 & 2 \\ 0 & 0 & 0 & 1 \end{pmatrix}=\begin{pmatrix} 1 & 3 & 6 & 10 \\ 0 & 2 & 9 & 25 \\ 0 & 0 & 4 & 24 \\ 0 & 0 & 0 & 8 \end{pmatrix}$$

$$AP=\begin{pmatrix} 1 & 1 & 0 & 0 \\ 0 & 1 & 1 & 0 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} 1 & 1 & 1 & 1 \\ 0 & 2 & 5 & 9 \\ 0 & 0 & 4 & 16 \\ 0 & 0 & 0 & 8 \end{pmatrix}=\begin{pmatrix} 1 & 3 & 6 & 10 \\ 0 & 2 & 9 & 25 \\ 0 & 0 & 4 & 24 \\ 0 & 0 & 0 & 8 \end{pmatrix}.$$

Por lo tanto, $A$ y $B$ son matrices similares.

Nota: si calculas la inversa de $P$, obtienes como resultado que $$P^{-1}=\begin{pmatrix} 1 & -\frac{1}{2} & \frac{3}{8} & -\frac{5}{16} \\ 0 & \frac{1}{2} & -\frac{5}{8} & \frac{11}{16} \\ 0 & 0 & \frac{1}{4} & -\frac{1}{2} \\ 0 & 0 & 0 & \frac{1}{8} \end{pmatrix}.$$

$\square$

Entradas relacionadas


Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Proyecciones, simetrías y subespacios estables

Por Blanca Radillo

Introducción

Anteriormente introdujimos el concepto de transformaciones lineales entre dos espacios vectoriales. Vimos diversas propiedades que toda transformación lineal debe satisfacer. Finalmente, se presentaron las definiciones de kernel e imagen. Lo que haremos ahora es hablar de algunos tipos especiales de transformaciones lineales: las proyecciones y las simetrías. Para ello, aprovecharemos lo que ya estudiamos de suma y suma directas de subespacios.

Además, hablaremos del concepto de subespacios estables. Intuitivamente, un subespacio es estable para una transformación lineal si al aplicarla en elementos del subespacio, «no nos salimos del subespacio».

Proyecciones

Hablemos de una clase fundamental de transformaciones lineales: las proyecciones sobre subespacios. Para ellas, se comienza expresando a un espacio vectorial como una suma directa $V=W_1\oplus W_2$. Recuerda que, a grandes rasgos, esto quiere decir que cada vector $v$ de $V$ se puede expresar de manera única como $v=w_1+w_2$, donde $w_1$ está en $W_1$ y $w_2$ está en $W_2$.

Definición. Sea $V$ un espacio vectorial y sean $W_1$ y $W_2$ dos subespacios de $V$ tales que $V=W_1\oplus W_2$. La proyección sobre $W_1$ es la función $\pi_1:V\rightarrow W_1$ definido como: para cada $v\in V$, se tiene que $\pi_1(v)$ es el único vector en $W_1$ tal que $v-\pi_1(v)$ está en $W_2$.

De manera similar podemos definir la proyección sobre $W_2$, llamada $\pi_2:V\rightarrow W_2$.

Hay otra forma de decir esto. Dado que $V=W_1\oplus W_2$, para todo $v\in V$ existen únicos vectores $v_1\in W_1$ y $v_2\in W_2$ tales que $v=v_1+v_2$. Entonces $\pi_1(v)=v_1$ y $\pi_2(v)=v_2$.

Ejemplo. Sea $V=\mathbb{R}^2$, y sean $W_1=\{(a,0): a\in\mathbb{R}\}$ y $W_2=\{(0,b):b\in\mathbb{R}\}$. Sabemos que $W_1$ y $W_2$ son subespacios y que $V=W_1\oplus W_2$. Entonces, si $(a,b)\in V$, se tiene que $\pi_1((a,b))=(a,0)$ y $\pi_2((a,b))=(0,b)$.

$\triangle$

Cuando hablamos de una proyección $\pi$ de un espacio vectorial $V$, sin indicar el subespacio, de manera implícita nos referimos a una función para la cual existe una descomposición $V=W_1\oplus W_2$ tal que $\pi$ es la proyección sobre $W_1$.

Problema. Muestra que la transformación lineal $\pi:M_2(\mathbb{R})\to M_2(\mathbb{R})$ tal que $$\pi\begin{pmatrix} a & b \\ c & d \end{pmatrix} = \begin{pmatrix} a + b & 0 \\ c & 0 \end{pmatrix}$$ es una proyección.

Solución. Para resolver el problema, tenemos que mostrar que se puede escribir $M_2(\mathbb{R})=W_1\oplus W_2$, de modo que $\pi$ sea una proyección sobre $W_1$.

Proponemos $$W_1=\left\{\begin{pmatrix} r & 0 \\ s & 0\end{pmatrix}: r,s, \in \mathbb{R}\right\}$$ y $W_2$ como $$W_2=\left\{\begin{pmatrix} -r & r \\ 0 & s\end{pmatrix}: r,s, \in \mathbb{R}\right\}.$$

Si una matriz está simultánteamente en $W_1$ y $W_2$, es sencillo mostrar que únicamente puede ser la matriz cero, es decir $O_2$. Esto lo puedes verificar por tu cuenta. Además, cualquier matriz en $M_2(\mathbb{R})$ se puede escribir como suma de elementos en $W_1$ y $W_2$ como sigue: $$\begin{pmatrix} a & b \\ c & d \end{pmatrix} = \begin{pmatrix} a +b & 0 \\ c & 0 \end{pmatrix} + \begin{pmatrix} -b & b \\ 0 & d \end{pmatrix}.$$

Justo $\pi$ es la primer matriz. Esto muestra que $\pi$ es una proyección, pues es la proyección sobre $W_1$ en la descomposición $V=W_1\oplus W_2$.

$\square$

Aún no hemos mostrado que las proyecciones son transformaciones lineales. Hacemos esto a continuación.

Proposición. Sean $V$ un espacio vectorial, $W_1$ un subespacio vectorial de $V$ y $\pi:V\to W_1$ una proyección de $V$ sobre $W_1$. Entonces $\pi$ es una transformación lineal.

Demostración. Si $v,v’ \in V$ entonces $v+v’\in V$ y por definición de proyección tenemos que $\pi(v+v’)$ es el único vector en $W_{1}$ tal que:

$$(v+v’)-\pi(v+v’)\in W_{2},$$ por otra parte como $\pi(v)$ es el únco vector en $W_{1}$ tal que $v-\pi(v)\in W_{2}$ y $\pi(v’)$ es el único vector en $W_{1}$ tal que $v’-\pi(v’)\in W_{2}$ entonces $v-\pi(v)+v’-\pi(v’)\in W_{2}$ ya que $W_{2}$ es subespacio de $V$, es decir que $$(v+v’)-(\pi(v)+\pi(v’))\in W_{2}$$ y debido a que $\pi(v)+\pi(v’)\in W_{1}$, entonces tenemos la situación en la que existe un vector $\pi(v)+\pi(v’)\in W_{1}$ tal que $$(v+v’)-(\pi(v)+\pi(v’))\in W_{2},$$ pero $\pi(v+v’)$ es el único vector en $W_{1}$ tal que $(v+v’)-\pi(v+v’)\in W_{2}$, esto implica que $$\pi(v+v’)=\pi(v)+\pi(v’).$$ Así concluimos que $\pi$ abre sumas.

Para comprobar que $\pi$ saca escalares consideremos cualquier $v\in V$ y cualquier $c\in F$, tenemos que $cv\in V$ (pues $V$ es espacio vectorial), por definición de proyección tenemos que $\pi(cv)$ es el único vector en $W_{1}$ tal que $$cv-\pi(cv)\in W_{2},$$ por otra parte $\pi(v)$ es el único vector de $W_{1}$ tal que $v-\pi(v)\in W_{2}$ entonces $c(v-\pi(v))=cv-c\pi(v)\in W_{2}$. Como $c\pi(v)\in W_{1}$ tal que $cv-c\pi(v)\in W_{2}$ entonces $$\pi(cv)=c\pi(v)$$ debido a la unicidad de $\pi(cv)$, por lo que $\pi$ saca escalares. Como $\pi$ abre sumas y saca escalares concluimos que $\pi$ es una transformación lineal.

$\square$

Finalmente, notemos que $\pi(v)=v$ para todo $v\in W_1$ pero $\pi(v)=0$ si $v\in W_2$.

Simetrías

Una segunda clase importante de trasnformaciones lineales son las simetrías.

Definición. Sea una descomposición $V=W_1\oplus W_2$, con $W_1, W_2$ dos subespacios de $V$. Decimos que $s:V\rightarrow V$ es una simetría con respecto a $W_1$ a lo largo de $W_2$ si para todo $v\in V$, escrito como $v=v_1+v_2$ con $v_1\in W_1$ y $v_2 \in W_2$, tenemos que $$s(v)=v_1-v_2.$$

Al igual que con las proyecciones, no es dificil ver que las simetrías son transformaciones lineales.

Proposición. Sea $s:V\rightarrow V$ una simetría con respecto a $W_1$ a lo largo de $W_2$. Entonces, $s$ es una transformación lineal.

Demostración. Sean $v,v’ \in V$. Sean $v_1,v’_1\in W_1$ y $v_2,v’_2 \in W_2$ tales que $v=v_1+v_2$ y $v’=v’_1+v’_2$. Eso implica que $v+v’=(v_1+v’_1)+(v_2+v’_2)$ con $v_1+v’_1 \in W_1$ y $v_2+v’_2 \in W_2$. Entonces
$$s(v)+s(v’)=(v_1-v_2)+(v’_1-v’_2) =(v_1+v’_1)-(v_2+v’_2)= s(v+v’).$$
Ahora sea $a\in F$, entonces $as(v)=a(v_1-v_2)=av_1-av_2=s(av_1+av_2)=s(av)$. Por lo tanto, $s$ es una transformación lineal.

$\square$

Notemos que si $v\in W_1$, entonces $s(v)=v-0=v$, y si $v\in W_2$, entonces $s(v)=0-v=-v$.

Subespacios estables

Observemos que las proyecciones y las simetrías satisfacen que $\pi(W_1)=W_1$ y $s(W_1)=W_1$. Esta es una propiedad muy linda, pero en general, si $T:V\rightarrow V$ es una transformación lineal cualquiera y $W$ un subespacio de $V$, no siempre tenemos que $T(W)=W$, o ni siquiera que $T(W)\subset W$. Es decir, aunque tomemos un vector $w$ en $W$, puede pasar que $T(w)$ ya «esté fuera» de $W$.

Los subespacios $W$ que sí satisfacen esta última propiedad son cruciales en el estudio de este curso, y por ello, merecen un nombre especial.

Definición. Sea $V$ un espacio vectorial y $T:V\rightarrow V$ una transformación lineal. Si $W$ es un subespacio de $V$ tal que $T(W)\subset W$, decimos que $W$ es un subespacio estable bajo $T$.

En otras palabras, $W$ es estable bajo $T$ si para todo $v$ en $W$ se tiene que $T(v)$ también está en $W$. Un ejemplo trivial es la transformación identidad con cualquier subespacio $W$. Otro ejemplo trivial es que $V$ y $\{0\}$ son dos subespacios estables bajo cualquier transformación lineal $T:V\rightarrow V$. Otros ejemplos son los ya mencionados: las proyecciones y las simetrías.

En el siguiente ejemplo encontraremos todos los subespacios estables para una cierta transformación.

Ejemplo. Consideremos el mapeo $T:\mathbb{R}^2\rightarrow \mathbb{R}^2$ con $T(x,y)=(y,-x)$. Claramente $T$ es lineal. Sea $W$ un subespacio estable de $\mathbb{R}^2$ bajo $T$. Supongamos que $W$ no es ni $\mathbb{R}^2$, ni el subespacio trivial $\{ (0,0) \}$.

Veremos que no hay ningún otro subespacio estable. Procedamos por contradicción. Suponiendo que hay otro subespacio estable $W$, su dimensión tendría que ser exactamente $1$. Eso implica que $W$ está generado por un vector no cero, digamos $v=(x,y)$. Es decir, cada $w\in W$ lo podemos escribir como $w=av$ donde $a$ es un escalar. En particular $v\in W$.

Como $W$ es estable bajo $T$, entonces $T(v)\in W$, esto es $T(v)=cv$ para algún $c$. Así,
\begin{align*}
(y,-x)&=T((x,y))\\&=T(v)\\&=cv\\&=c(x,y)\\&=(cx,cy).
\end{align*} Igualando ambos extremos, obtenemos que$y=cx$ y $-x=cy$, lo cual implica que $(c^2+1)x=0$. Como $c$ es real, esto implica $x=0$ y por lo tanto $y=0$. Concluimos que $v=(0,0)$, lo cual es una contradicción.

Esto demuestra que los únicos subespacios estables bajo $T$ son $\mathbb{R}^2$ y $\{(0,0)\}$.

$\square$

El siguiente problema estudia un problema inverso. En ella se encuentran todas las transformaciones lineales que dejan fijas «todas las rectas por el vector $0$».

Problema. Sea $V$ un espacio vectorial y $T:V\rightarrow V$ una transformación lineal tal que, para todo $v\in V$, se tiene que $\text{span}(v)$ es un subespacio estable bajo $T$. Entonces existe un escalar $c\in F$ tal que $T(x)=cx$ para todo $x\in V$.

Demostración. Sea $x\in V$ un vector distinto de $0$. Si $L=\text{span}(x)$, tenemos que $T(L)\subset L$ por hipótesis. En particular $T(x)\in L$ y por lo tanto existe $c_x$ tal que $T(x)=c_x x$. Queremos probar que esa constante realmente no depende de $x$.

Sea $y\in V$. Hay dos opciones: $x,y$ son linealmente independientes o no. Supongamos primero que $x,y$ son linealmente independientes. Entonces $x+y \neq 0$ y la igualdad $T(x+y)=T(x)+T(y)$ puede ser escrita como $c_{x+y} (x+y)=c_x x+c_y y$, esto es equivalente a $(c_{x+y}-c_x)x+(c_{x+y}-c_y) y=0.$ Por independencia lineal, $c_{x+y}-c_x=c_{x+y}-c_y=0$ y por lo tanto. $c_x=c_{x+y}=c_y$.

Ahora si $x,y$ no son linealmente independientes, es porque $y=0$ (en cuyo caso cualquier $c_y$ funciona, en particular $c_x$) o bien porque $y=ax$ para algún escalar $a$ no cero. Entonces la igualdad $T(y)=T(ax)=aT(x)$ puede ser escrita como $c_y y=ac_x x=c_x y$, y esto implica que $c_y=c_x$.

En cualquier caso, hemos mostrado que para todo $y\in V$, se tiene que $c_x=c_y$. Definiendo $c=c_x$, se satisface la afirmación de la proposición.

$\square$

Las imágenes y kernels son estables

Otros ejemplos importantes de subespacios estables son las imágenes y los kernels. Esto únicamente funciona para cuando tenemos una transformación lineal de un espacio vectorial a sí mismo.

Proposición. Sea $T:V\to V$ una transformación lineal. Entonces $\ker(T)$ e $\Ima(T)$ son subespacios estables bajo $T$.

Demostración. En la entrada anterior ya vimos que $\ker(T)$ e $\Ima(T)$ son subespacios de $V$. Veamos que son estables bajo $T$.

Tomemos $v\in \ker(T)$. Tenemos que mostrar que $T(v)\in \ker(T)$. Pero esto es cierto pues $$T(T(v))=T(0)=0.$$ Así $T(\ker(T))\subset \ker(T)$ y por lo tanto $\ker(T)$ es estable bajo $T$.

Ahora tomemos $v\in \Ima(T)$. De manera inmediata, $T(v)\in \Ima(T)$. Así, $\Ima(T)$ es estable bajo $T$.

$\square$

Más adelante…

Las proyecciones y simetrías son dos ejemplos de transformaciones lineales que tienen propiedades específicas. Más adelante, cuando hablemos de geometría de espacios vectoriales y del proceso de Gram-Schmidt, veremos que las proyecciones satisfacen propiedades interesantes en términos de ciertas distancias.

La teoría de subespacios estables es muy útil a la hora de construir bases de subespacios vectoriales de manera inductiva. De hecho, los resultados en esta dirección son uno de los ingredientes que usaremos en la demostración del teorema estelar del curso: el teorema espectral.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sea $Y$ es el subespacio $Y=\{(0,r,0): r\in \mathbb{R}\}$ de $\mathbb{R}^3$. Argumenta por qué la transformación $\pi:\mathbb{R}^3\to Y$ dada por $\pi(x,y,z)=(0,y,0)$ es una proyección sobre $Y$. Para ello tendrás que encontrar un subespacio $W$ de $\mathbb{R}^3$ tal que $\mathbb{R}^3=Y\oplus W$ y con el cual $\pi(x,y,z)$ satisface la definición.
  • Sea $X$ el subespacio $X=\{(r,0,0): r\in \mathbb{R} \}$. ¿Es posible ver a la transformación $T:\mathbb{R}^3 \to X$ dada por $T(x,y,z)=(x+y+z,0,0)$ como una proyección sobre $X$? Si tu respuesta es sí, tendrás que dar un espacio $W$ bajo el cual se satisfaga la definición. Si tu respuesta es no, tendrás que mostrar que ningún subespacio $W$ funciona.
  • En el ejemplo de la sección de subespacios estables, ¿qué sucede si trabajamos en $\mathbb{C}^2$ en vez de en $\mathbb{R}^2$? ¿Quienes serían todos los subespacios estables?
  • Sea $B=\{v_1,v_2,\ldots,v_n\}$ una base para un espacio vectorial $V$ sobre un campo $F$. Sea $V_i$ el espacio vectorial generado por $v_i$, es decir, el conjunto de vectores de la forma $cv_i$ con $c\in F$. Como $B$ es base, cada vector $v\in V$ puede escribirse de la forma $$a_1v_1+a_2v_2+\ldots+a_nv_n$$ de manera única. Muestra que para toda $i\in\{1,2,\ldots,n\}$ la función $\pi_i(v)=a_iv_i$ es una proyección sobre $V_i$.
  • Para cada entero $n$, muestra que $\mathbb{R}_n[x]$ es un subespacio de $\mathbb{R}[x]$ que es estable bajo la transformación lineal $T$ que manda a cada polinomio $p(x)$ a su derivada $T(p(x))=p'(x)$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»