Archivo de la etiqueta: problemas resueltos

Álgebra Lineal I: Problemas de combinaciones lineales, generadores e independientes

Introducción

En entradas anteriores ya hablamos de combinaciones lineales, de conjuntos generadores y de conjuntos independientes. Lo que haremos aquí es resolver problemas para reforzar el contenido de estos temas.

Problemas resueltos

Problema. Demuestra que el polinomio p(x)=x^2+x+1 no puede ser escrito en el espacio vectorial \mathbb{R}[x] como una combinación lineal de los polinomios

    \begin{align*} p_1(x)=x^2-x\\ p_2(x) = x^2-1\\ p_3(x) = x-1.\end{align*}

Solución. Para resolver este problema, podemos plantearlo en términos de sistemas de ecuaciones. Supongamos que existen reales a, b y c tales que

    \[p(x)=ap_1(x)+bp_2(x)+cp_3(x).\]

Desarrollando la expresión, tendríamos que

    \begin{align*}x^2+x+1 &= a(x^2-x)+b(x^2-1)+c(x-1)\\&= (a+b)x^2+(-a+c)x+(-b-c),\end{align*}

de donde igualando coeficientes de términos del mismo grado, obtenemos el siguiente sistema de ecuaciones:

    \[\begin{cases}a+b & = 1\\ -a + c &= 1 \\ -b-c &= 1.\end{cases}\]

Para mostrar que este sistema de ecuaciones no tiene solución, le aplicaremos reducción gaussiana a la siguiente matriz extendida:

    \[\begin{pmatrix} 1 & 1 & 0 & 1 \\ -1 & 0 & 1 & 1 \\ 0 & -1 & -1 & 1 \end{pmatrix}.\]

Tras la transvección R_2+R_1, obtenemos

    \[\begin{pmatrix} 1 & 1 & 0 & 1 \\ 0 & 1 & 1 & 2 \\ 0 & -1 & -1 & 1 \end{pmatrix}.\]

Tras la transvección R_3+R_2, obtenemos

    \[\begin{pmatrix} 1 & 1 & 0 & 1 \\ 0 & 1 & 1 & 2 \\ 0 & 0 & 0 & 3 \end{pmatrix}.\]

De aquí se ve que la forma escalonada reducida tendrá un pivote en la última columna. Por el teorema de existencia y unicidad el sistema original no tiene solución.

\square

En el problema anterior usamos un argumento de reducción gaussiana para mostrar que el sistema no tiene solución. Este es un método general que funciona en muchas ocasiones. Una solución más sencilla para ver que el sistema del problema no tiene solución es que al sumar las tres ecuaciones se obtiene 0=3.

Problema. Sea n un entero positivo. Sea W el subconjunto de vectores en \mathbb{R}^n cuya suma de entradas es igual a 0. Sea Z el espacio generado por el vector (1,1,\ldots,1) de \mathbb{R}^n. Determina si es cierto que

    \[\mathbb{R}^n=W\oplus Z.\]

Solución. El espacio Z está generado por todas las combinaciones lineales que se pueden hacer con el vector v=(1,1,\ldots,1). Como sólo es un vector, las combinaciones lineales son de la forma av con a en \mathbb{R}, de modo que Z es precisamente

    \[Z=\{(a,a,\ldots,a): a\in\mathbb{R}\}.\]

Para obtener la igualdad

    \[\mathbb{R}^n=W\oplus Z,\]

tienen que pasar las siguientes dos cosas (aquí estamos usando un resultado de la entrada de suma y suma directa de subespacios):

  • W\cap Z = \{0\}
  • W+Z=\mathbb{R}^n

Veamos qué sucede con un vector v en W\cap Z. Como está en Z, debe ser de la forma v=(a,a,\ldots,a). Como está en W, la suma de sus entradas debe ser igual a 0. En otras palabras, 0=a+a+\ldots+a=na. Como n es un entero positivo, esta igualdad implica que a=0. De aquí obtenemos que v=(0,0,\ldots,0), y por lo tanto W\cap Z = \{0\}.

Veamos ahora si se cumple la igualdad \mathbb{R}^n=W+Z. Por supuesto, se tiene que W+Z\subseteq \mathbb{R}^n, pues los elementos de W y Z son vectores en \mathbb{R}^n. Para que la igualdad \mathbb{R}^n\subseteq W+Z se cumpla, tiene que pasar que cualquier vector v=(x_1,\ldots,x_n) en \mathbb{R}^n se pueda escribir como suma de un vector w uno con suma de entradas 0 y un vector z con todas sus entradas iguales. Veamos que esto siempre se puede hacer.

Para hacerlo, sea S=x_1+\ldots+x_n la suma de las entradas del vector v. Consideremos al vector w=\left(x_1-\frac{S}{n},\ldots, x_n-\frac{S}{n} \right) y al vector z=\left(\frac{S}{n},\ldots,\frac{S}{n}).

Por un lado, z está en Z, pues todas sus entradas son iguales. Por otro lado, la suma de las entradas de w es

    \begin{align*}\left(x_1-\frac{S}{n}\right)+\ldots + \left(x_n-\frac{S}{n}\right)&=(x_1+\ldots+x_n)-n\cdot \frac{S}{n}\\ &= S-S=0,\end{align*}

lo cual muestra que w está en W. Finalmente, notemos que la igualdad w+z=v se puede comprobar haciendo la suma entrada a entrada. Con esto mostramos que cualquier vector de V es suma de vectores en W y Z y por lo tanto concluimos la igualdad \mathbb{R}^n=W\oplus Z.

\square

En el problema anterior puede parecer algo mágico la propuesta de vectores w y z. ¿Qué es lo que motiva la elección de \frac{S}{n}? Una forma de enfrentar los problemas de este estilo es utilizar la heurística de trabajar hacia atrás. Sabemos que el vector w debe tener todas sus entradas iguales a cierto número a y queremos que z=v-w tenga suma de entradas igual a 0. La suma de las entradas de v-w es

    \[(x_1-a)+\ldots+(x_n-a)= S -na.\]

La elección de a=\frac{S}{n} está motivada en que queremos que esto sea cero.

Problema. Considera las siguientes tres matrices en M_2(\mathbb{C}):

    \begin{align*} A&= \begin{pmatrix} -i & -3 \\ 2 & 3 \end{pmatrix}\\B&= \begin{pmatrix} 2i& 1 \\ 3 & -1 \end{pmatrix}\\C&= \begin{pmatrix} i & -7  \\ 12 & 7 \end{pmatrix}.\end{align*}

Demuestra que A, B y C son matrices linealmente dependientes. Da una combinación lineal no trivial de ellas que sea igual a 0.

Solución. Para mostrar que son linealmente dependientes, basta dar la combinación lineal no trivial buscada. Buscamos entonces a,b,c números complejos no cero tales que aA+bB+cC=O_2, la matriz cero en M_2(\mathbb{C}). Para que se de esta igualdad, es necesario que suceda entrada a entrada. Tenemos entonces el siguiente sistema de ecuaciones:

    \[\begin{cases}-i a + 2i b + ic &= 0\\-3a + b -7c &=0\\2a + 3b + 12c &= 0\\3a -b +7c &=0.\end{cases}\]

En este sistema de ecuaciones tenemos números complejos, pero se resuelve exactamente de la misma manera que en el caso real. Para ello, llevamos la matriz correspondiente al sistema a su forma escalonada reducida. Comenzamos dividiendo el primer renglón por -i y aplicando transvecciones para hacer el resto de las entradas de la columna iguales a 0. Luego intercambiamos la tercera y cuarta filas.

    \begin{align*}&\begin{pmatrix}-i & 2i & i \\-3 & 1 & -7 \\2 & 3 & 12 \\3 & -1 & 7\end{pmatrix}\\\to&\begin{pmatrix}1 & -2 & -1 \\0 & -5 & -10 \\0 & 7 & 14 \\0 & 5 & 10\end{pmatrix}\end{align*}

Ahora reescalamos con factor -\frac{1}{5} la segunda fila y hacemos transvecciones para hacer igual a cero el resto de entradas de la columna 2:

    \begin{align*}&\begin{pmatrix}1 & 0& 3 \\0 & 1 & 2 \\0 & 0 & 0 \\0 & 0 & 0\end{pmatrix}\end{align*}

Con esto llegamos a la forma escalonada reducida de la matriz. De acuerdo al procedimiento que discutimos en la entrada de sistemas lineales homogéneos, concluimos que las variables a y b son pivote y la variable c es libre. Para poner a a y b en términos de c, usamos la primera y segunda ecuaciones. Nos queda

    \begin{align*} a &= -3c \\ b &= -2c. \end{align*}

En resumen, concluimos que para cualqueir número complejo c en \mathbb{C} se tiene la combinación lineal

    \[-3c\begin{pmatrix} -i & -3 \\ 2 & 3 \end{pmatrix} - 2c \begin{pmatrix} 2i& 1 \\ 3 & -1 \end{pmatrix}  + c\begin{pmatrix} i & -7 \\ 12 & 7 \end{pmatrix} = \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}.\]

Una posible combinación lineal no trivial se obtiene tomando c=1.

\square

En el problema anterior bastaba encontrar una combinación lineal no trivial para acabar el ejercicio. Por supuesto, esto también se puede hacer por prueba y error. Sin embargo, la solución que dimos da una manera sistemática de resolver problemas de este estilo.

Problema. Consideremos el espacio vectorial V de funciones f:\mathbb{R}\to \mathbb{R}. Para cada real a en (0,\infty), definimos a la función f_a\in V dada por

    \[f_a(x)=e^{ax}.\]

Tomemos reales distintos 0<a_1<a_2<\ldots<a_n. Supongamos que existe una combinación lineal de las funciones f_{a_1},\ldots,f_{a_n} que es igual a 0, es decir, que existen reales \alpha_1,\ldots,\alpha_n tales que

    \[\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_n e^{a_nx} = 0\]

para todo real x\geq 0.

Muestra que \alpha_1=\ldots=\alpha_n=0. Concluye que la familia (f_a)_{a\in \mathbb{R}} es linealmente independiente en V.

Solución. Procedemos por inducción sobre n. Para n=1, si tenemos la igualdad \alpha e^{ax}=0 para toda x, entonces \alpha=0, pues e^{ax} siempre es un número positivo. Supongamos ahora que sabemos el resultado para cada que elijamos n-1 reales cualesquiera. Probaremos el resultado para n reales cualesquiera.

Supongamos que tenemos la combinación lineal

    \[\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_n e^{a_nx} = 0\]

para todo real x\geq 0.

Dividamos esta igualdad que tenemos entre e^{a_nx}:

    \[\alpha_1 e^{(a_1-a_n)x} + \alpha_2e^{(a_2-a_n)x} + \ldots + \alpha_{n-1}e^{(a_{n-1}-a_n)x}+\alpha_n = 0.\]

¿Qué sucede cuando hacemos x\to \infty? Cada uno de los sumandos de la forma \alpha_i e^{(a_i-a_n)x} se hace cero, pues a_i<a_n y entonces el exponente es negativo y se va a -\infty. De esta forma, queda la igualdad \alpha_n=0. Así, nuestra combinación lineal se ve ahora de la forma

    \[\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_{n-1} e^{a_{n-1}x} = 0.\]

Por la hipótesis inductiva, \alpha_1=\ldots=\alpha_{n-1}=0. Como también ya demostramos \alpha_n=0, hemos terminado el paso inductivo.

Concluimos que la familia (infinita) (f_a)_{a\in \mathbb{R}} es linealmente independiente en V pues cualquier subconjunto finito de ella es linealmente independiente.

\square

El problema anterior muestra que la razón por la cual ciertos objetos son linealmente independientes puede deberse a una propiedad analítica o de cálculo. A veces dependiendo del contexto en el que estemos, hay que usar herramientas de ese contexto para probar afirmaciones de álgebra lineal.

Entradas relacionadas

Álgebra Lineal I: Problemas de producto de matrices y matrices invertibles

Introducción

Esta sección consta de puros problemas para practicar los conceptos vistos en entradas previas. Las entradas anteriores correspondientes son la de producto de matrices y la de matrices invertibles.

Problemas resueltos

Problema. Encuentra todas las matrices B\in M_3(\mathbb{C}) que conmutan con la matriz

    \begin{align*}A=\begin{pmatrix}1 & 0 & 0\\0 & 0 & 0\\0 & 0 &2\end{pmatrix}.\end{align*}

Solución. Sea

    \begin{align*}B=\begin{pmatrix} a & b & c\\ d & e & f \\ g & h & i \end{pmatrix}\in M_3(\mathbb{C}).\end{align*}

Calculamos usando la regla del producto:

    \begin{align*}AB=\begin{pmatrix}a & b & c\\ 0 & 0 & 0\\ 2 g & 2h & 2i \end{pmatrix}\end{align*}

y

    \begin{align*}BA= \begin{pmatrix} a & 0 & 2c\\  d & 0 & 2f\\ g & 0 & 2i\end{pmatrix}.\end{align*}

Igualando ambas matrices obtenemos que A y B conmutan si y sólo si se satisfacen las condiciones

    \begin{align*}\begin{cases}b=d=f=h=0\\2c=c\\2g=g\end{cases}.\end{align*}

Las últimas dos condiciones son equivalentes a que c=g=0. Cualquier matriz que conmuta con A satisface estas condiciones y conversamente (por nuestro cálculo) si satisface estas ecuaciones conmuta con A. Esto nos deja como parámetros libres a a,e,i, es decir B puede ser cualquier matriz diagonal.

\square

Problema. Considerando las matrices

    \begin{align*}A=\begin{pmatrix} 1 & 1 & 1\\ 0& 4 &-1\\ 9& 6 & 0 \end{pmatrix}, \hspace{2mm} B= \begin{pmatrix} -1 & 1\\ 0 & -2 \\ 1 &0 \end{pmatrix},\end{align*}

¿cuáles de los productos A^2, AB, BA, B^2 tienen sentido? Calcula los que si lo tienen.

Solución. Recordamos que los productos tienen sentido si el número de columnas de la matriz de la izquierda sea el mismo que el número de filas de la matriz de la derecha. Entonces no podemos realizar los productos BA o B^2 pues esta condición no se cumple (por ejemplo, B tiene 3 columnas, A tiene 2 filas, y estos números difieren). Calculamos entonces usando la regla del producto:

    \begin{align*}A^2 = \begin{pmatrix}10 & 11 & 0\\-9 & 10 & -4\\9 & 33 & 3\end{pmatrix}, \hspace{2mm} AB= \begin{pmatrix} 0 & -1\\ -1  & -8\\ -9 &-3\end{pmatrix}.\end{align*}

\square

Problema. Considera la matriz

    \begin{align*}A=\begin{pmatrix} 1 & 1& 0 \\ 0 & 1 &1\\ 0 &0 & 1 \end{pmatrix}\end{align*}

  • Demuestra que A satisface que (A-I_3)^3=O_3
  • Calcula A^{n} para cualquier entero positivo n.

Solución.

  • Hacemos el cálculo directamente:

        \begin{align*}(A-I_3)^3&= \begin{pmatrix} 0 & 1 & 0\\0 & 0 &1\\ 0 & 0 &0 \end{pmatrix}^{2} \cdot \begin{pmatrix} 0 & 1 &0 \\ 0 & 0 & 1\\ 0 & 0 &0 \end{pmatrix} \\&= \begin{pmatrix} 0 & 0 & 1\\ 0 & 0 & 0\\ 0 &0 &0\end{pmatrix}\cdot \begin{pmatrix} 0 & 1 &0 \\ 0 & 0 & 1\\ 0 & 0 &0 \end{pmatrix}\\&=O_3. \end{align*}

  • Para este tipo de problemas, una estrategia que funciona es hacer casos pequeños para hacer una conjetura, y luego demostrarla por inducción. Probando para algunos valores de n conjeturamos que

        \begin{align*}A^{n}=\begin{pmatrix} 1 & n & \frac{n(n-1)}{2}\\ 0 & 1 & n\\ 0 & 0 &1 \end{pmatrix}.\end{align*}


    Lo demostramos por inducción sobre n, dando por cierto el caso base con n=1.
    Hagamos ahora el paso inductivo. Para esto usamos que 1+\dots + (n-1)= \frac{n(n-1)}{2}.
    Nuestra hipótesis de inducción nos dice entonces que para cierto n se tiene que A^{n}=\begin{pmatrix} 1 & n & 1+\dots +(n-1) \\ 0 & 1 & n\\ 0 & 0 & 1\end{pmatrix}. Usando que A^{n+1}=A^{n}\cdot A con nuestra hipótesis de inducción se sigue:

        \begin{align*}A^{n+1}= A^{n}\cdot A&= \begin{pmatrix} 1 & n & 1+\dots +(n-1)\\ 0 & 1 &n\\ 0 & 0 &1\end{pmatrix} \cdot \begin{pmatrix} 1 & 1 & 0\\ 0 & 1 & 1\\ 0 & 0 & 1\end{pmatrix}\\ &= \begin{pmatrix} 1 & 1+n & 1+\dots + (n-1)+n\\ 0 & 1 & n+1\\ 0 & 0 &1\end{pmatrix}.\end{align*}


    Luego el resultado es cierto para n+1 y así queda demostrado el resultado.

\square

El siguiente problema combina temas de números complejos y de matrices invertibles. Para que lo entiendas a profundidad, es útil recordar la teoría de raíces n-ésimas de la unidad. Puedes revisar esta entrada del blog. El ejemplo puede parecer un poco artificial. Sin embargo, las matrices que se definen en él tienen muchas aplicaciones, por ejemplo, en procesamiento de señales.

Problema. Sea n>1 un natural y sea

    \begin{align*}\zeta= e^{\frac{2\pi i}{n}}= \cos \left( \frac{2\pi}{n}\right)+i\sin \left( \frac{2\pi}{n}\right).\end{align*}

Este número puede parecer muy feo, pero es simplemente la raíz n-ésima de la unidad de menor argumento.

Definimos la matriz de Fourier de orden n, denotada por \mathcal{F}_n como la matriz tal que su (j,k)-ésima entrada es \zeta^{(j-1)(k-1)} para 1\leq j,k\leq n.

  • a) Sea \overline{\mathcal{F}_n} la matriz cuya (j,k)-ésima entrada es el conjugado complejo de la (j,k)-ésima entrada de \mathcal{F}_n. Demuestra que

        \begin{align*}\mathcal{F}_n\cdot \overline{\mathcal{F}_n} = \overline{\mathcal{F}_n}\cdot \mathcal{F}_n= nI_n.\end{align*}

  • b) Deduce que \mathcal{F}_n es invertible y calcule su inversa.

Solución.

  • a) Sean 1\leq j,k\leq n. Usando la regla del producto, podemos encontrar la entrada (j,k) como sigue:

        \begin{align*}\left( \mathcal{F}_n \cdot \overline{\mathcal{F}_n} \right)_{jk} &= \sum_{l=1}^{n} \left(\mathcal{F}_n\right)_{jl} \cdot \left(\overline{\mathcal{F}_n}\right)_{lk}\\&= \sum_{l=1}^{n} \zeta^{(j-1)(l-1)} \cdot \overline{\zeta^{(l-1)(k-1)}}\\&= \sum_{l=1}^{n} \zeta^{(j-1)(l-1)-(l-1)(k-1)}, \end{align*}


    la última igualdad se debe a que \overline{\zeta}= \zeta^{-1}. Así

        \begin{align*}\left( \mathcal{F}_n \cdot \overline{\mathcal{F}_n}\right)_{jk}=\sum_{l=1}^{n}\zeta^{(l-1)(j-k)}=\sum_{l=0}^{n-1}\left( \zeta^{j-k}\right)^{l}.\end{align*}


    Y la suma de la derecha es la suma de una sucesión geométrica con razón \zeta^{j-k}. Si j=k, entonces \zeta^{j-k}=1, así que la suma es igual a n ya que cada termino es 1 y lo sumamos n veces. Si j\neq k entonces \zeta^{j-k}\neq 1 y usamos la fórmula para una suma geométrica:

        \begin{align*}\sum_{l=0}^{n-1} \left( \zeta^{j-k}\right)^{l}= \frac{1-\left(\zeta^{j-k}\right)^{n}}{1-\zeta^{j-k}}=\frac{1-(\zeta^{n})^{j-k}}{1-\zeta^{j-k}}=0.\end{align*}


    Usamos en la última igualdad que \zeta^{n}=1. Se sigue que \left( \mathcal{F}_n \cdot \overline{\mathcal{F}_n}\right)_{jk} es n si j=k y 0 de otra manera, es decir

        \begin{align*}\mathcal{F}_n\cdot\overline{\mathcal{F}_n}=n\cdot I_n.\end{align*}


    La igualdad simétrica \overline{\mathcal{F}_n}\cdot \mathcal{F}_n=n \cdot I_n se prueba de la misma manera y omitimos los detalles.
  • b) Por el inciso anterior, sugerimos \frac{1}{n} \overline{\mathcal{F}_n}, y esta satisface

        \begin{align*}\mathcal{F}_n \cdot \frac{1}{n} \overline{\mathcal{F}_n} = \frac{1}{n} \cdot n I_n= I_n\end{align*}


    y la otra igualdad se verifica de la misma manera. Por lo tanto, \mathcal{F}_n es invertible y su inversa es \frac{1}{n} \overline{\mathcal{F}_n}.

\square

Problema. Sean A,B\in M_n(\mathbb{R}) matrices tales que

    \begin{align*}A+B=I_n \hspace{5mm} A^2+B^2=O_n\end{align*}

Demuestra que A y B son invertibles y que satisfacen

    \begin{align*}(A^{-1}+B^{-1})^{n}=2^{n} I_n\end{align*}

Solución. Observamos que las propiedades dadas nos permiten calcular

    \begin{align*}A(I_n+B-A)&= (I_n-B) (I_n+B-A)\\&=I_n+B-A-B-B^2+BA\\&= I_n -A-B^2+BA \\&=I_n+(B-I_n)A-B^2\\ &=I_n-A^2-B^2\\&= I_n.\end{align*}

Es decir A^{-1}=I_n+B-A (falta demostrar que con esta propuesta, también se cumple A^{-1}A=I_n, omitimos los cálculos). Similarmente B^{-1}= I_n+A-B y por tanto A^{-1}+B^{-1}= 2\cdot I_n y de esta igualdad se sigue la segunda parte del problema, pues

    \begin{align*}\left(A^{-1}+B^{-1}\right)^{n}= \left( 2\cdot I_n\right)^{n}=2^{n} \cdot I_n.\end{align*}


\square

Entradas relacionadas

Álgebra Lineal I: Problemas de vectores, matrices y matrices como transformaciones lineales

Introducción

Esta entrada consiste de puros problemas resueltos. Mediante la solución de estos problemas se puede poner en práctica los conceptos vistos anteriormente. En específico, aquí repasamos los conceptos de suma y producto escalar que vimos al inicio, así como la idea de la entrada anterior de relacionar a matrices con transformaciones lineales.

Problemas resueltos

Problema. Escribe de manera explicita la matriz A=[a_{ij}]\in M_{2,3}(\mathbb{R}) tal que

    \begin{align*}a_{ij}=\begin{cases} 1 & \text{si } i+j \text{ es par}\\ 0 & \text{si } i+j\text{ es impar}\end{cases}\end{align*}

Solución. Tomemos como ejemplo a la entrada a_{11}. Como 1+1=2 y 2 es par, entonces la entrada a_{11} será igual a 1. De manera similar, obtenemos que a_{12}=0 pues 1+2=3, que es un número impar. Siguiendo de este modo, obtenemos que

    \begin{align*}A=\begin{pmatrix} 1 & 0 & 1\\0 & 1& 0 \end{pmatrix}.\end{align*}

\square

Problema. Para cada par de matrices (A,B), explica cuáles de las operaciones A+2B y A-B tienen sentido, y cuando tengan sentido, haz el cálculo.

  1.     \begin{align*}A= \begin{pmatrix} 1 & 1& 0\\0& 1 & 1\\1 & 0 & 1 \end{pmatrix} \hspace{5mm} \text{y}\hspace{5mm} B=\begin{pmatrix} 1 &2 &3\\7 & 8 & 9\\4 & 5 & 6\end{pmatrix}.\end{align*}

  2.     \begin{align*} A=\begin{pmatrix} 192450916\\1\\0 \\1\\2\end{pmatrix} \hspace{5mm} \text{y} \hspace{5mm} B= \begin{pmatrix} -1\\ 0 \\ 199\\ 2020\\ 0\\ 3\end{pmatrix}.\end{align*}

  3.     \begin{align*}A= \begin{pmatrix} 1 & 1 & 2\\3 & 5 & 8 \end{pmatrix} \hspace{5mm} \text{y} \hspace{5mm}B= \begin{pmatrix} 1&-1 & 1\\ 2 & 4 & 8 \end{pmatrix}.\end{align*}

Solución:

  1. Dado que ambas matrices tienen el mismo tamaño, podemos calcular ambas operaciones. Tenemos que hacer las operaciones entrada a entrada. Así, la primer entrada de A+2B será 1+2\cdot 1 = 3. Haciendo lo mismo para cada entrada, obtenemos que

        \begin{align*}A+2B= \begin{pmatrix}3 & 5 & 6\\14 & 17 & 19\\9 & 10 & 13\end{pmatrix} \end{align*}


    De manera similar, obtenemos que

        \begin{align*}A-B=\begin{pmatrix}  0 &-1 & -3 \\ -7 & -7 & -8\\ -3 & -5 &-5\end{pmatrix}.\end{align*}

  2. En este caso las operaciones no tienen sentido, pues una matriz tiene 5 renglones y la otra 6.
  3. Observamos que ambas matrices tienen el mismo tamaño, por lo que sí podemos calcular ambas operaciones:

        \begin{align*}A+2B= \begin{pmatrix}3 & -1 & 4\\ 7 & 13 & 24\end{pmatrix} \hspace{5mm} \text{y} \hspace{5mm} A-B=\begin{pmatrix} 0 &2 & 1 \\ 1 & 1 & 0 \end{pmatrix}.\end{align*}

\square

Problema.

  • a) Considera la función f: \mathbb{R}^2\to \mathbb{R}^2 dada por

        \begin{align*}f(x,y)=(x^2,y^2).\end{align*}


    ¿Es f una transformación lineal?
  • b) Responde la misma pregunta reemplazando \mathbb{R} por \mathbb{F}_2.

Solución.

  • a) No, f no es lineal. Vamos a ver un ejemplo en el cual no “abre sumas”. Por un lado, tenemos por definición que f(2,0)=(4,0). Por otro lado, tenemos que (2,0)=(1,0)+(1,0) y que f(1,0)+f(1,0)= (2,0). Es decir

        \begin{align*}f( (1,0)+(1,0) ) \neq f(1,0)+f(1,0).\end{align*}

  • b) Si cambiamos el dominio por \mathbb{F}_2 entonces f sí es lineal. Lo podemos verificar:

        \begin{align*}f(x+y,z+w)&= \left((x+y)^2, (z+w)^2\right)\\&= \left( x^2+y^2+2xy, z^2+w^2+2wz\right)\\&=\left(x^2+y^2, z^2+w^2\right)\\&= \left(x^2,z^2\right)+\left(y^2,w^2\right)\\&= f(x,z)+f(y,w).\end{align*}


    En estas igualdades estamos usando que \mathbb{F}_2 es el campo con dos elementos, en donde se cumple que 2=1+1=0, por lo cual 2xy=0=2wz.
    Por otro lado, si \alpha\in \mathbb{F}_2 es un escalar, entonces

        \begin{align*}f(\alpha\cdot(x,y))&= f(\alpha x, \alpha y)\\&= (\alpha^2 x^2, \alpha^2 y^2)\\&= \alpha^2 \cdot (x^2,y^2)\\&= \alpha \cdot f(x,y).\end{align*}


    De nuevo estamos usando las propiedades del campo \mathbb{F}_2 en la última igualdad. Como \mathbb{F}_2 es el campo con 2 elementos, los valores de \alpha, x,y sólo pueden ser 0 o 1. Como 0^2=0 y 1^2=1, tenemos la igualdad. Concluimos que f es lineal.
  • b)’ Otra manera de resolver el inciso b) es observar que en \mathbb{F}_2, x^2=x para todo x (esto lo usamos con \alpha, x, y en la prueba pasada). Luego la función f coincide con la función identidad, y es más fácil verificar que ésta es lineal.

\square

Problema. Da un ejemplo de un mapeo f:\mathbb{R}^2\to \mathbb{R} que no sea lineal, pero que cumpla

    \begin{align*}f(av)= af(v)\end{align*}

para cualesquiera v\in \mathbb{R}^2 y a\in \mathbb{R}.

Solución. Proponemos

    \begin{align*}f(x,y)= \begin{cases} x & \text{si } y=0\\  y & \text{si } y\neq 0\end{cases}.\end{align*}

Verifiquemos que f cumple la compatibilidad con escalares. Primero, si a=0 es claro que

    \begin{align*}f(av) &= f(0,0)\\&= 0\\&= 0 \cdot f(v)\\&= a\cdot f(v).\end{align*}

Entonces si a=0 se cumple la condición. Ahora supongamos que a\neq 0, tenemos dos subcasos que verificar:

  • Si v=(x,y) con y\neq 0, entonces av= (ax,ay) y ay\neq 0 (pues el producto de reales no nulos es no nulo), por lo que

        \begin{align*}f(av)&= f(ax,ay)\\&= ay\\&= a\cdot f(x,y)=a\cdot f(v).\end{align*}

  • Si v=(x,0) entonces av= (ax,0) y así

        \begin{align*}f(av)&= f(ax,0)\\&= ax\\&= a\cdot f(x,0)=a\cdot f(v).\end{align*}

Así verificamos que f cumple con la condición buscada. Para ver que f no es lineal, observamos que

  • f(1,0)=1
  • f(0,1)=1
  • f(1,1)=1

Y así tenemos

    \begin{align*}f(0,1)+f(1,0)&= 2\\&\neq 1\\&= f(1,1)\\&=f((1,0)+(0,1))\end{align*}

Es decir, existen u y v vectores tales que f(u+v)\neq f(u)+f(v), por lo que f no es lineal.

\square

Entradas relacionadas

Álgebra Superior II: Problemas de operaciones con polinomios

Introducción

En una entrada anterior ya construimos el anillo de polinomios con coeficientes reales. Para hacer esto, tomamos las sucesiones que consisten casi de puros ceros, y les pusimos operaciones de suma y producto. Ahora repasaremos esto resolviendo algunos problemas de operaciones con polinomios.

Problema de suma de polinomios

Comenzamos con un ejemplo de suma de polinomios del libro de Álgebra Superior de Bravo, Rincón y Rincón.

Ejercicio 399. Haz la suma de los siguientes polinomios:

    \begin{align*}p(x)&=(-85,0,-37,-35, 97, 50, \overline{0})\\q(x)&=(56,49,0,57,\overline{0}).\end{align*}

En el video se hace la suma de dos formas distintas. Primero, se hace la suma directamente de la definición, es decir, sumando los polinomios entrada a entrada como sucesiones. Después, se hace la suma en la notación de x y potencias, que tal vez conozcas mejor.

Es importante entender que la notación de sucesiones sirve para establecer los fundamentos de los polinomios, pero no es práctica para hacer operaciones con polinomios concretas. Dependiendo del tipo de problema que se quiere resolver, a veces hay que usar una notación u otra.

Suma de polinomios

Problemas de producto de polinomios

A continuación se resuelven dos ejercicios de producto de polinomios.

Ejercicio. Multiplicar los polinomios (2,0,3,\overline{0}) y (0,1,\overline{0}).

En el video se hace la multiplicación usando directamente la definición, paso a paso. Sin embargo, los pasos para realizar la multiplicación se pueden realizar en una tabla, como la que usamos en entradas anteriores. Después del video ponemos la tabla correspondiente a la multiplicación.

Para hacer la multiplicación con una tabla, ponemos a las entradas del primer polinomio en la primer fila de una tabla, y a las del segundo polinomio en la primer columna de la tabla. Luego, hacemos las multiplicaciones “en cada casilla” como sigue:

\bm{2}\bm{0}\bm{3}
\bm{0}000
\bm{1}203

De aquí, se puede leer el producto “por diagonales”. La primer diagonal es 0, la segunda 2+0=2, la tercera 0+0=0 y la cuarta 3. Concluimos que el polinomio es

    \[(0,2,0,3,\overline{0}).\]

Veamos un ejemplo más, usando la notación de x y sus potencias.

Ejercicio. Encuentra el producto de polinomios (1+3x)(1-2x+3x^2).

Problema de división de polinomios

Finalmente, hacemos un ejemplo de división de polinomios. La técnica que se hace en el video es la de “dividir con casita”, que es una forma visual de representar el algoritmo de la división para polinomios. Hablaremos un poco más adelante de este algoritmo, y de por qué siempre nos da un residuo cero o de grado menor.

Cuando se hace la “división con casita”, hay que recordar dejar los espacios correspondientes a los términos que tengan coeficiente 0.

Ejercicio. Divide el polinomio x^5+x^3+3x entre el polinomio x^2-x+1.

División de polinomios

Álgebra Superior II: Problemas de exponencial, logaritmo y trigonometría en los complejos

Introducción

En entradas anteriores, vimos la construcción de los números complejos, sus operaciones y varias de sus características algebraicas. Conociendo ya las funciones exponencial y logaritmo, así como las funciones trigonométricas seno y coseno, vamos a iniciar con un breve análisis geométrico de la función exponencial. Posteriormente pasaremos a hacer unos ejercicios simples de operar dichas funciones en números complejos concretos.

Geometría de la exponencial compleja

Para empezar, estudiamos qué le hace la función exponencial al plano complejo de manera geométrica. Para hacer esto, tomamos varias rectas en el plano complejo para entender en qué se transforman tras aplicarles la función exponencial.

A grandes rasgos, cuando tomamos una recta vertical, la imagen de esta le da la vuelta al origen repetidamente. Cuando tomamos una recta horizontal, su imagen es un rayo que emana del origen (sin tocarlo).

En este video se explican estas ideas de manera visual.

Calcular una exponencial compleja

Lo siguiente que haremos es resolver un ejercicio de calcular la exponencial de un número complejo. Recuerda que, por definición, se tiene que

    \[e^{x+iy}=e^x\text{cis}(y).\]

Ejercicio. Expresa e^{4+\frac{\pi}{6}i} en la forma x+iy.

Problema de logaritmo complejo

Recuerda que el logaritmo complejo funciona como inverso de la función exponencial. Para que esto sea cierto, tenemos que restringir la exponencial a una franja del plano complejo.

Por definición, tenemos que

    \[L(z)=\ln \norm{z} + \text{arg}(z)i.\]

Para que la definición funcione bien, es necesario que tomemos el argumento en el intervalo (-\pi,\pi].

Resolveremos el siguiente ejercicio.

Ejercicio. Calcula L\left(\frac{1}{2}+\frac{\sqrt{3}}{2} i\right).

Problema de trigonometría compleja

Por último, haremos un ejercicio de calcular una función trigonométrica compleja. Sólo necesitaremos la definición de la función coseno, pero por conveniencia, a continuación recordamos tanto la definición de seno, como la de coseno.

    \begin{align*}\cos(z)=\frac{e^{zi}+e^{-zi}}{2},\sin(z)=\frac{e^{zi}-e^{-zi}}{2}.\end{align*}

Con esto en mente, resolveremos el siguiente ejercicio.

Ejercicio. Calcula \cos\left(\frac{\pi}{2}+\frac{\pi}{2} i\right).

Más tarde les subo fotos por si alguien tiene dificultades para ver los videos.