Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Geometría Analítica I: Rectas en forma paramétrica

Por Elsa Fernanda Torres Feria

Introducción

Anteriormente definimos las operaciones de suma y de producto escalar en $\mathbb{R}^2$. Después de eso, enunciamos varias de sus propiedades y demostramos algunas de ellas. Lo que haremos ahora es utilizar lo que hemos construido para dar una definición clave de nuestro modelo: la de recta.

Mediante varios interactivos veremos que las propiedades algebraicas que estamos pidiendo en efecto satisfacen lo que queremos de las rectas a partir de nuestra intuición geométrica. Además de esto, demostraremos una proposición que unifica los postulados $1$ y $3$ de Euclides, lo cual será señal de que vamos en buen camino para obtener dichos postulados a partir de nuestro enfoque algebraico. Cerraremos con algunos ejemplos de rectas en su forma paramétrica.

Rectas en forma paramétrica

Iniciemos formalmente con la definición de la recta.

Definición. Dados un punto $P$ y un vector $Q \neq 0 $, la recta que pasa por $P$ con dirección $Q$ es el conjunto

$L=\{ P+rQ : r \in \mathbb{R} \}$

En la definición anterior se piensan a $P$ y $Q$ fijos y a $r$ como un parámetro variable. Con esto en mente, tiene sentido que esta expresión sea conocida como la forma paramétrica de la recta.

Como lo mencionamos al inicio, conocemos todo lo necesario para comprender esta forma paramétrica y es pertinente analizar un poco sus partes para poder realizar la representación gráfica.

El conjunto $L$ está representado por la suma de un punto fijo $P$ en el espacio y por un término de la forma $rQ$ que, si recuerdas, representa un producto escalar y que sabemos cómo se ve en el espacio. Si $r$ es fijo, tenemos un re-escalamiento del vector $Q$ y en el caso en el que $r<0$ un cambio de dirección. Para la forma paramétrica de la recta, resulta que $r$ no es fijo, y aunque esta es la primera vez que vemos algo así, es posible pensarlo como la unión de los casos cuando $r$ es fijo, una unión de tantos elementos como $\mathbb{R}$. Así $rQ$ representa una recta formada por todos los re-escalamientos posibles de el vector $Q$: la recta que pasa por el origen y por $Q$.

¿Cómo se verá entonces el total $P+rQ$? Si de nuevo pensamos en un $r$ específico, tenemos que $rQ$ es un re-escalamiento. Por el método del paralelogramo sabemos que $P+rQ$ es avanzar desde el origen hasta el punto $P$ y tomando ahora este «como origen», avanzar hasta $rQ$; de cierta manera estamos trasladando $rQ$ para que empiece en $P$. Volviendo al caso general, la recta dada por $P+rQ$ se ve como la recta dada por $rQ$, pero trasladada paralelamente para que pase por el punto $P$.

Ejemplo. Sean $P=(-3,5)$ y $Q=(2,7)$. Tenemos que la recta $L$ por $P$ y con dirección $Q$ es el conjunto

\begin{align*}
L&=\{ (-3,5)+r(2,7) : r \in \mathbb{R} \}\\
&=\{ (-3+2r,5+7r) : r \in \mathbb{R} \}
\end{align*}

En el siguiente interactivo el punto $P$ se encuentra de color rojo, el vector $Q$ y la recta dada por $rQ$ de color verde. La recta paralela a $rQ$ que pasa por $P$ se encuentra de color azul y por último, de color morado se encuentra $P+rQ$ para un $r$ fijo cuyo valor puedes controlar con el deslizador a tu izquierda. El punto $P+rQ$ está diseñado para que al cambiar el valor de $r$ (con el deslizador), puedas ver su rastro, es decir que deje marca por donde pasa. Nota cómo al mover el deslizador, todos los puntos $P+rQ$ se encuentran sobre la recta paralela a la recta definida por la expresión $rQ$ que pasa por el punto $P$.

Así, podemos concluir que la recta dadad por $P+rQ$ es precisamente la recta dada por $rQ$ trasladada paralelamente para que pase por el punto $P$.

$\triangle$

Para cerrar un poco la definición de la forma paramétrica, planteemos algunos casos especiales del parámetro $r$:

  • Cuando $r=0$ tenemos al punto $P$.
  • Cuando $r=1$, el punto en la recta corresponde a $P+Q$.
  • ¿Qué pasa entonces cuando $0<r<1$ ? Resulta que en tal caso nos encontramos en el segmento comprendido entre $P$ y $P+Q$ pues $rQ$ será una fracción de $Q$ y al sumárselo a $P$ obtenemos un vector que parte de $P$ ($0<r$) y llega hasta $P+rQ$, que «queda antes» de $P+Q$, pues $r<1$.

Función asociada a la recta

Hagamos un pequeño paréntesis para hablar de la relación que tiene esta expresión de la recta con los números reales.

Como acabamos de ver, la forma paramétrica de la recta $L$ está definida con base en un parámetro $r \in \mathbb{R}$. Al decir «parámetro» queremos expresar que es una variable que nos ayuda a definir nuestro objeto, en este caso una recta. Como $r$ corre en todos los reales, puede fungir como la variable de una función asociada a la recta. Aquí $\mathbb{R}$ es nuestro dominio, y el codominio es $L$. Así, podemos definir $\phi: \mathbb{R} \rightarrow L$ como

$\phi (r)=P+rQ.$

Resulta que esta función bajo esta función a cada valor de $r$ le corresponde uno y sólo un valor en $L$ (es función suprayectiva) y cada valor de $L$ se obtiene de un único $r$ (es inyectiva).

Proposición. La función $\phi(r)$ es biyectiva.

Demostración. Ver que $\phi$ es suprayectiva es inmediato pues la recta $L$ está definida precisamente mediante el parámetro $r$ y no hay manera de que en $L$ haya puntos que tengan otra expresión. Veamos ahora que es inyectiva. Para esto supongamos que existen $r,s \in \mathbb{R}$ tales que $\phi(r)=\phi(s)$. Para probar la inyectividad debemos concluir que $r=s$.

Si $\phi(r)=\phi(s)$, por definición de la función se tiene

$P+rQ=P+sQ$

Sumando $-(P+sQ)$ de ambos lados obtenemos, $P+rQ-(P+sQ)=0$ y desarrollando el lado izquierdo con las propiedades de suma y producto escalar obtenemos que

\begin{align*}
0&=P+rQ-(P+sQ)\\
&=P+rQ-P-sQ\\
&=P-P+rQ-sQ\\
&=0+rQ-sQ\\
&=rQ-sQ\\
&=Q(r-s).
\end{align*}

Es importante que en este punto te cuestiones qué propiedades de la suma y producto escalar se están usando en cada una de las igualdades anteriores.

En resumen, obtenemos que $Q(r-s)=0$. Pero en la definición de la recta se establece que $Q \neq 0$. De este modo, concluimos que $r-s=0$, que en otras palabras es la igualdad $r=s$ que buscábamos. Concluimos que existe una biyección entre cualquier recta y los reales.

$\square$

Otra forma de pensar la inyectividad en el resultado anterior es que «una recta no pasa más de una vez por cada punto».

Ejemplos de rectas en forma paramétrica

Para cerrar esta entrada plantearemos algunos ejercicios de rectas en su forma paramétrica e incluiremos sus interactivos.

Problema. Dibuja las siguientes rectas:

  1. $L_1=\{ (2,3)+ t(1,1) : t \in \mathbb{R} \}$
  2. $L_2= \{ (r-1,-2r) : r \in \mathbb{R} \}$

Solución.

  1. En este ejercicio el punto es $P=(2,3)$ y el vector director $Q=(1,1)$. Para construir la recta que definen, «dibujamos» primero la recta dada por $t(1,1)$ (en azul) y después trazamos su paralela que pase por $(2,3)$ (en verde). Si hicimos bien el procedimiento, cuando muevas el deslizador de $t$, el rastro de $(2,3)+t(1,1)$ debe estar sobre la recta verde. Así, la recta dada por $(2,3)+t(1,1)$ es la recta verde.

$\square$

  1. En este ejercicio tenemos a $P$ y a $rQ$ ya sumados, por lo que tenemos que separarlos (con ayuda de la definición de suma vectorial) para saber cuáles son individualmente. El vector $rQ$ es aquel cuyas entradas tienen a $r$, $P$ es lo que queda. Así,

$rQ=(r,-2r)$ y $P=(-1,0).$

Por lo que

$Q=(1,-2).$

Siguiendo el mismo procedimiento del ejercicio anterior, localizamos la recta dada por $rQ=r(1,-2)$ (verde) y trazamos su paralela que pase por $(-1,0)$ (rojo). Si el procedimiento es correcto, entonces cuando muevas el deslizador de $r$ el rastro de $(-10)+r(1,-2)$ se debe posicionar sobre la recta roja. Así la recta roja es la dada por $(r-1,-2r)$.

$\square$

Más adelante…

Con lo que aquí se desarrolló, en la siguiente entrada será posible construir las rectas en su forma baricéntrica y seremos capaces de darle a esta una interpretación física. Más adelante trataremos la intersección de rectas y definiremos la forma normal de una recta.

Tarea moral

  • Justifica cada paso de cada procedimiento con ayuda de los axiomas de los reales y las propiedades que se probaron en la entrada anterior.
  • Escribe la ecuación que representa a una partícula que pasa por el orígen en un tiempo $t=0$ («su punto de partida») y que cada unidad de tiempo avanza cambia su posición sumando $(-5,-3)$. La ecuación tendrá la forma paramétrica de una recta.
  • Dibuja las siguientes dos rectas (si te es posible con ayuda de GeoGebra):
    • $L_a=\{ (0,-2)+(-r,2r) : r \in \mathbb{R} \}$
    • $L_b=\{ (2s-1,s) : s \in \mathbb{R} \}$
  • Considera los puntos $P=(5,-3)$ y $Q=(-7,2)$. ¿Es la misma la recta por $P$ con dirección $Q$ que la recta por $Q$ con dirección $P$? Realiza una figura.

Álgebra Lineal II: Polinomio característico de familias especiales

Por Julio Sampietro

Introducción

En la entrada anterior dimos la definición de polinomio característico. Vimos que siempre es un polinomio mónico y que su grado es exactamente del tamaño de la matriz. También, vimos cómo calcular el polinomio mínimo en algunos casos particulares. En esta entrada veremos varias propiedades que nos van a facilitar el calcular el polinomio característico (y por tanto los eigenvalores) en un amplio rango de matrices diferentes.

Comenzaremos estudiando el polinomio mínimo de las triangulares superiores. Luego, veremos cómo calcular el polinomio de matrices nilpotentes. No solo nos harán la vida más fácil los resultados a continuación, si no que los usaremos en la teoría más adelante.

Matrices triangulares superiores y transpuestas

El caso de las matrices triangulares superiores es muy sencillo, como veremos a través del siguiente problema.

Problema. Sea $A=[a_{ij}]$ una matriz triangular superior. Demuestra que

\begin{align*}
\chi_A(X)=\prod_{i=1}^{n}(X-a_{ii}).
\end{align*}

Solución. La matriz $X I_n-A$ sigue siendo triangular superior, y sus entradas diagonales son precisamente $X-a_{ii}$. Usando que el determinante de una matriz triangular superior es el producto de sus entradas diagonales y usando la definición se sigue que

\begin{align*}
\chi_A(X)=\det(X I_n-A)=\prod_{i=1}^{n} (X-a_{ii}).
\end{align*}

$\square$

Ejemplo. Si queremos calcular el polinomio característico de la matriz

\begin{align*}
A=\begin{pmatrix}
1 & -\pi & \sqrt{2}\\
0 & -2 & 10^{10}\\
0 & 0 &3
\end{pmatrix}.
\end{align*}

entonces podemos aplicar el problema anterior y deducir inmediatamente que

\begin{align*}
\chi_A(X)=(X-1)(X+2)(X-3).
\end{align*}

¡Qué complicado hubiera sido calcular el determinante a pie!

$\triangle$

Por otro lado, recordando la demostración que dice que los eigenvalores de la transpuesta de una matriz son iguales a los de la matriz original era de esperarse que el polinomio característico también «se portara bien» bajo transposición.

Problema. Demuestra que las matrices $A$ y $^{t}A$ tienen el mismo polinomio característico para cualquier $A\in M_n(F)$.

Solución. Notamos que $^{t}(X I_n-A)= XI_n-\ ^{t}A$. Como una matriz y su transpuesta tienen el mismo determinante se tiene que

\begin{align*}
\chi_A(X)&=\det(XI_n-A)\\&=\det(\ ^{t}(XI_n-A))\\&= \det(XI_n-\ ^{t}A)\\&=\chi_{^t A}(X).
\end{align*}

$\square$

Estrictamente hablando, estamos haciendo un poquito de trampa en la demostración anterior (y de hecho en varias que involucran a la variable $X$). Las propiedades de determinantes que hemos visto (como que una matriz y su transpuesta tienen el mismo determinante) las obtuvimos partiendo de la hipótesis de que las entradas vienen de un campo $F$. Pero cuando agregamos a la variable $X$, ahora las entradas vienen más bien de un anillo: el anillo de polinomios en $F[X]$. Aunque esto parezca un problema, en realidad no lo es. Las propiedades que usamos pueden mostrarse también en ese contexto.

Veamos ahora cómo podemos aplicar el resultado anterior en un ejemplo concreto.

Ejemplo. Queremos calcular el polinomio característico de la matriz

\begin{align*}
A= \begin{pmatrix} 0 & 0 &0\\ -4 & 9 & 0\\ -1 & -1 & 2.\end{pmatrix}
\end{align*}

Para esto notamos que

\begin{align*}
^t A=\begin{pmatrix} 0 & -4 & -1\\ 0 & 9 & -1\\ 0 & 0 & 2\end{pmatrix}
\end{align*}

que es triangular superior. Usando el primer problema

\begin{align*}
\chi_{^t A}(X)= X(X-9)(X-2).
\end{align*}

Finalmente por el último problema $$\chi_{A}(X)=\chi_{^t A}(X)=X(X-9)(X-2).$$

$\triangle$

El término de la traza

Como vimos en la entrada anterior, en el polinomio $\det(XA+B)$ aparecen los términos $\det(A)$ y $\det(B)$. El siguiente problema aplica esto al polinomio característico e incluso deducimos otro término: la traza.

Problema. Demuestra que el polinomio característico de $A\in M_n(F)$ es de la forma

\begin{align*}
\chi_A(X)= X^n- \operatorname{Tr}(A)X^{n-1}+\dots+(-1)^n \det A.
\end{align*}

Solución. Regresemos a la definición

\begin{align*}
\det (X I_n-A)=\sum_{\sigma\in S_n} \operatorname{sign}(\sigma)\left(X\delta_{1\sigma(1)}-a_{1\sigma(1)}\right)\cdots \left(X \delta_{n\sigma(n)}-a_{n\sigma(n)}\right).
\end{align*}

Haciendo la expansión salvajemente podemos recuperar al menos los primeros términos de $$(X\delta_{1\sigma(1)}-a_{1\sigma(1)})\cdots (X\delta_{n\sigma(n)}-a_{n\sigma(n)}),$$ que son $$X^{n}\prod_{i=1}^{n} \delta_{i\sigma(i)} – X^{n-1}\sum_{j=1}^{n}\left(\prod_{k\neq j} \delta_{k\sigma(k)}\right)a_{j\sigma(j)}+\dots.$$

Más aún, nota cómo el producto $\prod_{j=1}^{n}\delta_{j\sigma(j)}$ es distinto de cero si y sólo si $j=\sigma(j)$ para todo $j$: es decir si $\sigma$ es la identidad. Esto muestra que $\chi_A(X)$ es mónico de grado $n$, como ya habíamos mencionado en la entrada anterior.

Además, el término constante está dado por \begin{align*}\chi_A(0)&=\det(0\cdot I_n-A)\\&=\det(-A)\\&=(-1)^{n}\det(A).\end{align*} Alternativamente pudimos haber usado la primera proposición de esta entrada para concluir estos hechos.

Nos falta estudiar el término de grado $n-1$. Si $j\in \{1,2,\dots, n\}$, entonces $\prod_{k\neq j}\delta_{j\sigma(j)}$ es distinto de cero solo si $\sigma(k)=k$ para todo $k\neq j$: pero $\sigma$ es una permutación, en particular una biyección, lo que fuerza que $\sigma(j)=j$ también y entonces $\sigma$ sea la identidad. Entonces el término de $X^{n-1}$ en $$(X\delta_{1\sigma(1)}-a_{1\sigma(1)})\cdots (X\delta_{n\sigma(n)}-a_{n\sigma(n)})$$ es distinto de cero sólo cuando $\sigma$ es la identidad. En ese caso es precisamente $$-\sum_{j=1}^{n} a_{jj}=-\operatorname{Tr}(A).$$

$\square$

Ejemplo. Si $A$ es la matriz del primer problema de esta entrada, tenemos que

\begin{align*}
\chi_A(X)&=(X-1)(X+2)(X-3)\\&= X^3-2 X^2+\dots +6.
\end{align*}

Nota cómo el término de $X^2$ es en efecto $-\text{Tr}(A)= -(1-2+3)$ y el último es $-\det(A)$.

$\triangle$

Matrices nilpotentes

El caso de las matrices nilpotentes es todavía más sencillo.

Problema. Sea $A\in M_n(F)$ una matriz nilpotente. Es decir, existe $k\geq 1$ tal que $A^{k}=O_n$.

  1. Demuestra que
    \begin{align*}
    \chi_A(X)=X^{n}.
    \end{align*}
  2. Demuestra que $\operatorname{Tr}A^{m}=0$ para todo $m\geq 1$.

Solución.

  1. Sea $k\geq 1$ tal que $A^{k}=O_n$ (existe pues $A$ es nilpotente). Entonces
    \begin{align*}
    X^{k}I_n&=X^{k}I_n-A^{k}\\&=(XI_n-A)(X^{k-1}I_n+X^{k-2}A+\dots +A^{k-1}).
    \end{align*}
    Tomando el determinante de ambos lados y recordando que abre productos llegamos a
    \begin{align*}
    X^{nk}&=\det(X^{k}I_n)\\&= \chi_{A}(X)\cdot \det(X^{k-1}I_n+\dots +A^{k-1}).
    \end{align*}
    De aquí, concluimos que $\chi_{A}(X)$ tiene que dividir a $X^{nk}$, pero sabemos que $\chi_A(X)$ es mónico y de grado $n$. Concluimos entonces que $\chi_A(X)=X^{n}$.
  2. Puesto que $A^{m}$ también es una matriz nilpotente, el inciso anterior nos dice que
    \begin{align*}
    \chi_{A^{m}}(X)=X^{n}.
    \end{align*}
    Pero sabemos por la sección sobre la traza que el término de $X^{n-1}$ es $-\operatorname{Tr}(A^{m})$. Como este término no aparece, concluimos que la traza es cero.

$\square$

Ejemplo. Para calcular el polinomio característico de la matriz

\begin{align*}
A=\begin{pmatrix}
5 & -3 &2\\
15 & -9 & 6\\
10 & -6 &4
\end{pmatrix}
\end{align*}

podríamos notar (aunque no sea obvio a simple vista) que $A^2=O_3$. Luego, por el problema anterior, $\chi_A(X)=X^3$.

$\triangle$

Un último caso particular

Acabamos con una última familia de matrices con polinomio característico simple. Esta familia está descrita por su forma, y será de particular importancia para el teorema de Cayley-Hamilton.

Problema. Para escalares $a_0,\dots, a_{n-1}\in F$ consideramos la matriz

\begin{align*}
A=\begin{pmatrix}
0 & 0 & 0 & \dots & 0 & a_0\\
1 & 0 & 0 & \dots & 0 & a_1\\
0 & 1 & 0 & \dots & 0 & a_2\\
\dots & \dots & \dots & \dots & \dots &\dots\\
0 & 0 & 0 & \dots & 1 &a_{n-1}
\end{pmatrix}.
\end{align*}

en $M_n(F)$.

Demuestra que

\begin{align*}
\chi_A(X)=X^{n}-a_{n-1}X^{n-1}-\dots -a_0.
\end{align*}

Solución. Sea $P(X)=X^{n}-a_{n-1}X^{n-1}-\dots-a_0$. Considera la matriz

\begin{align*}
B=X I_n-A=\begin{pmatrix} X & 0 & 0 &\dots &0& -a_0\\ -1 & X & 0 &\dots & 0 &-a_1\\ 0 & -1 & X &\dots& 0&-a_2\\ \dots & \dots & \dots & \dots &\dots &\dots\\ 0 & 0 & 0 & \dots & -1 & X-a_{n-1}\end{pmatrix}.
\end{align*}

Sumando el segundo renglón multiplicado por $X$ al primer renglón, luego sumándole también al primer renglón el tercero multiplicado por $X^2$, el cuarto por $X^3$, y así sucesivamente hasta sumar el último renglón multiplicado por $X^{n-1}$ llegamos a la matriz

\begin{align*}
C=\begin{pmatrix}
0 & 0 & 0 & \dots &0& P(X)\\
-1 & X & 0 & \dots &0 & -a_1\\
0 & -1 & X & \dots & 0 & -a_2\\
\dots & \dots & \dots & \dots & \dots &\dots\\
0 & 0 & 0 & \dots & -1 & X-a_{n-1}
\end{pmatrix}.
\end{align*}

Recordamos que el determinante es invariante bajo sumas de renglones, por lo que

\begin{align*}
\chi_A=\det B=\det C.
\end{align*}

Expandiendo el determinante de $C$ en el primer renglón obtenemos sencillamente

\begin{align*}
\det C&=(-1)^{n+1}P(X) \cdot \begin{vmatrix} -1 & X & \dots & 0\\ 0 & -1 & \dots & 0\\ \dots &\dots & \dots & \dots \\ 0 & 0 & \dots & -1 \end{vmatrix}\\&= (-1)^{n+1} P(X)(-1)^{n-1}\\&=P(X).
\end{align*}

Para la segundaigualdad usamos que el determinante es el de una matriz triangular superior con puros $-1$ como entradas. Para la última, usamos que $n+1+n-1=2n$ siempre es un número par, así que queda $-1$ elevado a un número par. Esto concluye la prueba.

$\square$

Una de las consecuencias de la proposición anterior es que para cualquier polinomio mónico $P$ de grado $n$ en $F[X]$, existe una matriz en $M_n(F)$ tal que su polinomio característico es $P$.

Más adelante…

En la próxima entrada veremos unos últimos aspectos teóricos del polinomio característico antes de lanzarnos de lleno al teorema de Cayley-Hamilton y su demostración.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Encuentra una matriz $A$ tal que $\chi_A(X)=X^5-5X^3+X^2-2X+2$. Sugerencia: Usa el último problema.
  2. Demuestra que el polinomio característico de una matriz $A=[a_{ij}]$ triangular inferior está dado por $\prod_{i=1}^{n}(X-a_{ii})$.
  3. Demuestra que $0$ es eigenvalor de una matriz si y sólo si su determinante es cero.
  4. Calcula el polinomio característico de la siguiente matriz con entradas reales:
    \begin{align*}
    A= \begin{pmatrix} 5 & 5 & 5 \\ 6 & 6 & 6\\ -11 & -11 & -11\end{pmatrix}.
    \end{align*} Sugerencia: ¿Quién es $A^2$?
  5. ¿Es cierto que si $F$ es cualquier campo y $A$ es una matriz con entradas en $F$, entonces el hecho de que $\operatorname{Tr}(A)=0$ implica que $A$ sea nilpotente? Sugerencia: Piensa en $F_2$.
  6. Da una demostración alternativa al último problema de esta entrada usando inducción matemática sobre el tamaño de la matriz.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Polinomio característico

Por Julio Sampietro

Introducción

En el transcurso de esta unidad hemos construido varios de los objetos algebraicos que nos interesan. En primer lugar, dejamos claro qué quería decir evaluar un polinomio en una matriz o transformación lineal. Esto nos llevó a preguntarnos por aquellos polinomios que anulan a una matriz o transformación lineal. De manera natural, descubrimos que aquellos polinomios que anulan son múltiplos de un polinomio especial asociado a la matriz o transformación lineal llamado polinomio mínimo.

De manera un poco separada, comenzamos a estudiar los eigenvalores, eigenvectores y eigenespacios de una transformación lineal y en la entrada anterior nos enfocamos en varias de sus propiedades principales. Uno de los resultados clave que encontramos es que los eigenvalores de una matriz o transformación lineal son las raíces del polinomio mínimo que estén en el campo en el que estemos trabajando.

Aunque este resultado sea interesante de manera teórica, en la práctica debemos hacer algo diferente pues no es tan sencillo encontrar el polinomio mínimo de una matriz o transformación lineal. Es por esto que ahora estudiaremos con profundidad otro objeto que resultará fundamental en nuestro estudio: el polinomio característico. Ya nos encontramos con él anteriormente. Si $A$ es una matriz en $M_n(F)$, dicho polinomio en la variable $\lambda$ es el determinante $\det(\lambda I_n-A)$.

Esta entrada es más bien una introducción, así que nos enfocaremos en probar las cosas más básicas de este objeto. Lo primero, y más importante, es verificar que en efecto es un polinomio (y con ciertas características específicas). También, aprovecharemos para calcularlo en varios contextos (y campos) diferentes.

Definición de polinomio característico

Comencemos con una matriz $A\in M_n(F)$. Vimos que encontrar los eigenvalores de $A$ se reduce a encontrar las soluciones de la ecuación

\begin{align*}
\det(\lambda I_n-A)=0
\end{align*}

en $F$. Vamos a estudiar más a detalle la expresión de la izquierda.

El siguiente teorema va un poco más allá y de hecho estudia expresiones un poco más generales.

Teorema. Sean $A,B\in M_n(F)$ dos matrices. Existe un polinomio $P\in F[X]$ tal que para todo $x\in F$ se cumple

\begin{align*}
P(x)=\det(xA+B).
\end{align*}

Si denotamos a este polinomio por $P(X)=\det(XA+B)$, entonces

\begin{align*}
\det(XA+B)=\det(A)X^{n}+\alpha_{n-1}X^{n-1}+\dots+\alpha_1 X+\det B
\end{align*}

para algunas expresiones polinomiales $\alpha_1,\dots, \alpha_{n-1}$ con coeficientes enteros en las entradas de $A$ y $B$.

Demostración. Consideremos el siguiente polinomio en la variable $X$ y coeficientes en $F$, es decir, el siguiente polinomio en $F[X]$:

\begin{align*}
P(X)=\sum_{\sigma\in S_n} \operatorname{sign}(\sigma)\left(a_{1\sigma(1)} X+b_{1\sigma(1)}\right)\cdots \left(a_{n\sigma(n)}X+b_{n\sigma(n)}\right).
\end{align*}

Por construcción, $P$ es un polinomio cuyos coeficientes son expresiones polinomiales enteras en las entradas de $A$ y $B$. Más aún, se cumple que $P(x)=\det(xA+B)$ para $x\in F$ (podría ser útil revisar la entrada sobre determinantes para convencerte de ello). El término constante lo obtenemos al evaluar en $X=0$, pero eso no es más que $P(0)=\det(0\cdot A+B)=\det(B)$. Finalmente para cada $\sigma\in S_n$ tenemos que el primer término de cada sumando es

\begin{align*}
\operatorname{sign}(\sigma)(a_{1\sigma(1)}X+b_{1\sigma(1)})\cdots (a_{n\sigma(n)} X+b_{n\sigma(n)})
\end{align*}

Notemos que la única manera de obtener un término $X^n$ en esta expresión es cuando en cada binomio que se está multiplicando se usa el término $X$. Así, el coeficiente de $X^n$ es $\operatorname{sign}(\sigma) a_{1\sigma(1)}\cdots a_{n\sigma(n)}X^{n}$.

Agrupando todos los sumandos para todas las $\sigma$ y comparando con la definición del determinante llegamos a que $$P(X)=\det(A)X^{n}+\ldots,$$ es decir el término de orden $n$ es en efecto $\det(A)$.

$\square$

Del teorema se sigue que si $A$ y $B$ tienen entradas enteras o racionales, $\det(XA+B)$ tiene coeficientes enteros o racionales respectivamente.

Enseguida podemos definir (gracias al teorema) el siguiente objeto:

Definición. El polinomio característico de la matriz $A\in M_n(F)$ es el polinomio $\chi_A\in F[X]$ definido por

\begin{align*}
\chi_A(X)=\det(X\cdot I_n-A).
\end{align*}

Una observación inmediata es que, de acuerdo al teorema, el coeficiente principal de $\chi_A(X)$ tiene coeficiente $\det(I_n)=1$. En otras palabras, acabamos de demostrar la siguiente propiedad fundamental del polinomio característico.

Proposición. El polinomio característico de una matriz en $M_n(F)$ siempre tiene grado exactamente $n$ y además es un polinomio mónico, es decir, que el coeficiente que acompaña al término de grado $n$ es igual a $1$.

Veamos un ejemplo sencillo.

Ejemplo. Si queremos calcular el polinomio característico de

\begin{align*}
A=\begin{pmatrix} 1 & -1\\ 1 &0\end{pmatrix}\in M_2(\mathbb{R})
\end{align*}

entonces usamos la definición

\begin{align*}
\chi_A(X)&=\det(X\cdot I_2-A)\\&=\begin{vmatrix} X-1 & 1\\ -1 & X\end{vmatrix}\\&= X(X-1)+1.
\end{align*}

Y así los eigenvalores de $A$ son las raíces reales de $\chi_A(X)$. Es decir, tenemos que resolver

\begin{align*} 0=x(x-1)+1=x^2-x+1.\end{align*}

Sin embargo, el discriminante de esta ecuación cuadrática es $(-1)^2-4(1)(1)=-3$, el cual es un real negativo, por lo que no tenemos eigenvalores reales. Si estuviéramos trabajando en $\mathbb{C}$ tendríamos dos eigenvalores complejos:

\begin{align*}
x_{1,2}= \frac{1\pm i\sqrt{3}}{2}.
\end{align*}

De aquí, ¿cómo encontramos los eigenvectores y eigenespacios? Basta con resolver los sistemas lineales homogéneos de ecuaciones $(A-x_1I_2)X=0$ para encontrar el $x_1$-eigenespacio y $(A-x_2)X=0$ para encontrar el $x_2$-eigenespacio.

$\triangle$

Algunos cálculos de polinomios característicos

Ya que calcular polinomios característicos se reduce a calcular determinantes, te recomendamos fuertemente que recuerdes las propiedades que tienen los determinantes. Sobre todo, aquellas que permiten calcularlos.

¡A calcular polinomios característicos!

Problema 1. Encuentra el polinomio característico y los eigenvalores de $A$ dónde $A$ es

\begin{align*}
A=\begin{pmatrix}
0 & 1 & 0 & 0\\
2 & 0 & -1 & 0\\
0 & 7 & 0 &6\\
0 & 0 & 3 & 0
\end{pmatrix}\in M_4(\mathbb{R}).
\end{align*}

Solución. Usamos la expansión de Laplace respecto al primer renglón:

\begin{align*}
\chi_A(X)&=\det(XI_4-A)\\&= \begin{vmatrix}
X & -1 & 0 & 0\\
-2 & X & 1 & 0\\
0 & -7 & X & -6\\
0 & 0 & -3 & X\end{vmatrix}\\
&= X\begin{vmatrix} X & 1 & 0\\ -7 & X & -6\\ 0 & -3 & X\end{vmatrix}+ \begin{vmatrix}
-2 & 1 & 0\\ 0 & X& -6\\ 0 &-3 & X\end{vmatrix}\\
&= X(X^3-11X)-2(X^2-18)\\
&= X^4-13X^2+36.
\end{align*}

Después, para encontrar los eigenvalores de $A$ tenemos que encontrar las raíces reales de la ecuación

\begin{align*}
x^4-13x^2+36=0.
\end{align*}

Sin embargo, no hay que desalentarse por ver una ecuación de grado $4$. Si hacemos el cambio $y=x^2$ podemos llevar nuestro problema a resolver

\begin{align*}
y^2-13y+36=0.
\end{align*}

¡Es una ecuación de segundo orden! Esta la podemos resolver usando ‘la chicharronera’ y obtenemos como soluciones $y_1=4$ y $y_2=9$. Pero todavía tenemos que resolver $x^2=y_1$ y $x^2=y_2$. Al resolver estas últimas dos ecuaciones obtenemos que $x=\pm 2,\pm 3$ son los eigenvalores de $A$.

$\triangle$

Problema 2. Calcula el polinomio característico y los eigenvalores de la matriz

\begin{align*}
A=\begin{pmatrix} 1 & 0 & 1\\ 1 & 1 & 0\\ 1 & 0 &1 \end{pmatrix}\in M_3(F_2).
\end{align*}

Solución. Nota que estamos trabajando en el campo de dos elementos $F_2$, por lo que $-1=1$. Usando la definición:

\begin{align*}
\chi_A(X)&=\det(XI_3-A)\\&= \begin{vmatrix} X-1 & 0 & -1\\ -1 & X-1 & 0\\ -1 & 0 &X-1\end{vmatrix}\\
&= \begin{vmatrix} X+1 & 0 & 1\\ 1 & X+1& 0 \\ 1 & 0 &X+1\end{vmatrix}.
\end{align*}

Aquí estamos usando repetidamente $-1=1$. Usamos otra vez la expansión de Laplace en el primer renglón para llegar a

\begin{align*}
\chi_A(X)&= (X+1)\begin{vmatrix} X+1 & 0 \\ 0 & X+1\end{vmatrix}+\begin{vmatrix} 1 & X+1\\ 1 & 0\end{vmatrix}\\
&= (X+1)^3-(X+1).
\end{align*}

Luego, si queremos encontrar los eigenvalores de $A$ tenemos que resolver

\begin{align*}
(x+1)^3-(x+1)=0.
\end{align*}

Si bien existen varias maneras de resolver la ecuación, podemos simplemente sustituir los únicos valores posibles de $x$ : $0$ o $1$. Sustituyendo es fácil ver que ambos satisfacen la ecuación, por lo que los eigenvalores de $A$ son $0$ y $1$.

$\triangle$

Más adelante…

En la próxima entrada calcularemos el polinomio característico de una variedad de matrices importantes: triangulares superiores, nilpotentes, etc. Esto nos permitirá entender mejor al polinomio característico y lidiar con muchos casos para facilitarnos los cálculos más adelante.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Demuestra que $0$ es un eigenvalor de una matriz $A$ si y sólo si $\det(A)=0$.
  • ¿Una matriz compleja de tamaño $n$ tiene necesariamente $n$ eigenvalores distintos?
  • Calcular el polinomio característico y los eigenvalores de
    \begin{align*}A=\begin{pmatrix} 1 & 2 & 0\\ 0 & 1 &2\\ 2 & 0 & 1\end{pmatrix}\in M_3(F_3).
    \end{align*}
  • Usando la fórmula del determinante para matrices de tamaño $2$, encuentra un criterio simple para saber si una matriz con entradas reales de tamaño $2$ tiene dos, uno o ningún eigenvalor real.
  • Da un criterio simple para saber si una matriz de tamaño $2$ con entradas complejas tiene eigenvalores puramente imaginarios.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Superior I: Propiedades de la negación, conjunción y disyunción

Por Guillermo Oswaldo Cota Martínez

Introducción

En la entrada pasada vimos que con conectores podemos construir nuevas proposiciones a partir de otras. Y nombramos a tres de ellas: la negación, la conjunción y la disyunción.

Ahora, discutiremos sobre algunas consecuencias que tiene juntar unas con otras y diremos en términos formales qué significa que una fórmula lógica sea «igual» a otra.

Recordatorio de proposiciones vs. variables proposicionales vs. fórmulas lógicas

Como breve recordatorio, tenemos las siguientes distinciones conceptuales importantes.

  • «Proposición» es una afirmación que puede ser verdadera o falsa, y lo estamos usando para una proposición específica. Como ejemplo, tenemos «El cielo es azul» o «El número $5$ es primo».
  • «Variable proposicional» es una letra que usamos para representar una proposición arbitraria, aún no definida. Por ejemplo, $P,Q,R$. Sin saber qué proposición representa, no podemos determinar su valor de verdad.
  • «Fórmula proposicional» es una expresión que armamos a través de variables proposicionales y conectores lógicos. Por ejemplo, $(P\land Q) \lor (R \land \neg P)$. Sin saber quiénes son exactamente $P,Q,R$, no podemos determinar el valor de verdad. Pero sí podemos considerar todas las posibilidades mediante una tabla de verdad.

Equivalencia de fórmulas proposicionales

Volvamos a retomar un ejemplo que ya habíamos revisado anteriormente.

$P$$\neg P$$\neg(\neg P)$
$0$$1$ $0$
$1$$0$$1$ 

Habíamos dicho que al coincidir las columnas de $\neg ( \neg P)$ con $P$ entonces $\neg(\neg P) \equiv P$. Esto leeremos como «$\neg(\neg P)$ es equivalente a $P$». La equivalencia de fórmulas proposicionales nos dice que sus valores de verdad siempre coinciden, sin importar el valor de verdad de las variables proposicionales que las conforman. En este ejemplo, en cualquier caso en que $\neg(\neg P)$ sea verdad, sucede que $P$ es verdad. De igual forma, cada vez que suceda que $\neg(\neg P)$ sea falso, $P$ también lo será.

Podemos dar un ejemplo más concreto. Pensemos en que nuestra proposición $P$ es: «El 2 es un número impar». En este caso $\neg(\neg P)$ corresponde a: «No es cierto que 2 no es un número impar». Observa que la proposición $P$ es falsa, y que también la proposición $\neg(\neg P)$ es falsa.

Ahora, nota que acabamos de hacer una definición, pues nombramos a dos fórmulas proposicionales que tienen la misma tabla de verdad como equivalentes. Como lo mencionamos en la entrada de los tipos de enunciados, les estamos poniendo un nombre a un objeto matemático que cumple ciertas propiedades.

Definición. Dos fórmulas proposicionales son equivalentes si sus tablas de verdad coinciden.

Esta «igualdad» en las fórmulas proposicionales nos será muy útil, pues en la matemática nos ayudará a ver algunos resultados de otra manera. Por ejemplo, retomemos $\neg(\neg P) = P$. Como sabemos que es falso que 2 es impar, en consecuencia también sabemos que es falso que «No sea cierto que 2 no es impar» y esto lo sabemos sin tener que verificar algo más, pues el hecho de que tengamos la equivalencia a nivel de fórmulas proposicionales, en particular la tenemos para cualquier proposición específica que reemplaze las variables proposicionales. Esta equivalencia también nos ayudará a demostrar otros resultados en el futuro.

Nota además lo siguiente. Piensa que $F_1$, $F_2$ y $F_3$ son fórmulas proposicionales (cada una conformada por varias variables proposicionales y conectivos). Si $F_1$ y $F_2$ son equivalentes, y $F_2$ y $F_3$ son equivalentes (es decir $F_1\equiv F_2$ y $F_2\equiv F_3$) entonces $F_1$ y $F_3$ también son equivalentes. Puedes convencerte de esto como sigue. Del hecho de que $F_1$ y $F_2$ lo sean, sale que $F_1$ y $F_2$ tienen la misma tabla de verdad. Del hecho de que $F_2$ y $F_3$ lo sean, sale que $F_2$ y $F_3$ tienen la misma tabla de verdad. Pero entonces $F_1$ y $F_3$ tienen la misma tabla de verdad (la de $F_2$). A esto se le conoce como la propiedad transitiva. No es importante que recuerdes este nombre, sin embargo después volveremos a estudiar esta propiedad con más calma. Y para recordar mejor esto, piensa en que funciona similar a la igualdad entre números, por ejemplo $2+2=4$ y $4=2^2$, entonces $2+2=2^2$.

Algunas propiedades de la conjunción y la disyunción

Hemos hablado un poco sobre la negación, pero ahora cambiemos el foco a la conjunción y la disyunción. Para empezar, recordemos que la conjunción $P\land Q$ sólo es verdadera cuando tanto $P$ como $Q$ son verdaderas, y en la entrada anterior verificamos que $Q \land P$ es equivalente a $P \land Q$.

También nos va a interesar el caso en donde combinamos más de dos proposiciones. Sin embargo, hay que tener cuidado. Por definición, la conjunción es un conector que combina únicamente dos proposiciones. Así, para unir a más de dos proposiciones mediante la conjunción, tendremos que agruparlas.

Piensa el agrupamiento como piensas la suma: si quieres sumar $2+3+4$, lo más habitual es sumar primero $2+3$ que resulta en cinco, y después sumárselo a $4$, de manera que podemos escribir la suma como $2+3+4=(2+3)+4$. Algo similar va a pasar con las proposiciones, pues podemos pensar a $P \land Q \land R$ como $(P \land Q) \land R$. Ahora piensa de nuevo en la suma $2+3+4$. El resultado de esta suma es $9$ y nosotros decidimos agrupar $2+3$ y después sumar el resultado con $4$. Pero esto es lo mismo que haber agrupado primero $3+4$ y después sumarlo a $2$. Esto no es coincidencia, pues la suma tiene una propiedad que se llama asociatividad que nos dice que $(2+3)+4=2+(3+4)$. ¿Pasará lo mismo con la conjunción? Veamos que sí.

Lo que queremos ver es si $P \land (Q \land R)\equiv (P \land Q) \land R$ es decir, queremos ver si $P \land (Q \land R)$ es equivalente a $(P \land Q) \land R$. La equivalencia está dada en términos de tablas de verdad, así que tenemos que hacer la tablas para ambas fórmulas lógicas. La presentamos a continuación.

$P$$Q$$R$$Q \land R$$P \land ( Q\land R)$$P \land Q$$(P \land Q) \land R$
$0$$0$$0$$0$$0$$0$$0$
$0$$0$$1$$0$$0$$0$$0$
$0$$1$$0$$0$$0$$0$$0$
$0$$1$$1$$1$$0$$0$$0$
$1$$0$$0$$0$$0$$0$$0$
$1$$0$$1$$0$$0$$0$$0$
$1$$1$$0$$0$$0$$1$$0$
$1$$1$$1$$1$$1$$1$$1$

Como puedes notar, las columnas $P \land (Q \land R)$ y $(P \land Q) \land R$ coinciden, es decir, coinciden en sus tablas de verdad, por lo tanto son equivalentes.

Con este ejemplo, vimos cómo la conjunción tiene la propiedad asociativa, es decir, cuando combinamos tres o más proposiciones mediante la conjunción, no importa «dónde pongamos los paréntesis». Lo mismo pasará con la disyunción que de igual manera es asociativa.

Combinando la conjunción con la disyunción

También podemos juntar los conectores de conjunción y disyunción. Por ejemplo, piensa que tenemos tres proposiciones $P, Q, R$ donde,

$P = \text{Toda persona es mortal}$

$Q = \text{2 es un número impar}$

$R = \text{2 es un número par}$

¿Qué significaría la proposición $P \lor (Q \land R)$? Si lo escribieramos en palabras, sería «Toda persona es mortal o (2 es un número impar y 2 es un número par)». Sabemos que toda persona es mortal, y también sabemos que 2 no puede ser impar y par a la vez (por ahora parece que sabemos que 2 es un número par, en otros cursos profundizarás más en lo que significa ser par). Entonces nuestra proposición está formada por dos componentes, la proposición $P$ y la proposición $Q \land R$. Como un número no puede ser par e impar a la vez, entonces la segunda proposición es falsa. Pero la primera proposición $P$ es verdadera, entonces la proposición $P \lor (Q \land R)$ es verdadera, porque para la disyunción basta que alguna de las dos sea verdadera.

Vayamos un poco más lejos. ¿Será que esta es la única forma de escribir la proposición? Resulta que no. Resulta que la disyunción y la conjunción cumplen una propiedad que se llama la propiedad distributiva. Para no quedarnos sólo con el ejemplo específico del párrafo anterior, la describimos en términos de fórmulas proposicionales: $$P \lor (Q \land R) \equiv (P \lor Q) \land (P \lor R).$$

Si te resulta un poco confuso esto, puedes pensarlo por ahora como la distribución de una multiplicación con la suma, es decir la operación $2 \times (1+3) = (2 \times 1) + (2 \times 3)$, en donde nuestra disyunción $\lor$ queda distribuida a causa de la conjunción $\land$ los distribuye.

Para convencernos de que se satisface la propiedad distributiva, veamos las tablas de verdad de cada una de las expresiones que están involucradas.

$P$$Q$$R$$Q \land R$$P \lor ( Q\land R)$$P \lor Q$$P \lor R$$(P \lor Q) \land (P \lor R)$
$0$$0$$0$$0$$0$$0$$0$$0$
$0$$0$$1$$0$$0$$0$$1$$0$
$0$$1$$0$$0$$0$$1$$0$$0$
$0$$1$$1$$1$$1$$1$$1$$1$
$1$$0$$0$$0$$1$$1$$1$$1$
$1$$0$$1$$0$$1$$1$$1$$1$
$1$$1$$0$$0$$1$$1$$1$$1$
$1$$1$$1$$1$$1$$1$$1$$1$

Nota que las columnas coloreadas corresponden a las fórmulas lógicas que nos interesan y son iguales, entonces $P \lor (Q \land R) \equiv (P \lor Q) \land (P \lor R)$. Lo mismo sucede si cambiamos el orden de los conectores, es decir $P \land (Q \lor R) \equiv (P \land Q) \lor (P \land R)$, así podemos distribuir los conectores conjuntivos y disyuntivos como más nos convenga.

Agregando la negación a la mezcla

Por último, vamos a incluir a la negación en nuestra mezcla de conjunciones y disyunciones. ¿Qué pasará cuando tenemos proposiciones del estilo $\neg (P \land Q)$ y $\neg (P \lor Q)$? Sería lógico pensar en un inicio que igual la negación se va a distribuir, pero eso no es cierto. Para esto, piensa en el siguiente ejemplo:

$$P = \text{32 es un número perfecto} $$

$$ Q = 2^7-1 \text{ es un número primo} $$

Aquí hablamos de dos cosas que quizá aún no sepas: números perfectos y números primos, no te preocupes por lo que signifiquen, en otros cursos los verás con más detalle, aunque te puedo decir que sólo una de estas dos afirmaciones es correcta (¿Puedes adivinar cuál es?), entonces la conjunción es falsa, por lo que la negación de la conjunción es verdadera.

Lo que acabamos de decir es que $P \land Q$ es falsa y por consecuente $\neg (P \land Q)$ es verdadera. Si sucediera que la negación se distribuyera sobre la conjunción, entonces $\neg (P \land Q)$ sería equivalente a $\neg P \land \neg Q$. Pero esto no es cierto, porque $\neg P$ es verdadero, y $\neg Q$ es falso, y entonces $\neg P \land \neg Q$ es falso. Acabamos de llegar a una contradicción en nuestro pensar matemático es decir, primero dijimos que $\neg (P \land Q)$ es verdadera y después observamos que si la negación se distribuyera sobre la conjunción, sería falso, pero recuerda que una proposición es verdadera o falsa, no puede ser verdadera y falsa al mismo tiempo, entonces alguna de las dos suposiciones que hicimos es incorrecta. Si quieres pensarlo de otra forma, $\neg P \land \neg Q$ y $\neg (P \land Q)$ no son equivalentes pues sus tablas de verdad difieren en el renglón en el que $P$ es verdadero y $Q$ es falso.

Nuestro error fue haber distribuido la negación sin cuidado. Resulta que la negación no cumple esa propiedad, pero «casi» es distributiva. Veamos sus reglas.

$$ \neg (P \land Q) \equiv \neg P \lor \neg Q $$

$$ \neg (P \lor Q) \equiv \neg P \land \neg Q $$

En el ejemplo concreto de arriba, esto quiere decir que es lo mismo decir «No es cierto que (32 sea un número perfecto y $2^7-1$ sea un número primo)» a decir «No es cierto que 32 es un número perfecto, o no es cierto que $2^7-1$ es un número primo». Para que lo entiendas más claro, revisa la tabla de verdad:

$P$$Q$$P \land Q$$\neg (P \land Q)$$\neg P$$\neg Q$$\neg P \lor \neg Q$
$0$$0$$0$$1$$1$$1$$1$
$0$$1$$0$$1$$1$$0$$1$
$1$$0$$0$$1$$0$$1$$1$
$1$$1$$1$$0$$0$$0$$0$

Observa que las columnas correspondientes a las fórmulas proposicionales que queremos coinciden, lo que quiere decir que son equivalentes. Lo mismo puedes verificar para comprobar que $ \neg (P \lor Q) \equiv \neg P \land \neg Q $. A estas propiedades se les conoce como las leyes de De Morgan (más adelante volverás a oír ese nombre).

Más adelante…

Recapitulando, en esta entrada hablamos sobre las propiedades que tienen tres conectores. Vimos lo siguiente:

  • Hablamos de la equivalencia de fórmulas proposicionales que ocurre cuando dichas fórmulas coinciden en todos los renglones de sus tablas de verdad, sin importar la asignación de veracidad de las variables proposicionales que las conforman.
  • Observamos tres propiedades de los conectores: la asociatividad, la distributividad y las leyes de DeMorgan.

Todo esto nos da herramientas suficientes para ya empezar a hablar de lógica proposicional, pero esto apenas empieza. Recuerda que tenemos más conectores. Aún nos faltan revisar dos muy importantes: la implicación y la doble implicación. Estos dos las vamos a ver con más calma en la siguiente entrada.

Tarea Moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Demuestra que $\neg ( \neg (\neg P))$ es equivalente a $\neg P$.
  2. En la entrada vimos que podemos asociar la conjunción como queramos. Ahora verifica que lo mismo pasa con la disyunción, es decir $P \lor (Q \lor R) \equiv (P \lor Q) \lor R$.
  3. Verifica con la tabla de verdad que $P \land (Q \lor R) \equiv(P \land Q) \lor (P \land R)$.
  4. Verifica con la tabla de verdad que $ \neg (P \lor Q) \equiv\neg P \land \neg Q $.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Geometría Analítica I: Propiedades de suma y producto escalar

Por Elsa Fernanda Torres Feria

Introducción

En la actual entrada se estudian propiedades de las dos operaciones (suma vectorial y producto escalar) que se definieron anteriormente. Utilizaremos los axiomas de $\mathbb{R}$ para probar algunas de estas propiedades y las ejemplificaremos.

Propiedades de suma y producto escalar

Aunque nosotros nos enfocaremos por el momento en $\mathbb{R}^2$, el siguiente teorema se puede demostrar para $\mathbb{R}^n$, donde este último es el conjunto de todos los vectores $$x=(x_1,x_2,\ldots, x_n),$$ con $x_i \in \mathbb{R}$, $i=1,2,\ldots,n$. Conforme vayas desarrollando tu intuición matemática, te darás cuenta que realizar la generalización no es tan compleja. Recuerda que la idea es que podemos utilizar los axiomas de $\mathbb{R}$ para demostrar propiedades de las operaciones en $\mathbb{R}^2$.

Teorema. Para todos los vectores $x$, $y$, $z$ $\in \mathbb{R}^2$ y para todos los números $s$, $t$ $\in \mathbb{R}$ se cumple que:

  1. $(x+y)+z=x+(y+z)$
  2. $x+y=y+x$
  3. $x+0=x$
  4. $x+(-x)=0$
  5. $s(tx)=(st)x$
  6. $1x=x$
  7. $t(x+y)=tx+ty$
  8. $(s+t)x=sx+tx$

Por contexto se entiende que el $0$ de los puntos $3$ y $4$ corresponde al vector $(0,0)$, aunque en notación no haya distinción. Además en $4$, estamos usando la definición $-x:=(-1)x$. Aunque todo el teorema está enunciado en términos algebraicos, más adelante, en esta misma entrada, habrá algunos interactivos para que obtengas la intuición geométrica de estas propiedades.

Demostración. Para no caer en repetición del uso de ciertas herramientas, a continuación demostraremos sólo algunos de los ocho puntos. Puedes demostrar los restantes como tarea moral y pensar también en la generalización para $\mathbb{R}^n$. Comencemos.

Sean $x=(x_1,x_2)$, $y=(y_1,y_2)$, $z=(z_1,z_2)$ vectores arbitrarios en $\mathbb{R}^2$.

1. Debemos demostrar la igualdad $(x+y)+z=x+(y+z)$ en vectores.

\begin{align*}
(x+y)+z&=((x_1,x_2)+(y_1,y_2))+(z_1,z_2)\\
&=(x_1+y_1,x_2+y_2)+(z_1,z_2)\\
&=((x_1+y_1)+z_1, (x_2+y_2)+z_2)\\
&=(x_1+(y_1+z_1),x_2+(y_2+z_2))\\
&=(x_1,x_2)+((y_1,y_2)+(z_1,z_2)\\
&=(x+y)+z=x+(y+z).
\end{align*}

Para cada una de las igualdades anteriores existe una justificación. El primer renglón se da meramente por la definición de cada vector. La siguientes dos igualdades resultan de la definición de suma de vectores que, como la definimos, debe ser realizada coordenada a coordenada. Ahora, por asociatividad de la suma de los números reales, el renglón 4 es válido. El penúltimo parece un as sacado de la manga pero en realidad es de nuevo pensar en la definición de suma de vectores: tenemos una igualdad entre la suma de dos vectores y la suma de sus entradas formando el vector suma. Por último sólo sustituimos las entradas por el vector que representan.

5. Debemos demostrar la igualdad $s(tx)=(st)x$ con $s,t$ números reales y $x$ vector.

Por definición del vector $x$ tenemos:

$s(tx)=s(t(x_1,x_2))$

Por definición del producto escalar se cumplen los siguientes dos pasos:

$=s(tx_1,tx_2)$
$=(s(tx_1),s(tx_2))$

Por la asociatividad del producto en $\mathbb{R}$ pasa que:

$=((st)x_1,(st)x_2)$

De nuevo parece que el siguiente paso es otro as, pero piensa en la definición del producto escalar leyéndolo de derecha a izquierda:

$=(st)(x_1,x_2)$
$s(tx)=(st)x.$

7. Debemos demostrar la igualdad $t(x+y)=tx+ty$ con $t$ número real y $x,y$ vectores.

\begin{align*}
t(x+y)&=t((x_1,x_2)+(y_1,y_2))\\
&=t(x_1+y_1,x_2+y_2)\\
&=(t(x_1+y_1),t(x_2+y_2))\\
&=(tx_1+ty_1,tx_2+ty_2)\\
&=(tx_1,tx_2)+(ty_1,ty_2)\\
&=t(x_1,x_2)+t(y_1,y_2)\\
&=tx+ty.
\end{align*}

Resumamos los pasos. El primer paso es por definición de ambos vectores, el siguiente por definición de suma vectorial y el tercero por definición de multiplicación escalar. En este punto, en cada entrada del vector tenemos únicamente números reales por lo que podemos usar distributividad en $\mathbb{R}$. Para finalizar recordemos la definición de la suma vectorial y la multiplicación escalar leyendo ambas de derecha a izquierda.

8. Debemos demostrar la igualdad $(s+t)x=sx+tx$ con $s$ y $t$ reales y $x$ vector.

Por definición de $x$ tenemos:

$(s+t)x=(s+t)(x_1,x_2)$

Por definición del produco escalar:

$=((s+t)x_1,(s+t)x_2)$

Por distributividad de los números reales:

$=(sx_1+tx_1,sx_2+tx_2)$

Por definición de la suma vectorial:

$=(sx_1,sx_2)+(tx_1,tx_2)$

Por definición del producto escalar:

$(s+t)x=s(x_1,x_2)+t(x_1,x_2)$

$\square$

Demostramos algunas de las propiedades. Para el resto de ellas hay que seguir las mismas ideas. Si te das cuenta, lo único que utilizamos en esta demostración fueron los axiomas de los números reales, la definición de las operaciones usadas y algo de intuición para saber qué paso sigue.

Intuición geométrica de las propiedades

Si recuerdas, Descartes asoció el álgebra a la geometría y al menos en este curso, el álgebra que desarrollemos tiene un significado geométrico. A continuación describiremos algunos de los puntos que demostramos e ilustraremos otros con ayuda de GeoGebra.

1. $(x+y)+z=x+(y+z)$. En el siguiente interactivo están representados tres vectores $X$, $Y$, $Z$. En negro se encuentra el vector $X+Y+Z$. Se utiliza el método del paralelogramo de dos formas distintas: Primero, sumando $X+Y$ y al resultado sumandole $Z$. La segunda suma primero a $Y+Z$ y al resultado se suma $X$. Es notorio que por ambos caminos se llega al mismo punto correspondiente a $X+Y+Z$.

5. $s(tx)=(st)x$. En el siguiente interactivo puedes utilizar los deslizadores para cambiar los valores de $s,t \in \mathbb{R}$. Parece que sólo un vector con dos etiquetas de distinto color se mueve, pero son dos vectores (uno por cada etiqueta) ambos dependientes de $s$ y $t$ como lo indica cada lado de la igualdad. Que sólo puedas ver claramente uno, indica que hicimos lo correcto pues son dos vectores iguales.

Para los siguientes dos casos sólo describiremos lo que pasa y lo óptimo sería que lograras usar GeoGebra para hacer la representación gráfica de ellos.

7. $t(x+y)=tx+ty$. Nos indica que el resultado de sumar dos vectores primero y después multiplicarlos por un escalar es el mismo que primero multiplicar cada vector por él y luego sumar los resultados.

8. $(s+t)x=sx+tx$. Nos indica que el resultado de sumar los dos escalares primero y después multiplicar el resultado por el vector, es lo mismo que multiplicar el vector por cada escalar y sumar los resultados.

Existe un término para denotar a un conjunto con dos operaciones (suma vectorial y producto escalar), que cumple con las ocho propiedades del teorema que acabamos de demostrar: espacio vectorial. Así, este teorema se resume al decir que $\mathbb{R}^2$ con la suma vectorial y el producto escalar es un espacio vectorial.

Ecuaciones con vectores

Ahora veamos cómo podemos usar estas propiedades en la resolución de problemas. Nos serán de mucha ayuda cuando tengamos ecuaciones constituidas por vectores, ¿es posible resolverlas igual que cuando se tienen variables numéricas? Resulta que hay cosas que sí podemos realizar de la misma manera, como «pasar del otro lado» un vector sumando o restando y dividir por escalares, veámoslo en el siguiente ejemplo.

Ejemplo. Sean $x, u, v$ $\in \mathbb{R}^2$, donde $u=(5,3)$ y $v=(-3,1)$. ¿Es posible encontrar al vector $x$ que cumpla con

$-3u+2x=v-x$?

Nuestra variable es el vector $x$, el paso más lógico es despejarlo. Sumando $3u+x$ de ambos lados tenemos

$3x=v+3u$

Podemos ahora dividir ambos lados por el escalar $3$ y obtener

$x=\frac{v+3u}{3}$

Esto tiene sentido pues si bien tenemos un vector entre un escalar, podemos re-pensar esto como el vector multiplicado por $1/3$. En este punto podemos sustituir los valores correspondientes para $v$ y $u$ para así obtener al $x$ que buscamos

$x=\frac{(-3,1)+3(5,3)}{3}$
$=\frac{(12,10)}{3}$
$x=(4,10/3)$

$\triangle$

Aunque haya cosas que podemos hacer de manera equivalente a los reales en casos como el mostrado en el ejemplo, hay otras que no son viables como dividir entre un vector. Aún así, podemos obtener herramientas que nos auxilien. Para cerrar esta entrada enunciaremos y demostraremos dos lemas que servirán para trabajar con operaciones vectoriales.

Lema 1. Si $x \in \mathbb{R}^2$ y $t \in \mathbb{R}$ son tales que $tx=0$ (por contexto $0=(0.0)$), entonces $t=0$ o $x=0$.

Demostración.

  • Supongamos que $t\neq 0$. P. D. $x=(0,0)$.

Como $t \neq 0$, entonces existe su inverso multiplicativo $t^{-1}$ tal que $t^{-1}t=1$. Multiplicando $t^{-1}$ en ambos lados de la ecuación $tx=0$ tenemos:

$t^{-1}(tx)=t^{-1}0$
$(t^{-1}t)x=t^{-1}0=0$
$x=0$

En el primer renglón sólo multiplicamos por $t^{-1}$; el segundo es válido por el punto $5$ del teorema anterior, y lo último se da por lo enunciado arriba: $t^{-1}t=1$.

Esto ya prueba lo que queremos, pero también podríamos hacer la prueba «al revés», pensando en qué sucede cuando $x\neq 0$.

  • Supongamos ahora que $x \neq 0$ P.D. $t=0$.

Sea $x=(x_1,x_2)$, entonces

$tx=t(x_1,x_2)$
$=(tx_1,tx_2)=0=(0,0)$

Esto se encuentra igualado al vector $0$ por lo cual tienen que ser iguales entrada a entrada

$tx_1=0$ y $tx_2=0$

ahora, existen 3 casos que cumplen $x \neq 0$. Uno, que $x_1 \neq 0$ pero $x_2=0$. De manera análoga, el segundo es que $x_1=0$ pero $x_2 \neq 0$. Por último que tanto $x_1$ como $x_2$ sean ambos distintos de cero.

Sin perdida de generalidad, supongamos el caso 1. Como $x_1 \neq 0$, entonces

$tx_1=0$ $\rightarrow$ $t=0$,

pues esto se satisface para los números reales. La demostración del segundo caso es análoga, sólo se debe tomar $x_2$. La demostración del tercer caso se puede hacer igual que el primero, o el segundo.

$\square$

Lema 2. Si $x \in \mathbb{R}^2$ es distinto de cero y $t$, $s$ $\in \mathbb{R}$ son tales que $tx=sx$, entonces $t=s$.

Demostración.

Sea $x=(x_1,x_2)$ un vector arbitrario, podemos escribir a $tx=sx$ como

$t(x_1,x_2)=s(x_1,x_2)$
$\Rightarrow$ $(tx_1,tx_2)=(sx_1,sx_2)$

Para que se cumpla la igualdad tienen que ser iguales entrada a entrada

$\Rightarrow$ $tx_1=sx_1$ y $tx_2=sx_2.$

Como $x$ no es el vector cero, alguno de $x_1$ ó $x_2$ es distinto de cero. En este punto ya estamos operando únicamente con números reales, por lo que podemos «cancelar » $x_1$ ó $x_2$ (el que no sea cero). De aquí, concluimos que $s=t$, como queremos.

$\square$

Más adelante…

Las propiedades aquí vistas nos servirán como herramienta a lo largo del curso. Como ya las demostramos, tendremos la libertas de usarlas más adelante. Esto será de suma utilidad para cuando definamos objetos geométricos como rectas, planos, circunferencias, y queramos hablar de sus propiedades.

Tarea moral

  • Realiza la demostración de los puntos faltantes en el teorema enunciado en esta entrada.
  • Realiza la representación gráfica de estos y también de los puntos que sólo fueron explicados. Puedes usar GeoGebra si así lo deseas.
  • Considera los vectores $u=(-9,17)$ y $v=(51,-3)$ en $\mathbb{R}^2$. Encuentra el vector $x \in \mathbb{R}^2$ tal que $3x-5u=7v-x$.
  • Si es posible, encuentra $a,b \in \mathbb{R}$ tales que $au+bv=w$, con $u$ y $v$ los vectores del ejemplo visto en esta entrada y $w=(37,-5)$. Si no es posible, argumenta porqué.
  • Así como definimos suma vectorial y producto escalar en $\mathbb{R}^2$, podríamos hacer lo mismo en $\mathbb{R}^3$ o $\mathbb{R}^n$, una vez más haciendo las operaciones entrada a entrada. Por ejemplo, en $\mathbb{R}^4$ tendríamos $2(5,1,0,1)+(3,-1,0,-2)=(10,2,0,2)+(3,-1,0,-2)=(13,1,0,0)$. Demuestra que los resultados que probamos en esta entrada también se valen para $\mathbb{R}^3$ (y más en general, en $\mathbb{R}^n$).