Archivo de la etiqueta: clasificación

Geometría Analítica I: Las cónicas que existen

Por Paola Lizeth Rojas Salazar

Introducción

Anteriormente, ya vimos la definición de «clasificación», ahora, usaremos esta definición para clasificar a las cónicas.

Para realizar esta clasificación, lo primero que debemos observar es que podemos hablar de las curvas asociadas a los polinomios de la siguiente manera:

Considera a un polinomio cuadrático como una función $P: \mathbb R^2 \to \mathbb R$ que a cada punto $x \in \mathbb R^2$, le asigna el número $P(x)$. Entonces, la curva asociada al polinomio P, o los ceros del polinomio P, son el siguiente subconjunto de $\mathbb R^2$:

\begin{equation} C(P)=\{x \in \mathbb R^2| P(x)=0\} \end{equation}

Además, vamos a decir que un subconjunto $C\subset \mathbb R^2$ es una curva cuadrática si, para algún polinomio cuadrático $P$, se tiene que $C=C(P)$

En conclusión, cualquier curva cuadrática, será equivalente a alguna de las cónicas que se muestran a continuación.

Las cónicas canónicas

  • El círculo unitario

El polinomio $x^2+y^2-1$, tiene como ceros el círculo unitario.

  • La hipérbola unitaria

El polinomio $x^2-y^2-1$, tiene como ceros a la hipérbola unitaria.

  • La parábola canónica

El polinomio $x^2-y$, tiene como ceros a una parábola.

Estas transformaciones afines, pueden mandar a muchas otras, por ejemplo, las elipses se pueden obtener del círculo unitario.

Conjuntos formados por polinomios cuadráticos

  • El círculo imaginario

El polinomio $x^2+y^2+1$, no tiene ningún cero en los reales, pero sí tiene solución en los números complejos, por lo que, a su curva cuadrática, la llamaremos «círculo imaginario».

  • Par de rectas

El polinomio $x^2-y^2$ tiene como conjunto de ceros a la unión de las dos rectas $x+y=0$ y $x-y=0$

  • El círculo de radio cero

El polinomio $x^2+y^2$ es el caso límite de círculos cuyos radios se hacen $0$. También las podemos llamar par rectas imaginarias, porque al factorizar el polinomio, resulta en valores complejos.

  • Rectas paralelas

El polinomio $x^2-1$ da dos rectas paralelas en $x=1$ y $x=-1$

  • Rectas paralelas imaginarias

El polinomio $x^2+1$ define dos rectas paralelas imaginarias en $x=i$ y $x=-i$

  • Recta doble

El polinomio dado por $x^2$, aunque solo consiste de una recta en $x=0$, se le llama doble por el polinomio que la define.

Tarea moral

  1. Realiza un dibujo en el plano euclidiano (si es posible), para cada una de las cónicas canónicas y curvas que se obtienen con los polinomios cuadráticos que mencionamos en esta entrada.
  2. Muestra que, efectivamente, los ceros de cada uno de los polinomios mostrados en la entrada, son los que mencionamos.

Más adelante…

En las siguientes entradas, estudiaremos la equivalencia y reducción de polinomios para después continuar con el análisis de las cónicas.

Álgebra Lineal II: El teorema de clasificación de transformaciones ortogonales

Por Ayax Calderón

Introducción

En la entrada anterior definimos las transformaciones ortogonales y probamos algunas de sus propiedades relacionadas con el producto interior, norma y la transformación adjunta. Vimos también que el conjunto de todas las transformaciones ortogonales de un espacio euclideano $V$ forma un grupo $O(V)$ bajo composición.

En esta entrada queremos entender mucho mejor dicho grupo. El resultado principal que probaremos nos dirá exactamente cómo son todas las posibles transformaciones ortogonales en un espacio euclideano (que podemos pensar que es $\mathbb{R}^n$). Para llegar a este punto, comenzaremos con algunos resultados auxiliares y luego con un lema que nos ayudará a entender a las transformaciones ortogonales en dimensión $2$. Aprovecharemos este lema para probar el resultado para cualquier dimensión.

El lema de los subespacios estables

Lo primero que veremos es que las transformaciones ortogonales preservan completamente los subespacios estables, así como sus espacios ortogonales. Este es el resultado que nos permitirá un poco más adelante trabajar inductivamente.

Lema. Sean $V$ un espacio euclidiano, $T\in O(V)$ y $W$ un subespacio de $V$ estable bajo $T$.

  1. Se tiene que $T(W)=W$ y $T(W^\bot)=W^\bot$.
  2. Se tiene que $T|_W\in O(W)$ y $T|_{W^\bot}\in W^\bot$.

Demostración. 1. Como $T(W)\subseteq W$ y $T|_W$ es inyectiva (pues $T$ es inyectiva en $V$), se sigue que $T|_W:W\to W$ es suprayectiva y por lo tanto $T(W)=W$. Veamos ahora que $W^\bot$ también es estable bajo $T$. Tomemos $x\in W^\bot$ y $y\in W$. Queremos demostrar que $T(x)\in W^\bot$, es decir, que $\langle T(x),y \rangle=0$. Como $T$ es ortogonal, entonces $T^*=T^{-1}$ y por lo tanto
$$\langle T(x),y \rangle=\langle x,T^{-1}(y) \rangle.$$

Como $T|_W:W\to W$ es biyectiva, se tiene que $W$ es estable bajo $T^{-1}$. Entonces $T^{-1}(y)\in W$, y como $x\in W^\bot$, entonces $\langle x,T^{-1}(y) \rangle=0$. Por lo tanto $\langle T(x),y \rangle=0$. Esto muestra que $W^\bot$ es estable bajo $T$ y por la primer parte de este inciso, llegamos a $T(W^\bot)=W^\bot$.

2. Para todo $x\in W$ se tiene que
$$||T|_W(x)||=||T(x)||=||x||,$$
lo que significa que $T|_W\in O(W)$. De manera análoga se tiene que $T_{W^\bot}\in O(W^\bot)$.

$\square$

El lema de la invarianza de una recta o un plano

Para poder aplicar el lema de la sección anterior, tendremos que poder encontrar subespacios estables. El siguiente lema nos dice que siempre podemos encontrar subespacios estables en espacios euclideanos.

Lema. Sea $V$ un espacio euclidiano y $T$ una transformación lineal sobre $V$. Entonces existe una recta (subespacio de dimensión $1$) o un plano (subespacio de dimensión $2$) en $V$ estable bajo $T$.

Demostración. El polinomio mínimo de $T$ es un polinomio $\mu_T(x)$ con coeficientes reales. Si tiene una raíz real, se sigue que $T$ tiene un eigenvalor y por consiguiente, la recta generada por un eigenvector es estable bajo $T$.

Ahora supongamos que $\mu_T(x)$ no tiene raíces reales. Sea $z$ una raíz compeja de $\mu_T(x)$, que existe por el teorema fundamental del álgebra. Como $\mu_T(x)$ tiene coeficientes reales, entonces $\overline{z}$ también es raíz de $\mu_T(x)$.Por lo tanto, $Q(x)=(x-z)(x-\overline{z})$ divide a $\mu_T(x)$.

Es imposible que $Q(T)$ sea una matriz invertible, pues de serlo, tendríamos que $\frac{\mu_T}{Q}(x)$ sería un polinomio de grado más chico que $\mu_T(x)$ y anularía a $T$. Esto nos dice que existe $x\in V$ distinto de $0$ tal que $Q(T)(x)=0$. Si $Q(x)=x^2+ax+b$, esto se traduce a $T^2(x)+aT(x)+bx=0$. De aquí, se tiene que $x$ y $T(x)$ generan un plano estable bajo $T$.

$\square$

Las transformaciones ortogonales en dimensión $2$

Los lemas de las secciones anteriores nos permitirán ir partiendo a un espacio euclideano $T$ en «cachitos estables» ya sea de dimensión $1$ o de dimensión $2$. En los de dimensión $1$ ya sabemos cómo debe verse una matriz que represente a $T$: simplemente corresponden a eigenvectores y entonces consistirán en reescalamientos (que deben de ser por factor $1$ ó $-1$ para tener ortogonalidad). Pero, ¿cómo se verá matricialmente la transformación $T$ en subespacios estables de dimensión $2$ que no se puedan descomponer más? Esto es lo que nos responde el siguiente lema.

Lema. Sea $V$ un espacio euclidiano de dimensión $2$ y $T\in O(V)$ sin eigenvalores reales. Entonces existe una base ortonormal de $V$ tal que la matriz asociada a $T$ en dicha base es de la forma
$$R_\theta=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta\end{pmatrix}.$$

Demostración. Sea $\beta=\{e_1,e_2\}$ una base ortonormal de $V$ y escribimos $T(e_1)=ae_1+be_2$ para algunos números reales $a,b$. Como
$$a^2+b^2=||T(e_1)||^2=||e_1||^2=1,$$ entonces podemos encontrar un número real $\theta$ tal que $(a,b)=(\cos\theta,\sin\theta)$.

Para que $\langle T(e_1), T(e_2)\rangle = 0$, necesitamos que exista un $c$ tal que $T(e_2)=c(-\sin\theta e_1+\cos \theta e_2)$. Finalmente, ya que $$||T(e_2)||=||e_2||=1, $$ debemos tener $|c|=1$ y así $c\in \{-1,1\}$.

El caso $c=-1$ podemos descartarlo pues la matriz que representa a $T$ en la base $\beta$ sería
$$\begin{pmatrix}
\cos \theta & \sin \theta\\
\sin \theta & -\cos\theta\end{pmatrix},$$
cuyo polinomio caracterísitco es $x^2-1$ y por lo tanto tiene a $1$ como eigenvalor, lo cual no entra en nuestras hipótesis. Así, $c=1$ y por lo tanto la matriz que representa a $T$ en la base $\beta$ es
$$\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta\end{pmatrix},$$

como queríamos.

$\square$

El teorema de clasificación

Con lo visto hasta ahora, ya estamos listos para demostrar el teorema fundamental de clasificación de transformaciones lineales ortogonales de un espacio euclidiano.

Teorema (clasificación de ortogonales). Sea $V$ un espacio euclidiano y $T\in O(V)$. Entonces podemos encontrar una base ortonormal $\beta$ de $V$ tal que la matriz asociada a $T$ con respecto a la base $\beta$ es de la forma
\begin{equation}\label{forma}
A=\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix},\end{equation}
donde $\theta_1,\dots, \theta_k$ son números reales y
$$R_\theta=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta
\end{pmatrix}.$$

Demostración. Procederemos por inducción sobre $\dim V$. Si $\dim V=1$, entonces ya terminamos, pues se tendría que $T=\pm id$ (esto quedó de tarea moral en la entrada anterior).

Supongamos que el resultado se satisface para todos los espacios euclideanos de dimensión a lo más $n-1$. Tomemos $V$ un espacio euclideano de dimensión $n$ y $T$ una transformación ortogonal de $V$. Por el lema de la invarianza de una recta o un plano, o bien $V$ tiene una recta estable bajo $T$, o bien un plano estable bajo $T$.

El caso en que $T$ tiene una recta estable bajo $T$ corresponde a que $T$ tiene un eigenvalor real $t$ con eigenvector, digamos, $e_1$. Entonces $$|t|||e_1||=||te_1||=||T(e_1)||=||e_1||,$$
por lo cual $t\in\{-1,1\}$. Sea $W$ la recta generada por $e_1$.

Tenemos que $V=W\oplus W^\bot$. Por el lema de subespacios estables, $T(W)=W$ y $T|_{W^\bot}$ es ortogonal de $W^\bot$. Por hipótesis inductiva, $W^\bot$ tiene una base ortonormal $\{e_2,\dots , e_n\}$ tal que la matriz asociada a dicha base y restringida a $W^\bot$ es de la forma \eqref{forma}. Añadiendo el vector $\frac{e_1}{||e_1||}$ se añade un $1$ o $-1$ en la diagonal, así que, posiblemente permutando la base ortonormal resultante $\{\frac{e_1}{||e_1||},e_2,\dots ,e_n\}$ de $V$ obtenemos una base ortonormal tal que la matriz asociada a $T$ con respecto a esta base es de la forma \eqref{forma}.

Ahora supongamos que $T$ no tiene valores propios reales, es decir, que estamos en el caso de tener un plano estable bajo $T$. Como $T$ es ortogonal, el espacio $W^\bot$ también es estable bajo $T$, y las restricciones de $T$ a $W$ y $W^\bot$ son transformaciones otogonales sobre estos espacios. Por hipótesis inductiva, $W^\bot$ tiene una base ortonormal $\{e_3,\dots,e_n\}$ tal que la matriz asociada a $T|_{W^\bot}$ con respecto a esta base es una matriz diagonal de bloques de la forma $R_{\theta_i}$. Por el lema de transformaciones ortogonales en dimensión $2$, el subespacio $W$ tiene una base ortonormla $\{e_1,e_2\}$ tal que la matriz asociada a $T|_W$ con respecto a esta base es de la forma $R_\theta$. Como $V=W\oplus W^\bot$, entonces la matriz asociada a $T$ con respecto a la base $\{e_1,\dots, e_n\}$ es de la forma \eqref{forma}, con lo cual concluimos con la prueba deseada.

$\square$

También podemos enunciar el teorema anterior en términos de matrices:

Corolario. Sea $A\in M_n(\mathbb{R})$ una matriz ortogonal. Entonces existen enteros $p,q,k$ que satisfacen $p+q+2k=n$, una matriz ortogonal $P\in M_n(\mathbb{R})$ y números reales $\theta_1,\dots , \theta_n$ tales que
$$A=P^{-1}\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix}P.$$

Observación. El determinante de la matriz
$$\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix}$$
es $(-1)^q\in\{1,-1\}$ (estamos usando $\det R_{\theta_i}=1$ para $1\leq i\leq k$). Se sigue que $$\det T\in\{-1,1\}$$ para cualquier $T\in O(V)$.

Más adelante…

Por lo platicado en esta entrada, ya podemos decir cómo es cualquier transformación ortogonal, y no es tan complicado: simplemente en alguna base apropiada, se rota en pares de coordenadas, o bien se refleja en coordenadas, o bien no se hace nada en alguna coordenada (o una combinación de estas cosas). Todo esto intuitivamente deja fijas las normas y el teorema de clasificación nos dice que si se fijan normas entonces debe ser así. Por ello, podemos pensar a las transformaciones ortonormales como «sencillas» o por lo menos «entendibles».

Aprovecharemos esto en el siguiente tema, pues enunciaremos el teorema espectral real, que nos dice que las transformaciones simétricas se entienden muy bien a partir de las ortogonales y de las diagonales. Así, las transformaciones simétricas también serán «entendibles». Finalmente, con el teorema de descomposición polar llevaremos este entendimiento a todas, todas las matrices.

Tarea moral

  1. Verifica que, en efecto, las matrices $R_\theta$ de la entrada tienen determinante igual a $1$.
  2. Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal. Demuestra que $T$ es ortogonal si y sólo si $||T(x)||=||x||$ para los vectores $x$ de norma $1$.
  3. Encuentra la matriz de rotación de ángulo $\frac{\pi}{3}$ alrededor de la recta generada por el vector $(1,1,1)$.
  4. Describe todas las matrices en $M_3(\mathbb{R})$ que son simultaneamente ortogonales y diagonales.
  5. Describe todas las matrices en $M_3(\mathbb{R})$ que sean simultáneamente ortogonales y triangulares superiores.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Ecuaciones Diferenciales I: Introducción a las Ecuaciones Diferenciales

Por Omar González Franco

La vida es buena por sólo dos cosas, descubrir y enseñar las matemáticas.
– Simeon Poisson

Introducción

Bienvenidos a la primera clase del curso, en esta entrada conoceremos qué son las ecuaciones diferenciales, cómo clasificarlas y presentaremos una parte de la terminología elemental que usaremos a lo largo del curso.

Las leyes del universo están escritas en el lenguaje de las matemáticas. Muchos de los fenómenos naturales que ocurren en el universo involucran cambios y si logramos crear modelos matemáticos que los describan, sin duda, la derivada será una herramienta fundamental que estará presente. Sabemos que la derivada $\dfrac{dy}{dx} = f'(x)$ de la función $f$ es la razón a la cual la cantidad $y = f(x)$ está cambiando respecto de la variable independiente $x$, es natural, entonces, que las ecuaciones que involucran derivadas se usen frecuentemente para describir el universo cambiante. Una ecuación que relacione una función desconocida con una o más de sus derivadas se llama ecuación diferencial.

Ecuaciones diferenciales

Al tratarse de un curso introductorio, sólo trabajaremos con ecuaciones diferenciales que contienen sólo una variable independiente, estas ecuaciones tienen un nombre particular.

El reto al que nos enfrentamos con las ecuaciones diferenciales es hallar la función involucrada que depende de la variable independiente. Supongamos que tenemos la función

$$y = f(x) = 2e^{x^{2}}$$

Esta función es derivable en todo $\mathbb{R}$, si la derivamos obtenemos otra función dada de la siguiente forma.

$$\dfrac{dy}{dx} = f'(x) = 4xe^{x^{2}}$$

Este resultado se puede reescribir como

$$\dfrac{dy}{dx} = 2x(2e^{x^{2}})$$

Podemos observar que lo que está entre paréntesis es de nuevo la función $y = 2e^{x^{2}}$ , si la sustituimos obtenemos como resultado la siguiente ecuación.

$$\dfrac{dy}{dx} = 2xy$$

Este resultado corresponde a una ecuación diferencial ordinaria, pues contiene la derivada de la variable dependiente $y$ con respecto a la variable independiente $x$, esto es $\dfrac{dy}{dx}$.

Ahora imagina que lo primero que vemos es la ecuación diferencial $\dfrac{dy}{dx} = 2xy$ y lo que debemos de hacer es obtener la función $f(x) = y$. ¿Cómo la obtendrías?. ¡Este es el reto!.

Básicamente el objetivo del curso será desarrollar distintos métodos para resolver los diferentes tipos de ecuaciones diferenciales ordinarias que se puedan presentar, analizaremos las circunstancias en las que aparecen y la forma en que surgen con el fin de describir o modelar fenómenos físicos en términos matemáticos.

Notación

En la mayor parte del curso utilizaremos la notación de Leibniz.

$$\dfrac{dy}{dx}, \hspace{0.4cm} \dfrac{d^{2}y}{dx^{2}}, \hspace{0.4cm} \dfrac{d^{3}y}{dx^{3}}, \hspace{0.4cm} \cdots,$$

En este caso la expresión $\dfrac{d}{dx}$ sirve como un operador que indica una derivación de la variable dependiente $y$ con respecto a la variable independiente $x$.

En ocasiones para ser más compactos utilizaremos la notación prima o también conocida como notación de Lagrange.

$$y^{\prime}, \hspace{0.4cm} y^{\prime \prime}, \hspace{0.4cm} y^{\prime \prime\prime}, \hspace{0.4cm} \cdots$$

En el caso de esta notación, a partir de la cuarta derivada ya no se colocan primas, sino números entre paréntesis, dicho número indica el grado de la derivada.

$$y^{(4)}, \hspace{0.4cm} y^{(5)}, \hspace{0.4cm} \cdots, \hspace{0.4cm} y^{(n)}$$

En este curso haremos mayor uso de la notación de Leibniz debido a que indica con claridad las variables independientes y dependientes. Por ejemplo, en la ecuación

$$\dfrac{dx}{dt} + 8x = 0$$

se observa de forma inmediata que el símbolo $x$ representa a la variable dependiente, mientras que $t$ a la variable independiente.

Cuando se trata de resolver problemas en contextos del mundo real relacionados con Física o ingeniería por ejemplo, es común utilizar la notación de Newton.

$$\dot{y}, \hspace{0.4cm} \ddot{y}, \hspace{0.4cm} \dddot{y}, \hspace{0.4cm} \cdots$$

Es común utilizar esta notación cuando la variable independiente corresponde al tiempo $t$.

$$\dfrac{dy}{dt} = \dot{y}(t)$$

Clasificación de las ecuaciones diferenciales

Para comenzar será importante clasificar a las ecuaciones diferenciales por tipo, orden y linealidad.

  • Clasificación por tipo

Un primer tipo de ecuaciones diferenciales son las Ecuaciones Diferenciales Ordinarias (EDO) que, como se definieron anteriormente, son aquellas que relacionan una función desconocida de una variable independiente con sus derivadas. Algunos ejemplos de ecuaciones diferenciales ordinarias son:

$$\dfrac{dy}{dx} + 5y = e^{x}, \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} -\dfrac{dy}{dx} + 6y = 0 \hspace{1cm} y \hspace{1cm} \dfrac{dx}{dt} + \dfrac{dy}{dt} = 2x + y$$

Otro tipo de ecuaciones diferenciales son las Ecuaciones Diferenciales Parciales (EDP), estas ecuaciones presentan las derivadas parciales de una o más variables dependientes de dos o más variables independientes. Algunos ejemplos de ecuaciones diferenciales parciales son:

$$\dfrac{\partial^{2}z}{\partial x^{2}} + \dfrac{\partial^{2}z}{\partial y^{2}} = 0, \hspace{1cm} \dfrac{\partial^{2}z}{\partial x^{2}} = \dfrac{\partial^{2}z}{\partial t^{2}} -2\dfrac{\partial z}{\partial t} \hspace{1cm} y \hspace{1cm} \dfrac{\partial u}{\partial y} = – \dfrac{\partial v}{\partial x}$$

En este curso no estudiaremos a las ecuaciones diferenciales parciales.

  • Clasificación por orden

El orden de una ecuación diferencial representa el orden de la derivada más alta presente en la ecuación. Así, la ecuación

$$\dfrac{d^{2} y}{dx^{2}} + 5 \left( \dfrac{dy}{dx}\right) ^{3} -4y = e^{x}$$

es una ecuación diferencial ordinaria de segundo orden. Importante, no confundir orden de la derivada con el grado o potencia de las derivadas.

Una EDO de $n$-ésimo orden se puede expresar como una variable dependiente empleando la forma general

$$F(x, y, y^{\prime}, \cdots , y^{(n)}) = 0 \tag{1} \label{1}$$

Donde $F$ es una función con valores reales de $n + 2$ variables. Por motivos teóricos debemos suponer que es posible resolver la EDO anterior únicamente para la derivada de mayor grado $y^{(n)}$ en términos de las $n + 1$ variables restantes, es decir, suponemos que se puede resolver la siguiente ecuación.

$$\dfrac{d^{n}y}{dx^{n}} = f(x, y, y^{\prime}, \cdots , y^{(n – 1)}) \tag{2} \label{2}$$

Donde $f$ es una función continua con valores reales. A la ecuación (\ref{2}) se le denomina forma normal de (\ref{1}). En ocasiones será útil utilizar las formas normales

$$\dfrac{dy}{dx} = f(x, y) \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} = f(x, y, y^{\prime})$$

para representar ecuaciones diferenciales ordinarias de primer y segundo orden, respectivamente.

Por ejemplo, la forma normal de la ecuación diferencial de primer orden

$$4x \dfrac{dy}{dx} + y = x$$

es

$$\dfrac{dy}{dx} = \dfrac{x -y}{4x}$$

Para $x \neq 0$. En este caso la función $f$ sería

$$f(x, y) = \dfrac{x -y}{4x}$$

Mientras que la forma general de la misma ecuación es

$$F \left( x, y , \dfrac{dy}{dx} \right) = 4x \dfrac{dy}{dx} + y -x = 0$$

Las ecuaciones diferenciales ordinarias de primer orden ocasionalmente se escriben en lo que se conoce como la forma diferencial.

$$M(x, y) dx + N(x, y) dy = 0 \tag{3} \label{3}$$

Anteriormente vimos que la forma normal de la ecuación diferencial dada es

$$\dfrac{dy}{dx} = \dfrac{x -y}{4x}$$

Haciendo de un abuso de notación podemos escribir a esta ecuación como

$$4x dy = (x -y) dx$$

O bien,

$$(y -x) dx + 4x dy = 0$$

Esta es la correspondiente forma diferencial, en este caso

$$M(x, y) = y -x \hspace{1cm} y \hspace{1cm} N(x, y) = 4x$$

Con este ejemplo encontramos tres formas distintas de representar a la misma ecuación diferencial. Veremos más adelante que cada forma de representación nos será de utilidad cuando intentemos encontrar a la función dependiente.

  • Clasificación por linealidad

Una ecuación diferencial ordinaria de $n$-ésimo orden (\ref{1}) es lineal si $F$ es lineal en $y, y^{\prime}, \cdots, y^{(n)}$, es decir, una EDO es lineal si se puede escribir como

$$a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n -1}(x) \dfrac{d^{n -1}y}{dx^{n -1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x) y = g(x) \tag{4} \label{4}$$

Cumpliendo las siguientes propiedades:

  • La variable dependiente $y$, así como todas sus derivadas $y^{\prime}, y^{\prime \prime}, \cdots, y^{(n)}$ son de primer grado, es decir, la potencia de cada uno de los términos que involucran a $y$ es $1$.
  • Los coeficientes $a_{0}, a_{1}, \cdots, a_{n}$ de $y^{\prime}, y^{\prime \prime}, \cdots, y^{(n)}$, respectivamente, así como la función $g(x)$ dependen a lo sumo de la variable independiente $x$.

Una ecuación diferencial ordinaria no lineal simplemente es una ecuación que no es lineal, es decir, que no cumple con las propiedades anteriores.

La ecuación

$$4x \dfrac{dy}{dx} + y = x$$

claramente es lineal, mientras que la ecuación

$$\dfrac{d^{2} y}{dx^{2}} + 5 \left( \dfrac{dy}{dx}\right) ^{3} -4y = e^{x}$$

es no lineal debido a que la primera derivada de la variable dependiente $y$ no es de primer grado, sino de grado $3$.

Ejemplo: Clasificar las siguientes ecuaciones diferenciales.

  • $\dfrac{d^{3}y}{dx^{3}} + 3x \dfrac{dy}{dx} -5y = e^{x}$
  • $\dfrac{d^{2}y}{dx^{2}} + \sin (y) = 0$
  • $(1-y) y^{\prime} + 2y = e^{x}$

Solución:

En la ecuación

$$\dfrac{d^{3}y}{dx^{3}} + 3x \dfrac{dy}{dx} -5y = e^{x}$$

observamos que se trata de una ecuación diferencial ordinaria, pues la variable dependiente $y$ sólo depende de una variable independiente, en este caso de $x$. Por otro lado, observamos que la derivada más alta es $\dfrac{d^{3}y}{dx^{3}}$ , por lo tanto el orden de la ecuación es $3$, es decir, es una ecuación diferencial de tercer orden. Finalmente vemos que se trata de una ecuación lineal, pues la potencia de los términos que involucran a $y$ es $1$ y además la función $g(x) = e^{x}$ sólo depende de la variable independiente.

En la ecuación

$$\dfrac{d^{2}y}{dx^{2}} + \sin (y) = 0$$

notamos que corresponde a una ecuación diferencial ordinaria de segundo orden ya que la derivada más alta es $\dfrac{d^{2}y}{dx^{2}}$. En este caso la ecuación es no lineal ya que la función $\sin(y)$ no es lineal e involucra a la variable dependiente.

Finalmente, en la ecuación

$$(1-y) y^{\prime} + 2y = e^{x}$$

se observa que es una ecuación diferencial ordinaria de primer orden y que es no lineal ya que el coeficiente de $y^{\prime}$, la función $(1 -y)$, depende de la variable dependiente.

$\square$

Como podemos notar, para deducir si una ecuación diferencial es lineal o no es conveniente escribirla en la forma (\ref{4}) y verificar las dos propiedades de linealidad.

De acuerdo a (\ref{4}), las ecuaciones diferenciales de primer orden ($n = 1$) y segundo orden ($n = 2$) se pueden escribir de forma general como

$$a_{1}(x) \frac{dy}{dx} + a_{0}(x) y = g(x) \tag{5} \label{5}$$

y

$$a_{2}(x) \frac{d^{2}y}{dx^{2}} + a_{1}(x) \frac{dy}{dx} + a_{0}(x) y = g(x) \tag{6} \label{6}$$

Respectivamente.

Hemos concluido con esta entrada.

Tarea Moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Definir el orden de las siguientes ecuaciones diferenciales ordinarias y establecer si son lineales o no lineales.
  • $(1 -x) y^{\prime \prime} -4xy^{\prime} + 5y = \cos(x)$
  • $\dfrac{d^{2}y}{dx^{2}} = \sqrt {1 + \left(\dfrac{dy}{dx}\right)^{2}}$
  • $x \dfrac{d^{3}y}{dx^{3}} -\left( \dfrac{dy}{dx} \right) ^{4} + y = 0$
  1. Determinar si las siguientes ecuaciones diferenciales de primer orden son lineales en la variable dependiente indicada comparándola con la ecuación (\ref{4}). (es decir, considera primero a una variable como dependiente de la otra y reescribe la ecuación en la forma general (\ref{4}) para deducir si es lineal o no, posteriormente intercambia al papel de las variables y vuelve a ver si la ecuación es lineal o no).
  • $(y^{2} -1) dx + x dy = 0$, $\hspace{0.5cm}$ en $y$, $\hspace{0.2cm}$ en $x$
  • $u dv + (v + uv -ue^{u}) du = 0$, $\hspace{0.5cm}$ en $v$, $\hspace{0.2cm}$ en $u$

Más adelante …

Como se mencionó, uno de los objetivos es hallar a la función involucrada que depende de la variable independiente, a esta función formalmente se le conoce como función solución de la ecuación diferencial. Antes de estudiar cómo obtener estas funciones solución será conveniente primero estudiar sus propiedades generales.

En la siguiente entrada comenzaremos a estudiar lo relacionado a la solución (o soluciones) de una ecuación diferencial.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal I: Formas cuadráticas, propiedades, polarización y Gauss

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior hablamos acerca de formas bilineales y comenzamos a hablar de formas cuadráticas. Discutimos cómo a partir de estas nociones a la larga podremos hablar de geometría y cálculo en espacios vectoriales. El objetivo de esta entrada es entender mejor a las formas cuadráticas y su relación con formas bilineales.

Lo primero que haremos es demostrar la identidad de polarización, que a grandes rasgos dice que hay una biyección entre las formas bilineales simétricas y las formas cuadráticas. Veremos algunos ejemplos concretos de esta biyección. A partir de ella demostraremos algunas propiedades de formas cuadráticas. Finalmente, hablaremos brevemente de un bello resultado de Gauss que caracteriza las formas cuadráticas en $\mathbb{R}^n$ en términos de formas lineales, de las cuales discutimos mucho cuando hablamos de espacio dual.

Como pequeño recordatorio de la entrada anterior, una forma bilineal de un espacio vectorial $V$ es una transformación $b:V\times V \to \mathbb{R}$ tal que cada que fijamos una coordenada, es lineal en la otra. Esta forma es simétrica si $b(x,y)=b(y,x)$ para cada par de vectores $x,y$ en $V$. Una forma cuadrática de $V$ es una transformación $q:V\to \mathbb{R}$ tal que $q(x)=b(x,x)$ para alguna forma bilineal $b$.

Formas cuadráticas y polarización

En la entrada anterior enunciamos el siguiente teorema, que mostraremos ahora.

Teorema (identidad de polarización). Sea $q:V\to \mathbb{R}$ una forma cuadrática. Existe una única forma bilineal simétrica $b:V\times V \to \mathbb{R}$ tal que $q(x)=b(x,x)$ para todo vector $x$. Esta forma bilineal está determinada mediante la identidad de polarización $$b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}.$$

Demostración. Tomemos una forma cuadrática $q$ de $V$. Por definición, está inducida por una forma bilineal $B$ de $V$, es decir, $q(x)=B(x,x)$. Definamos la transformación $b$ mediante $$b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}.$$ Comencemos probando que $b$ es una transformación bilineal simétrica. Notemos que:
\begin{align*}
b(x,y)&=\frac{q(x+y)-q(x)-q(y)}{2}\\
&=\frac{B(x+y,x+y)-B(x,x)-B(y,y)}{2}\\
&=\frac{B(x,x)+B(x,y)+B(y,x)+B(y,y)-B(x,x)-B(y,y)}{2}\\
&=\frac{B(x,y)+B(y,x)}{2}.
\end{align*}

De aquí es muy claro que $b$ es forma bilineal, pues fijando $x$, set tiene que $b(x,y)$ es combinación lineal de dos formas lineales en $y$; y fijando $y$, se tiene que $b(x,y)$ es combinación lineal de dos formas lineales en $x$. Además, de esta igualdad (o directo de la definición de $b$) es claro que $b(x,y)=b(y,x)$.

También de esta igualdad obtenemos que $$b(x,x)=B(x,x)=q(x).$$

Para mostrar la unicidad, notemos que cualquier forma bilineal simétrica $b’$ tal que $b'(x,x)=q(x)$ debe satisfacer, como en las cuentas que hicimos arriba, que
\begin{align*}
q(x+y)&=b'(x+y,x+y)\\
&=q(x)+q(y)+b'(x,y)+b'(y,x)\\
&=q(x)+q(y)+2b'(x,y).
\end{align*}

De aquí, despejando $b’$, se obtiene que debe tener la forma de $b$.

$\square$

El teorema anterior justifica la siguiente definición.

Definición. Dada una forma cuadrática $q$ de $V$, a la única forma bilineal simétrica $b$ de $V$ tal que $q(x)=b(x,x)$ le llamamos la forma polar de $q$.

Ejemplo 1. En el espacio vectorial $\mathbb{R}^n$, la transformación $q:\mathbb{R}^n\to \mathbb{R}$ dada por $$q(x_1,\ldots,x_n)=x_1^2+\ldots+x_n^2.$$ es una forma cuadrática. Su forma polar es la forma bilineal producto punto que manda a $x=(x_1,\ldots,x_n)$ y $y=(y_1,\ldots,y_n)$ a $$b(x,y)=x_1y_1+\ldots+x_ny_n.$$

Esto coincide con la construcción dada por la identidad de polarización, ya que \begin{align*}q(x+y)-q(x)-q(y)&=\sum_{i=1}^n (x_i+y_i)^2-x_i^2-y_i^2 \\&= \sum_{i=1}^n x_iy_i\end{align*}

$\triangle$

Ejemplo 2. En el espacio vectorial $\mathbb{R}[x]$ de polinomios con coeficientes reales, la transformación $Q$ dada por $$Q(p)=p(0)p(1)+p(2)^2$$ es una forma cuadrática. Para encontrar a su forma bilineal polar, usamos la identidad de polarización
\begin{align*}
B(p,q)&=\frac{Q(p+q)-Q(p)-Q(q)}{2}\\
&=\frac{(p+q)(0)(p+q)(1)+(p+q)(2)^2-p(0)p(1)-p(2)^2-q(0)q(1)-q(2)^2}{2}\\
&=\frac{p(0)q(1)+q(0)p(1)+2p(2)q(2)}{2}\\
&=\frac{p(0)q(1)}{2}+\frac{p(1)q(0)}{2}+p(2)q(2).
\end{align*}

$\triangle$

Propiedades de formas cuadráticas

Si $q$ es una forma cuadrática, $x$ es un vector y $c$ es un real, tenemos que $q(cx)=c^2q(x)$, pues sale una $c$ por cada una de las coordenadas de la forma bilineal asociada. En particular, $q(-x)=q(x)$.

La identidad de polarización nos permite probar otras propiedades de formas bilineales y formas cuadráticas.

Proposición. Sea $q$ una forma cuadrática en $V$ con forma polar $b$. Entonces:

  • Para todo par de vectores $x$ y $y$ en $V$, se tiene que $$b(x,y)=\frac{q(x+y)-q(x-y)}{4}.$$
  • (Ley del paralelogramo) Para todo par de vectores $x$ y $y$ en $V$, se tiene que $$q(x+y)+q(x-y)=2(q(x)+q(y)).$$
  • (Teorema de Pitágoras) Para vectores $x$ y $y$ tales que $b(x,y)=0$, se tiene que $$q(x+y)=q(x)+q(y).$$
  • (Diferencia de cuadrados) Para todo par de vectores $x$ y $y$ en $V$, se tiene que $b(x+y,x-y)=q(x)-q(y).$

Demostración. Por la identidad de polarización tenemos que $$b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2},$$ y como $q(y)=q(-y)$, tenemos también por la identidad de polarización que \begin{align*}-b(x,y)&=b(x,-y)\\&=\frac{q(x-y)-q(x)-q(y)}{2}.\end{align*}

Restando la segunda ecuación de la primera, obtenemos la primer propiedad. Sumando ambas obtenemos la ley del paralelogramo.

El teorema de Pitágoras es una consecuencia directa de la identidad de polarización.

La identidad de diferencia de cuadrados es una consecuencia de la primer propiedad aplicada a los vectores $x+y$ y $x-y$, y de usar que $q(2x)=4q(x)$ y que $q(2y)=4q(y)$.

$\square$

Forma de las formas cuadráticas

Otra consecuencia de la identidad de polarización es que establece una biyección entre las formas cuadráticas y las formas simétricas bilineales. Esta asociación nos permite decir cómo se ven exactamente las formas cuadráticas en espacios vectoriales de dimensión finita.

Toda forma cuadrática viene de una forma bilineal simétrica. En la entrada anterior, mencionamos que para definir una forma bilineal simétrica en un espacio vectorial $V$ de dimensión $n$, basta tomar una base $\{e_1,\ldots,e_n\}$ de $V$ y decidir los valores $b_{ij}$ de $b(e_i,e_j)$ para $1\leq i \leq j \leq n$. Como $b$ es simétrica, para $j<i$ se tendría que $b(e_i,e_j)=b(e_j,e_i)$, es decir, que $b_{ji}=b_{ij}$.

De esta forma, para todo vector $v$ en $V$ podemos encontrar el valor de $q(v)$ expresando $v$ en la base $\{e_1,\ldots,e_n\}$, digamos, $$v=a_1e_1+\ldots+a_ne_n,$$ de donde $$q(v)=\sum_{i=1}^n b_{ii} a_i^2 + 2 \sum_{1\leq i < j \leq n} b_{ij} a_i a_j.$$

Ejemplo. Toda forma cuadrática en $\mathbb{R}^3$ se obtiene de elegir reales $a,b,c,d,e,f$ y definir $$q(x,y,z)=ax^2+by^2+cz^2+2dxy+2eyz+2fzx.$$ La forma polar de $q$ es la forma bilineal $B$ tal que para la base canónica $e_1,e_2,e_3$ de $\mathbb{R}^3$ hace lo siguiente

\begin{align*}
B(e_1,e_1)&=a\\
B(e_2,e_2)&=b\\
B(e_3,e_3)&=c\\
B(e_1,e_2)&=B(e_2,e_1)=d\\
B(e_2,e_3)&=B(e_3,e_2)=e\\
B(e_3,e_1)&=B(e_1,e_3)=f.
\end{align*}

$\triangle$

Teorema de Gauss de formas cuadráticas (opcional)

Para esta sección, fijemos al espacio vectorial como $\mathbb{R}^n$. Hay una forma muy natural de construir formas cuadráticas a partir de formas lineales. Tomemos números reales $\alpha_1,\ldots, \alpha_r$ y formas lineales $l_1,\ldots,l_r$. Consideremos $$q(x)=\alpha_1l_1(x)^2+\ldots+\alpha_r l_r(x)^2.$$ Se tiene que $q$ es una forma cuadrática. La demostración de ello es sencillo y se queda como tarea moral.

Lo que descubrió Gauss es que todas las formas cuadráticas se pueden expresar de esta forma, y de hecho, es posible hacerlo usando únicamente formas lineales que sean linealmente independientes y coeficientes $1$ y $-1$.

Teorema (clasificación de Gauss de formas cuadráticas). Sea $q$ una forma cuadrática en $\mathbb{R}^n$. Entonces, existen enteros no negativos $r$ y $s$, y formas lineares $l_1,\ldots,l_r,m_1,\ldots,m_s$ en $(\mathbb{R}^n)^\ast$, todas ellas linealmente independientes, tales que $$q=l_1^2+\ldots+l_r^2-m_1^2-\ldots-m_s^2.$$

Hay un pequeño refinamiento de este teorema, demostrado por Sylvester.

Teorema (teorema de la inercia de Sylverster). Los números $r$ y $s$ en el teorema de clasificación de Gauss de formas cuadráticas son únicos.

Ejemplo. Tomemos la forma cuadrática en $\mathbb{R}^3$ dada por $q(x,y,z)=xy+yz+zx$. Por el teorema de Gauss, esta forma se debe de poder poner como combinación lineal de cuadrados de formas lineales independientes. En efecto, tenemos que: $$xy+yz+zx=\left(\frac{2x+y+z}{2}\right)^2-\left(\frac{y-z}{2}\right)^2-x^2,$$ en donde
\begin{align*}
(x,y,z)&\mapsto \frac{2x+y+z}{2},\\
(x,y,z) &\mapsto \frac{y-z}{2}\quad \text{ y }\\
(x,y,z)&\mapsto x
\end{align*}
son formas lineales linealmente independientes.

$\triangle$

Más adelante…

En esta entrada estudiamos a fondo la identidad de polarización; esto nos permitió concluir que existe una biyección entre las funciones bilineales simétricas y las formas cuadráticas. También, pusimos mucho énfasis en ejemplos concretos de esta biyección.

Con esto estamos listos para empezar a pensar en cómo haríamos geometría o cálculo en espacios vectoriales. Abordaremos estos temas al final de esta unidad. En la siguiente entrada hablaremos del producto interior.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Verifica que las formas cuadráticas de los ejemplos del teorema de polarización en efecto son formas cuadráticas.
  • Muestra que $q(x,y)=3x^2-y^2+7y$ no es una forma cuadrática.
  • Muestra que si $\alpha_1,\ldots, \alpha_r$ son reales y tomamos formas lineales $l_1,\ldots,l_r$ en $\mathbb{R}^n$, entonces $$q(x)=a_1l_1(x)^2+\ldots+\alpha_r l_r(x)^2$$ es una forma cuadrática.
  • ¿Quién es la forma polar de la forma cuadrática $Q(f)=\int_{0}^1 f^2(x)\, dx$ en el espacio vectorial de funciones continuas en el intervalo $[0,1]$?

Una demostración algorítmica del teorema de Gauss se puede encontrar en la Sección 10.1 del libro de Álgebra Lineal de Titu Andreescu.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»