Archivo de la etiqueta: ecuaciones lineales

Ecuaciones Diferenciales I – Videos: Ecuaciones lineales homogéneas de segundo orden. Propiedades del conjunto de soluciones

Por Eduardo Vera Rosales

Introducción

Hola a todos. Después de haber estudiado ecuaciones diferenciales de primer orden, llegamos a la segunda unidad del curso donde analizaremos ecuaciones diferenciales de segundo orden. Dada la dificultad para resolver este tipo de ecuaciones, nos enfocaremos únicamente en las ecuaciones lineales de segundo orden, es decir, de la forma $$a_{0}(t)\frac{d^{2}y}{dt^{2}}+a_{1}(t)\frac{dy}{dt}+a_{2}(t)y=g(t).$$

En esta entrada comenzaremos con el caso de las ecuaciones homogéneas de segundo orden, es decir, cuando $g(t)$ es la función constante cero en un intervalo $(\alpha,\beta)$. Estudiaremos la teoría de las soluciones a este tipo de ecuaciones antes de analizar las distintas técnicas para resolverlas. Debido a que el conjunto de soluciones a este tipo de ecuaciones se comportan de buena manera, podremos encontrar la solución general a la ecuación si previamente conocemos dos soluciones particulares que cumplan una hipótesis que daremos a conocer en el intervalo $(\alpha,\beta)$. Definiremos el Wronskiano y la independencia lineal de dos soluciones a una ecuación diferencial, y probaremos distintos teoremas y propiedades de las soluciones con base en estos conceptos.

¡Comencemos!

Ecuaciones lineales homogéneas de segundo orden, Teorema de existencia y unicidad y solución general

En este video damos una introducción a las ecuaciones diferenciales de segundo orden, y en particular, a las ecuaciones lineales de segundo orden. Enunciamos el teorema de existencia y unicidad para ecuaciones lineales de segundo orden, y comenzamos a desarrollar la teoría para encontrar la solución general a ecuaciones homogéneas.

Conjunto fundamental de soluciones y el Wronskiano

Continuando con la teoría de las soluciones a ecuaciones homogéneas de segundo orden, demostramos un par de teoremas que nos ayudan a encontrar la solución general a este tipo de ecuaciones. Además, definimos al conjunto fundamental de soluciones de la ecuación homogénea y el Wronskiano de dos funciones.

Independencia lineal de soluciones

En este último video definimos el concepto de independencia lineal de soluciones a la ecuación homogénea de segundo orden, y demostramos un teorema que nos da otra forma de encontrar un conjunto fundamental de soluciones a la ecuación diferencial homogénea.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Prueba que $y_{1}(t)=\sin{t}$ y $y_{2}(t)=\cos{t}$ son soluciones a la ecuación diferencial $$\frac{d^{2}y}{dt^{2}}+y=0.$$ Posteriormente prueba que $y(t)=k_{1}\sin{t}+k_{2}\cos{t}$ también es solución a la ecuación, donde $k_{1}$, $k_{2}$ son constantes.
  • Prueba que $\{\sin{t},\cos{t}\}$ es un conjunto fundamental de soluciones a la ecuación del ejercicio anterior. ¿En qué intervalo es el conjunto anterior un conjunto fundamental de soluciones?
  • Prueba que si $p(t)$, $q(t)$ son continuas en $(\alpha,\beta)$, $y_{1}(t)$, $y_{2}(t)$ son soluciones a la ecuación $$\frac{d^{2}y}{dt^{2}}+p(t)\frac{dy}{dt}+q(t)y=0$$ en $(\alpha,\beta)$ y existe $t_{0}$ en dicho intervalo, donde $W[y_{1},y_{2}](t_{0})\neq 0$, entonces $\{y_{1}(t),y_{2}(t)\}$ forman un conjunto fundamental de soluciones en $(\alpha,\beta)$.
  • Prueba que si $p(t)$, $q(t)$ son continuas en $(\alpha,\beta)$, entonces existe un conjunto fundamental de soluciones $\{y_{1}(t),y_{2}(t)\}$ a la ecuación $$\frac{d^{2}y}{dt^{2}}+p(t)\frac{dy}{dt}+q(t)y=0$$ en el mismo intervalo. (Hint: Toma un punto en el intervalo $(\alpha,\beta)$ y dos problemas de condición inicial adecuados de tal forma que puedas utilizar el teorema de existencia y unicidad y el Wronskiano para deducir el resultado).
  • Prueba que $y_{1}(t)=t|t|$, $y_{2}(t)=t^{2}$ son linealmente independientes en $[-1,1]$ pero linealmente dependientes en $[0,1]$. Verifica que el Wronskiano se anula en $\mathbb{R}$. ¿Pueden ser $y_{1}(t)$, $y_{2}(t)$ soluciones a la ecuación $$\frac{d^{2}y}{dt^{2}}+p(t)\frac{dy}{dt}+q(t)y=0$$ en $(-1,1)$ si $p$ y $q$ son continuas en este intervalo?

Más adelante

En la próxima entrada conoceremos el método de reducción de orden, donde supondremos que ya conocemos una solución particular $y_{1}(t)$ a la ecuación lineal homogénea de segundo orden, y con ayuda de esta hallaremos una segunda solución $y_{2}(t)$ tal que forma un conjunto fundamental de soluciones junto con $y_{1}$.

Entradas relacionadas

Ecuaciones Diferenciales I – Videos: Teorema de existencia y unicidad para ecuaciones lineales de primer orden

Por Eduardo Vera Rosales

Introducción

En las entradas anteriores hemos estudiado las soluciones a ecuaciones de primer orden desde dos distintos puntos de vista, el cualitativo y el analítico. En el camino hemos encontrado un comportamiento similar en las soluciones, como es el que el problema de condición inicial tenga una solución, o que las curvas solución no se intersectan en el plano. Estos comportamientos no son una casualidad, y están justificados por el teorema de existencia y unicidad que nos dice que el problema de condición inicial tiene una y sólo una solución definida en un intervalo $(a,b)$. Este teorema, en su versión para ecuaciones lineales sustenta el trabajo que hemos realizado en los últimos videos.

Teorema de existencia y unicidad para ecuaciones lineales de primer orden

En el video demostramos la versión del teorema de existencia y unicidad para ecuaciones lineales de primer orden.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Resuelve el problema de condición inicial $\frac{dy}{dt}=\frac{y}{t}$ ; $y(t_{0})=y_{0}$, con $t_{0}\neq 0$, $y_{0}\neq 0$.
  • Resuelve el problema de condición inicial inicial $\frac{dy}{dt}=\frac{y}{t}$ ; $y(0)=0$.
  • Resuelve el problema de condición inicial $\frac{dy}{dt}=\frac{y}{t}$ ; $y(0)=y_{0}$, con $y_{0}\neq 0$.
  • ¿Contradicen las soluciones de los ejercicios anteriores el Teorema de existencia y unicidad?
  • Esboza las soluciones a la ecuación diferencial.

Más adelante

Con esta entrada terminamos el estudio a las ecuaciones lineales de primer orden. En la siguiente entrada comenzaremos a estudiar ecuaciones diferenciales no lineales de primer orden. En particular veremos un caso especial de estas ecuaciones, a las que llamaremos ecuaciones separables.

Entradas relacionadas

Ecuaciones Diferenciales I – Videos: Ecuaciones lineales no homogéneas de primer orden. Solución por factor integrante y por variación de parámetros

Por Eduardo Vera Rosales

Introducción

En la entrada anterior comenzamos el estudio de las ecuaciones diferenciales lineales de primer orden. En particular, resolvimos el caso cuando la función $g(t)$ que aparece en la ecuación $a_{0}(t) \frac{dy}{dt}+a_{1}(t)y=g(t)$ es la función constante cero.

Ahora veremos el caso no homogéneo, es decir, cuando la función $g(t)$ no es cero. Resolveremos esta ecuación por dos vías distintas. El primer método es mediante la búsqueda de una función que dependa de la variable independiente $t$ que nos ayude a simplificar la ecuación. A esta función la llamaremos factor integrante. El segundo método, llamado variación de parámetros, utiliza la solución general a la ecuación homogénea asociada, para encontrar a su vez la solución general a la ecuación no homogénea.

¡Vamos a comenzar!

Solución a ecuación lineal no homogénea por factor integrante

En el primer video resolvemos la ecuación diferencial $a_{0}(t) \frac{dy}{dt}+a_{1}(t)y=g(t)$ como un caso general por el método de factor integrante. En el segundo video resolvemos algunas ecuaciones por el mismo método.

Solución a ecuación lineal no homogénea por variación de parámetros

En el primer video resolvemos de forma general la ecuación lineal no homogénea, ahora por el método de variación de parámetros. En el segundo video resolvemos dos ecuaciones por este método, una de ellas la resolvimos en la sección anterior por el método de factor integrante, esto para comprobar que los dos métodos llevan a la misma solución.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Prueba que la expresión de la solución general para la ecuación lineal homogénea es un caso particular de la solución general de la ecuación lineal no homogénea.
  • Resuelve las siguientes ecuaciones diferenciales por los métodos de factor integrante y variación de parámetros: $$\frac{dy}{dt}=y+t^{2}$$ $$\frac{dy}{dt}+y+t+t^{2}+t^{3}=0.$$
  • Intenta resolver la ecuación $t^{2}\frac{dy}{dt}+y=\frac{1}{t}$ con $t>0$, por el método de variación de parámetros. ¿Qué dificultades se presentan? Esto muestra que habrá ocasiones en que alguna ecuación diferencial no podrá ser resuelta por ciertos métodos.
  • Sean $y_{1}$ y $y_{2}$ soluciones a las ecuaciones diferenciales $\frac{dy}{dt}+p(t)y=q_{1}(t)$ y $\frac{dy}{dt}+p(t)y=q_{2}(t)$. Prueba que $c_{1}y_{1}+c_{2}y_{2}$ es solución a la ecuación $\frac{dy}{dt}+p(t)y=c_{1}q_{1}(t)+c_{2}q_{2}(t)$, donde $c_{1}$ y $c_{2}$ son constantes.
  • Cuando resolvimos la ecuación lineal no homogénea por variación de parámetros, encontramos una forma explícita para la suma de soluciones $y_{H}+y_{P}$ donde $y_{H}$ es solución general a la ecuación homogénea y $y_{P}$ es una solución particular a la ecuación no homogénea, y afirmamos que esta nueva solución es la misma que encontramos por el método del factor integrante. Ahora supongamos por un momento que no conocemos el método del factor integrante. Argumenta por qué $y_{H}+y_{P}$ es solución general a la ecuación no homogénea. (Hint: Utiliza el ejercicio anterior).
  • Resuelve la ecuación diferencial $\frac{dT}{dt}=-50(T(t)-30)$ con condición inicial $T(0)=75$.

Más adelante

Hasta el momento hemos estudiado diversos tipos de ecuaciones diferenciales desde un punto de vista cualitativo y también analítico. Sin embargo, muchos de los resultados a los que hemos llegado tienen una justificación que aún no hemos revisado a detalle. Dicha justificación está dada por el Teorema de existencia y unicidad.

En la siguiente entrada demostraremos una primera versión de este teorema, enfocado en ecuaciones lineales de primer orden, que son las ecuaciones que hemos estudiado en los últimos videos.

Entradas relacionadas

Ecuaciones Diferenciales I – Videos: Ecuaciones lineales homogéneas de primer orden

Por Eduardo Vera Rosales

Introducción

Durante las dos últimas entradas conocimos un poco de la geometría de las soluciones a ecuaciones diferenciales de primer orden, aún sin conocerlas explícitamente. En esta entrada resolveremos por primera vez de manera analítica algunas de ellas. En particular, resolveremos ecuaciones del tipo $a_{0}(t)\frac{dy}{dt}+a_{1}(t)y=0$, que llamaremos ecuaciones homogéneas. Primero encontraremos la solución a la ecuación de forma general, y posteriormente resolveremos algunos ejemplos particulares.

Ecuaciones lineales homogéneas

En el primer video resolvemos la ecuación lineal homogénea de primer orden en su forma general.

En el segundo video ponemos en práctica lo aprendido en el video anterior para resolver un par de ecuaciones diferenciales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Encuentra la solución general a la ecuación $\frac{dy}{dt}+e^{t}y=0$.
  • Resuelve el problema de condición inicial $t^2\frac{dy}{dt}+\sqrt{t}y=0$ ; $y(0)=5$. Encuentra el intervalo donde la solución está definida.
  • Antes de resolver analíticamente, esboza las soluciones a la ecuación $\frac{dP}{dt}=kP$, con $k>0$, $P(t) \geq 0, \forall t \in \mathbb{R}$, que modela el crecimiento de una población. (Para mayor referencia a esta ecuación revisa la primer entrada de este curso). Si no recuerdas cómo hacerlo, te recomiendo revisar la entrada anterior.
  • Encuentra la solución general a la ecuación anterior.
  • Compara las soluciones que dibujaste en el tercer ejercicio con las soluciones que encontraste en el cuarto ejercicio. ¿Qué observas?

Más adelante

Ya sabemos cómo resolver ecuaciones homogéneas. Ahora vamos a ver el otro lado de la moneda, es decir, vamos a resolver ecuaciones no homogéneas.

En la siguiente entrada estudiaremos dos métodos para resolver éste tipo de ecuaciones: primero por medio de una función que llamaremos factor integrante, y más adelante por el método de variación de parámetros en el cual las ecuaciones homogéneas nos serán de mucha ayuda.

Nos vemos en la próxima entrada!

Entradas relacionadas

Álgebra Lineal I: Forma escalonada reducida

Por Julio Sampietro

Introducción

En esta entrada tratamos la forma escalonada reducida de una matriz, que es básicamente una forma «bonita» de expresar una matriz que nos permite resolver sistemas de ecuaciones lineales. Luego nos adentramos en la parte de operaciones elementales, que es el primer paso para desarrollar un algoritmo (que luego veremos es la reducción gaussiana) que nos permite llevar a cualquier matriz a su forma escalonada reducida.

En otras palabras, en esta entrada vemos cómo resolver un caso fácil de un sistema de ecuaciones. Más adelante veremos que en realidad cualquier caso puede llevarse al caso fácil con un algoritmo relativamente fácil.

¿Qué es la forma escalonada reducida?

Sea una matriz $A$ con entradas en un campo $F$. Si $R$ es un renglón de $A$, diremos que $R$ es una fila cero si todas sus entradas son cero. Si $R$ no es una fila cero, el término principal de $R$ o bien el pivote de $R$ es la primera entrada distinta de cero de la fila. Diremos que $A$ está en forma escalonada reducida si $A$ tiene las siguientes propiedades:

  1. Todas las filas cero de $A$ están hasta abajo de $A$ (es decir, no puede seguirse una fila distina de cero después de una cero).
  2. El término principal de una fila no-cero está estrictamente a la derecha del término principal de la fila de encima.
  3. En cualquier fila distinta de cero, el término principal es $1$ y es el único elemento distinto de cero en su columna.

Ejemplo. La matriz $I_n$ está en forma escalonada reducida, así como la matriz cero $O_n$. La matriz

\begin{align*}
A= \begin{pmatrix} 1 &-1 & 0 &2\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 0 \end{pmatrix} \end{align*}

está en forma escalonada reducida. El término principal de la primer fila es $1$ y está en la primer columna. El término principal de la segunda fila también es $1$, y se encuentra más a la derecha que el término principal de la fila anterior. Además, es la única entrada distinta de cero en su columna.

Sin embargo, la matriz ligeramente distinta

\begin{align*}
B= \begin{pmatrix} 1 &-1 & 5 &2\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 0 \end{pmatrix} \end{align*}

no está en forma escalonada reducida ya que el término principal del segundo renglón no es la única entrada distinta de cero en su columna.

$\square$

¿Cómo la forma escalonada reducida nos permite resolver sistemas de ecuaciones?

¿Cual es la importancia de la forma escalonada con respecto al problema de resolver sistemas de ecuaciones? Veremos que cualquier matriz se puede poner (de manera algorítmica) en forma escalonada reducida y que esta forma es única. También veremos que si $A_{red}$ es la forma escalonada reducida de una matriz, entonces los sistemas $AX=0$ y $A_{red}X=0$ son equivalentes. Además, veremos que resolver el sistema $A_{red} X=0$ es muy fácil de resolver precisamente por estar en forma escalonada reducida.

Ejemplo. Resolvamos el sistema $AX=0$ donde $A$ es la matriz que dimos anteriormente, que está en forma escalonada reducida. El sistema asociado es

\begin{align*}
\begin{cases}
x_1 -x_2+2x_4&=0\\
x_3-x_4&=0
\end{cases}.
\end{align*}

De la segunda igualdad podemos expresar $x_3=x_4$ y de la primera $x_1=x_2-2x_4$. Así, podemos escoger $x_2$ y $x_4$ «libremente» y obtener $x_3$ y $x_1$ con estas ecuaciones (tenemos, de cierta manera, dos «parámetros libres»), por lo que nuestras soluciones se ven de la forma

\begin{align*}
(a-2b, a, b,b )
\end{align*}

con $a,b\in F$.

$\square$

En general si $A$ es una matriz en forma escalonada reducida, veamos cómo resolver el sistema $AX=0$. Las únicas ecuaciones importantes son las que resultan de renglones distintos de cero (pues las otras solo son $0=0$) y al estar en forma escalonada reducida, todos los renglones cero están hasta el final. Supongamos que el $i$-ésimo renglón de $A$ es distinto de cero y su término principal está en la $j$-ésima columna, así el término principal es $a_{ij}=1$. La $i$-ésima ecuación del sistema lineal entonces es de la forma

\begin{align*}
x_j +\sum_{k=j+1}^{n} a_{ik} x_k =0.
\end{align*}

Llamamos a $x_j$ la variable pivote del renglón $L_i$. Así, a cada renglón distinto de cero le podemos asociar una única variable pivote. Todas las demás variables del sistema son llamadas variables libres. Uno resuelve el sistema empezando desde abajo, expresando sucesivamente las variables pivote en términos de las variables libres. Esto nos da la solución general del sistema, en términos de las variables libres, que pueden tomar cualquier valor en $F$.

Si $y_1, \dots, y_s$ son las variables libres, entonces las soluciones del sistema son de la forma

\begin{align*}
X= \begin{pmatrix}
b_{11} y_1 + b_{12} y_2 + \dots+ b_{1s} y_s\\
b_{21} y_1+ b_{22} y_2 +\dots+b_{2s} y_s\\
\vdots\\
b_{n1} y_1 +b_{n2} y_2+ \dots + b_{ns} y_s\end{pmatrix}
\end{align*}

para algunos escalares $b_{ij}$. Esto también se puede escribir como

\begin{align*}
X= y_1 \begin{pmatrix} b_{11} \\ b_{21} \\ \vdots \\ b_{n1}\end{pmatrix}+\dots + y_s \begin{pmatrix} b_{1s} \\ b_{2s}\\ \vdots \\ b_{ns} \end{pmatrix} .
\end{align*}

Llamamos a

\begin{align*}
Y_1= \begin{pmatrix} b_{11}\\ b_{21}\\ \vdots \\ b_{n1}\end{pmatrix}, \dots, Y_s= \begin{pmatrix} b_{1s} \\ b_{2s} \\ \vdots \\ b_{ns}\end{pmatrix}
\end{align*}

las soluciones fundamentales del sistema $AX=0$. La motivación para su nombre es fácil de entender: $Y_1, \dots, Y_s$ son soluciones del sistema $AX=0$ que ‘generan’ todas las otras soluciones, en el sentido que todas las soluciones del sistema $AX=0$ se obtienen a través de todas las combinaciones lineales de $Y_1, \dots, Y_s$ (correspondiendo a todos los valores posibles de $y_1, \dots, y_s$).

Un ejemplo para aterrizar los conceptos

Sea $A$ la matriz en forma escalonada reducida dada como sigue

\begin{align*}
A= \begin{pmatrix}
1 & 1 & 0 & 0 &-1 & 0 & 2\\ 0 & 0 & 1 & 0 & 3 & 0 & 1\\ 0 & 0 & 0 & 1& 0 & 0 &-1\\ 0 & 0 &0 & 0 & 0 & 1 & 0 \\ 0 & 0 &0 & 0 & 0 & 0 & 0 \end{pmatrix}
\end{align*}

y consideremos el sistema homogéneo asociado $AX=0$. Este se puede escribir como

\begin{align*}
\begin{cases}
x_1+x_2-x_5+2x_7&=0\\
x_3+3x_5+x_7&=0\\
x_4-x_7&=0\\
x_6&=0
\end{cases}.
\end{align*}

Las variables pivote son $x_1, x_3, x_4$ y $x_6$, ya que los términos principales aparecen en las columnas $1,3,4$ y $6$. Eso nos deja a $x_2, x_5$ y $x_7$ como variables libres.

Para resolver el sistema, empezamos con la última ecuación y vamos «subiendo», expresando en cada paso las variables pivote en términos de las variables libres. La última ecuación nos da $x_6=0$. Después, obtenemos $x_4=x_7$, posteriormente $x_3=-3x_5-x_7$ y $x_1= -x_2+x_5-2x_7$. Nunca nos va a pasar que tengamos que expresar a una variable pivote en términos de otra variable pivote, por la condición de que cada pivote es la única entrada no cero en su columna.

Para expresar las soluciones en términos vectoriales, hacemos lo siguiente.

\begin{align*}
X&=\begin{pmatrix}
-x_2+x_5 -2x_7\\
x_2\\
-3x_5-x_7\\
x_7\\
x_5\\
0 \\
x_7
\end{pmatrix}\\ &= x_2\cdot \begin{pmatrix}-1 \\ 1 \\ 0 \\ 0\\ 0 \\ 0 \\ 0 \end{pmatrix} +x_5\cdot \begin{pmatrix} 1 \\ 0 \\ -3 \\ 0 \\ 1 \\ 0 \\ 0 \end{pmatrix}+x_7 \cdot \begin{pmatrix} -2\\ 0 \\ -1\\ 1 \\ 0 \\ 0 \\1 \end{pmatrix}.
\end{align*}

Los tres vectores columna que aparecen del lado derecho de la igualdad son entonces las soluciones fundamentales del sistema $AX=0$. Todas las soluciones están entonces dadas por la expresión de la derecha, donde $x_2, x_5$ y $x_7$ pueden tomar cualquier valor en $F$.

Una moraleja sobre el número de soluciones

El número de soluciones fundamentales del sistema $AX=0$ es igual al número total de variables menos el número de variables pivote. Deducimos que el sistema $AX=0$ tiene como única solución a $X=0$ si no hay variables libres. Esto es lo mismo que decir que el número de variables pivote es igual al número de columnas de $A$.

Combinando las observaciones anteriores con el principio de superposición obtenemos el siguiente y muy importante resultado.

Teorema.

  1. Un sistema lineal homogéneo que tiene más variables que ecuaciones tiene soluciones no triviales. Si el campo de coeficientes es infinito (como por ejemplo $\mathbb{R}$ o $\mathbb{C}$), entonces el sistema tiene infinitas soluciones.
  2. Un sistema lineal consistente $AX=b$ que tiene más variables que ecuaciones tiene al menos dos soluciones, y si el campo es infinito, tiene infinitas soluciones.

¿Cómo llevar una matriz a su forma escalonada reducida? Operaciones elementales

Ahora regresamos al problema de transformar una matriz dada en una matriz con forma escalonada reducida. Para resolver este problema introducimos tres tipos de operaciones que pueden aplicarse a las filas de una matriz. Veremos que gracias a estas operaciones, uno puede transformar cualquier matriz en una en forma escalonada reducida.

Estas operaciones surgen de las manipulaciones cuando resolvemos sistemas lineales: las operaciones más naturales que hacemos cuando resolvemos un sistema de ecuaciones lineales son:

  1. multiplicar una ecuación por un escalar distinto de cero;
  2. añadir una ecuación (o mejor aún, un múltiplo de una ecuación) a otra ecuación diferente;
  3. intercambiar dos ecuaciones.

Observamos que estas operaciones son reversibles: si por ejemplo, multiplicamos una ecuación por un escalar $a\neq 0$, podemos multiplicar la misma ecuación por $\frac{1}{a}$ para recuperar la ecuación original. Queda claro que realizando una cantidad finita de estas operaciones en un sistema obtenemos un sistema con el mismo conjunto de soluciones que el sistema original (en nuestra terminología más barroca, un sistema nuevo equivalente al original). Estas operaciones en el sistema pueden verse como operaciones directamente en la matriz. Más precisamente:

Definición. Una operación elemental en las filas de una matriz $A$ en $M_{m,n}(F)$ es una operación de uno de los siguientes tipos:

  1. cambio de filas: intercambiar dos renglones de la matriz $A$,
  2. reescalar una fila: multiplicar una fila de la matriz $A$ por un escalar $c$ en $F$ distinto de cero,
  3. transvección: reemplazar una fila $L$ por $L+cL’$ para algún escalar $c$ en $F$ y otra fila $L’$ de $A$ diferente a $L$.

La discusión previa muestra que si $A$ es una matriz y $B$ se obtiene a partir de $A$ al aplicar una sucesión finita de operaciones elementales entonces $A\sim B$ (recordamos que esa notación solo nos dice que los sistemas $AX=0$ y $BX=0$ son equivalentes).

Correspondiendo a estas operaciones definimos las matrices elementales:

Definición. Una matriz $A\in M_n(F)$ es una matriz elemental si se obtiene de $I_n$ al realizar una operación elemental.

Ejemplo. La matriz

\begin{align*}
B= \begin{pmatrix} 0 & 1 & 0\\ 1 & 0 & 0\\ 0 & 0 & 1\end{pmatrix}
\end{align*}

es una matriz elemental, pues se obtiene al intercambiar el primer y segundo renglón de $I_3$.

Observamos que las matrices elementales son cuadradas. Tenemos entonces tres tipos de matrices elementales:

  1. Matrices de transposición: aquellas que resultan de intercambiar dos renglones de $I_n$.
  2. Matrices de dilatación: aquellas obtenidas de $I_n$ multiplicando uno de sus renglones por un escalar distinto de cero.
  3. Matrices de transvección: son las que obtenemos de $I_n$ al añadir el múltiplo de un renglón a otro renglón.

Una sencilla, pero crucial observación es la siguiente:

Proposición. Sea $A\in M_{m,n}(F)$ una matriz. Realizar una operación elemental en $A$ es equivalente a multiplicar a $A$ por la izquierda por la matriz elemental en $M_{m}(F)$ correspondiente a la operación.

Demostración: Si $E$ es una matriz de $m\times m$ y $A\in M_{m,n}(F)$, entonces la $i$-ésima fila de $EA$ es $e_{i1} L_1+ e_{i2} L_2+\dots + e_{im} L_m$ donde $L_1, \dots, L_m$ son las filas de $A$ y $e_{ij}$ es la $(i,j)-$ésima entrada de $E$. El resultado se sigue de las definiciones y haciendo caso por caso, de acuerdo al tipo de operación elemental que se trate.

Por ejemplo, si la operación es un intercambio de filas, entonces $E$ es una matriz de transposición en donde, digamos, se intercambiaron la fila $k$ y la fila $l$. Por lo que mencionamos arriba, las filas $L_i$ con $i\neq k$ y $i\neq l$ permanecen intactas, pues $e_{ij}=1$ si $i=j$ y $0$ en otro caso, de modo que la $i$-ésima fila de $EA$ es simplemente $L_i$. Para la fila $k$ de $EA$, tenemos que $e_{kl}=1$ y si $i\neq k$, entonces $e_{ki}=0$. De esta forma, tendríamos que dicha fila es $L_l$. El análisis de la $l$-ésima fila de $EA$ es análogo.

Los detalles de la demostración anterior, así como las demostraciones para operaciones de reescalamiento y transvección, quedan como tarea moral.

$\square$

Ejemplo. Consideremos la matriz $A=\begin{pmatrix} 1 & -2 & 3 & 0\\ 0 & 1 & 0 & 1 \\ -1 & 0 & 3 & 0 \end{pmatrix}$. Vamos a efectuar la transvección que suma $2$ veces la primer fila a la última.

Si la aplicamos a la matriz $A$ nos queda $$A’=\begin{pmatrix} 1 & -2 & 3 & 0 \\ 0 & 1 & 0 & 1 \\ 1 & -4 & 9 & 0 \end{pmatrix}.$$

Para obtener la matriz elemental correspondiente a la transvección, tenemos que aplicársela a la identidad $I_3$. Tras hacer esto nos queda $$\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 2 & 0 &1 \end{pmatrix}.$$

Y en efecto, como afirma la proposición, tenemos que esta matriz que obtuvimos sirve para «aplicar» la transvección pues puedes verificar que si la multiplicamos por la izquierda, tenemos que:

$$\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 2 & 0 &1 \end{pmatrix} \begin{pmatrix} 1 & -2 & 3 & 0\\ 0 & 1 & 0 & 1 \\ -1 & 0 & 3 & 0 \end{pmatrix} = \begin{pmatrix} 1 & -2 & 3 & 0 \\ 0 & 1 & 0 & 1 \\ 1 & -4 & 9 & 0 \end{pmatrix}.$$

$\square$

Tarea moral

Los siguientes ejercicios te ayudarán a repasar los conceptos vistos en esta entrada.

  • En el ejemplo concreto que hicimos, verifica que en efecto las soluciones fundamentales que obtuvimos son solución al sistema. Verifica también que la suma de las tres también es una solución al sistema. Luego, elige los valores que tú quieras para $x_2,x_5,x_7$ y verifica que esa también es una solución
  • ¿Será cierto que la transpuesta de una matriz en forma escalonada reducida también está en forma escalonada reducida? ¿Será cierto que la suma de dos matrices en forma escalonada reducida también es de esta forma?
  • Termina los detalles de la demostración de la última proposición.
  • Demuestra que toda matriz elemental es invertible, y que su inversa también es una matriz elemental.
  • ¿Es cierto que la transpuesta de una matriz elemental es una matriz elemental?

Más adelante…

En la entrada de reducción gaussiana terminaremos de probar que toda matriz puede llevarse mediante operaciones elementales a una matriz en forma escalonada reducida. Más aún, obtendremos un algoritmo sencillo que siempre nos permitirá hacerlo. En el transcurso de este algoritmo siempre tendremos matrices equivalentes entre sí, de modo que esta será una herramienta fundamental para resolver sistemas de ecuaciones lineales.

Entradas relacionadas