Archivo de la etiqueta: combinación lineal

Ecuaciones Diferenciales I: Soluciones a sistemas de ecuaciones diferenciales

Por Omar González Franco

Los errores y dificultades no resueltos en el pasado de las matemáticas
siempre han sido las oportunidades de su futuro.
– E. T. Bell

Introducción

En la entrada anterior vimos lo que es un sistema de ecuaciones diferenciales, en particular un sistema lineal de primer orden. Vimos también lo que es un problema de valores iniciales y establecimos la notación matricial.

Así mismo, vimos cómo es que una ecuación diferencial lineal de orden n se puede transformar en un sistema lineal de primer orden, esto tiene bastante ventaja ya que, una vez que veamos cómo resolver sistemas de ecuaciones diferenciales, muchas veces será más sencillo resolver el sistema que resolver la ecuación de orden n aplicando los métodos que ya conocemos.

En esta entrada estudiaremos las propiedades de las soluciones de los sistemas lineales de primer orden.

Cabe mencionar que mucho de lo que desarrollaremos en esta entrada es bastante similar a la teoría vista con las ecuaciones diferenciales de orden n, comenzando por la validez del principio de superposición.

A partir de ahora sólo usaremos la notación matricial y toda la teoría básica del álgebra lineal que éstas conllevan.

Soluciones de sistemas lineales de primer orden

Comencemos por estudiar el caso homogéneo. El sistema lineal de primer orden homogéneo es

(1)(y1y2yn)=(a11(t)a12(t)a1n(t)a21(t)a22(t)a2n(t)an1(t)an2(t)ann(t))(y1y2yn)

O bien,

(2)Y=AY

En la entrada anterior definimos la solución de un sistema de ecuaciones diferenciales en el intervalo δ como el conjunto de n funciones

(3)S0={y1(t),y2(t),,yn(t)}

definidas en δ y diferenciables en el mismo intervalo, tales que satisfacen simultáneamente las n ecuaciones diferenciables de un sistema lineal.

Las soluciones pueden ser escritas como el vector

(4)Y=(y1(t)y2(t)yn(t))

cuyos elementos son funciones derivables que satisfacen un sistema lineal en el intervalo δ.

En las siguientes definiciones y teoremas se supondrá que los coeficientes aij(t), i,j{1,2,3,,n} y ,para el caso no homogéneo, las funciones gi(t), son continuas en algún intervalo común δ.

Comencemos por mostrar que el principio de superposición también es valido para sistemas lineales.

Demostración: Consideremos la combinación lineal

Y=c1Y1+c2Y2++cmYm

con

Yi=(y1iy2iyni)

para i=1,2,,m. La derivada de Yi esta dada por

Yi=(y1iy2iyni)

Entonces la derivada de la combinación lineal es

Y=(c1y11+c2y12++cmy1mc1y21+c2y22++cmy2mc1yn1+c2yn2++cmynm)=c1(y11y21yn1)+c2(y12y22yn2)++cm(y1my2mynm)=c1Y1+c2Y2++cmYm

Como cada Yi, i=1,2,,m, es solución del sistema homogéneo (2) en δ, entonces

Yi=AYi

así

Y=c1(AY1)+c2(AY2)++cm(AYm)=A(c1Y1+c2Y2++cmYm)=AY

En donde se ha hecho uso de la propiedad distributiva de la matriz A y de la hipótesis (5). Por lo tanto, la combinación lineal

Y=c1Y1+c2Y2++cmYm

también es solución y los es en el mismo intervalo común δ ya que esta compuesta de soluciones definidas en dicho intervalo.

◻

Intenta hacer la demostración.

Realicemos un ejemplo.

Ejemplo: Probar que la combinación lineal

Y=c1Y1+c2Y2+c3Y3=c1(110)+c2(e2te2t0)+c3(00e3t)

es solución del sistema lineal

Y=(110110003)Y

Solución: Probemos que cada uno de los vectores de la combinación lineal es solución y usemos el principio de superposición.

Los vectores son

Y1=(110),Y2=(e2te2t0),Y3=(00e3t)

Por un lado, derivemos estos vectores.

Y1=(000),Y2=(2e2t2e2t0),Y3=(003e3t)

Por otro lado, sustituyamos cada uno de los vectores en el sistema lineal y usemos los resultados anteriores.

AY1=(110110003)(110)=(11110)=(000)=Y1

AY2=(110110003)(e2te2t0)=(e2t+e2te2t+e2t0)=(2e2t2e2t0)=Y2

y

AY3=(110110003)(00e3t)=(003e3t)=Y3

De esta manera queda mostrado que los tres vectores son solución, ya que satisfacen el sistema. Por el principio de superposición concluimos que la combinación lineal

Y=c1Y1+c2Y2+c3Y3=c1(110)+c2(e2te2t0)+c3(00e3t)

también es solución del sistema lineal.

◻

El principio de superposición nos indica que un sistema lineal puede tener más de una solución, sin embargo, similar al caso de ecuaciones diferenciales de orden n, buscamos soluciones que sean linealmente independientes entre sí. A continuación definimos la dependencia e independencia lineal de las soluciones en este contexto.

En la unidad anterior definimos una herramienta muy útil que, además de ayudarnos a resolver ecuaciones diferenciales de orden superior en algunos métodos, nos ayuda a determinar si un conjunto de soluciones es linealmente independiente, dicha herramienta es el Wronskiano, la definición en el caso de los sistemas lineales de primer orden, es la siguiente.

Se puede demostrar que si el Wronskiano es distinto de cero, entonces las soluciones son linealmente independientes, igual que antes, esto es conocido como el criterio para soluciones linealmente independientes. Para demostrar este hecho es conveniente recordar algunos resultados de álgebra que podremos usar en la demostración.

Recordemos que un sistema lineal de n ecuaciones con n incógnitas es un conjunto de ecuaciones

(9)b11u1+b12u2++b1nun=d1b21u1+b22u2++b2nun=d2bn1u1+bn2u2++bnnun=dn

Con bi,j y di, i,j{1,2,3,,n} números reales dados y ui, i=1,2,,n las incógnitas. Usando la notación matricial podemos escribir el sistema (9) como

(10)BU=D

con

B=(b11b12b1nb21b22b2nbn1bn2bnn),U=(u1u2un),D=(d1d2dn)

Los resultados que nos interesan son los siguientes.

Si D=0, el sistema (10) también recibe el nombre de sistema homogéneo.

Con estos resultados podemos demostrar el criterio para soluciones linealmente independientes que se enuncia a continuación.

Demostración:

) Por demostrar: W(Y1,Y2,,Yn)0.

Sea t0δ en el que W(t0)=0, en donde W(t0) denota al Wronskiano con cada vector solución evaluado en el punto t0.

W(t0)=W(Y1(t0),Y2(t0),,Yn(t0))

En una combinación de ambos teoremas de los resultados de álgebra podemos deducir que existen constantes c1,c2,,cn, no todos cero, tal que

(11)Y(t0)=c1Y1(t0)+c2Y2(t0)++cnYn(t0)=0

Lo que tenemos es un sistema lineal de n ecuaciones homogéneo con n incógnitas (sistema lineal en el contexto algebraico (10) con D=0, no sistema lineal de ecuaciones diferenciales), dichas incógnitas son las constantes ci, i=1,2,,n. La relación (11) se cumple debido a que si el Wronskiano es igual a cero, entonces es posible que el sistema no tenga solución trivial y mucho menos una solución única, esto lo deducimos de los teoremas de álgebra que establecimos.

Por otro lado, sabemos por hipótesis que los vectores Y1,Y2,,Yn son solución del sistema homogéneo (2) en el intervalo δ, por el principio de superposición sabemos también que la combinación lineal

Y(t)=c1Y1+c2Y2++cnYn

es solución de (2) en δ. Del resultado (11) y de la unicidad de la solución se deduce que Y(t)=0 para algún punto t=t0δ, es decir,

c1Y1+c2Y2++cnYn=0

Pero por hipótesis los vectores Y1,Y2,,Yn son linealmente independientes en δ, lo que implica que

c1=c2==cn=0

lo cual es una contradicción con lo que establecimos en (11). Por lo tanto, el Wronskiano tiene que ser distinto de cero, es decir

W(Y1,Y2,,Yn)0

) Por demostrar: S es linealmente independiente.

Este caso también lo demostraremos por contradicción. Supongamos que los vectores solución Y1,Y2,,Yn son linealmente dependientes en δ, esto implica que existen constantes c1,c2,,cn no todos cero, tal que

c1Y1+c2Y2++cnYn=0

Este sistema lo podemos escribir en la forma (9) como

c1y11+c2y12++cny1n=0c1y21+c2y22++cny2n=0c1yn1+c2yn2++cnynn=0

En donde las funciones yij, i,j{1,2,3,,n} son los coeficientes y las constantes ci, i=1,2,,n son las incógnitas. Debido a que las ci no son todas cero implica que el sistema no tiene solución trivial y por el segundo teorema de los resultados de álgebra concluimos que

W(Y1,Y2,,Yn)=0

Pero, por hipótesis

W(Y1,Y2,,Yn)0

lo cual es una contradicción y todo nace de considerar a S como un conjunto linealmente dependiente. Por lo tanto, el conjunto de soluciones

S={Y1,Y2,,Yn}

es linealmente independiente en δ.

◻

Un resultado interesante se enuncia a continuación.

Este resultado nos garantiza que si W0 para algún punto t0δ, entonces W0 para toda tδ y por el criterio anterior las soluciones serán linealmente independientes en ese intervalo.

El conjunto de soluciones linealmente independientes del sistema lineal (2) recibe un nombre especial.

El siguiente teorema nos garantiza la existencia de este conjunto.

El conjunto fundamental de soluciones está constituido por vectores que son linealmente independientes entre sí, con estos vectores es posible formar una matriz cuyas columnas están formadas con las entradas de dichos vectores, esta matriz tiene un nombre especial.

Un hecho interesante es que el determinante de la matriz fundamental de soluciones corresponde al Wronskiano.

(13)W(Y1,Y2,,Yn)=|M(t)|

Realicemos un ejemplo, para ello consideremos el sistema lineal del ejemplo anterior.

Ejemplo: Mostrar que las soluciones

Y1=(110),Y2=(e2te2t0),Y3=(00e3t)

del sistema lineal

Y=(110110003)Y

son linealmente independientes.

Solución: En el ejemplo anterior ya comprobamos que efectivamente son solución del sistema lineal dado. Para determinar si son linealmente independientes veamos si el Wronskiano es distinto de cero.

W(Y1,Y2,Y3)=|1e2t01e2t000e3t|=e5t+0+000(e5t)=2e5t0

Como W0, tR, entonces los vectores dados son linealmente independientes y por lo tanto forman un conjunto fundamental de soluciones en R.

S={(110),(e2te2t0),(00e3t)}

La matriz fundamental de soluciones es

M(t)=(1e2t01e2t000e3t)

◻

Un buen ejercicio sería mostrar que un conjunto de soluciones del sistema lineal homogéneo (2) forma un espacio vectorial, es relativamente sencillo probar cada una de las propiedades o axiomas que definen a un espacio vectorial. El resultado a demostrar de tarea moral es el siguiente.

Soluciones generales a sistemas lineales

Ahora que conocemos algunas propiedades de las soluciones de sistemas lineales, es momento de conocer la forma general de las soluciones de los sistemas lineales tanto homogéneos como no homogéneos.

Comencemos por enunciar el teorema que establece la forma de la solución general de un sistema lineal homogéneo (2).

Demostración: Sea Y(t) una solución arbitraria del sistema lineal homogéneo en el intervalo δ, sea t0δ y supongamos que

Y(t0)=(b1b2bn)=Y0

Es decir, la función Y(t) satisface el problema de valores iniciales Y=AY;Y(t0)=Y0.

Por otro lado, por el principio de superposición sabemos que la combinación lineal

Y^(t)=c1Y1(t)+c2Y2(t)++cnYn(t)

también es solución del sistema lineal Y=AY. Donde ci, i=1,2,,n son constantes arbitrarias y las Yi, i=1,2,,n son las soluciones del conjunto fundamental de soluciones del sistema lineal. Supongamos que

Y^(t0)=c1Y1(t0)+c2Y2(t0)++cnYn(t0)=Y0

Lo que tenemos es el siguiente sistema de n ecuaciones.

c1y11(t0)+c2y12(t0)++cny1n(t0)=b1c1y21(t0)+c2y22(t0)++cny2n(t0)=b2c1yn1(t0)+c2yn2(t0)++cnynn(t0)=bn

En donde las incógnitas son las contantes ci, i=1,2,,n. Como las funciones yij, i,j{1,2,3,,n} pertenecen a vectores del conjunto de soluciones, entonces sabemos que Y1,Y2,,Yn son linealmente independientes y por el criterio para soluciones linealmente independientes inferimos que W(t0)0, donde

W(t0)=W(Y1(t0),Y2(t0),,Yn(t0))

De los resultados de álgebra deducimos que el sistema de n ecuaciones tiene solución única, esto significa que existen constantes únicas c1,c2,,cn, tal que

c1Y1(t0)+c2Y2(t0)++cnYn(t0)=Y0

Esto nos indica que

Y^(t)=c1Y1(t)+c2Y2(t)++cnYn(t)

es solución del problema de valores iniciales. Por el teorema de existencia y unicidad para sistemas lineales homogéneas concluimos que Y(t)=Y^(t), es decir,

Y(t)=c1Y1(t)+c2Y2(t)++cnYn(t)

Como Y(t) es una solución arbitraria, entonces debe ser la solución general del sistema lineal homogéneo en δ.

◻

Para concluir la entrada estudiemos el caso no homogéneo.

Sistemas no homogéneos

El sistema lineal de primer orden no homogéneo es

(15)(y1(t)y2(t)yn(t))=(a11(t)a12(t)a1n(t)a21(t)a22(t)a2n(t)an1(t)an2(t)ann(t))(y1(t)y2(t)yn(t))+(g1(t)g2(t)gn(t))

O bien,

(16)Y=AY+G

El vector de funciones que satisface el sistema (16) es una solución y recibe un nombre.

A continuación se enuncia el teorema que nos muestra la forma general de la solución de un sistema lineal no homogéneo.

Demostración: Sea

Yp(t)=(y1py2pynp)

una solución particular de (16) y sean Y1(t),Y2(t),,Yn(t), n soluciones linealmente independientes del sistema homogéneo asociado Y=AY.

Sea Y(t) una solución arbitraria del sistema no homogéneo, notemos lo siguiente.

(Y(t)Yp(t))=Y(t)Yp(t)=(AY(t)+G)(AYp(t)+G)=A(Y(t)Yp(t))

Este resultado nos indica que Y(t)Yp(t) es solución del sistema homogéneo, eso significa que se puede escribir como

Y(t)Yp(t)=c1Y1(t)+c2Y2(t)++cnYn(t)

entonces, la solución Y tiene la forma

(19)Y(t)=c1Y1(t)+c2Y2(t)++cnYn(t)+Yp(t)

La solución Y(t), al ser cualquier solución del sistema lineal no homogéneo, podemos deducir que la solución general debe tener la forma (19), por lo que concluimos que Y(t) se trata de la solución general de (16).

Considerando la hipótesis (17) concluimos que la solución general del sistema lineal no homogéneo es

Y(t)=Yc(t)+Yp(t)

◻

Cuando estamos trabajando con un sistema lineal no homogéneo, la solución general del sistema lineal homogéneo asociado (17) recibe un nombre particular.

Concluyamos con un ejemplo.

Ejemplo: Probar que el vector

Yp=(14e2t+12te2tet+14e2t+12te2t12t2e3t)

es una solución particular del siguiente sistema lineal no homogéneo.

Y=(110110003)Y+(ete2tte3t)

Solución: Por un lado, derivemos el vector dado.

Yp=(12e2t+12e2t+te2tet+12e2t+12e2t+te2tte3t+32t2e3t)=(te2tet+e2t+te2tte3t+32t2e3t)

Por otro lado, sustituyamos directamente en el sistema al vector dado.

Y=(110110003)(14e2t+12te2tet+14e2t+12te2t12t2e3t)+(ete2tte3t)

Operando obtenemos lo siguiente.

Y=(14e2t+12te2tet+14e2t+12te2t+et14e2t+12te2tet+14e2t+12te2t+e2t32t2e3t+te3t)=(te2tet+e2t+te2tte3t+32t2e3t)

Los resultados obtenidos son los mismos, por lo tanto el vector Yp es solución del sistema.

En los ejemplos anteriores de esta entrada probamos que el conjunto fundamental de soluciones del sistema lineal homogéneo asociado

Y=(110110003)Y

esta constituido por los vectores linealmente independientes

Y1=(110),Y2=(e2te2t0),Y3=(00e3t)

de manera que la función complementaria es

Yc=c1(110)+c2(e2te2t0)+c3(00e3t)

Como la solución general es

Y=Yc+Yp

Entonces la solución general del sistema lineal no homogéneo es

Y(t)=c1(110)+c2(e2te2t0)+c3(00e3t)+(14e2t+12te2tet+14e2t+12te2t12t2e3t)

◻

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Los siguientes vectores son soluciones de un sistema lineal homogéneo Y=AY. Determinar si forman un conjunto fundamental de soluciones en R.
  • Y1=(11)et,Y2=(26)et+(88)tet
  • Y1=(1613),Y2=(121)e4t,Y3=(232)e3t
  1. Probar que el vector Yp es una solución particular del sistema lineal dado.
  • Y=(2134)Y(17)et,Yp=(11)et+(11)tet
  • Y=(123420610)Y+(143)sin(3t),Yp=(sin(3t)0cos(3t))
  1. Mostrar que la solución general de

    Y=(060101110)Y

    en el intervalo (,) es

    Y=c1(615)et+c2(311)e2t+c3(211)e3t
  1. Mostrar que la solución general de

    Y=(1111)Y+(11)t2+(46)t+(15)

    en el intervalo (,) es

    Y=c1(112)e2t+c2(11+2)e2t+(10)t2+(24)t+(10)
  1. Demostrar que el conjunto de soluciones del sistema lineal homogéneo Y=AY forma un espacio vectorial con la suma y el producto por escalares usuales de matrices.

Más adelante…

Ahora que conocemos lo que son los sistemas lineales de ecuaciones diferenciales y las propiedades de sus soluciones estamos casi listos para comenzar a desarrollar los distintos métodos de resolución, sin embargo, antes de ello es necesario definir una herramienta matemática que será de suma utilidad en el desarrollo posterior de esta unidad. Dicha herramienta es la exponencial de una matriz.

En la siguiente entrada definiremos lo que significa eAt, donde A es una matriz de n×n con componentes constantes y veremos como se relaciona con un sistema lineal Y=AY. Así mismo, profundizaremos en el concepto de matriz fundamental de soluciones.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Geometría Analítica I: Aplicaciones a más dimensiones

Por Elsa Fernanda Torres Feria

Introducción

Hasta ahora, describimos la recta de distintas maneras en el espacio R2. A partir de esto, es posible ampliar esas definiciones de recta al espacio Rn, en especial a R3. Para este último caso, de manera escrita lo único que tendríamos que hacer sería establecer los puntos que definen a la recta dentro de R3; en la parte geométrica, estamos agregando una dimensión más al graficar, por lo que tenemos más opciones aún.

En esta entrada ampliaremos esas definiciones de recta al espacio vectorial R3 y el siguiente paso será definir el plano en este mismo espacio a partir de las definiciones mencionadas al inicio de este párrafo.

Rectas en R3

Comencemos esta entrada redefiniendo la recta en el espacio R3 a partir de las dos definiciones que tenemos de este elemento hasta ahora.

Definición. Una recta en forma paramétrica en R3 consiste de tomar un punto PR3 y otro punto (o vector) dirección QR3 y considerar el conjunto

L={P+rQ:rR}

Definición. Una recta en forma baricéntrica en R3 consta de tomar puntos distintos P y Q R3 y considerar al conjunto

L={rP+sQ:r,sR,r+s=1}

En el siguiente interactivo ponle Play a los delizadores para comprender mejor estas dos definiciones de recta en el espacio. Nota que C es la definición paramétrica de la recta, cuyo parámetro es a; mientras que F es la recta en forma baricéntrica que pasa por los puntos A y E.

Si bien los deslizadores en este interactivo sólo corren de2 a 2, recuerda que tanto a como b R.

En esta entrada comenzamos generalizando las definiciones de recta al espacio $\mathbb{R}^3. Por lo que (siguiendo esta lógica), el siguiente paso es plantear y trabajar la idea de un plano en el espacio.

Plano en forma paramétrica

Si el considerar un punto en R3 al cual se le suman múltiplos de un punto director (también en R3) obtenemos una recta en este espacio, ¿entonces qué necesitamos para describir un plano en el espacio?

Definición. Un plano en forma paramétrica en R3 consiste de tomar un punto PR3 y dos puntos dirección Q,RR3 y considerar el conjunto

Π={P+rQ+sR:r,sR}

Para continuar, analicemos esta definición por partes con ayuda de lo que hemos descrito hasta ahora en esta entrada. Al tomar r fijo en la parte de la definición dada por rQ+sR, obtenemos una recta que pasa por rQ con dirección R; . De manera análoga, al tomar s fijo, obtenemos una recta que para por sR y tiene dirección Q.

Tomando a Q=(2,5,1) y a R=(3,4,5) como ejemplo, usa los deslizadores en el siguiente interactivo para notar qué pasa cuando fusionas las dos ideas que acabamos de discutir, al establecer un punto C=rQ+sR (con r y s en R).

Ojalá hayas notado que al dejar correr ambos deslizadores, el rastro del punto C describe un plano que claro pasa por Q y R, pero pasa por otro punto definido más. Dentro del mismo interactivo, utiliza la herramienta Plano por tres puntos para definir el plano del que hablamos; deja correr los deslizadores y confirma con esto que el rastro de C es este plano.

Para continuar con nuestro análisis, agreguemos la parte faltante al conjunto Π, el punto P. Ojalá recuerdes que en la descripción paramétrica de una recta, el punto que no tiene un parámetro multiplicando es el punto por el que pasa la recta, si ese punto no está, significa que la recta pasa por el origen. Esta idea se repite análogamente en el caso del plano.

En el análisis que acabamos de realizar, el plano descrito por rQ+sR, es el plano que tiene como dirección a Q y a R y además pasa por el origen. Al agregar P a la expresión, lo que se obtiene es un plano paralelo al descrito anteriormente, pero esta vez pasa por P, es decir, a cada punto del plano rQ+sR se le sumará el punto fijo P.

Plano en forma baricéntrica

Continuemos con la lógica que hemos seguido hasta ahora, con lo cual el siguiente paso es definir el plano en forma baricéntrica.

Definición. Un plano en forma baricéntrica en R3 consta de tomar los puntos P, Q, y R y considerar el conjunto

Π={pP+qQ+rR:p,q,rR y p+q+r=1}

Al definir el plano de esta manera, lo que debes imaginar es algo distinto a la primera definición que establecimos. Piensa a Π como un plano que pasa por los puntos P, Q y R.

El siguiente interactivo sólo es la ilustración de un plano en su forma baricéntrica.

Ahora que ya definimos de maneras distintas el plano en el espacio, lo más natural sería encontrar la equivalencia entre estas dos definiciones así como lo vimos al hablar de la recta, sólo que en este caso lo formalizaremos con una proposición.

Relación entre las expresiones de un plano

Proposición. Todo plano en forma paramétrica puede expresarse en forma baricéntrica y viceversa.

Lo que nos gustaría hacer para la demostración, sería mostrar que siempre se pueden encontrar P, Q y R con los cuales se puede definir un plano en forma baricéntrica de tal manera que ese conjunto sea el mismo que el conjunto que define a un plano en forma paramétrica.

Demostración.

Parte 1: Partamos de un plano en su forma paramétrica al tomar P,Q,RR3 tal que

Π={P+rQ+sR:r,sR}

En esta parte de la demostración, nuestro objetivo es encontrar tres puntos en Π muy específicos con los cuales podemos describir el mismo plano pero en su forma baricéntrica.

Por lo anterior y yendo directo al grano, busquemos dos puntos en el plano. Si bien podemos escoger cualesquiera valores de r y s para determinar ciertos puntos en el plano, facilitaremos el álgebra al escoger casos particulares de valores para r y s y así obtener tres puntos «prácticos» en el plano que nos servirán para la forma baricéntrica de este. Los valores de los parámetros no serán tomados de manera aleatoria. Por lo que discutimos anteriormente, podemos definir ciertos puntos (en nuestra demostración P’, Q’ y R’) como combinaciones lineales puntuales de P, Q, R.

  1. El caso más sencillo es tomar r=s=0 y así obtener el punto P=PΠ.
  2. Si ahora r=0 y s=1, tenemos R=P+R.
  3. Y si r=1 y s=0, obtenemos Q=P+Q.

Ya que tenemos estos 3 puntos en Π, podemos definir el plano en su forma baricéntrica:

Π={pP+qQ+rR:p,q,rR}

Para continuar, afirmamos que Π=Π’, y para comprobarlo, tenemos que checar que cada elemento en Π, está en Π’. La manera más sencilla de hacerlo, es tomar un elemento genérico de Π (i.e. un elemento que «represente» a todos) y mostrar que está en Π’.

Tomemos un elemento de Π, es decir un vector de la forma P+rQ+sR.

Por Demostrar: Existen a,b,cR, tales que a+b+c=1 y además

P+rQ+sR=aP+bQ+cR

Encontremos entonces los valores de a,b, c.

Al sustituir los elementos primados, tenemos

P+rQ+sR=aP+b(P+Q)+c(P+R)=aP+bP+bQ+cP+cR=(a+b+c)P+bQ+cR

P+rQ+sR=(a+b+c)P+bQ+cR

La igualdad nos lleva a un sistema de ecuaciones a partir del cual podremos obtener los valores de a, b, y c para que esta se cumpla

a+b+c=1b=rc=s

La primera condición ya cumple algo que queríamos y además, podemos despejar a a=1bc, que gracias a las otras igualdades que tenemos, conocemos su valor en términos de r y s

a=1rs

Por lo que

P+rQ+sR=(1rs)P+r(P+Q)+s(P+R)

tal que (1rs)+r+s=1.

Hasta aquí, lo que hemos demostrado es que cualquier elemento en Π lo podemos escribir como un elemento en Π’, esto es que ΠPi’. Lo que sigue es realizar el camino contrario.

Ahora, lo que queremos es demostrar que ΠPi; para lo cual partiremos de un elemento en Π’ y buscaremos llegar a un elemento en Π.

Tomemos un elemento en Π, esto es que es de la forma

aP+bQ+cR=aP+b(P+Q)+c(P+R)

con a+b+c=1. Por medio de álgebra, queremos llegar a una expresión que represente un elemento de Π

aP+b(P+Q)+c(P+R)==aP+bP+bQ+cP+Cr=(a+b+c)P+bQ+cR

Pero por hipótesis, a+b+c=1, por lo que

=P+bQ+cR

que efectivamente está en Π, pues es un elemento de la forma P+rQ+sR. Por lo que ΠΠ.

ΠΠ’ y ΠPi, entonces Π=Π’. Nota que concluimos esto partiendo de un plano en su forma paramétrica y al hacer el caso de la forma baricéntrica, utilizamos los puntos definidos a partir de la primera forma mencionada.

Parte 2. Para la parte 2, sólo te dare algunos consejos para que completes la demostración, pues es bastante parecida a lo que hicimos en la parte 1. Primero, tienes que partir del plano en su forma baricéntrica, es decir

Π={pP+qQ+rR:p+q+r=1 con p,q,rR}

Y buscar los puntos P’, Q’ y R’ tales que al tomar P’ como punto base y Q’ y R’ como direcciones, obtengas que Π=Π.

Si realizas el procedimiento de la manera correcta, llegarás a que los puntos son :

P=PQ=QPR=RP

Al completar esta segunda parte, entonces la demostración estará completa.

◻

Dimensiones mayores a 3

Para cerrar esta entrada, enunciaremos algunas definiciones que nos ayudarán en un futuro a definir cosas más complejas.

Definición. Sean u1, u2, , uk puntos en Rn. Sean s1, s2, , sk números reales. A una expresión de la forma

s1u2+s2u2++skuk

le llamamos una combinación lineal de u1, u2, uk.

Ejemplo: Sea el espacio R5, una combinación lineal en este es

5(3,1,0,2,7)+2(3,6,8,1,9)+(3)(3,9,0,1,2)

Definición. A una combinación lineal en donde los coeficientes suman 1, le llamamos una combinación afín. Esto es que

s1+s2++sk=1

Ejemplo: La combinación del ejemplo anterior no es afín, pues

5+2+(3)=5+23=8+2=61

Sin embargo, podemos obtener una combinación afín con los mismos vectores.

4(3,1,0,2,7)+2(3,6,8,1,9)+3(3,9,0,1,2)

Es una combinación afín, pues

4+2+3=4+5=1

Definición. Al conjunto de todas las combinaciones lineales de ciertos vectores dados u1, u2, uk Rn se le conoce como el subespacio generado por u1, u2, uk y lo denotamos como

u1,u2,,uk

esto es

u1,u2,,uk={s1u2+s2u2++skuk:s1,,skR}

Veamos dos ejemplos de esta definición.

Ejemplo 1: Sea v1R2, v10, el espacio generado por este vector es

v1={s1v1:s1R}

Ejemplo 2: Sea v1,v2R2, v10 y v20, el espacio generado es

v1,v2={s1v1+s2v2:s1,s2R}

Cerremos esta entrada con una última definición y su respectivo ejemplo.

Definición. Si A es un subconjunto de Rny p es un vector en Rn, entonces el traslado de A por el vector p es el conjunto

A+p=p+A={x+p:xA}

Esta última definición nos es de utilidad para pasar de una recta o un plano que pasa por el origen a otro que pasa por cualquier punto p.

Ejemplo: Sea Π={r(5,3,2)+s(1,7,0):s,rmathbbR el plano que pasa por el origen y que tiene como vectores directores a (5,3,2 y (1,7,0). Entonces el traslado de Π por p=(2,3,9) es el conjunto

p+Π=Π+p=Π+(2,3,9)={r(5,3,2)+s(1,7,0)+(2,3,9):s,rR}

Más adelante

Con lo desarrollado en esta entrada seremos capaces de definir ciertos lugares geométricos ya no sólo en el plano, si no también en el espacio. Además, desarrollamos una intuición lógica para continuar construyendo lo que resta del curso.

Tarea moral

  • En el párrafo siguiente a la definición de un plano en el espacio:
    • ¿Cuál es el parámetro de la recta descrita al tomar r fijo?
    • ¿Cuál es el parámetro de la recta descrita al tomar s fijo?
  • Completa el interactivo de la sección Plano en el espacio al dibujar el plano definido por los puntos Q y R del interactivo y P=(3,26). Estarás en lo correcto si el plano que obtienes es paralelo al definido por Q, R y el origen.
  • Completa la demostración de la proposición que trata la equivalencia entre las definiciones de plano en el espacio.
  • ¿Qué espacio geométrico define el primer ejemplo de subespacio generado? ¿y el ejemplo 2?
  • Da una expresión paramétrica para el plano que pasa por los puntos P=(1,2,0), Q=(1,0,1) y R=(1,02).

Álgebra Lineal I: Combinaciones lineales

Por Julio Sampietro

Introducción

En esta entrada presentamos el concepto de combinaciones lineales en espacios vectoriales que será fundamental para nuestro estudio. De cierta manera (que se verá más claramente cuando hablemos de bases en espacios vectoriales arbitrarios) captura un aspecto de la base canónica de Fn: Todo vector lo podemos escribir como x1e1++xnen, lo que con nuestro lenguaje será una combinación lineal de los vectores ei.

También hablamos del concepto de espacio generado. De manera intuitiva, el espacio generado por un conjunto de vectores es el mínimo subespacio que los tiene (y que a la vez tiene a todas las combinaciones lineales de ellos). Geométricamente, los espacios generados describen muchos de los objetos conocidos como rectas y planos. De manera algebraica, este concepto nos servirá mucho en lo que sigue del curso.

Definición de combinaciones lineales

Sea V un espacio vectorial sobre un campo F, y sean v1,,vn vectores en V. Por definición, V contiene a todos los vectores de la forma c1v1++cnvn con c1,,cnF. La colección de los vectores de este estilo es importante y le damos una definición formal:

Definición. Sean v1,,vn vectores en un espacio vectorial V sobre F.

  1. Un vector v es una combinación lineal de los vectores v1,,vn si existen escalares c1,,cnF tales que
    v=c1v1+c2v2++cnvn.
  2. El espacio generado (que a veces abreviaremos como el generado) por v1,,vn es el subconjunto de V de todas las combinaciones lineales de v1,,vn, y lo denotamos por span(v1,,vn).

Ejemplo.

  1. La matriz A=(2211) es una combinación lineal de las matrices B=(10050) y C=(01012) pues A=15B+2C. Así, A está en el generado por B y C.
  2. El generado span(v) de un único vector en Rn consta de puras copias re-escaladas de v (también nos referimos a estos vectores como múltiplos escalares de v). Usando la interpretación geométrica de vectores en R2 o R3, si v0 entonces span(v) representa una recta por el origen en la dirección de v.
  3. Si e1=(1,0,0) y e2=(0,1,0), entonces
    xe1+ye2=(x,y,0).
    Como x y y fueron arbitrarios, podemos concluir que span(e1,e2) consta de todos los vectores en R3 cuya tercer entrada es cero. Esto es el plano xy. En general, si v1,v2 son dos vectores no colineales en R3 entonces su espacio generado es el único plano por el origen que los contiene.
  4. El polinomio 3x10+7 del espacio vectorial R10[x] no puede ser escrito como combinación lineal de los polinomios x10+x2+1, x7+3x+1, 7x3. Para demostrar esto, debemos probar que no existen reales a,b,c tales que 3x10+7=a(x10+x2+1)+b(x7+3x+1)+7cx3.
    Procedamos por contradicción. Si acaso esto fuera posible, desarrollando el producto de la derecha y observando el coeficiente de x10, necesitamos que a sea igual a 3. Pero entonces a la derecha va a quedar un término 3x2 que no se puede cancelar con ninguno otro de los sumandos, sin importar el valor de b o c. Igualando términos cuadráticos, tendríamos entonces 0=3x2, lo cual es una contradicción.

Problemas prácticos de combinaciones lineales

La definición de que un vector sea combinación de otros es existencial. Para mostrar que sí es combinación lineal, basta encontrar algunos coeficientes. Para mostrar que no es combinación lineal, hay que argumental por qué ninguna de las combinaciones lineales de los vectores es igual al vector buscado.

Problema 1. Muestra que el vector (1,1,1) de R3 no se puede expresar como combinación lineal de los vectores

v1=(1,0,0),v2=(0,1,0) y v3=(1,1,0).

Solución. Una combinación lineal arbitraria de v1,v2,v3 es de la forma

x1v1+x2v2+x3v3=(x1+x3,x2+x3,0)

para x1,x2,x3 reales. Así, las combinaciones lineales de v1,v2,v2 siempre tienen a 0 como tercera coordenada. De esta forma, ninguna de ellas puede ser igual a (1,1,1).

◻

Más generalmente, consideramos el siguiente problema práctico: dada una familia de vectores v1,v2,,vk en Fn y un vector vFn, decide si v es una combinación lineal de v1,,vk. En otras palabras, si vspan(v1,,vk).

Para resolver este problema, consideramos la matriz de tamaño n×k cuyas columnas son v1,,vk. Decir que vspan(v1,,vk) es lo mismo que encontrar escalares x1,,xkF tales que v=x1v1++xkvk. De manera equivalente, si tomamos X=(x1,,xk), queremos la existencia de una solución al sistema AX=v.

Esto es muy útil. Como tenemos una manera práctica de decidir si este sistema es consistente (por reducción gaussiana de la matriz aumentada (A|v)), tenemos una manera práctica de resolver el problema de si un vector es combinación lineal de otros. Por supuesto, esto también nos da una solución concreta al problema, es decir, no sólo decide la existencia de la combinación lineal, sino que además da una cuando existe.

Problema 2. Sean v1=(1,0,1,2),v2=(3,4,2,1) y v3=(5,8,3,0) vectores en el espacio vectorial R4. ¿Está el vector v=(1,0,0,0) en el generado de v1,v2 y v3? ¿El vector w=(4,4,3,3)?

Solución. Aplicamos el método que describimos en el párrafo anterior. Es decir, tomemos la matriz

A=(135048123210).

Queremos ver si el sistema AX=v es consistente. Haciendo reducción gaussiana a mano, o bien usando una calculadora de forma escalonada reducida (por ejemplo, la de eMathHelp), obtenemos que la forma escalonada reducida de la matriz aumentada (A|v) es

(A|v)(1010012000010000).

Viendo el tercer renglón, notamos que tiene pivote en la última columna. Deducimos que el sistema no es consistente, así que vspan(v1,v2,v3).

Procedemos de manera similar para el vector w. Esta vez tenemos

(A|w)(1011012100000000),

lo que muestra que el sistema es consistente (pues ninguna fila tiene su pivote en la última columna), por lo tanto wspan(v1,v2,v3). Si queremos encontrar una combinación lineal explícita tenemos que resolver el sistema

(101012000000)(x1x2x3)=(1100).

Tenemos que ninguna fila tiene su pivote en la columna 3, así que x3 es variable libre. Las variables x1 y x2 son pivote. Esto nos da como solución x1=x3+1 y x2=12x3. Entonces podemos escribir

w=(1+x3)v1+(12x3)v2+x3v3

y esto es válido para cualquier elección de x3. Podemos, por ejemplo, escoger x3=0 y obtener w=v1+v2.

Por supuesto, en el problema anterior pudimos haber encontrado la expresión w=v1+v2 explorando el problema o por casualidad. Esto sería suficiente para mostrar que w es combinación lineal. Pero la ventaja del método sistemático que mostramos es que no se corre el riesgo de no encontrar la solución a simple vista. De me manera definitiva nos dice si hay o no hay solución, y cuando sí hay, encuentra una.

Una caracterización del espacio generado

Probamos el siguiente resultado, que explica la importancia del concepto de espacio generado. En particular, la proposición muestra que el espacio generado es un subespacio. Si te parece un poco confusa la demostración, puede ser de ayuda leer antes la observación que le sigue.

Proposición. Sea V un espacio vectorial sobre un campo F y v1,v2,,vnV. Entonces

  1. span(v1,v2,,vn) es la intersección de todos los subespacios vectoriales de V que contienen a todos los vectores v1,,vn.
  2. span(v1,v2,,vn) es el subespacio más chico (en contención) de V que contiene a v1,,vn.

Demostración. Como la intersección arbitraria de subespacios es un subespacio, la parte 1 implica la parte 2. Probemos entonces la parte 1.

Primero demostremos que span(v1,v2,,vn) está contenido en todo subespacio W de V que tiene a v1,,vn. En otras palabras, tenemos que ver que cualquier subespacio W que tenga a v1,,vn tiene a todas las combinaciones lineales de ellos. Esto se sigue de que W, por ser subespacio, es cerrado bajo productos por escalar y bajo sumas. Así, si tomamos escalares α1,,αn tenemos que cada uno de α1v1,,αnvn está en W y por lo tanto la combinación lineal (que es la suma de todos estos), también está en W.

La afirmación anterior implica que span(v1,,vn) está contenido en la intersección de todos los espacios que tienen a v1,,vn, pues está contenido en cada uno de ellos.

Ahora, queremos ver ‘la otra contención’, es decir, que span(v1,,vn) contiene a la intersección de todos los espacios que tienen a v1,,vn. Para esto veremos primero que span(v1,,vn) es un subespacio vectorial. Sean x,yspan(v1,,vn) y cF un escalar. Como x y y son, por definición, combinaciones lineales de v1,,vn, podemos escribir x=a1v1++anvn para algunos escalares ai y y=b1v1++bnvn para unos escalares bi. Así

x+cy=(a1+cb1)v1++(an+cbn)vn

también es una combinación lineal de v1,,vn y por tanto un elemento del espacio generado. Se sigue que span(v1,,vn) es uno de los subespacios que tienen a v1,,vn. Así, este generado «aparece» en la intersección que hacemos de subespacios que tienen a estos vectores, y como la intersección de una familia de conjuntos está contenida en cada uno de esos conjuntos, concluimos que span(v1,,vn) contiene a dicha inteesección.

Argumentemos ahora la segunda parte de la proposición. Se usa el mismo argumento que arriba. Si W es cualquier subespacio que contiene a v1,,vn, entonces «aparece» en la intersección y por tanto span(v1,,vn) está contenido en W. Es decir, es más chico (en contención) que cualquier otro subespacio que contenga a estos vectores.

◻

Observación. Ya que la demostración previa puede resultar un poco confusa, presentamos una versión un poco más relajada de la idea que se usó. Sea {WiiI} la familia de todos los subespacios de V que contienen a v1,,vn.

En el primer párrafo, probamos que

span(v1,,vn)Wi

para todo iI. Luego span(v1,,vn)iIWi.

En el segundo párrafo, probamos que Span(v1,,vn) es un subespacio que contiene a v1,,vn. Es decir, entra en nuestra familia {WiiI}, es uno de los Wi, digamos Wj. Entonces

span(v1,,vn)=WjiIWi.

En ese momento ya tenemos la primer igualdad: span(v1,,vn)=iIWi.

Ahora, la segunda conclusión de la proposición se sigue de esto con una observación más: Si W es un subespacio que contiene a v1,,vn entonces también entra en nuestra familia de los Wi’s, es decir es Wp para algún pI. Ahora usando el inciso 1, tenemos que

span(v1,,vn)=iIWiWp=W.

Esto concluye la demostración.

Más adelante…

El concepto de combinación lineal es la piedra angular para definir varios otros conceptos importantes en espacios vectoriales. Es un primer paso para definir a los conjuntos de vectores generadores y a los conjuntos de vectores linealmente independientes. Una vez que hayamos desarrollado ambos conceptos, podremos hablar de bases de un espacio vectorial, y con ello hablar de la dimensión de un espacio vectorial.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. ¿Se puede expresar al vector (1,3,0,5) como combinación lineal de (0,1,0,3), (0,1,2,0) y (2,0,1,6)? Si sí, encuentra una o más combinaciones lineales que den el vector (1,3,0,5)
  2. ¿Se puede expresar al polinomio 1+x2+3x3x4+x5 como combinación lineal de los siguientes polinomios
    x23x4,1+x2x5,2x+x4,2+x2,5x+5x2x5?
  3. Sea P un plano en R3 por el origen y L una recta de R3 por el origen y con dirección dada por un vector v0. Demuestra que la intersección de L con P es una recta si y sólo si existen dos vectores en P tal que su suma sea v.
  4. Encuentra el conjunto generado por los vectores del espacio vectorial indicado
    • Las matrices (1001) y (1001) del espacio M2.
    • Los vectores (1,1,0) y (1,0,1) del espacio R3.
    • Los polinomios 1, x, x2 y x3 del espacio R[x].
  5. Sea V un espacio vectorial. Si v1,,vn,x son vectores en un espacio vectorial V, ¿será cierto siempre que span(v1,,vn)span(v1,,vn,x)? De ser así, ¿esta contención siempre es estricta? Demuestra tu respuesta o da un contraejemplo.
  6. Sean v1,,vn y x vectores en un espacio vectorial V. Supongamos que vn está en span(v1,,vn1,x). Muestra que span(v1,,vn1,x)=span(v1,,vn1,vn).

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Bases y dimensión de espacios vectoriales

Por Ayax Calderón

Introducción

Ya hablamos de conjuntos generadores y de independencia lineal. Además, ya platicamos también del lema de intercambio de Steinitz. Con estas herramientas, tenemos todo a nuestra disposición para desarrollar la teoría de dimensión de espacios vectoriales.

Para espacios vectoriales en general, esto puede no resultar tan sencillo. Por esta razón, para este tema nos enfocaremos en el caso en el que la dimensión es finita. Sin embargo, también veremos ejemplos de espacios que no son así, y hablaremos un poco de cómo son.

Espacios de dimensión finita

Definición. Se dice que un espacio vectorial es de dimensión finita si tiene un conjunto generador con una cantidad finita de elementos.

Otra forma de interpretar la definición anterior es la siguiente:
V es un espacio vectorial de dimensión finita si existe una familia finita de vectores v1,v2,,vnV tal que todos los vectores en V se pueden expresar como combinación lineal de dicha familia. Por ejemplo, los espacios Fn,Mm,n(F), y Rn[x] son de dimensión finita. Sin embargo, no todos los espacios vectoriales son de dimensión finita, de hecho la mayoría no lo son.

Problema. Demuestra que el espacio vectorial V de todos los polinomios con coeficientes reales no es un espacio vectorial sobre R de dimensión finita.

Demostración. Supongamos que V tiene un conjunto generador finito, entonces existen polinomios p1,p2,,pnV tales que V=span(p1,p2,,pn). Sea d=max{deg(p1),,deg(pn)}. Como todos los pi tienen grado a lo más d, entonces cualquier combinación lineal de p1,p2,,pn también tiene grado a lo más d. Se sigue que todo vector en V tiene grado a lo más d, pero eso es imposible, pues deg(xd+1)=d+1>d. Por lo tanto V no es de dimensión finita.

◻

Nos gustaría definir la dimensión de un espacio vectorial. Para ilustrar esto es bueno pensar primero en Rn para distintos valores de n. Una linea (digamos R) debería tener dimensión 1, un plano (digamos R2) debería tener dimensión 2, y en general Rn debería tener dimensión n.

Antes de profundizar más en esto, es conveniente mencionar algunas definiciones y problemas prácticos para generar una mejor intuición sobre el rumbo que estamos a punto de tomar.

Definición. Una base de un espacio vectorial V es un subconjunto B de V tal que B es linealmente independiente y generador.

Ejemplos.

  • El conjunto B={e1,,en} de vectores canónicos en Fn es una base. Esto se puede verificar con lo que hicimos al inicio del curso, cuando mostramos que cualquier vector v en Fn se puede escribir de manera única como v=x1e1++xnen con x1,,xn escalares. Como existe al menos una forma, entonces span(B)=Fn. Como es única, en particular la única forma de escribir al vector 0 es si x1==xn=0. Esto muestra que B es generador y linealmente independiente.
  • El conjunto B={Eij} de matrices canónicas en Mm,n(F) es una base.
  • El conjunto 1,x,,xn es una base de Rn[x].

Encontrar bases de subespacios

Como los subespacios de espacios vectoriales también son espacios vectoriales, entonces también tiene sentido hablar de si un conjunto de vectores es base para un subespacio. Veamos ahora varios problemas para entender mejor esto.

Problema 1. Dada la matriz AM2(R)
A=(2003)
encuentra una base para el subespacio U de M2(R) definido por
U={XM2(R):XA=AX}.

Solución. Considera la matriz X=(a1a2a3a4). Entonces XU si y sólo si XA=AX, lo anterior lo escribimos como
(2a13a22a33a4)=(2a12a23a33a4).
De la igualdad anterior obtenemos que a2=a3=0. Por lo tanto
U={(a100a4):a1,a4R}.

Este es un primer paso, pues nos permite poner al subespacio U en una forma en la que es más fácil de entender. Ahora es más fácil encontrar una base para U. Proponemos al siguiente conjunto de dos matrices:
B={(1000),(0001)}.

Por un lado, este es un conjunto generador para U, pues cualquier elemento de U se puede escribir como combinación lineal de elementos en B como sigue: (a100a4)=a1(1000)+a4(0001).

Por otro lado, B es un conjunto linealmente independiente pues si a y b son escalares que tan una combinación lineal igual a cero entonces tendríamos (0000)=a(1000)+b(0001)=(a00b).

Igualando la primera y última matriz entrada a entrada, tenemos que a=b=0.

Es importante que revises el problema anterior con profundidad, pues da una idea de cómo encontrar una base B de un subespacio U de un espacio vectorial V. Una receta que funciona en algunos casos es la siguiente:

  • Entender bien el subespacio U del que hay que dar una base.
  • Expresar a U en términos simples.
  • Ver cómo son los vectores de U, y de ahí proponer una base B. Para esta parte hay que jugar un poco con conjuntos de vectores, para ver si son suficientes para generar y no son demasiados como para ya no ser linealmente independientes.
  • Mostrar que B genera a U.
  • Mostrar que B es linealmente independiente en V.

Veamos más ejemplos.

Problema 2. Determina una base para el subespacio U de R4 dado por
U={(a,b,c,d)R4:a+b=0,c=2d}.

Solución. Como b=a y c=2d, entonces
U={(a,a,2d,d)R4:a,dR}={av1+dv2|a,dR},
donde v1=(1,1,0,0) y v2=(0,0,2,1). Por lo tanto v1,v2 generan a U. También son linealmente independientes, pues la relación av1+dv2=0 es equivalente a (a,a,2d,d)=(0,0,0,0) e implica a=d=0.Se sigue que {v1,v2} es una base para U.

Problema 3. Considera los subespacios U,V de R4 definidos por
U={(x,y,z,w)R4:y+z+w=0}
y
V={(x,y,z,w)R4:x=y,z=2w}.
Encuentra una base para cada uno de los subespacios U,V y UV de R4.

Solución. Expresando a w en términos de y y z, obtenemos
U={(x,y,z,yz)|y,zR}={xu1+yu2+zu3|x,y,zR},
donde u1=(1,0,0,0),u2=(0,1,0,1) y u3=(0,0,1,1).

Veamos si u1,u2,u3 son linealmente independientes. La igualdad xu1+yu2+zu3=0 es equivalente a (x,y,z,yz)=(0,0,0,0) e implica x=y=z=0. Por lo tanto, los vectores u1,u2,u3 son linealmente independientes y forman una base de U.

Ahora, para V. Es fácil ver que
V={(y,y,2w,w)|y,wR}={yv1+wv2|y,wR},
donde v1=(1,1,0,0) y v2=(0,0,2,1).

Nuevamente, v1,v2 son linealmente independientes, pues la relación yv1+wv2=0 es equivalente a (y,y,2w,w)=(0,0,0,0) e implica y=w=0. Por lo tanto v1,v2 forman una base de V.

Finalmente, el vector (x,y,z,w)R4 pertenece a UV si y sólo si
x=y,z=2w,y+z+w=0.
Se sigue que x=3w,z=2w y y=3w, o bien
(x,y,z,w)=(3w,3w,2w,w)=w(3,3,2,1).
Por lo tanto {(3,3,2,1)} es una base de UV.

Problema 4. Sea V el espacio de funciones f:RR generado por las funciones en B={1,xsin(2x),xcos(2x)}.

a) Demuestra que B es una base de V.
b) Demuestra que xsin2(x) es una función en V y exprésala como combinación lineal de los elementos de B.

Solución. a) . Como V es el generado de B, por definición B es generador. Así, basta demostrar que los vectores en B son linealmente independientes. En otras palabras, queremos ver que si a,b,c son números reales tales que
a+bsin(2x)+ccos(2x)=0
para todo xR, entonces a=b=c=0.

Tomando x=0 se obtiene que a+c=0. Si tomamos x=π2 obtenemos ac=0. Por lo tanto a=c=0. Finalmente, si tomamos x=π4 obtenemos b=0.

b) Para cada xR se tiene
cos(2x)=2cos2(x)1=2(1sin2(x))1=12sin2(x),
por lo tanto
sin2(x)=1cos(2x)2.
Por lo tanto xsin2(x) pertence a V y lo expresamos como combinación lineal de los elementos de B de la siguiente manera:
sin2(x)=121+0sin(2x)12cos(2x).

◻

Dimensión finita y bases

Ahora veamos un teorema muy importante en la teoría de la dimensión de espacios vectoriales.

Teorema. Sea V un espacio vectorial de dimensión finita. Entonces
a) V contiene una base con una cantidad finita de elementos.
b) Cualesquiera dos bases de V tienen el mismo número de elementos (en particular, cualquier base tiene una cantidad finita de elementos).

Demostración. a) Como V es de dimensión finita, entonces tiene al menos un conjunto generador finito. Sea B un conjunto generador de V con el menor número posible de elementos. Vamos a demostrar que B es una base para V. B ya es conjunto generador porque así lo escogimos, sólo falta probar que es linealmente independiente.

Supongamos por el contrario que B no es linealmente independiente, entonces existe vB tal que vspan(B{v}). Por lo tanto span(B{v})=span(B)=V.

Pero eso es imposible pues B se tomó de tamaño mínimo. Por lo tanto B es linealmente independiente. Se sigue el resultado deseado.

b) Sea B una base con una cantidad finita de elementos, digamos n. Sea B otra base de V. Por definición de base, B es linealmente independiente y B es un conjunto generador con n elementos.

Por el lema de Steinitz, B es finito y tiene a lo más n elementos. Lo anterior nos muestra que cualquier base tiene a lo más n elementos. De hecho, si B tiene d elementos, el lema de Steinitz garantiza que nd.

Ahora volvemos a aplicar el mismo argumento que antes, pero pensando a B como linealmente independiente y a B como generador. Concluimos que kd. De este modo, k=d y por lo tanto toda base de V tiene la misma cantidad de elementos.

◻

El resultado anterior justifica que la siguiente definición esté bien hecha.

Definición. Sea V un espacio vectorial de dimensión finita. Definimos la dimensión dimV de V como el número de elementos de una base de V.

Ejemplos y problemas de dimensión

Ejemplo 1. Considera el espacio vectorial Rn y su base canónica B={e1,e2,,en}. Como B es base y tiene n elementos, entonces dim(Rn)=n.

Ejemplo 2. Considera el espacio vectorial Rn[x] de polinomios con coeficientes reales y grado a lo más n. Una base para Rn[x] es {1,x,,xn}, por lo tanto dim(Rn[x])=n+1.

Ejemplo 3. Considera el espacio vectorial Mm,n(R). Sea EijMm,n(R) la matriz cuya entrada (i,j) es 1 y el resto de sus entradas son 0. Entonces B={Eij|1im,1jn} es una base para Mm,n(R). Así, dim(Mm,n(R))=mn.

Problema 4. Encuentra una base y la dimensión del subespacio
V={(a,2a)|aR}R2.

Solución. Notemos que V=span((1,2)), pues (a,2a)=a(1,2). Como (1,2)(0,0), entonces B={(1,2)} es una base de V. Por lo tanto dim(V)=1.

Un lema útil para demostrar que algo es base

Para finalizar esta entrada demostraremos otro teorema muy importante en la teoría de la dimensión de espacios vectoriales. En este resultado usamos de nuevo de manera repetida el lema de intercambio de Steinitz.

Teorema. Sea V un espacio vectorial de dimensión finita n. Entonces
a) Cualquier conjunto linealmente independiente de vectores de V tiene a lo más n elementos.
b) Cualquier conjunto generador de V tiene al menos n elementos.
c) Si S es un subconjunto de V con n elementos, entonces las siguientes afirmaciones son equivalentes:

  1. S es linealmente independiente.
  2. S es un conjunto generador.
  3. S es una base de V.

Demostración. Sea V una base de B. Por definición B tiene n elementos.

a) Como B es un conjunto generador con n elementos, por el lema de intercambio se tiene que cualquier conjunto linealmente independiente tiene a lo más n elementos.

b) Sea S un conjunto generador de V y supongamos que S tiene d<n elementos. Como B es linealmente independiente, entonces por el lema de intercambio se tiene que nd, lo cual sería una contradicción.

c) Es claro que (3) implica (1) y (2), por lo que solamente probaremos que (1) implica (3) y que (2) implica (3).

Supongamos que S es linealmente independiente, entonces por el lema de intercambio de Steintz podemos agregar nn=0 vectores a S de manera que el nuevo conjunto es generador. Claramente el nuevo conjunto es S mismo, pues no le agregamos nada. Por lo tanto S es un conjunto generador y como estamos bajo el supuesto de que S es linealmente independiente, entonces S es una base de V.

Ahora supongamos que S es un conjunto generador que no es linealmente independiente. Entonces existe vS tal que vspan(S{v}). Se sigue que S{v} es un conjunto generador de n1 elementos (al generar a v, genera todo lo que generaba S). Pero esto contradice el inciso b). Por lo tanto S es linealmente independiente y por lo tanto es una base de V.

◻

El resultado anterior nos permite pensar a las bases de un espacio vectorial como los conjuntos linealmente independientes «más grandes», o bien como los conjuntos generadores «más chicos». En la siguiente entrada veremos ejemplos prácticos del uso del teorema anterior.

Más adelante…

A partir de la definición de dimensión, más adelante construiremos la noción de rango, que nos permite decir «qué tanta información guarda una matriz». La dimensión ayuda también a comprender cuándo hay cierto tipo de transformaciones lineales entre espacios vectoriales. Una aplicación más de la dimensión es que en muchos casos queremos probar afirmaciones para todos los espacios vectoriales de dimensión finita. Como la dimensión nos permite asociar a cada uno de estos un entero, muchas de estas demostraciones se pueden hacer por inducción.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • En todos los problemas en donde se hable de subespacios, verifica que en efecto los conjuntos dados son subespacios del espacio vectorial mencionado.
  • En todos los ejemplos y problemas en los que se menciona que algo es base, verifica que en efecto se tiene un conjunto que es generador y linealmente independiente.
  • Sea V un espacio vectorial sobre C y de dimensión n. Demuestra que si ves a V como un espacio vectorial sobre R, entonces dim(V)=2n.
  • Sea V un espacio vectorial de dimensión finita y W un subespacio de V. Demuestra que W es de dimensión finita, que dim(W)dim(V) y que la igualdad se da si y sólo si W=V.
  • Sean W1,W2 subespacios de un espacio vectorial V con dimensiones m y n, respectivamente, con mn.
    a) Demuestra que dim(W1W2)n.
    b) Demuestra que dim(W1+W2)m+n.
  • Encuentra la dimensión del subespacio de matrices en Mn(R) que son simétricas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Introducción al curso, vectores y matrices

Por Leonardo Ignacio Martínez Sandoval

Introducción

Esta es la primer entrada correspondiente a las notas del curso Álgebra Lineal I. En esta serie de entradas, cubriremos todo el temario correspondiente al plan de estudios de la materia en la Facultad de Ciencias de la UNAM. Las notas están basadas fuertemente en el libro Essential Lineal Algebra with Applications de Titu Andreescu.

El curso se trata, muy a grandes rasgos, de definir espacios vectoriales y estudiar muchas de sus propiedades. Un espacio vectorial con el que tal vez estés familiarizado es Rn, donde sus elementos son vectores con n entradas. En él se pueden hacer sumas entrada a entrada, por ejemplo, si n=3 una suma sería

(5,1,2)+(1,4,9)=(6,3,11).

También se puede multiplicar un vector por un número real, haciéndolo entrada a entrada, por ejemplo,

3(1,5,2,6)=(3,15,6,18).

El álgebra lineal estudia espacios vectoriales más generales que simplemente Rn. Como veremos más adelante, hay muchos objetos matemáticos en los que se puede definir una suma y un producto escalar. Algunos ejemplos son los polinomios, ciertas familias de funciones y sucesiones. La ventaja de estudiar estos espacios desde el punto de vista del álgebra lineal es que todas las propiedades que probemos «en general», se valdrán para todos y cada uno de estos ejemplos.

Lo que haremos en la primer unidad del curso es entender muy a profundidad a Fn, una generalización de Rn en la que usamos un campo arbitrario F. También, entenderemos a las matrices en Mm,n(F), que son arreglos rectangulares con entradas en F. La unidad culmina con estudiar sistemas de ecuaciones lineales y el método de reducción Gaussiana.

Más adelante veremos que estudiar estos conceptos primero es muy buena idea pues los espacios vectoriales más generales tienen muchas de las propiedades de Fn, y podemos entender a ciertas transformaciones entre ellos al entender a Mm,n(F).

Breve comentario sobre campos

En este curso no nos enfocaremos en estudiar a profundidad las propiedades que tienen los campos como estructuras algebraicas. De manera pragmática, pensaremos que un campo F consiste de elementos que se pueden sumar y multiplicar bajo propiedades bonitas:

  • La suma y el producto son asociativas, conmutativas, tienen neutro (que llamaremos 0 y 1 respectivamente y tienen inversos (i.e. se vale «restar» y «dividir»)
  • La suma y producto satisfacen la regla distributiva

De hecho, de manera muy práctica, únicamente usaremos a los campos Q de racionales, R de reales, C de complejos y F2, el campo de dos elementos 0 y 1. Este último sólo lo usaremos para observar que hay algunas sutilezas cuando usamos campos con una cantidad finita de elementos.

Para todos estos campos, supondremos que sabes cómo se suman y multiplican elementos. Si necesitas dar un repaso a estos temas, puedes echarle un ojo a las entradas del curso Álgebra Superior II, que también están aquí en el blog.

Nociones iniciales de álgebra lineal: escalares, vectores y matrices

Quizás te has encontrado con vectores y matrices en otros cursos. Por ejemplo, en geometría analítica es usual identificar a un vector (x,y) con un punto en el plano cartesiano, o bien con una «flecha» que va del origen a ese punto. En álgebra lineal nos olvidaremos de esta interpretación por mucho tiempo. Será hasta unidades posteriores que tocaremos el tema de geometría de espacios vectoriales. Por el momento, sólo nos importan los vectores desde el punto de vista algebraico.

Tomemos un campo F. A los elementos de F les llamaremos escalares. Para un entero positivo n, un vector X en Fn consiste de un arreglo de n entradas a1,a2,,an que pueden estar dispuestas en un vector fila X=(a1,a2,,an), o bien un vector columna X=(a1a2an).

Para i=1,,n, a ai le llamamos la i-ésima coordenada o i-ésima entrada de X.

Como vectores, puedes pensar que el vector fila y el vector columna correspondientes son el mismo. Abajo veremos en qué sentido tenemos que pensarlos como diferentes. Aunque como vectores sean los mismos, los vectores columna tienen varias ventajas conceptuales en álgebra lineal.

Ejemplo 1. El vector X=(12,1,23,4). tiene cuatro entradas, y todas ellas son números racionales. Por lo tanto, es un vector en Q4. Su primer entrada es 12. Está escrito como vector fila, pero podríamos escribirlo también como vector columna: (121234).

El vector Y=(π,34,5,6,2) es un vector fila en R5, pero no en Q5, pues no todas sus entradas son racionales. A Y también lo podemos pensar como un vector en C.

Una matriz en Mm,n(F) es un arreglo rectangular de elementos en F dispuestos en m filas y n columnas como sigue:

A=(a11a12a13a1na21a22a23a2nam1am2am3amn).

Al escalar aij le llamamos la entrada (i,j) de A.

Para cada i=1,,m, definimos a la i-ésima fila de A como el vector fila Li=(ai1,ai2,,ain), y para cada j=1,2,,n definimos a la j-ésima columna de A como el vector columna Cj=(a1ja2jamj).

Veamos algunas aclaraciones de notación. Cuando m=n, las matrices en Mm,n(F) tienen la misma cantidad de filas que de columnas. En este caso simplemente usamos la notación Mn(F) para ahorrarnos una letra, y si una matriz está en Mn(F), le llamamos una matriz cuadrada. También, en ocasiones expresamos a una matriz en forma compacta diciendo cuántas filas y columnas tiene y usando la notación A=[aij].

Ejemplo 2. Consideremos la matriz A en M3(R) dada por A=[aij]=[i+2j]. Si queremos poner a A de manera explícita, simplemente usamos la fórmula en cada una de sus entradas:

A=(a11a12a13a21a22a23a31a32a33)=(1+211+221+232+212+222+233+213+223+23)=(357468579)

Esta es una matriz cuadrada. Sin embargo, la matriz B en M3,2(R) con la misma regla B=[bij]=[i+2j] no es una matriz cuadrada pues es

B=(a11a12a21a22a31a32)=(1+211+222+212+223+213+22)=(354657),

la cual es una matriz con 3 filas y 2 columnas.

Cualquier vector fila en Fn lo podemos pensar como una matriz en M1n(F) y cualquier vector columna en Fn lo podemos pensar como una matriz en Mn1(F). En este sentido estos dos vectores sí serían distintos. Usualmente será claro si se necesita o no hacer la distinción.

Para que dos vectores o dos matrices sean iguales, tienen que serlo coordenada a coordenada.

Vectores y matrices especiales

Al vector en Fn con todas sus entradas iguales al cero del campo F le llamamos el vector cero y lo denotamos con 0. El contexto nos ayuda a decidir si estamos hablando del escalar cero (el neutro aditivo del campo F) o del vector cero.

De manera similar, a la matriz en Mm,n con todas sus entradas iguales al cero del campo F le llamamos la matriz cero y la denotamos con Om,n. Si m=n, la llamamos simplemente On.

Otra matriz especial que nos encontraremos frecuentemente es la matriz identidad. Para cada n, es la matriz In en Mn(F) tal que cada entrada de la forma aii es igual a uno (el neutro multiplicativo de F) y el resto de sus entradas son iguales a 0.

Cuando estamos trabajando en Mn(F), es decir, con matrices cuadradas, hay otras familias de matrices que nos encontraremos frecuentemente. Una matriz A=[aij] en Mn(F):

  • Es diagonal si cuando ij, entonces aij=0.
  • Es triangular superior si cuando i>j, entonces aij=0.
  • Y es triangular inferior si cuando i<j entonces aij=0.

A las entradas de la forma aii se les conoce como las entradas de la diagonal principal de la matriz. En otras palabras, A es diagonal cuando sus únicas entradas no cero están en la diagonal principal. Es triangular superior cuando sus entradas por debajo de la diagonal principal son iguales a cero. Y de manera similar, es triangular inferior cuando sus entradas por encima de la diagonal principal son iguales a cero.

Ejemplo. La matriz O3,2 de M3,2(Q) es la siguiente

O3,2=(000000)

La matriz I4 de M4(F) es la siguiente

I4=(1000010000100001).

Esta matriz identidad es diagonal, triangular superior y triangular inferior. Una matriz diagonal distinta a la identidad podría ser la siguiente matriz en M3(Q):

(10001200013).

Una matriz que es triangular superior, pero que no es diagonal (ni triangular inferior), podría ser la siguiente matriz en M4(R):

(1225013000120001).

Operaciones de vectores y matrices

Si tenemos dos matrices A=[aij] y B=[bij] en Mm,n(F), entonces podemos definir a la matriz suma A+B como la matriz cuyas entradas son [aij+bij], es decir, se realiza la suma (del campo F) entrada por entrada.

Ejemplo 1. Si queremos sumar a las matrices A y B en M4(R) dadas por A=(1225013200120001).

y B=(1113011200110001),

entonces hacemos la suma entrada por entrada para obtener:

A+B=(21+213+5021+300021+20002).

Es muy importante que las dos matrices tengan la misma cantidad de filas y renglones. Insistiendo: si no coinciden la cantidad de filas o de columnas, entonces las matrices no se pueden sumar.

Si tenemos una matriz A=[aij] en Mm,n(F) y un escalar c en F, podemos definir el producto escalar de A por c como la matriz cA=[caij], es decir, aquella que se obtiene al multiplicar cada una de las entradas de A por el escalar c (usando la multiplicación del campo F).

Ejemplo 2. Al tomar la siguiente matriz en M2(C) A=(1ii1) y el escalar i en C, se tiene que iA=(i1iii(i)i1)=(i11i).

Dada una matriz A, a la matriz (1)A le llamamos simplemente A, y definimos AB:=A+(B).

Como todo vector en Fn se puede pensar como una matriz, estas operaciones también se pueden definir para vectores para obtener la suma de vectores y el producto escalar en vectores.

En álgebra lineal frecuentemente hablaremos de escalares, vectores y matrices simultáneamente. Cada que veas una una variable es importante que te preguntes de cuál de estos tipos de objeto es. También, cada que veas una operación (por ejemplo, una suma), es importante preguntarte si es una suma de escalares, vectores o matrices.

Muchas de las buenas propiedades de las operaciones de suma y producto en el campo F también se cumplen para estas definiciones de suma y producto escalar de vectores y matrices.

Teorema. Sean A,B,C matrices en Mm,n(F) y α,β,γ escalares en F. Entonces la suma de matrices:

  • Es asociativa: (A+B)+C=A+(B+C)
  • Es conmutativa: A+B=B+A
  • Tiene neutro: A+Om,n=A=Om,n+A
  • Tiene inversos: A+(A)=Om,n=(A)+A

Además,

  • La suma de escalares y el producto escalar se distribuyen: (α+β)A=αA+βA
  • La suma de matrices y el producto escalar se distribuyen: α(A+B)=αA+αB
  • El producto escalar es homogéneo: α(βA)=(αβ)A
  • El 1 es neutral para el producto escalar: 1A=A

Un teorema análogo se vale al cambiar matrices por vectores. La demostración de este teorema se sigue directamente de las propiedades del campo F. La notación de entradas nos ayuda mucha a escribir una demostración sin tener que escribir demasiadas entradas una por una. Veamos, como ejemplo, la demostración de la primera propiedad.

Demostración. Tomemos matrices A=[aij], B=[bij] y C=[cij] en Mm,n(F). Para mostrar que (A+B)+C=A+(B+C), tenemos que mostrar que la entrada (i,j) del lado izquierdo es igual a la entrada (i,j) del lado derecho para cada i=1,,m y j=1,,n.

Por definición de suma, A+B=[aij]+[bij]=[aij+bij]. Por ello, y de nuevo por definicón de suma, (A+B)+C=[(aij+bij)+cij]. De manera similar, A+(B+C)=[aij+(bij+cij)].

Pero en F la suma es asociativa, de modo que (aij+bij)+cij=aij+(bij+cij).

Con esto hemos demostrado que (A+B)+C y A+(B+C) son iguales entrada a entrada, y por lo tanto son iguales como matrices.

◻

La receta para demostrar el resto de las propiedades es la misma:

  1. Usar la definición de suma o producto por escalares para saber cómo es la entrada (i,j) del lado izquierdo y del lado derecho.
  2. Usar las propiedades del campo F para concluir que las entradas son iguales.
  3. Concluir que las matrices son iguales.

Para practicar las definiciones y esta técnica, la demostración del resto de las propiedades queda como tarea moral. A partir de ahora usaremos todas estas propiedades frecuentemente, así que es importante que las tengas en cuenta.

Base canónica de vectores y matrices

Cuando estamos trabajando en Fn, al vector ei tal que su i-ésima entrada es 1 y el resto son 0 lo llamamos el i-ésimo vector de la base canónica. Al conjunto de vectores {e1,,en} le llamamos la base canónica de Fn.

De manera similar, cuando estamos trabajando en Mm,n(F), para cada i=1,,m y j=1,,n, la matriz Eij tal que su entrada (i,j) es 1 y todas las otras entradas son cero se le conoce como la matriz (i,j) de la base canónica. Al conjunto de todas estas matrices Eij le llamamos la base canónica de Mm,n(F).

Ejemplo 1. El vector e2 de F3 es (0,1,0). Ten cuidado, pues este es distinto al vector e2 de F5, que es (0,1,0,0,0).

La matriz E12 de M2,3(R) es (010000).

Más adelante veremos el concepto de base en general, cuando hablemos de espacios vectoriales. Por el momento, la intuición para álgebra lineal es que una base es un conjunto que nos ayuda a generar elementos que nos interesan mediante sumas y productos escalares. Los siguientes resultados dan una intuición inicial de este fenómeno.

Teorema. Todo vector X en Fn se puede escribir de manera única de la forma X=x1e1+x2e2++xnen, en donde x1,,xn son escalares en F y {e1,,en} es la base canónica.

Demostración. Si X es un vector en Fn, entonces es de la forma X=(x1,x2,,xn). Afirmamos que las coordenadas de X son los xi buscados.

En efecto, tomemos una i=1,,n. Como ei tiene 1 en la i-ésima entrada y 0 en el resto, entonces xiei es el vector con xi en la i-ésima entrada y 0 en el resto. De esta forma, sumando entrada a entrada, tenemos

x1e1+x2e2++xnen=(x1000)+(0x200)++(000xn)=(x1x2x3xn)=X.

Esto muestra la existencia.

Para demostrar la unicidad, un argumento análogo muestra que si tenemos otros escalares y1,,yn que cumplan, entonces:

(x1x2x3xn)=X=y1e1++ynen=(y1y2y3yn),

de modo que xi=yi para todo i=1,,n.

◻

Tenemos un resultado análogo para matrices.

Teorema. Toda matriz A en Mm,n(F) se puede escribir de manera única de la forma A=i=1mj=1nxijEij, en donde para i=1,,m y j=1,,n, se tiene que xij son escalares en F y Eij son las matrices de la base canónica.

La demostración es muy similar a la del teorema anterior y como práctica queda como tarea moral.

Ejemplo 2. La matriz A=(200135) en M3,2(C) se expresa de manera única en términos de la base canónica como A=2E111E22+3E31+5E32.

◻

Más adelante…

En esta entrada dimos una breve introducción al álgebra lineal. Ya definimos la suma y el producto escalar para vectores y matrices. En la siguiente entrada hablaremos de otro producto que sucede en álgebra lineal: la de una matriz en Mm,n(F) por un vector en Fn. Veremos que esta multiplicación nos permite pensar a una matriz A como una función φA:FnFm con ciertas propiedades especiales.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Explica por qué no puedes sumar la matriz I5 con la matriz O4.
  • Muestra que la suma de dos matrices diagonales es diagonal. Haz lo mismo para matrices triangulares superiores y para matrices triangulares inferiores.
  • Termina de demostrar el teorema de propiedades de las operaciones de suma y producto escalar.
  • Explica por qué si una matriz es simultáneamente triangular superior y triangular inferior, entonces es diagonal.
  • Expresa a la siguiente matriz como combinación lineal de matrices de la base canónica:
    (2120133337810).
  • Demuestra el teorema de representación de matrices en términos de la base canónica.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM».