Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Cálculo Diferencial e Integral III: Formas cuadráticas

Por Alejandro Antonio Estrada Franco

Introducción

En la entrada anterior hablamos de formas bilineales. A partir de esta noción podemos introducir otra más: la de formas cuadráticas. Las formas cuadráticas son cruciales, pues es a partir de ellas que podemos hacer geometría en espacios vectoriales.

Formas bilineales simétricas

Hay unas formas bilineales que son especiales pues al intercambiar los vectores argumento no cambian de valor.

Definición. Una forma bilineal $b\in B(\mathbb{R}^n)$ es simétrica si $b(\bar{u},\bar{v})=b(\bar{v},\bar{u})$ para todos los $\bar{u},\bar{v}\in \mathbb{R}^n$.

Cuando una forma bilineal es simétrica, la matriz que la representa también. En efecto, si $A$ es una representación matricial de la forma bilineal $b$ en la base $\beta$, podemos escribir: \[b(\bar{u},\bar{v})=[\bar{u}]^{t}A[\bar{v}]=\left( [\bar{u}]^{t}A[\bar{v}] \right) ^{t}=[\bar{v}]^{t}A^{t}[\bar{u}].\]

En la igualdad de en medio usamos que $[\bar{u}]^{t}A[\bar{v}] \in \mathbb{R}$ para obtener que este producto matricial es igual a su transpuesta (¿por qué?). Así pues, si $b$ es simétrica: \[ [\bar{v}]^{t}A^{t}[\bar{u}]=b\left( \bar{u},\bar{v} \right)=b\left( \bar{v},\bar{u}\right)=[\bar{v}]^{t}A[\bar{u}],\]

para todo $\bar{u},\bar{v}\in \mathbb{R}^n$. En particular, al evaluar $b(\bar{e}_i,\bar{e}_j)$ para $\bar{e}_i,\bar{e}_j$ una pareja de elementos de la base $\beta$ obtenemos que $A$ y $A^{t}$ coinciden en cualquier entrada $(i,j)$. Por lo tanto $A=A^{t}$, entonces $A$ es simétrica.

Formas cuadráticas y su forma polar

Una forma cuadrática se obtiene de evaluar una forma bilineal usando el mismo vector para ambas entradas. Formalmente, tenemos lo siguiente.

Definición. Una función $q:\mathbb{R}^n \to \mathbb{R}$ es una forma cuadrática si existe una forma bilineal $b:\mathbb{R}^n\times \mathbb{R}^n\to \mathbb{R}$ tal que $q(\bar{v})=b(\bar{v},\bar{v})$ para todo $\bar{v}$ en $\mathbb{R}^n$. A $q$ le llamamos la forma cuadrática asociada a $b$.

Es posible que una misma forma cuadrática pueda ser creada por dos formas bilineales distintas.

Ejemplo. Tomemos la forma bilineal $b_1((x_1,x_2),(y_1,y_2))=0$ para todos $\bar{u},\bar{v}\in \mathbb{R}^2$ y la forma bilineal $b_2((x_1,x_2),(y_1,y_2))=x_1y_2-x_2y_1$. Si $q_1$ es la forma cuadrática asociada a $b_1$ y $q_2$ es la forma cuadrática asociada a $b_2$, se tiene que $q_1((x_1,x_2))=0$ para todo $(x_1,x_2)$ en $\mathbb{R}^2$, y también se tiene que $q_2((x_1,x_2))=0$ para todo $(x_1,x_2)$ en $\mathbb{R}^2$ (verifícalo). Así, aunque $b_1\neq b_2$, se tiene que $q_1=q_2$.

$\triangle$

Si agregamos la hipótesis adicional de que la forma bilineal que se usa sea simétrica, entonces sí tenemos unicidad. De hecho, podemos saber exactamente de qué forma bilineal simétrica $b$ viene una forma cuadrática dada $q$. Este es el contenido del siguiente teorema, que se llama el teorema de la identidad de polarización.

Teorema. Si $q$ es una forma cuadrática en $\mathbb{R}^n$, entonces existe una única forma bilineal $b$ simétrica tal que $q(\bar{v})=b(\bar{v},\bar{v})$ para todo $\bar{v}\in \mathbb{R}^n$. Más aún, \[ \begin{equation} b(\bar{u},\bar{v})=\frac{1}{2}\left(q(\bar{u}+\bar{v})-q(\bar{u})-q(\bar{v})\right). \end{equation}.\]

Demostración. Haremos sólo parte de la demostración: la de la unicidad. El resto puede consultarse, por ejemplo, en la entrada Formas cuadráticas, propiedades, polarización y teorema de Gauss. Supongamos que $q$ es forma cuadrática y que viene de la forma bilineal simétrica $B$. Desarrollando el lado derecho de la ecuación tenemos

\begin{align*}
\frac{1}{2}\left( q(\bar{u}+\bar{v})-q(\bar{u})-q(\bar{v})\right) &= \frac{1}{2}\left( B(\bar{u}+\bar{v},\bar{u}+\bar{v})-B(\bar{u},\bar{u})-B(\bar{v},\bar{v})\right)\\&=\frac{1}{2}\left(B(\bar{u}+\bar{v},\bar{u})+B(\bar{u}+\bar{v},\bar{v})-B(\bar{u},\bar{u})-B(\bar{v},\bar{v})\right)\\
&=\frac{1}{2}\left(B(\bar{u},\bar{u})+B(\bar{v},\bar{u})+B(\bar{u},\bar{v})+B(\bar{v},\bar{v})-B(\bar{u},\bar{u})-B(\bar{v},\bar{v})\right)\\
&=\frac{1}{2}\left(2B(\bar{u},\bar{v})\right)=B(\bar{u},\bar{v}).
\end{align*}

Esto muestra que la expresión del teorema es la única que podría servir para obtener la forma bilineal simétrica de la que viene $q$. El resto de la demostración consiste en ver que, en efecto, la expresión propuesta es bilineal y es simétrica.

$\square$

Por el teorema de la identidad de polarización, podemos siempre suponer que una forma cuadrática viene de una forma bilineal simétrica $b$, a la que le llamaremos su forma polar.

Forma matricial de una forma cuadrática

Definición. Sea $q$ una forma cuadrática de $\mathbb{R}^n$ y $\beta$ una base de $\mathbb{R}^n$. La forma matricial de $q$ en la base $\beta$ será la forma matricial de su forma polar en la base $\beta$.

Por lo visto anteriormente, si $b$ es simétrica, se representa por una matriz simétrica $A=a_{ij}$. Así, las formas matriciales de formas cuadráticas siempre son simétricas. Para evaluar $q$, podemos hacer lo siguiente:

\begin{align*}
q(\bar{v})&=b(\bar{v},\bar{v})\\
&=[\bar{v}]^{t}A[\bar{v}]\\
&=\begin{pmatrix}x_{1} & \dots & x_{n}\end{pmatrix} \begin{pmatrix} a_{11} & \dots & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{n1} & \dots & a_{nn} \end{pmatrix} \begin{pmatrix} x_{1} \\ \vdots \\ x_{n} \end{pmatrix}
\end{align*}

Desarrollando el producto obtenemos $$q(\bar{v})=a_{11}x_{1}^{2}+a_{22}x_{2}^{2}+\dots +a_{nn}x_{n}^{2}+2\sum_{i<j}a_{ij}x_{i}x_{j}.$$

Esta última ecuación en las variables $x_{i}$ se denomina el polinomio cuadrático correspondiente a la matriz simétrica $A$.

Nota que si la matriz $A$ es diagonal, entonces $q$ tendrá el siguiente polinomio cuadrático: \[ \begin{equation} q(\bar{v})=[\bar{v}]^{t}A[\bar{v}]=a_{11}x_{1}^{2}+a_{22}x_{2}^{2}+\dots +a_{nn}x_{n}^{2}. \end{equation} \]

Este es un polinomio muy sencillo: no tendrá términos con «productos cruzados».

Teorema de Gauss para formas cuadráticas

Enseguida presentamos un teorema muy importante de formas cuadráticas. Su importancia radica en que siempre deseamos simplificar los objetos que tenemos.

Teorema. Sea $b$ una forma bilineal simétrica en $V$, un espacio vectorial de dimensión finita $n$ sobre $\mathbb{R}$. Entonces $V$ tiene una base $\{\bar{v}_{1},\dots ,\bar{v}_{n}\}$ en la que $b$ se representa por una matriz diagonal, es decir, $b(\bar{v}_{i},\bar{v}_{j})=0$ para $i\neq j$.

Demostración. Procederemos por inducción sobre $n=\dim V$. Si $\dim V=1$, se cumple claramente (¿Por qué?). Por tanto, podemos suponer $\dim V>1$. Si $b=0$, también la afirmación es cierta inmediatamente, pues $b$ se representa por una matriz de puros ceros. Si $q(\bar{v})=b(\bar{v},\bar{v})=0$ para todo $\bar{v}\in V$, al escribir $b$ en su forma polar se obtiene que $b=0$ . Por esta razón se puede suponer que existe un vector $\bar{v}_{1}\in V$ tal que $b(\bar{v}_{1},\bar{v}_{1})\neq0$. Sean $U$ el subespacio generado por $\bar{v}_{1}$ y $W$ el conjunto de aquellos vectores $\bar{v}\in V$ para los que $b(\bar{v}_{1},\bar{v})=0$. Afirmamos que $V=U\oplus W$.

  1. $U\cap W=\{\bar{0} \}$. Supongamos $\bar{u}\in U\cap W$. Como $\bar{u}\in U$, $\bar{u}=k\bar{v}_{1}$ para algún escalar $k\in \mathbb{R}$. Como $\bar{u}\in W$, $0=b(\bar{v}_{1},\bar{u})=b(\bar{v}_{1},k\bar{v}_{1})=kb(\bar{v}_{1},\bar{v}_{1})$. Pero $b(\bar{v}_{1},\bar{v}_{1})\neq 0$; luego $k=0$ y por consiguiente $\bar{u}=\bar{0}$. Así $U\cap W=\{ \bar{0}\}$.
  2. Veamos que $V=U+W$. Sea $\bar{v}\in V$. Consideremos $\bar{w}$ definido como: \[ \bar{w}=\bar{v}-\frac{b(\bar{v}_{1},\bar{v})}{b(\bar{v}_{1},\bar{v}_{1})}\bar{v}_{1}.\] Entonces \[ b(\bar{v}_{1},\bar{w})=b(\bar{v}_{1},\bar{v})-\frac{b(\bar{v}_{1},\bar{v})}{b(\bar{v}_{1},\bar{v}_{1})}b(\bar{v}_{1},\bar{v}_{1})=0. \] Así $\bar{w}\in W$. Por tanto $\bar{v}$ es la suma de un elemento de $U$ y uno de $W$. Entonces se cumple $V=U+W$.
    Ahora $b$ restringida a $W$ es una forma bilineal simétrica en $W$. Pero $\dim W=n-1$, luego existe una base $\{ \bar{v}_{2},\dots ,\bar{v}_{n} \}$ de $W$ tal que $b(\bar{v}_{i},\bar{v}_{j})=0$ para $i\neq j$ y $2\leq i,j\leq n$. Por la propia definición de $W$, $b(\bar{v}_{1},\bar{v}_{j})=0$ para $j=2,\dots n$. Por tanto, la base $\{\bar{v}_{1},\dots ,\bar{v}_{n} \}$ de $V$ tiene la propiedad requerida de que $b(\bar{v}_{i},\bar{v}_{j})=0$ para $i\neq j$.

$\square$

Tenemos pues que para toda forma bilineal simétrica tenemos una representación matricial diagonal. Dicho en otras palabras, para cualquier matriz simétrica $A$ en $M_n(\mathbb{R})$, se tiene que es congruente a alguna matriz diagonal. También de aquí se tiene que para toda forma cuadrática tenemos una representación matricial diagonal.

Formas cuadráticas positivas y positivas definidas

Otra noción importante para formas cuadráticas es la siguiente.

Definición. Diremos que una forma cuadrática $q:\mathbb{R}^n\to \mathbb{R}$ es positiva si se cumple que $q(\bar{x})\geq 0$ para todo $\bar{x}\in \mathbb{R}^n$. Diremos que es positiva definida si se cumple que $q(\bar{x})>0$ para todo $\bar{x}\in \mathbb{R}^n \setminus \{\bar{0}\}$.

Si $b$ es la forma bilineal simétrica que define a $q$ y $A$ es una matriz que represente a $b$ en alguna base $\beta$, se puede ver que $q$ es positiva si y sólo si $X^{t}AX\geq 0$ para todo $X\in \mathbb{R}^n$. Así mismo, es positiva definida si y sólo si $X^{t}AX>0$ para todo $X\neq 0$ en $\mathbb{R}^n$. Esto motiva la siguiente definición para matrices.

Definición. Sea $A\in \mathbb{R}^n$ una matriz simétrica. Diremos que es positiva si se cumple que $X^{t}AX\geq 0$ para todo $X\in \mathbb{R}^n$. Diremos que es, es positiva definida si y sólo si $X^{t}AX>0$ para todo $X\neq 0$ en $\mathbb{R}^n$.

Una propiedad importante que queda como tarea moral es que la propiedad de ser positiva (o positiva definida) es invariante bajo congruencia de matrices.

Hay otras maneras de saber si una matriz es positiva, o positiva definida. De hecho, en la entrada de Matrices positivas y congruencia de matrices de nuestro curso de Álgebra Lineal II puedes encontrar la siguiente caracterización:

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. $A$ es congruente a una matriz diagonal con puras entradas mayores o iguales a cero.
  3. $A$ puede ser escrita de la forma $B^{t}B$ para alguna matriz $B\in M_n(\mathbb{R})$.

Hay otro resultado más que relaciona a las matrices positivas definidas con sus eigenvalores.

Teorema. Si $A$ es una matriz simétrica en $M_n(\mathbb{R})$ y es positiva definida, entonces todos sus eigenvalores son positivos.

Matriz Hessiana

Veamos cómo se aplican algunas de las ideas vistas en cálculo. Retomemos la discusión de la entrada Polinomio de Taylor para campos escalares. Hacia el final de la entrada enunciamos el teorema de Taylor en el caso especial de grado $2$. Al tomar un campo escalar $f$ y un punto $\bar{a}$, el polinomio de Taylor de grado $2$ estaba dado como sigue:

$$T_{2,\bar{a}}(\bar{a}+\bar{v})=f(\bar{a})+\frac{(\bar{v}\cdot \triangledown )f(\bar{a})}{1!}+\frac{(\bar{v}\cdot \triangledown)^{2}f(\bar{a})}{2!}.$$

Donde

$$\frac{(\bar{v}\cdot \triangledown)^{2}f(\bar{a})}{2!}=\sum_{i=1}^{n}\sum_{j=1}^n v_{i}v_{j}\frac{\partial ^{2}f}{\partial x_{j}\partial x_{i}}(\bar{a}).$$

Observa que este sumando se puede pensar como una forma cuadrática:

\[ q(\bar{v})=\begin{pmatrix}v_{1} & \dots & v_n\end{pmatrix}\begin{pmatrix} \frac{\partial ^{2}f}{\partial x_{1}^{2}}(a) & \dots & \frac{\partial ^{2}f}{\partial x_{1}\partial x_{_{n}}}(\bar{a})\\ \vdots & \ddots & \vdots \\ \frac{\partial ^{2}f}{\partial x_{_{n}}\partial x_{1}}(\bar{a}) & \dots & \frac{\partial ^{2}f}{\partial x_{_{n}}^{2}}(\bar{a}) \end{pmatrix}\begin{pmatrix} v_{1} \\ \vdots \\ v_n\end{pmatrix}\]

La matriz de esta forma cuadrática tiene una importancia especial en el cálculo de varias variables, y por ello tiene su propia definición.

Definición. Sea $f$ un campo escalar definido sobre algún subconjunto abierto de $\mathbb{R}^{n}$. Si $f$ tiene derivadas parciales de segundo orden en el punto $\bar{a}$, a la siguiente matriz la llamamos la matriz hessiana de $f$ en $\bar{a}$:

\[ H_f(\bar{a})=\begin{pmatrix} \frac{\partial ^{2}f}{\partial x_{1}^{2}}(\bar{a}) & \dots & \frac{\partial ^{2}f}{\partial x_{1}\partial x_{_{n}}}(\bar{a}) \\ \vdots & \ddots & \vdots \\ \frac{\partial ^{2}f}{\partial x_{_{n}}\partial x_{1}}(\bar{a}) & \dots & \frac{\partial ^{2}f}{\partial x_{_{n}}^{2}}(\bar{a})\end{pmatrix}.\]

Cuando hablemos de optimización, esta matriz tomará un significado especial. Por ahora, enfoquémonos en entender cómo obtenerla.

Ejemplo. Encontraremos la matriz Hessiana del campo escalar $f(x,y)=\sin(xy)$ en el punto $\left( 1,\frac{\pi}{4} \right)$. Para ello, calculamos las siguientes derivadas parciales de orden $1$ y $2$:

\[ \frac{\partial f}{\partial x}=y\cos(xy),\hspace{0.3cm}\frac{\partial ^{2}f}{\partial x^{2}}=-y^{2}\sin(xy),\hspace{0.3cm}\frac{\partial ^{2}f}{\partial y\partial x}=\cos(xy)-xy\sin(xy) \]

\[ \frac{\partial f}{\partial y}=x\cos(xy),\hspace{0.3cm}\frac{\partial ^{2}f}{\partial y^{2}}=-x^{2}\sin(xy),\hspace{0.3cm}\frac{\partial ^{2}f}{\partial x\partial y}=\cos(xy)-xy\sin(xy).\]

Por lo tanto

\[ H(x,y)=\begin{pmatrix} -y^{2}\sin(xy) &\cos(xy)-xy\sin(xy) \\ \cos(xy)-xy\sin(xy) & -x^{2}\sin(xy) \end{pmatrix}.\]

Evaluando en el punto $\left(1,\frac{\pi}{4} \right),$

\[ H\left(1,\frac{\pi}{4} \right)=\begin{pmatrix} -\frac{\pi ^{2}}{16}\frac{\sqrt{2}}{2} & \frac{\sqrt{2}}{2}\left( 1-\frac{\pi}{4}\right) \\ \frac{\sqrt{2}}{2}\left( 1-\frac{\pi}{4}\right) & -\frac{\sqrt{2}}{2} \end{pmatrix}.\]

$\triangle$

Mas adelante…

Con esto terminamos nuestro repaso de álgebra lineal, y con ello tenemos las herramientas necesarias para poder retomar nuestro estudio de las funciones en varias variables. En la siguiente entrada comenzaremos con el concepto de diferenciabilidad. A lo largo de las siguientes entradas, iremos viendo por qué las herramientas de álgebra lineal que desarrollamos son importantes.

Así mismo, cuando lleves un curso de Cálculo Diferencial e Integral IV también retomaras una parte importante de la teoría que hemos repasado.

Tarea moral

  1. Responder en la primer definición porque $[\bar{u}]^{t}A[\bar{v}]\in \mathbb{R}$.
  2. Demostrar que el espacio $W$ del último teorema es un subespacio vectorial de $V$.
  3. Explicar en la demostración del último teorema por qué éste se cumple cuando $b=0$ o $\dim V=1$.
  4. Explicar porque $\dim W=n-1$.
  5. Verifica que si una matriz $A$ es positiva definida, entonces cualquier matriz $B$ congruente a $A$ también es positiva definida.
  6. Demuestra el último teorema de esta entrada, es decir, que las matrices simétricas positivas definidas tienen eigenvalores positivos.

Entradas relacionadas

Geometría Moderna II: Familias coaxiales

Por Armando Arzola Pérez

Introducción

En esta entrada introduciremos un nuevo concepto: el de familias coaxiales. Veremos cómo se relaciona este concepto con el de eje radical.

Familias coaxiales

Definición. Un conjunto de círculos se llaman (Familias Coaxiales) círculos coaxiales si y solo si existe una recta llamada eje radical, que además es el eje radical de cada par de círculos del conjunto.

Además, como el eje radical de 2 circunferencias es ortogonal a la línea de los centros, entonces los centros de las circunferencias del sistema coaxial de circunferencias son colineales.

Se tienen distintas propiedades:

  1. Si dos círculos de un conjunto coaxial son tangentes, todos los círculos del conjunto son tangentes.
  2. Si dos círculos de un conjunto coaxial se intersecan en dos puntos, todos los círculos del conjunto pasan por estos dos puntos.
  3. El eje radical de un conjunto coaxial es el lugar geométrico de los puntos cuya potencia respecto a todos los círculos del conjunto son iguales.
  4. Dos circunferencias pertenecen a una única familia coaxial.
  5. Dos circunferencias determinan una única familia coaxial.
  6. Si dos puntos tienen la misma potencia respecto a 3 circunferencias, entonces las circunferencias son coaxiales.
  7. Si una circunferencia corta ortogonalmente a 2 circunferencias de un sistema coaxial, entonces corta ortogonalmente a todos los círculos del sistema coaxial.
  8. Dado un conjunto coaxial de círculos, entonces el conjunto de círculos ortogonales a estos círculos forman un conjunto coaxial de círculos.

Proposición. Sea una familia de circunferencias con centros colineales. Estas son un sistema coaxial de circunferencias si y solo si existe una circunferencia ortogonal a todas ellas.

Denotaremos como ${\{C_i\}}^n_{i=1}$ una familia de circunferencias con centros colineales.

Demostración.

Familias Coaxiales

$\boldsymbol{\Rightarrow}]$

Denotemos $l$ al eje radical. Sea $C(O,r)$ una circunferencia donde $O$ está en $l$ y además $C(O,r)$ es ortogonal a $\mathcal{C}_1$ una circunferencia del sistema.

Ahora, como $O$ está en $l$ y $C(O,r)$ es ortogonal a $\mathcal{C}_1$, usando la proposición: Si el centro de una circunferencia está en el eje radical de 2 circunferencias dadas y es ortogonal a una de ellas, entonces la circunferencia es ortogonal también a la otra. Por lo cual $C(O,r)$ es ortogonal a cada circunferencia de ${\{C_i\}}^n_{i=1}$. $\lrcorner$

$\boldsymbol{\Leftarrow} ]$

Sea $C(O,r)$ una circunferencia ortogonal a ${\{C_i\}}^n_{i=1}$. Además, $C(O,r)$ es ortogonal a $\mathcal{C}_1$ y $\mathcal{C}_2$ donde $\mathcal{C}_1$ y $\mathcal{C}_2$ pertenecen a ${\{C_i\}}^n_{i=1}$.

Llamemos a $l$ el eje radical de $\mathcal{C}_1$ y $\mathcal{C}_2$, sabemos que $l$ es ortogonal a la línea $O_1O_2$, y recordando la proposición: Si una circunferencia es ortogonal a 2 circunferencias dadas, entonces su centro está en el eje radical de las 2 circunferencias, por lo cual $O$ está en $l$. Como $O_1, O_2, … , O_n$ son puntos colineales y los ejes radicales de cada par de circunferencias son líneas perpendiculares a $O_1O_2$ que pasan por $O$, entonces $l$ es el eje radical de cada par de circunferencias.

$\therefore$ ${\{C_i\}}^n_{i=1}$ es un sistema de circunferencias coaxiales. $\square$

Existen 3 tipos de sistemas de (Familias Coaxiales) circunferencias coaxiales: tangentes, que se intersecan y ajenas.

Circunferencias coaxiales tangentes

Se tiene un sistema de circunferencias coaxiales tangentes, además la familia de circunferencias con centro en el eje radical del sistema y que son ortogonales a todas y cada una de las circunferencias del sistema, también forman otro sistema coaxial de circunferencias tangentes.

Familias Coaxiales Tangentes

Circunferencias coaxiales que se intersectan

Se tiene un sistema de circunferencias coaxiales que se intersecan en 2 puntos, la familia de circunferencias con centro en el eje radical del sistema y que son ortogonales a todas las circunferencias del sistema, forman un sistema coaxial de circunferencias ajenas.

Familias coaxiales que se intersecan

Circunferencias coaxiales ajenas

Se tiene un sistema de circunferencias coaxiales ajenas, la familia de circunferencias con centro en el eje radical del sistema y que son ortogonales a todas las circunferencias del sistema, forman un sistema coaxial de circunferencias que se intersecan.

Familias Coaxiales Ajenas

Más adelante…

Se abordará en la siguiente entrada la circunferencia de similitud.

Entradas relacionadas

Variable Compleja I: Series de potencias. Introducción y criterios de convergencia

Por Pedro Rivera Herrera

Introducción

En esta entrada abordaremos el concepto de serie de potencias, la cual es un tipo particular de serie de números complejos y/o serie de funciones de números complejos, por lo que los resultados de las dos entradas anteriores nos serán de gran utilidad para caracterizar a dichas series.

En general, las series de potencias resultan de gran interés puesto que nos permiten aproximar y definir funciones, en particular a las funciones complejas elementales como lo haremos en las siguientes entradas. Nuestro objetivo en esta entrada es establecer algunos resultados elementales para determinar cuándo y en qué conjuntos estas series convergen.

Definición 29.1. (Serie de Potencias.)
Sean $z_0 \in\mathbb{C}$ y $\{c_n\}_{n\geq 0} \subset \mathbb{C}$ una sucesión de números complejos. Una serie de la forma: \begin{equation*}
\displaystyle \sum_{n=0}^\infty c_n \left(z-z_0\right)^n, \tag{29.1}
\end{equation*} para cada $z\in\mathbb{C}$, es llamada serie de potencias centrada en $z_0$ y los números $c_n\in\mathbb{C}$ son llamados los coeficientes de la serie.

Observación 29.1.
Recordemos que hemos hecho antes la convención $(z-z_0)^0 = 1$ para todo $z-z_0\in\mathbb{C}$.

Considerando lo anterior, podemos pensar a una serie de potencias como una serie de números complejos o como una serie de funciones, por lo que, en cualquiera de los dos casos podemos hablar de los conceptos de convergencia, convergencia absoluta, convergencia puntual y convergencia uniforme establecidos en las entradas anteriores.

Si consideramos a una serie de potencias, dada en (29.1), como una serie de funciones, entonces dicha serie está definida por la sucesión de funciones:
\begin{equation*}
f_0(z) = c_0, \quad f_n(z) = c_n\left(z-z_0\right)^n, \forall n\geq 1.
\end{equation*}

Bajo esta idea, es claro que cada serie de potencias define a una función compleja, de variable $z$, cuyo dominio natural consistirá de todos los $z\in\mathbb{C}$ para los cuales la serie de funciones (29.1) converge. Por tanto, en caso de ser necesario podemos elegir distintos dominios para dicha función, correspondientes con subconjuntos del dominio natural dado por la convergencia de la serie.

Observación 29.2.
Notemos que la serie dada por (29.1) siempre converge en el centro, es decir, si $z=z_0$ entonces para $n \geq 1$ todos los términos de la serie se anulan, mientras que para $n=0$ se obtiene la constante $c_0 \in \mathbb{C}$, por lo que la serie de potencias converge.

Por otra parte, para $z\neq z_0$ la serie de potencias puede converger o diverger, como veremos más adelante.

Si planteamos el cambio de variable:
\begin{equation*}
\zeta = z – z_0, \tag{29.2}
\end{equation*} es claro que $\zeta = 0$ si y solo si $z = z_0$ y $\zeta \neq 0$ si y solo si $z \neq z_0$, entonces la serie de potencias dada en (29.1) toma la forma:
\begin{equation*}
\displaystyle \sum_{n=0}^\infty c_n \zeta^n, \quad \forall \zeta \in\mathbb{C}, \tag{29.3}
\end{equation*} de donde (29.3) converge si $\zeta = 0$, mientras que para $\zeta \neq 0$ la serie puede converger o diverger.

El cambio de variable dado en (29.2) puede simplificar un poco las cuentas, por lo que trabajaremos indistintamente con una serie de potencias de la forma (29.1) ó (29.3), simplemente considerando $z=\zeta$ y a la serie centrada en el origen, es decir, $z_0 = 0$. Para recuperar el caso general bastará con realizar el cambio de variable (29.2).

Ejemplo 29.1.
Veamos que para una serie de potencias, de la forma (29.1) ó (29.3), se cumple alguna de las siguientes condiciones.

  1. La serie converge para todo $z\in\mathbb{C}$ ó $\zeta\in\mathbb{C}$.
  2. La serie converge solo para $z=z_0$ ó $\zeta = 0$.
  3. La serie converge solo para los $z$ ó $\zeta$ en alguna región del plano complejo $\mathbb{C}$.

Solución. Por ahora, para verificar la afirmación basta con dar un ejemplo para cada caso. Más adelante, corolario 29.1, probaremos esta afirmación.

Veamos que cada condición se cumple sin importar si la serie de potencias es de la forma (29.1) ó (29.3).

  1. Consideremos a las series de potencias: \begin{equation*} \displaystyle \sum_{n=0}^\infty \frac{(z-1+i)^n}{(n!)^2} \quad \text{y} \quad \displaystyle \sum_{n=0}^\infty \frac{\zeta^n}{n!}. \end{equation*} Para la primera serie tenemos que $z_0 = 1-i$. Es claro que para $z=z_0$ la serie de potencias converge. Supongamos que $z\neq z_0$, entonces: \begin{align*} \lambda = \lim_{n\to \infty} \dfrac{\left|\dfrac{(z-1+i)^{n+1}}{\left[(n+1)!\right]^2}\right|}{\left|\dfrac{(z-1+i)^{n}}{(n!)^2}\right|} & = \lim_{n\to \infty} \left|\dfrac{(z-1+i)^{n+1}(n!)^2}{(z-1+i)^{n}\left[(n+1)!\right]^2} \right|\\ & = \lim_{n\to \infty} \dfrac{\left|z-1+i\right|(n!)^2}{(n+1)^2(n!)^2}\\ & = \lim_{n\to \infty} \dfrac{\left|z-1+i\right|}{(n+1)^2} = 0. \end{align*} Entonces, por el criterio del cociente de D’Alembert, proposición 27.5, para todo $z\neq z_0$ la serie converge absolutamente. Por lo tanto, para todo $z\in\mathbb{C}$ la primera serie de potencias converge.

    Por otra parte, para la segunda serie de potencias, por el ejemplo 27.8, sabemos que la serie es absolutamente convergente para todo $\zeta\in\mathbb{C}$, por lo que la segunda serie de potencias también converge para todo $\zeta\in\mathbb{C}$.
  2. Consideremos a las series de potencias: \begin{equation*} \displaystyle \sum_{n=1}^\infty \frac{n^n (z-i)^n}{n} \quad \text{y} \quad \displaystyle \sum_{n=0}^\infty n! \zeta^n. \end{equation*} Para la primera serie tenemos que $z_0 = i$, $c_0 = 0$ y $c_n = \dfrac{n^n}{n}$ para $n\geq 1$. Es claro que para $z=z_0$ la serie de potencias converge. Supongamos que $z\neq z_0$, entonces: \begin{equation*} \lambda = \lim_{n\to \infty} \left|\frac{n^n (z-i)^n}{n}\right|^{1/n} = \lim_{n\to \infty} \frac{n \left|z-i\right|}{n^{1/n}} = \infty, \end{equation*} ya que $\lim\limits_{n\to\infty} n = \infty$ y $\lim\limits_{n\to\infty} n^{1/n} = 1$.

    Entonces, por el criterio de la raíz, proposición 27.6, tenemos que la serie diverge para toda $z\neq z_0$. Por lo tanto, la primera serie de potencias converge solo para $z=z_0$.

    Por otra parte, para la segunda serie de potencias es claro que la serie converge si $\zeta=0$. Mientras que para $\zeta \neq 0$ tenemos que: \begin{equation*} \lim_{n \to \infty} n! \zeta^n = \infty, \end{equation*} desde que $\lim\limits_{n\to\infty} n! = \infty$ y $|\zeta^n| \geq r >0$ para toda $n\in\mathbb{N}$, es decir, la sucesión $\{\zeta^n\}_{n\geq 0}$, con $\zeta\neq 0$, está separada de cero, proposición 8.2(5).

    Por lo tanto, la segunda serie solo converge para $\zeta = 0$.
  3. Consideremos a las series de potencias: \begin{equation*} \displaystyle \sum_{n=0}^\infty (-2)^n \frac{(z+2)^n}{n+1} \quad \text{y} \quad \displaystyle \sum_{n=0}^\infty \zeta^n. \end{equation*}Para la primera serie tenemos que $z_0 = -2$. Es claro que para $z=z_0$ la serie de potencias converge. Si $z\neq z_0$, tenemos: \begin{align*} \lambda = \lim_{n\to \infty} \dfrac{\left|(-2)^{n+1} \dfrac{(z+2)^{n+1}}{n+2}\right|}{\left|(-2)^n \dfrac{(z+2)^n}{n+1}\right|} & = \lim_{n\to \infty} \left|-2\right| \left|\dfrac{(n+1)(z+2)^{n+1}}{(n+2)(z+2)^{n}}\right|\\ & = \lim_{n\to \infty} \left(2\right) \left|z+2\right| \frac{n+1}{n+2}\\ & = 2 \left|z+2\right|. \end{align*}Entonces, por el criterio del cociente de D’Alembert, proposición 27.5, tenemos que la serie converge si $\lambda = 2 \left|z+2\right| < 1$, es decir, para todo $z\in\mathbb{C}$ tal que $\left|z+2\right| < 1/2$, mientras que la serie diverge si $\left|z+2\right| > 1/2$.

    Por último, para la segunda serie de potencias, por el ejemplo 27.3 sabemos que la serie geométrica es convergente para todo $\zeta\in\mathbb{C}$ tal que $\left|\zeta\right|<1$ y divergente si $\left|\zeta\right|\geq 1$.

Observación 29.3.
Al trabajar con una serie de potencias, ya sea de la forma (29.1) ó (29.3), debemos ser cuidadosos al identificar los coeficientes de la serie, puesto que no siempre están dados de forma explícita y esto puede llegar a causar errores al manipular a las series de potencias y/o al deducir algo relacionado con su convergencia.

Una vez que estemos seguros de que los coeficientes de la serie corresponden con la regla explícita dada en la serie, podemos trabajar con dicha regla para obtener los coeficientes.

Ejemplo 29.2.
Identifiquemos los coeficientes de las siguientes series de potencias.
a) $\displaystyle \sum_{n=0}^\infty \frac{(-1)^n}{2^n} z^{2n}$.
b) $\displaystyle \sum_{n=1}^\infty \frac{z^n}{n}$.
c) $\displaystyle \sum_{n=1}^\infty \frac{(-1)^n z^{n-1}}{n(n+1)}$.

Solución. Es claro que las tres series están centradas en $z_0 = 0$. Procedemos a escribir a las series de potencias de acuerdo con la definición 29.1.

a) Tenemos que:
\begin{equation*}
\sum_{n=0}^\infty \frac{(-1)^n}{2^n} z^{2n} = \sum_{k=0}^\infty c_k z^{k},
\end{equation*} de donde:
\begin{equation*}
c_k = \left\{ \begin{array}{lc}
\dfrac{(-1)^{n}}{2^n}, & \text{si existe} \,\, n\in\mathbb{N} \,\, \text{tal que} \,\, k = 2n,\\
\\ 0, & \text{en otro caso.}\\
\end{array}
\right.
\end{equation*}

Por lo que:
\begin{equation*}
c_0 = 1, \quad c_1 = 0,\quad c_2 = -\frac{1}{2}, \quad c_3 = 0, \quad \ldots, \quad c_{2n} = \dfrac{(-1)^{n}}{2^n}, \quad c_{2n+1} = 0,
\end{equation*}

es decir:
\begin{equation*}
c_k = \left\{ \begin{array}{lcc}
\dfrac{(-1)^{n}}{2^n}, & \text{si} & k = 2n,\\
\\ 0, & \text{si} & k = 2n+1,\\
\end{array}
\right. \quad \text{con} \,\, n\in\mathbb{N}.
\end{equation*}

b) Tenemos que:
\begin{equation*}
\sum_{n=1}^\infty \frac{z^n}{n} = \sum_{k=0}^\infty c_k z^{k},
\end{equation*} de donde:
\begin{equation*}
c_k = \left\{ \begin{array}{lc}
\dfrac{1}{n}, & \text{si existe} \,\, n\in\mathbb{N} \,\, \text{tal que} \,\, k = n,\\
\\ 0, & \text{en otro caso.}\\
\end{array}
\right.
\end{equation*}

Por lo que:
\begin{equation*}
c_0 = 0, \quad c_1 = 1,\quad c_2 = \frac{1}{2}, \quad c_3 = \frac{1}{3}, \quad \ldots, \quad c_{n} = \dfrac{1}{n},
\end{equation*}es decir:
\begin{equation*}
c_k = \left\{ \begin{array}{lcc}
\dfrac{1}{k}, & \text{si} & k \geq 1,\\
\\ 0, & \text{si} & k = 0.\\
\end{array}
\right.
\end{equation*}

c) Tenemos que:
\begin{equation*}
\sum_{n=1}^\infty \frac{(-1)^n z^{n-1}}{n(n+1)} = \sum_{k=0}^\infty c_k z^{k},
\end{equation*}de donde:
\begin{equation*}
c_k = \left\{ \begin{array}{lc}
\dfrac{(-1)^{n}}{n(n+1)}, & \text{si existe} \,\, n\in\mathbb{N} \,\, \text{tal que} \,\, k = n-1,\\
\\ 0, & \text{en otro caso.}\\
\end{array}
\right.
\end{equation*}

Por lo que:
\begin{equation*}
c_0 = \dfrac{(-1)^{1}}{1(1+1)} = -\frac{1}{2}, \quad c_1 = \dfrac{(-1)^{2}}{2(2+1)} = \frac{1}{6},\quad c_2 = \dfrac{(-1)^{3}}{3(3+1)} = -\frac{1}{12}, \quad \ldots,
\end{equation*} es decir:
\begin{equation*}
c_k = \dfrac{(-1)^{k+1}}{(k+1)(k+2)}, \quad k\in\mathbb{N}.
\end{equation*}

Nuestra primera tarea es determinar bajo qué condiciones una serie de potencias converge, pues como vimos en el ejemplo 29.1, existen series de potencias que convergen en todo $\mathbb{C}$, en un sólo punto o en alguna región del plano complejo. Es claro que un ejemplo no es una prueba de este hecho, por lo que procedemos a verificarlo de manera formal.

Proposición 29.1. (Lema de Abel.)
Si la serie de potencias $\displaystyle \sum_{n=0}^\infty c_n z^n$ converge para algún $z=z_0 \neq 0$, entonces la serie converge absolutamente para todo $z\in\mathbb{C}$ tal que $|z| < |z_0|$.

Más aún, si la serie diverge para algún $z=z_1 \neq 0$, entonces la serie diverge para todo $z\in\mathbb{C}$ tal que $|z_1| < |z|$.

Demostración. Dadas las hipótesis, procedemos a verificar la primera parte de la proposición.

Si la serie $\displaystyle \sum_{n=0}^\infty c_n z_0^n$ converge, con $z_0 \neq 0$, entonces, por el corolario 27.1, se cumple que:
\begin{equation*}
\lim_{n\to\infty} c_n z_0^n = 0,
\end{equation*}

es decir, la sucesión $\{c_n z_0^n\}_{n\geq 0}$ converge a 0, por lo que, proposición 8.1, es una sucesión acotada. Entonces, existe $M>0$ tal que:
\begin{equation*}
|c_n| \, |z_0|^n = |c_n z_0^n| \leq M, \quad \forall n\in\mathbb{N}.
\end{equation*}

Como $z_0\neq 0$, tenemos que:
\begin{equation*}
|c_n| \leq \frac{M}{|z_0|^n}, \quad \forall n\in\mathbb{N},
\end{equation*}

de donde:
\begin{equation*}
|c_n z^n | \leq M \left|\frac{z}{z_0}\right|^n, \quad \forall n\in\mathbb{N}.
\end{equation*}

Si $|z|<|z_0|$, entonces la serie geométrica $\displaystyle \sum_{n=0}^\infty M \left|\frac{z}{z_0}\right|^n$ es convergente, por lo que, se sigue del criterio de comparación, proposición 27.4, que la serie $\displaystyle \sum_{n=0}^\infty c_n z^n$ es absolutamente convergente.

Por último, para la segunda parte procedemos por reducción al absurdo. Supongamos que $\displaystyle \sum_{n=0}^\infty c_n z_1^n$ diverge. Si $|z_1| < |z|$ y la serie $\displaystyle \sum_{n=0}^\infty c_n z^n$ converge, entonces de la primera parte se sigue que $\displaystyle \sum_{n=0}^\infty c_n z_1^n$ converge, lo cual claramente es una contradicción. Por lo tanto $\displaystyle \sum_{n=0}^\infty c_n z^n$ diverge si $|z|>|z_1|$.

$\blacksquare$

El lema de Abel es de suma importancia para poder establecer el siguiente resultado, el cual será un parteaguas para los resultados de esta entrada.

Proposición 29.2. (Radio de convergencia.)
Sea $\displaystyle \sum_{n=0}^\infty c_n (z-z_0)^n$ una serie de potencias, entonces existe un número $R\in[0,\infty]$ tal que:

  1. la serie es absolutamente convergente si $|z-z_0| < R$;
  2. la serie converge absoluta y uniformemente en todo disco cerrado $\overline{B}(z_0, r)$, con $r$ fijo tal que $r<R$;
  3. si $|z-z_0| > R$ la serie diverge.

Demostración. Sea $\displaystyle \sum_{n=0}^\infty c_n (z-z_0)^n$ una serie de potencias, definimos:
\begin{equation*}
S:= \left\{\rho \in [0, \infty) : \sum_{n=0}^\infty c_n \rho^n \,\, \text{converge}\right\}.
\end{equation*}

Notemos que $S \neq \emptyset$ desde que $0\in S$.

Afirmamos que el número $R$ que cumple lo anterior está dado por $ R:= \sup S$.

  1. De acuerdo con el enunciado de la proposición, debe ser claro que podemos tener dos casos extremos: si $R = 0$ ó si $R = \infty$, los cuales están dados por la definición de $R$ como sigue.

    Si $S$ no es acotado superiormente, adoptamos la convención $R = \infty$. Veamos que en tal caso, la serie $\displaystyle \sum_{n=0}^\infty c_n (z-z_0)^n$ converge absoluta y uniformemente en $\overline{B}(z_0, r)$, para cualquier $r\geq 0$.

    Si elegimos a $\rho\in S$ tal que $|z-z_0| \leq r <\rho$, entonces la serie $\displaystyle \sum_{n=0}^\infty c_n \rho^n$ es convergente y de la proposición 27.4(1) tenemos que la serie $\displaystyle \sum_{n=0}^\infty c_n r^n$ es absolutamente convergente. Dado que: \begin{equation*}|c_n(z-z_0)^n| \leq |c_n r^n| = |c_n| r^n, \quad \forall n\in\mathbb{N}, \end{equation*} entonces del criterio $M$ de Weierstrass, proposición 28.3, se sigue que la serie $\displaystyle \sum_{n=0}^\infty c_n (z-z_0)^n$ converge absoluta y uniformemente en $\overline{B}(z_0, r)$. Como $r$ es arbitario, entonces tenemos el caso $R=\infty$.

    Supongamos que $S$ es acotado superiormente. Si $R=0$, entonces la serie solo converge si $z=z_0$, por lo que, lema de Abel, la serie converge absolutamente solo en el centro.

    Si $R>0$ y $|z-z_0|<R$, entonces, por la definición de $R$, existe $r\in S$ tal que: \begin{equation*}|z-z_0| < r \leq R. \end{equation*}Dado que $r\in S$, entones la serie $\displaystyle \sum_{n=0}^\infty c_n r^n$ es convergente. Notemos que la serie $\displaystyle \sum_{n=0}^\infty c_n (z-z_0)^n$ converge para $z = r+z_0$, por lo que, lema de Abel, la serie converge absolutamente para $|z-z_0| < r \leq R$, lo cual completa el caso $|z-z_0| < R$.
  2. Sea $z \in \overline{B}(z_0, r)$, con $r$ fijo tal que $r<R$, entonces, por la definición de $R$, podemos elegir $\rho \in S$ tal que $r<\rho \leq R$. Como la serie $\displaystyle \sum_{n=0}^\infty c_n \rho^n$ converge, entonces, proposición 27.4(1), la serie $\displaystyle \sum_{n=0}^\infty |c_n| r^n$ converge, por lo que, criterio $M$ de Weierstrass, la serie $\displaystyle \sum_{n=0}^\infty c_n (z-z_0)^n$ es absoluta y uniformemente convergente en $\overline{B}(z_0, r)$.
  3. Supongamos que $|z-z_0| > R$, entonces, por la definición de $R$, existe $r\not\in S$ tal que: \begin{equation*} R \leq r < |z-z_0|. \end{equation*} Como la serie $\displaystyle \sum_{n=0}^\infty c_n r^n$ diverge, entonces la serie $\displaystyle \sum_{n=0}^\infty c_n (z-z_0)^n$ diverge para $z=z_0+r$, por lo que, por lema de Abel, la serie diverge para todo $z\in\mathbb{C}$ tal que $R \leq r < |z-z_0|$.

$\blacksquare$

Definición 29.2. (Radio de convergencia.)
Se llama radio de convergencia de la serie de potencias $\displaystyle \sum_{n=0}^\infty c_n (z-z_0)^n$ al número $R$ dado en la proposición 29.2.

Al conjunto $B(z_0, R) = \{z\in\mathbb{C} : |z-z_0| < R\}$ se le llama su disco de convergencia asociado, figura 108. En algunos textos suele hablarse del círculo de convergencia de la serie, el cual se asocia al conjunto $\overline{B}(z_0, R) = \{z\in\mathbb{C} : |z-z_0| \leq R\}$, ya que geométricamente corresponde con el interior y la frontera de una circunferencia de radio $R$ centrada en $z_0$.

Observación 29.4.
Notemos que la proposición no nos dice nada sobre la convergencia o divergencia de la serie para el caso en que $R=|z-z_0|$. Como veremos en la proposición 29.3, no podemos afirmar nada sobre tal caso.

La proposición 29.2 nos da la prueba de la afirmación hecha en el ejemplo 29.1.

Corolario 29.1.
Sea $\displaystyle \sum_{n=0}^\infty c_n\left(z-z_0\right)^n$ una serie de potencias y sea $R$ su radio de convergencia. Entonces:

  1. Si $R=\infty$, la serie converge absolutamente para todo $z\in\mathbb{C}$.
  2. Si $R=0$, la serie converge solo para $z=z_0$.
  3. Si $0<R<\infty$, la serie converge solo para los $z\in\mathbb{C}$ tales que $|z-z_0|<R$ y diverge para $|z-z_0|>R$.

Demostración. Es inmediato de la proposición 29.2.

Ejemplo 29.3.
Analicemos la siguiente serie y determinemos su radio de convergencia.
\begin{equation*}
\sum_{n=0}^\infty \frac{(-1)^n}{2^n} z^{2n} = 1 – \frac{z^2}{2} + \frac{z^4}{2^2} – \frac{z^6}{2^3} + \ldots .
\end{equation*}

Solución. Por el ejemplo 29.2 sabemos que se trata de una serie de potencias con centro en $z_0 = 0$ y coeficientes:
\begin{equation*}
c_k = \left\{ \begin{array}{lcc}
\dfrac{(-1)^{n}}{2^n}, & \text{si} & k = 2n,\\
\\ 0, & \text{si} & k = 2n+1,\\
\end{array}
\right. \quad \text{con} \,\, n\in\mathbb{N}.
\end{equation*}

Notemos que si hacemos $w = \dfrac{-z^2}{2}$ entonces:
\begin{equation*}
\sum_{n=0}^\infty \frac{(-1)^n}{2^n} z^{2n} = \sum_{n=0}^\infty \left(\frac{-z^2}{2}\right)^n = \sum_{n=0}^\infty w^n.
\end{equation*}

Entonces, tenemos una serie geométrica convergente si $|w|<1$, es decir, si $|z^2| < 2$. En tal caso la serie converge a:
\begin{equation*}
\frac{1}{1-w} = \frac{2}{2-z^2}.
\end{equation*}

Para esta serie es claro que su radio de convergencia es $R = \sqrt{2}$.

En general, obtener el radio de convergencia de una serie de potencias no es una tarea fácil, el ejemplo anterior resultó sencillo pues conocemos bien a la serie geométrica, pero en general las series de potencias pueden resultar más complejas. Por ello, procedemos a establecer una serie de resultados que nos permitan determinar el radio de convergencia de una serie de potencias a través de la sucesión de números complejos $\{c_n\}_{n\geq 0}$, correspondiente con los coeficientes de la serie.

Primeramente, recordemos los siguientes conceptos y resultados estudiados y probados en nuestros cursos de Cálculo y/o Análisis.

Definición 29.3.
Sea $\{a_n\}_{n\geq0}\subset\mathbb{R}$ una sucesión de números reales acotada. Se define:
\begin{align*}
l_{0} = \sup \{ a_n : n\geq 0\} & = \sup \{a_0 , a_1,\ldots, a_n ,\ldots\},\\
l_{1} = \sup \{ a_n : n\geq 1\} &= \sup \{a_1 , a_2,\ldots, a_n ,\ldots\},\\
l_{2} = \sup \{ a_n : n\geq 2\} &= \sup \{a_2 , a_3,\ldots, a_n ,\ldots\},\\
& \,\,\, \vdots\\
l_{k} = \sup \{ a_n : n\geq k\} &= \sup \{ a_k , a_{k+1},\ldots, a_n ,\ldots\}.
\end{align*}

Es claro que:
\begin{equation*}
\{ a_n : n\geq k+1\} \subset \{ a_n : n\geq k\}, \quad \forall k\in\mathbb{N},
\end{equation*}

por lo que:
\begin{equation*}
l_{k+1} = \sup \{ a_n : n\geq k+1\} \leq l_{k} = \sup \{ a_n : n\geq k\},
\end{equation*}

es decir, la sucesión $\{ l_{k}\}_{k\geq0}$ es decreciente.

Dado que $\{a_n\}_{n\geq0}$ es acotada, entonces existe $M>0$ tal que $|a_n| \leq M$ para todo $n\in\mathbb{N}$, es decir:
\begin{equation*}
– M \leq a_n \leq M, \quad \forall n\in\mathbb{N},
\end{equation*}

de donde:
\begin{equation*}
– M \leq l_k \leq M, \quad \forall k\in\mathbb{N},
\end{equation*} es decir, la sucesión $\{ l_{k}\}_{k\geq0}$ también es acotada.

Por lo tanto, se sigue del teorema de la convergencia monótona para sucesiones, teorema 27.1, que la sucesión $\{ l_{k}\}_{k\geq0}$ converge.

Si la sucesión $\{a_n\}_{n\geq0}$ no es acotada superiormente, tenemos que $l_k = \infty$ para todo $k\in\mathbb{N}$, en tal caso se define:
\begin{equation*}
\lim_{k \to \infty} l_k = \infty. \tag{29.4}
\end{equation*}

Análogamente, se define a la sucesión:
\begin{equation*}
m_k = \inf \{a_n : n\geq k\}, \quad k\in\mathbb{N}.
\end{equation*}

Claramente $m_k \leq m_{k+1}$ para todo $k\in\mathbb{N}$ y $\{m_k\}_{k\geq 0}$ es acotada, entonces, teorema 27.1, la sucesión $\{m_k\}_{k\geq 0}$ converge.

Si la sucesión $\{a_n\}_{n\geq0}$ no es acotada inferiormente, tenemos que $m_k = -\infty$ para todo $k\in\mathbb{N}$, en tal caso se define:
\begin{equation*}
\lim_{k \to \infty} m_k = -\infty. \tag{29.5}
\end{equation*}

Definición 29.4. (Límite superior e inferior de una sucesión.)
Sea $\{a_n\}_{n\geq0}\subset\mathbb{R}$ una sucesión de números reales arbitraria. Considerando a las sucesiones $\{l_k\}_{k\geq 0}$ y $\{m_k\}_{k\geq 0}$, dadas como en la definición 29.3, se define el límite inferior y superior de $\{a_n\}_{n\geq0}$, respectivamente, como:
\begin{align*}
\lim_{k\to\infty} m_k & = \lim_{k\to\infty} \inf\{a_n : n\geq k\},\\
\lim_{k\to\infty} l_k & = \lim_{k\to\infty} \sup\{a_n : n\geq k\},
\end{align*}

a los cuales se denota, respectivamente, como:
\begin{align*}
\liminf_{n\to\infty} a_n = \lim_{k\to\infty} m_k,\\
\limsup_{n\to\infty} a_n = \lim_{k\to\infty} l_k.
\end{align*}

Observación 29.5.
Dado que una sucesión monótona (acotada) siempre tiene límite, entonces si permitimos que se cumplan (29.4) y (29.5), es claro que $ \lim\limits_{k\to\infty} m_k$ y $\lim\limits_{k\to\infty} l_k$ siempre existen y por tanto los límites inferior y superior de una sucesión arbitraria de números reales $\{a_n\}_{n\geq0}$ siempre existen.

Más aún, de acuerdo con las definiciones 29.3 y 29.4 es claro que se cumple:
\begin{align*}
m_0 &\leq m_1 \leq \cdots \leq m_k \leq \cdots,\\
\cdots &\leq l_k \leq \cdots \leq l_1 \leq l_0,
\end{align*} y $m_i \leq l_j$, por lo que:
\begin{equation*}
\liminf_{n\to\infty} a_n \leq \limsup_{n\to\infty} a_n.
\end{equation*}

Observación 29.6.
Dada una sucesión arbitraria de números reales $\{a_n\}_{n\geq0}$, de acuerdo con la definición 7.7 de la entrada 7, tenemos que $\liminf\limits_{n\to\infty} a_n$ y $\limsup\limits_{n\to\infty} a_n$ corresponden, respectivamente, con el menor y mayor punto de acumulación del conjunto $\{a_n : n\in\mathbb{N}\}$.

Es importante notar que $\liminf\limits_{n\to\infty} a_n$ y $\limsup\limits_{n\to\infty} a_n$ no son necesariamente, el valor más pequeño o más grande, respectivamente, del conjunto $\{a_n : n\in\mathbb{N}\}$.

Ejemplo 29.4.
a) Para la sucesión $\{(-1)^n\}_{n\geq 0} = \{1, -1, 1, -1, \ldots\}$ tenemos que:
\begin{equation*}
\sup\{(-1)^n : n\geq k\} = 1 \quad \text{e} \quad \inf\{(-1)^n : n\geq k\} = -1 \quad \forall k\in\mathbb{N},
\end{equation*}

por lo que:
\begin{equation*}
\liminf_{n\to\infty} (-1)^n = -1 \quad \text{y} \quad \limsup_{n\to\infty} (-1)^n = 1.
\end{equation*}

b) Para la sucesión $\{(-1)^n n\}_{n\geq 0} = \{0, -1, 2, -3, \ldots\}$ tenemos que:
\begin{equation*}
\sup\{(-1)^n n : n\geq k\} = \infty \quad \text{e} \quad \inf\{(-1)^n n : n\geq k\} = -\infty \quad \forall k\in\mathbb{N},
\end{equation*}

por lo que:
\begin{equation*}
\liminf_{n\to\infty} (-1)^n n = -\infty \quad \text{y} \quad \limsup_{n\to\infty} (-1)^n n = \infty.
\end{equation*}

c) Para la sucesión $\left\{\dfrac{1}{n}\right\}_{n\geq 1} = \left\{1, \dfrac{1}{2}, \dfrac{1}{3}, \ldots\right\}$ tenemos que:
\begin{equation*}
\sup\left\{\frac{1}{n} : n\geq k\right\} = \frac{1}{k} \quad \text{e} \quad \inf\left\{\frac{1}{n} : n\geq k\right\} = 0, \quad \forall k\in\mathbb{N},
\end{equation*}por lo que:\begin{equation*}
\liminf_{n\to\infty} \dfrac{1}{n} = 0 = \limsup_{n\to\infty} \dfrac{1}{n},
\end{equation*}

aún cuando cada término de la sucesión es más mayor que $0$.

Teorema 29.1.
Una sucesión de números reales $\{a_n\}_{n\geq 0} \subset\mathbb{R}$ converge si y solo si $ \liminf\limits_{n\to\infty} a_n$ y $ \limsup\limits_{n\to\infty} a_n$, existen, son finitos y son iguales. En tal caso:
\begin{equation*}
\liminf\limits_{n\to\infty} a_n = \limsup\limits_{n\to\infty} a_n = \lim\limits_{n\to\infty} a_n.
\end{equation*}

Teorema 29.2.
Una sucesión $\{a_n\}_{n\geq 0} \subset\mathbb{R}$ converge a $L\in\mathbb{R}$ si y solo si toda subsucesión de $\{a_n\}_{n\geq 0}$ converge a $L$.

Lema 29.1.
Una sucesión $\{a_n\}_{n\geq 0} \subset\mathbb{R}$ converge a $L\in\mathbb{R}$ si y solo si las subsucesiones $\{a_{2n}\}_{n\geq 0}$ y $\{a_{2n+1}\}_{n\geq 0}$ convergen ambas a $L$.

Demostración. Dadas las hipótesis.

$\Rightarrow)$ Si $\lim\limits_{n\to\infty} a_n = L$, entonces, por el teorema 29.2, ambas subsucesiones $\{a_{2n}\}_{n\geq 0}$ y $\{a_{2n+1}\}_{n\geq 0}$ convergen a $L$.

$(\Leftarrow$ Supongamos que ambas subsucesiones $\{a_{2n}\}_{n\geq 0}$ y $\{a_{2n+1}\}_{n\geq 0}$ convergen a $L$. Sea $\varepsilon>0$, entonces existen $N_1, N_2\in\mathbb{N}$ tales que:
\begin{align*}
\left|a_{2n} – L \right| & <\varepsilon, \quad \text{para todo} \,\,\, n\geq N_1,\\
\left|a_{2n+1} – L \right| & < \varepsilon, \quad \text{para todo} \,\,\, n\geq N_2.
\end{align*}

Sea $N=\max\{2N_1, 2N_2 +1 \}$. Para $n \geq N $, tenemos que $n \geq 2N_1$ y $n \geq 2N_2+1$.

Si $n = 2k$, para algún $k\in\mathbb{N}$, y $n \geq N$, entonces $k \geq N_1$, por lo que:
\begin{equation*}
|a_n – L| = |a_{2k} – L| < \varepsilon.
\end{equation*}

Análogamente, si $n = 2k+1$, para algún $k\in\mathbb{N}$, y $n \geq N$, entonces $k \geq N_2$, por lo que:
\begin{equation*}
|a_{n} – L| = |a_{2k+1} – L| < \varepsilon.
\end{equation*}

De ambos casos concluimos que, dado $\varepsilon>0$ existe $N\in\mathbb{N}$, tal que si $n\geq N$, entonces $ |a_{n} – L| < \varepsilon$.

$\blacksquare$

Ejemplo 29.5.
a) Para la sucesión $\left\{a_n\right\}_{n\geq 1}$, con $a_n = \dfrac{(-1)^n +n}{n}$, tenemos que:
\begin{equation*}
a_{2n} = \dfrac{(-1)^{2n} +2n}{2n} = 1 + \frac{1}{2n} \quad \Longrightarrow \quad \lim_{n\to\infty} a_{2n} = 1,
\end{equation*}

\begin{equation*}
a_{2n+1} = \dfrac{(-1)^{2n+1} +(2n+1)}{2n+1} = 1 – \frac{1}{2n+1} \quad \Longrightarrow \quad \lim_{n\to\infty} a_{2n+1} = 1,
\end{equation*}

por lo que, del lema 29.1 y el teorema 29.1 se sigue que:
\begin{equation*}
\lim_{n\to\infty} a_{n} = 1 = \limsup_{n\to\infty} a_{n} = \liminf_{n\to\infty} a_{n}.
\end{equation*}

Figura 106: Gráfica de puntos de la sucesión $\{a_n\}_{n\geq 1}$.

Consideremos a la sucesión $\{b_n\}_{n\geq 1}$ dada por:
\begin{equation*}
b_n = \left\{ \begin{array}{lcc}
\dfrac{n}{n+1} & \text{si} & n=2k, \\
\\ \dfrac{1}{n+1} & \text{si} & n=2k+1,
\end{array}
\right. \quad k\in\mathbb{N}^{+}.
\end{equation*}

Tenemos que:
\begin{equation*}
\{b_n\}_{n\geq 1} = \left\{\frac{1}{2}, \frac{2}{3}, \frac{1}{4}, \frac{4}{5}, \frac{1}{6}, \ldots\right\}.
\end{equation*}

Notemos que para dicha sucesión, los puntos $1$ y $0$ son de acumulación del conjunto $\{b_n : n\in\mathbb{N}^{+}\}$, proposición 8.6, ya que existen las subsucesiones $\left\{b_{2k}\right\}_{k\geq 1}$ y $\left\{b_{2k+1}\right\}_{k\geq 1}$ de la sucesión original tales que $1\neq b_{2k}$ y $0\neq b_{2k+1}$ para todo $k\in\mathbb{N}^{+}$ y se cumple que:
\begin{equation*}
b_{2k} = \dfrac{2k}{2k+1} \quad \Longrightarrow \quad \lim_{k\to\infty} b_{2k} = 1,
\end{equation*}
\begin{equation*}
b_{2k+1} = \dfrac{1}{2k+1} \quad \Longrightarrow \quad \lim_{k\to\infty} b_{2k+1} = 0.
\end{equation*}

Más aún, es claro que la sucesión está acotada superiormente e inferiormente por $1$ y $0$, respectivamente, por lo que:
\begin{equation*}
\limsup_{n\to\infty} b_n = 1 \quad \text{y} \quad \liminf_{n\to\infty} b_n = 0.
\end{equation*}

De acuerdo con el teorema 29.1, tenemos que la sucesión no converge ya que estos límites son distintos.

Figura 107: Gráfica de puntos de la sucesión $\{b_n\}_{n\geq 1}$.

Teorema 29.3.
Sea $\{a_n\}_{n\geq 1} \subset\mathbb{R}$ una sucesión de números reales positivos, entonces:
\begin{equation*}
\liminf_{n\to \infty} \frac{a_{n+1}}{a_{n}} \leq \liminf_{n\to \infty} a_{n}^{1/n} \leq \limsup_{n\to \infty} a_{n}^{1/n} \leq \limsup_{n\to \infty} \frac{a_{n+1}}{a_{n}}. \tag{29.6}
\end{equation*}

Corolario 29.2.
Si $\{a_n\}_{n\geq 1} \subset\mathbb{R}$ es una sucesión de números reales positivos tales que $\lim_{n\to \infty} \dfrac{a_{n+1}}{a_{n}}$ existe, entonces las cuatro cantidades dadas en (29.6) son iguales, por lo que:
\begin{equation*}
\lim_{n\to \infty} \frac{a_{n+1}}{a_{n}} = \lim_{n\to \infty} a_{n}^{1/n}.
\end{equation*}

Observación 29.7.
Puede suceder que la sucesión $\left\{\sqrt[n]{a_{n}}\right\}_{n\geq 1}$ sea convergente, pero que la sucesión $\left\{\dfrac{a_{n+1}}{a_n}\right\}_{n\geq 1}$ sea divergente.

Ejemplo 29.6.
Sea $\{a_n\}_{n\geq 1}$ dada por:
\begin{equation*}
a_{2n} = a_{2n-1} = \frac{1}{2^n}, \quad n\in\mathbb{N}^+,
\end{equation*}

es decir:
\begin{equation*}
\{a_n\}_{n\geq 1} = \left\{ \frac{1}{2}, \frac{1}{2}, \frac{1}{4}, \frac{1}{4}, \frac{1}{8}, \frac{1}{8}, \ldots , \frac{1}{2^n}, \frac{1}{2^n}, \ldots\right\}.
\end{equation*}

Tenemos que:
\begin{equation*}
\sqrt[2n]{a_{2n}} = \left(\frac{1}{2^n}\right)^{1/2n} = \frac{1}{\sqrt{2}} \quad \Longrightarrow \quad \lim_{n\to\infty} \sqrt[2n]{a_{2n}} = \frac{1}{\sqrt{2}},
\end{equation*}
\begin{equation*}
\sqrt[2n-1]{a_{2n-1}} = \left(\frac{1}{2^n}\right)^{\frac{1}{2n-1}} = \frac{1}{2^{\frac{n}{2n-1}}} \quad \Longrightarrow \quad \lim_{n\to\infty} \sqrt[2n-1]{a_{2n-1}} = \frac{1}{\sqrt{2}}.
\end{equation*}

Entonces, por el lema 29.1, tenemos que:
\begin{equation*}
\lim_{n\to\infty} a_n = \frac{1}{\sqrt{2}},
\end{equation*} es decir, la sucesión $\left\{\sqrt[n]{a_{n}}\right\}_{n\geq 1}$ converge.

Por otra parte, notemos que:
\begin{equation*}
\frac{a_{2n}}{a_{2n-1}} =\dfrac{\dfrac{1}{2^n}}{\dfrac{1}{2^n}} = 1 \quad \Longrightarrow \quad \lim_{n\to\infty} \frac{a_{2n}}{a_{2n-1}} = 1,
\end{equation*}
\begin{equation*}
\frac{a_{2n+1}}{a_{2n}} =\dfrac{\dfrac{1}{2^{n+1}}}{\dfrac{1}{2^n}} = \frac{1}{2} \quad \Longrightarrow \quad \lim_{n\to\infty} \frac{a_{2n+1}}{a_{2n}} = \frac{1}{2},
\end{equation*} por lo tanto, del lema 29.1 se sigue que $\left\{\dfrac{a_{n+1}}{a_n}\right\}_{n\geq 1}$ no converge.

Puede consultarse la prueba de estos resultados en alguno de los siguientes textos:

  • Elementary Analysis: The Theory of Calculus de Kenneth A. Ross.
  • An Introduction to Analysis de William R. Wade.

Una vez recordados estos resultados, procedemos a establecer el resultado esperado para poder determinar el radio de convergencia a través de la sucesión de números complejos dada por los coeficientes de una serie de potencias.

Proposición 29.3. (Fórmula de Cauchy-Hadamard para el radio de convergencia.)
Sea $\displaystyle \sum_{n=0}^\infty c_n\left(z-z_0\right)^n$ una serie de potencias y sea $\lambda = \limsup\limits_{n\to\infty} \sqrt[n]{|c_n|}$. Definimos a $R\in[0,\infty]$ como el radio de convergencia de la serie dado por $R = 1/\lambda$, con la definición de $R = 0$ si $\lambda=\infty$ y $R = \infty$ si $\lambda=0$. Entonces:

  1. Si $R=\infty$, la serie converge absolutamente para todo $z\in \mathbb{C}$.
  2. Si $R=0$, la serie solo converge para $z=z_0$.
  3. Si $0<r<R<\infty$ entonces la serie es absolutamente convergente para $|z-z_0|< R$ y uniformemente convergente en $\overline{B}(z_0, r)$. La serie diverge si $|z-z_0|> R$ y no podemos afirmar nada para $|z-z_0|=R$.

Demostración. Dadas las hipótesis.

  1. Si $R=\infty$, entonces tenemos que $\lambda = \limsup\limits_{n\to\infty} \sqrt[n]{|c_n|} = 0$. Notemos que para todo $z\in \mathbb{C}$ se cumple: \begin{equation*} \limsup\limits_{n\to\infty} \sqrt[n]{|c_n(z-z_0)^n|} = |z-z_0| \limsup\limits_{n\to\infty} \sqrt[n]{|c_n|} = |z-z_0| \lambda = 0. \end{equation*} Dado que la sucesión $\left\{\sqrt[n]{|c_n(z-z_0)^n|}\right\}_{n\geq1}$ es una sucesión de números reales no negativos, entonces: \begin{equation*} 0\leq \liminf\limits_{n\to\infty} \sqrt[n]{|c_n(z-z_0)^n|} \leq \limsup\limits_{n\to\infty} \sqrt[n]{|c_n(z-z_0)^n|} = 0, \end{equation*} es decir: \begin{equation*} \liminf\limits_{n\to\infty} \sqrt[n]{|c_n(z-z_0)^n|} = \limsup\limits_{n\to\infty} \sqrt[n]{|c_n(z-z_0)^n|} = 0. \end{equation*} Considerando lo anterior, por el teorema teorema 29.1, tenemos que: \begin{equation*} \lim_{n\to\infty} \sqrt[n]{|c_n(z-z_0)^n|} = 0 < 1, \end{equation*} por lo que, se sigue del criterio de la raíz, proposición 27.6, que la serie $\displaystyle \sum_{n=0}^\infty c_n\left(z-z_0\right)^n$ es absolutamente convergente para todo $z\in\mathbb{C}$.
  2. Si $R=0$, entonces tenemos que $\lambda = \limsup\limits_{n\to\infty} \sqrt[n]{|c_n|} = \infty$. Es claro que para $z = z_0$ la serie converge: \begin{equation*} \sum_{n=0}^\infty c_n(z-z_0)^n = \sum_{n=0}^\infty c_n(z_0-z_0)^n = c_0. \end{equation*} Veamos que la serie no puede converger en ningún otro punto. Procedamos por contradicción, supongamos que la serie converge para $z=a\neq z_0$, entonces, corolario 27.1, se cumple que: \begin{equation*} \lim_{n\to\infty} c_n(a-z_0)^n = 0, \end{equation*} lo cual es equivalente, considerando el ejercicio 6 de la entrada 8, a que: \begin{equation*} \lim_{n\to\infty} \sqrt[n]{|c_n|}|a-z_0| = 0, \end{equation*} es decir, para todo $\varepsilon>0$ existe $N\in\mathbb{N}$ tal que si $n\geq N$, entonces: \begin{equation*} \sqrt[n]{|c_n|}|a-z_0| = |\sqrt[n]{|c_n|}|a-z_0|| <\varepsilon, \end{equation*} por lo que: \begin{equation*} \sqrt[n]{|c_n|} < \frac{\varepsilon}{|a-z_0|}, \quad \forall n \geq N, \end{equation*} de donde, teorema 29.1:\begin{equation*} \lim_{n \to \infty} \sqrt[n]{|c_n|} = \limsup_{n \to \infty } \sqrt[n]{|c_n|}= \lambda < \infty, \end{equation*} lo cual contradice nuestro supuesto de que $\lambda = \infty$. Por lo que, la serie solo converge para $z=z_0$.
  3. Supongamos que $|z-z_0|< R$. De acuerdo con la definición 29.3: \begin{equation*} \lambda = \limsup\limits_{n\to\infty} \sqrt[n]{|c_n|} = \lim_{k\to\infty} \sup\left\{\sqrt[n]{|c_n|} : n\geq k\right\}, \end{equation*} por lo que, de la definición del límite tenemos que para todo $\varepsilon>0$ existe $N\in\mathbb{N}$ tal que si $k\geq N$, entonces:\begin{equation*} \left| \sup\left\{\sqrt[n]{|c_n|} : n\geq k\right\} – \lambda\right| <\varepsilon \quad \Longleftrightarrow \quad – \varepsilon + \lambda < \sup\left\{\sqrt[n]{|c_n|} : n\geq k\right\} <\varepsilon + \lambda, \end{equation*} de donde: \begin{equation*} -\varepsilon + \lambda < \sqrt[n]{|c_n|} < \varepsilon + \lambda, \quad \forall n\geq N. \end{equation*} Sea $\rho = \dfrac{|z-z_0| + R}{2}>0$, entonces $|z-z_0| < \rho < R$. Tenemos que: \begin{equation*} 0< \rho < R = \dfrac{1}{\lambda} \quad \Longrightarrow \quad \lambda < \frac{1}{\rho}, \end{equation*} por lo que, para $\varepsilon = \dfrac{1}{\rho} – \lambda >0$ existe $N\in\mathbb{N}$ tal que:
    \begin{equation*} \sqrt[n]{|c_n|} < \frac{1}{\rho} – \lambda + \lambda, \quad \forall n\geq N, \end{equation*} es decir: \begin{equation*}|c_n| < \frac{1}{\rho^n}, \quad \forall n\geq N. \end{equation*} De lo anterior se sigue que: \begin{equation*}|c_n(z-z_0)^n| = |c_n| |z-z_0|^n < \left(\frac{|z-z_0|}{\rho}\right)^n, \quad \forall n\geq N. \end{equation*} Dado que $|z-z_0| < \rho$, entonces la serie geométrica: \begin{equation*} \sum_{n=0}^\infty \left(\frac{|z-z_0|}{\rho}\right)^n, \end{equation*} es convergente. Por tanto, del criterio de comparación, proposición 27.4, se sigue que la serie: \begin{equation*} \sum_{n=0}^\infty c_n(z-z_0)^n, \end{equation*} es absolutamente convergente para todo $z\in\mathbb{C}$ tal que $|z-z_0|< R$.

    Supongamos que $0<r<R$. Sea $\rho = \dfrac{r+R}{2}>0$, entonces $r< \rho < R =\dfrac{1}{\lambda}$, por lo que $\lambda < \dfrac{1}{\rho}$. Entonces, para $\varepsilon = \dfrac{1}{\rho} – \lambda >0$ existe $N\in\mathbb{N}$ tal que:\begin{equation*}|c_n| < \frac{1}{\rho^n}, \quad \forall n\geq N. \end{equation*} Como $r < \rho$, tenemos que la serie geométrica es convergente:\begin{equation*} \sum_{n=0}^\infty \left(\frac{r}{\rho}\right)^n. \end{equation*} Si $|z-z_0| \leq r$, de lo anterior se sigue que:\begin{equation*}|c_n(z-z_0)^n| = |c_n| |z-z_0|^n \leq \left(\frac{r}{\rho}\right)^n, \quad \forall n\geq N, \end{equation*} por lo que, se sigue del criterio $M$ de Weierstrass, proposición 28.3, que la serie: \begin{equation*} \sum_{n=0}^\infty c_n(z-z_0)^n, \end{equation*} es absoluta y uniformemente convergente en $\overline{B}(z_0, r)$, para $0<r<R$.

    Supongamos ahora que $|z-z_0|> R$. Sea $r=\dfrac{|z-z_0|+ R}{2}>0$ tal que $R< r < |z-z_0|$, de donde $\dfrac{1}{r}<\dfrac{1}{R} = \lambda$. Entonces, para $\varepsilon=\lambda – \dfrac{1}{r} >0$ existe $N\in\mathbb{N}$ tal que:\begin{equation*}\frac{1}{r} = -\varepsilon + \lambda < \sqrt[n]{|c_n|}, \quad \forall n\geq N, \end{equation*} de donde: \begin{equation*} \left(\frac{|z-z_0|}{r}\right)^n < |c_n| |z-z_0|^n = |c_n (z-z_0)^n|, \quad \forall n\geq N. \end{equation*} Como $0 < r < |z-z_0|$, entonces la serie geométrica:\begin{equation*} \sum_{n=0}^\infty \left(\frac{|z-z_0|}{r}\right)^n, \end{equation*} es divergente. Por el criterio de comparación, proposición 27.4, concluimos que la serie de potencias diverge.

    Por último, consideremos a la serie de potencias: \begin{equation*}\sum_{n=1}^\infty \frac{z^n}{n}.\end{equation*} Es claro que dicha serie está centrada en $z_0 = 0$ y del ejemplo 29.2(b) tenemos que:\begin{equation*}c_n = \left\{ \begin{array}{lcc}\dfrac{1}{n}, & \text{si} & n \geq 1,\\ \\ 0, & \text{si} & n = 0.\\ \end{array} \right. \end{equation*} Dado que: \begin{equation*} \sup\left\{\sqrt[n]{|c_n|} : n\geq k\right\} = \left(\frac{1}{k}\right)^{1/k}, \quad \forall k \geq 1, \end{equation*} entonces:\begin{equation*} \lambda = \limsup\limits_{n\to\infty} \sqrt[n]{|c_n|} = \lim\limits_{k\to\infty} \left(\frac{1}{k}\right)^{1/k} = 1.\end{equation*} Notemos que, para $z=1$ tenemos que $|z-z_0| = 1 = R = \dfrac{1}{\lambda}$ y en ese caso tenemos a la serie armónica: \begin{equation*} \sum_{n=1}^\infty \frac{1}{n}, \end{equation*} la cual diverge.

    Mientras que, para $z=-1$ tenemos que $|z-z_0| = 1 = R = \dfrac{1}{\lambda}$ y la serie es convergente:\begin{equation*}\sum_{n=1}^\infty \frac{(-1)^n}{n}. \end{equation*} Por lo tanto, no podemos afirmar nada para el caso $|z-z_0|=R$.

$\blacksquare$

Considernado lo anterior, podemos dar de manera equivalente la siguiente:

Definición 29.5. (Radio de convergencia.)
Sea $\displaystyle \sum_{n=0}^\infty c_n\left(z-z_0\right)^n$ una serie de potencias y sea $\lambda = \limsup\limits_{n\to\infty} \sqrt[n]{|c_n|}$. Entonces definimos a $R \in[0,\infty]$ como el radio de convergencia de la serie de potencias, dado por:

  1. $R = \infty$ si $\lambda = 0$.
  2. $R = 0$ si $\lambda = \infty$.
  3. $R = 1/\lambda$ si $0< \lambda < \infty$.
Figura 108: Disco de convergencia $B(z_0, R)$, de una serie de potencias $\displaystyle\sum_{n=0}^\infty c_n\left(z-z_0\right)^{n}$.

Definición 29.6. (Dominio de convergencia.)
Sea $\displaystyle \sum_{n=0}^\infty c_n\left(z-z_0\right)^n$ una serie de potencias. El conjunto de valores de $z\in\mathbb{C}$ para los cuales la serie de potencias converge es llamado su dominio de convergencia.

Ejemplo 29.7.
Determinemos el radio de convergencia de las siguientes series de potencias y veamos dónde la convergencia es uniforme.
a) $\displaystyle \sum_{n=0}^\infty c_n z^n = 1 + 4z + 5^2 z^2 + 4^3 z^3 + 5^4 z^4 + 4^5 z^5 + \cdots$.
b) $\displaystyle \sum_{n=0}^\infty \dfrac{(z-1+i)^n}{(2-i)^n}$.
c) $\displaystyle \sum_{n=1}^\infty z^{n^2}$.

Solución.
a) Tenemos que:
\begin{equation*}
c_0 = 1, \quad c_n = \left\{ \begin{array}{lcc}
5^n, & \text{si} & n = 2k,\\
\\ 4^n, & \text{si} & n = 2k+1,\\
\end{array}
\right. \quad \text{con} \,\, k\in\mathbb{N}^+,
\end{equation*}

por lo que:
\begin{equation*}
\sup\{|c_n|^{1/n} : n\geq k\} = 5, \quad \forall k\geq 1.
\end{equation*}

Entonces:
\begin{equation*}
\lambda = \limsup_{n\to\infty} |c_n|^{1/n} = \lim_{k\to\infty} \sup\{|c_n|^{1/n} : n\geq k\} = 5, \quad \Longrightarrow \quad R = \frac{1}{\lambda} = \frac{1}{5}.
\end{equation*}

De la proposición 29.3 se sigue que la serie converge uniformemente en todo disco cerrado $\overline{B}(0,r)$, con $r < R$.

b) Tenemos que:
\begin{equation*}
z_0 = 1-i, \quad c_0 = 1 \quad \text{y} \quad c_n = \frac{1}{(2-i)^n}, \quad \forall n\in\mathbb{N}^+,
\end{equation*}

por lo que:
\begin{equation*}
\sup\{|c_n|^{1/n} : n\geq k\} = \left(\frac{1}{|2-i|^{k}}\right)^{1/k} = \frac{1}{|2-i|} = \frac{1}{\sqrt{5}}, \quad \forall k \geq 1.
\end{equation*}

Entonces:
\begin{equation*}
\lambda = \limsup_{n\to\infty} |c_n|^{1/n} = \lim_{k\to\infty} \sup\{|c_n|^{1/n} : n\geq k\} = \frac{1}{\sqrt{5}}, \quad \Longrightarrow \quad R = \frac{1}{\lambda} = \sqrt{5}.
\end{equation*}

De la proposición 29.3 se sigue que la serie converge uniformemente en todo disco cerrado $\overline{B}(1-i,r)$, con $r < \sqrt{5}$.

c) Tenemos que:
\begin{equation*}
\sum_{n=0}^\infty z^{n^2} = \sum_{k=0}^\infty c_k z^{k},
\end{equation*}

de donde:
\begin{equation*}
c_k = \left\{ \begin{array}{lc}
1, & \text{si existe} \,\, n\in\mathbb{N} \,\, \text{tal que} \,\, k = n^2,\\
\\ 0, & \text{en otro caso,}\\
\end{array}
\right.
\end{equation*}

es decir:
\begin{equation*}
c_0 = 1, \quad c_1 = 1, \quad c_2 =0, \quad c_3 = 0, \quad c_4 = 1, \quad \ldots .
\end{equation*}

Considerando lo anterior es claro que la serie tiene un número infinitos de coeficientes que son $0$. Sin embargo, notemos que:
\begin{equation*}
\sup\{|c_n|^{1/n} : n\geq k\} = |1|^{1/k} = 1, \quad \forall k \geq 1.
\end{equation*}

Entonces:
\begin{equation*}
\lambda = \limsup_{n\to\infty} |c_n|^{1/n} = \lim_{k\to\infty} \sup\{|c_n|^{1/n} : n\geq k\} = 1, \quad \Longrightarrow \quad R = \frac{1}{\lambda} = 1.
\end{equation*}

De la proposición 29.3 se sigue que la serie converge uniformemente en todo disco cerrado $\overline{B}(0,r)$, con $r < 1$.

Corolario 29.3. (Determinación del radio de convergencia de una serie de potencias.)
El radio de convergencia $R\in[0,\infty]$, de una serie de potencias $\displaystyle\sum_{n=0}^\infty c_n\left(z-z_0\right)^{n}$ puede determinarse por alguno de los siguientes métodos.

  1. Criterio de D’Alembert del radio de convergencia. Si $\lambda = \lim\limits_{n\to\infty} \dfrac{|c_{n+1}|}{|c_n|}$ existe o es infinito, entonces:\begin{equation*} R = \frac{1}{\lambda}.\end{equation*}
  2. Criterio de la raiz de Cauchy. Si $\lambda = \lim\limits_{n\to\infty} |c_n|^{1/n}$ existe o es infinito, entonces:\begin{equation*} R = \frac{1}{\lambda}. \end{equation*}

En ambos casos consideramos la definición natural de $R=0$ si $\lambda =\infty$ y $R=\infty$ si $\lambda =0$.

Demostración. Los dos casos son una consecuencia de la proposición 29.3, de los teoremas 29.1 y 29.3 y del corolario 29.1, por lo que los detalles se dejan como ejercicio al lector.

$\blacksquare$

Observación 29.8.
Es posible dar una formulación de los criterios de convergencia de D’Alembert y de la raíz, proposiciones 27.5 y 27.6 respectivamente, en términos del límite superior, es decir, considerando:
\begin{align*}
\lambda = \limsup\limits_{n\to\infty} \frac{|z_{n+1}|}{|z_{n}|},\\
\lambda = \limsup\limits_{n\to\infty} \sqrt[n]{|z_n|},
\end{align*} respectivamente, en cada caso. Esta formulación de dichos criterios es de gran utilidad cuando los límites $\lim\limits_{n\to\infty}\dfrac{|z_{n+1}|}{|z_{n}|}$, $\lim\limits_{n\to\infty}\sqrt[n]{|z_{n}|}$ no existen.

Ejemplo 29.8.
Veamos que la serie:
\begin{equation*}
\sum_{n=1}^\infty z_n, \quad \text{con} \,\,\, z_n = \frac{1}{2^n}\left[1+(-1)^n\right] + \frac{1}{3^n}\left[1-(-1)^n\right],
\end{equation*} converge.

Solución. Tenemos que:
\begin{equation*}
z_{2n} = \frac{2}{2^{2n}} \quad \text{y} \quad z_{2n+1} = \frac{2}{3^{2n+1}}.
\end{equation*}

Entonces, el límite $\lim\limits_{n\to\infty} \dfrac{|z_{n+1}|}{|z_{n}|} = \lim\limits_{n\to\infty} \dfrac{z_{n+1}}{z_{n}}$ no existe, lema 29.1, ya que las subsucesiones:
\begin{equation*}
\frac{z_{2n+2}}{z_{2n}} = \frac{z_{2n+2}}{z_{2n+1}} \frac{z_{2n+1}}{z_{2n}} \quad \text{y} \quad \frac{z_{2n+3}}{z_{2n+1}} = \frac{z_{2n+3}}{z_{2n+2}} \frac{z_{2n+2}}{z_{2n+1}},
\end{equation*}

tienen diferentes límites:
\begin{align*}
\lim_{n\to\infty} \dfrac{z_{2n+2}}{z_{2n}} = \lim_{n\to\infty} \dfrac{2(2^{-2(n+1)})}{2(2^{-2n})} = \dfrac{1}{4},\\
\lim_{n\to\infty} \frac{z_{2n+3}}{z_{2n+1}} = \lim_{n\to\infty} \frac{2(3^{-(2n+3)})}{2(3^{-(2n+1)})} = \frac{1}{9}.
\end{align*}

Sin embargo, notemos que:
\begin{equation*}
\limsup_{n\to \infty} \frac{|z_{n+1}|}{|z_{n}|} = \limsup_{n\to \infty} \frac{z_{n+1}}{z_{n}} = \frac{1}{4} < 1,
\end{equation*}

por lo que, de acuerdo con el criterio de D’Alembert, la serie converge.

Ejemplo 29.9.
Determinemos el radio de convergencia de las siguientes series de potencias.

a) $\displaystyle \sum_{n=1}^\infty \left(1+\dfrac{1}{n}\right)^{n^2} z^n$.
b) $\displaystyle \sum_{n=1}^\infty \dfrac{(n+1) z^n}{(n+2)(n+3)}$.
c) $\displaystyle \sum_{n=1}^\infty \left(a+ib\right)^{n} z^n$, con $a,b\in\mathbb{R}$ no ambos cero.
d) $\displaystyle \sum_{n=1}^\infty \left(\dfrac{n+2}{3n+1}\right)^{n} (z-4)^n$.

Solución. Para las cuatro series utilizaremos el corolario 29.3.
a) Tenemos que:
\begin{equation*}
\sum_{n=1}^\infty \left(1+\dfrac{1}{n}\right)^{n^2} z^n = \sum_{k=0}^\infty c_k z^{k},
\end{equation*}

de donde:
\begin{equation*}
c_k = \left\{ \begin{array}{lc}
\left(1+\dfrac{1}{n}\right)^{n^2}, & \text{si existe} \,\, n\in\mathbb{N} \,\, \text{tal que} \,\, k = n,\\
\\ 0, & \text{en otro caso,}\\
\end{array}
\right.
\end{equation*}

es decir:
\begin{equation*}
c_0 = 0 \quad \text{y} \quad c_n = \left(1+\dfrac{1}{n}\right)^{n^2}, \quad \forall n\geq 1.
\end{equation*}

Entonces:
\begin{equation*}
\lambda = \lim_{n\to\infty} |c_n|^{1/n} = \lim_{n\to\infty} \left(1+\frac{1}{n}\right)^n = e, \quad \Longrightarrow \quad R = \frac{1}{\lambda} = \frac{1}{e}.
\end{equation*}

b) Tenemos que:
\begin{equation*}
c_n = \dfrac{n+1}{(n+2)(n+3)}, \quad \forall n\in\mathbb{N},
\end{equation*}

por lo que:
\begin{equation*}
c_{n+1} = \dfrac{n+2}{(n+3)(n+4)}.
\end{equation*}

Entonces:
\begin{align*}
\lambda = \lim_{n\to\infty} \frac{|c_{n+1}|}{|c_n|}
& = \lim_{n\to\infty} \frac{(n+2)^2(n+3)}{(n+1)(n+3)(n+4)}\\
& = \lim_{n\to\infty} \frac{n^2+4n+4}{n^2+5n+4}\\
& = 1,
\end{align*} de donde $R = 1/\lambda = 1$.

c) Tenemos que:
\begin{equation*}
c_n = \left(a+ib\right)^{n} \quad \forall n\in\mathbb{N},
\end{equation*} con $a,b\in\mathbb{R}$ no ambos cero, por lo que:
\begin{equation*}
c_{n+1} = \left(a+ib\right)^{n+1}.
\end{equation*}

Entonces:
\begin{equation*}
\lambda = \lim_{n\to\infty} \frac{|c_{n+1}|}{|c_n|} = \lim_{n\to\infty} \left| \frac{\left(a+ib\right)^{n+1}}{\left(a+ib\right)^{n}}\right| = \lim_{n\to\infty} |a+ib| = \sqrt{a^2 + b^2},
\end{equation*} de donde $R = 1/\lambda$.

d) Tenemos que:
\begin{equation*}
z_0 = 4, \quad c_0 = 1 \quad \text{y} \quad c_n = \left(\dfrac{n+2}{3n+1}\right)^{n} \quad \forall n\in\mathbb{N}^+.
\end{equation*}

Entonces:
\begin{equation*}
\lambda = \lim_{n\to\infty} \sqrt[n]{|c_n|} = \lim_{n\to\infty} \left(\left| \dfrac{n+2}{3n+1}\right|^n\right)^{1/n} = \lim_{n\to\infty} \dfrac{n+2}{3n+1} = \dfrac{1}{3},
\end{equation*} de donde $R = 1/\lambda = 3$.

Ejemplo 29.10.
Determinemos el dominio de convergencia de la siguiente serie de potencias e identifiquemos gráficamente a dicho conjunto en el plano complejo.
\begin{equation*}
\displaystyle\sum_{n=1}^\infty \frac{1\cdot3\cdot5 \cdot \ldots \cdot (2n-1)}{n!}\left(\dfrac{1-z}{z}\right)^{n}.
\end{equation*}

Solución. Sea $w = \dfrac{1-z}{z}$, entonces:
\begin{equation*}
\sum_{n=1}^\infty \frac{1\cdot3\cdot5 \cdot \ldots \cdot (2n-1)}{n!} w^{n} = \sum_{k=0}^\infty c_k w^k,
\end{equation*}

de donde:
\begin{equation*}
c_k = \left\{ \begin{array}{lc}
\dfrac{1\cdot3\cdot5 \cdot \ldots \cdot (2n-1)}{n!}, & \text{si existe} \,\, n\in\mathbb{N} \,\, \text{tal que} \,\, k = n,\\
\\ 0, & \text{en otro caso,}\\
\end{array}
\right.
\end{equation*}

es decir:
\begin{equation*}
c_0 = 0 \quad \text{y} \quad c_n = \dfrac{1\cdot3\cdot5 \cdot \ldots \cdot (2n-1)}{n!} \quad \forall n\geq 1.
\end{equation*}

Tenemos que:
\begin{equation*}
c_{n+1} = \dfrac{1\cdot3\cdot5 \cdot \ldots \cdot (2n-1)(2n+1)}{(n+1)!},
\end{equation*}

por lo que:
\begin{align*}
\lambda = \lim_{n\to\infty} \frac{|c_{n+1}|}{|c_n|} & = \lim_{n\to\infty} \left|\dfrac{\dfrac{1\cdot3\cdot5 \cdot \ldots \cdot (2n-1)(2n+1)}{(n+1)!}}{\dfrac{1\cdot3\cdot5 \cdot \ldots \cdot (2n-1)}{n!}}\right|\\
& = \lim_{n\to\infty} \left|\dfrac{(2n+1)n!}{(n+1)!}\right|\\
& = \lim_{n\to\infty} \dfrac{2n+1}{n+1}\\
& = 2,
\end{align*} de donde $R = 1/\lambda = 1/2$.

Entonces, el dominio de convergencia de la serie está dado por la condición $|w|<1/2$, es decir:
\begin{align*}
\left|\frac{1-z}{z}\right| < \frac{1}{2} \quad & \Longrightarrow \quad 2 |1-z|< |z|,\\
& \Longrightarrow \quad 4 |1-z|^2< |z|^2,\\
& \Longrightarrow \quad 4 (1-z)\overline{(1-z)}< z \overline{z},\\
& \Longrightarrow \quad 4 -4\overline{z} – 4z + 3z \overline{z}< 0,\\
& \Longrightarrow \quad z \overline{z} -\frac{4}{3}\overline{z} – \frac{4}{3}z + \frac{4}{3}< 0 \tag{29.7}.
\end{align*}

De acuerdo con los resultados de la entrada 6, sabemos que la ecuación general de una circunfernecia en el plano complejo $\mathbb{C}$ es:
\begin{equation*}
z \overline{z} +a \overline{z} + \overline{a} z + b = 0,
\end{equation*} cuyo centro es el punto $-a$ y $r = \sqrt{|a|^2-b}$ su radio.

De (29.7) tenemos:
\begin{equation*}
z \overline{z} + \left(-\frac{4}{3}\right)\overline{z} + \left(-\frac{4}{3}\right) z + \frac{4}{3} = 0,
\end{equation*}

de donde:
\begin{equation*}
-a = \frac{4}{3}, \quad b= \frac{4}{3} \quad \text{y} \quad r = \sqrt{|a|^2-b} = \sqrt{\frac{4}{9}} = \frac{2}{3}.
\end{equation*}

Por lo que, la expresión en (29.7) corresponde con el interior de la circunferencia $C\left(\dfrac{4}{3}, \dfrac{2}{3}\right)$, es decir, el disco abierto $B\left(\dfrac{4}{3}, \dfrac{2}{3}\right)$ es el dominio de convergencia de la serie de potencias, figura 109.

Figura 109: Dominio de convergencia de la serie de potencias del ejemplo 29.10.

Tarea moral

  1. Muestra que el radio de convergencia de la serie de potencias: \begin{equation*} \sum_{n=0}^\infty \frac{(-1)^n}{n} z^{n(n+1)},\end{equation*} es 1 y analiza la convergencia para $z=1$, $z=-1$ y $z=i$.

    Hint: Observa que el $(n+1)$-ésimo coeficiente de la serie no es $\dfrac{(-1)^n}{n}$. Procede como en el ejemplo 29.1.
  2. Determina el dominio de convergencia de las siguientes series de potencias y gráficalo.
    a) $\displaystyle \sum_{n=0}^\infty \left[\dfrac{(iz-1)}{3+4i}\right]^n$.
    b) $\displaystyle \sum_{n=0}^\infty \dfrac{(z+2)^{n-1}}{(n+1)^3 4^n}$.
  3. Muestra que el radio de convergencia de las siguientes series de potencias es infinito.
    a) $\displaystyle \sum_{n=0}^\infty \dfrac{z^n}{n!}$.
    b) $\displaystyle \sum_{n=0}^\infty \dfrac{(-1)^n z^{2n}}{(2n)!}$.
    c) $\displaystyle \sum_{n=0}^\infty \dfrac{(-1)^n z^{2n+1}}{(2n+1)!}$.
  4. Considera las tres series del ejemplo 29.2 y obtén su radio de convergencia, ¿en qué conjuntos la convergencia es uniforme?
  5. Prueba el corolario 29.3.
  6. Sean $\displaystyle \sum_{n=0}^\infty c_n (z-z_0)^n$ y $\displaystyle \sum_{n=0}^\infty d_n (z-z_0)^n$ dos series de potencias con radio de convergencia $R_1$ y $R_2$, respectivamente.
    a) ¿Cuál es el radio de convergencia de la serie $\displaystyle \sum_{n=0}^\infty (c_n+d_n)(z-z_0)^n$?
    b) ¿Cuál es el radio de convergencia de la serie $\displaystyle \sum_{n=0}^\infty (c_n \cdot d_n)(z-z_0)^n$?
  7. Obtén el radio de convergencia de las siguientes series de potencias:
    a) $\displaystyle \sum_{n=1}^\infty \dfrac{z^n}{n}$.
    b) $\displaystyle \sum_{n=0}^\infty \dfrac{z^{4n}}{4n+1}$.
    c) $\displaystyle \sum_{n=0}^\infty n^2\left(\dfrac{z^{2}+1}{1+i}\right)^n$.
    d) $\displaystyle \sum_{n=0}^\infty \left(\dfrac{2i}{x+i+1}\right)^n$.
    e) $\dfrac{1}{2} z + \dfrac{1 \cdot 3}{2\cdot5} z^2 + \dfrac{1 \cdot 3 \cdot 5}{2\cdot 5 \cdot 8} z^3 + \cdots$
    f) $\displaystyle \sum_{n=1}^\infty (\operatorname{ln}(n))^n z^n$.
  8. Si $\displaystyle \sum_{n=0}^\infty c_n z^n$ tiene radio de convergencia $R$, determina el radio de convergencia de las siguientes series de potencias:
    a) $\displaystyle \sum_{n=0}^\infty c_n z^{2n}$.
    b) $\displaystyle \sum_{n=0}^\infty c_n^2 z^{n}$.
    c) $\displaystyle \sum_{n=0}^\infty n^d c_n z^{n}$, para cualquier $d\in\mathbb{N}^+$.
    d) $\displaystyle \sum_{n=0}^\infty (-1)^n c_n z^{n}$.

Más adelante…

En esta entrada definimos de manera formal el concepto de serie de potencias y establecimos una serie de resultados relacionados con su convergencia. En particular, vimos que a través del concepto del radio de convergencia de una serie de potencias es posible establecer su dominio de convergencia, que geométricamente corresponde con discos abiertos, a los cuales comúnmente se les llama círculos de convergencia.

En la siguiente entrada estudiaremos algunas propiedades importantes de las series de potencias como la continuidad y analicidad de las mismas, propiedades que nos serán de utilidad en el estudio de las funciones complejas, pues como veremos, toda función compleja que es analítica en un dominio $D\subset\mathbb{C}$ puede tener un desarrollo en series de potencias en todo disco abierto completamente contenido en $D$.

Entradas relacionadas

Cálculo Diferencial e Integral III: Formas lineales y formas bilineales

Por Alejandro Antonio Estrada Franco

Introducción

Hasta ahora hemos cubierto a modo de repaso varios temas de álgebra lineal relacionados con sistemas de ecuaciones lineales, transformaciones lineales, sus matrices asociadas y más. En esta y las entradas que siguen recordaremos más herramientas de álgebra lineal que serán de utilidad para nuestro contenido de diferenciabilidad. Hablaremos de las formas lineales de $\mathbb{R}^n$, de sus formas bilineales y de sus formas cuadráticas.

Como es usual, este contenido cubre sólo por encima lo que se vería en un curso completo de álgebra lineal, en donde se ahonda en varias demostraciones, se dan más ejemplos y se tratan espacios vectoriales más generales. Para estos temas en específico, las siguientes entradas pueden ser un buen punto de partida:

Formas lineales

Las formas lineales son transformaciones lineales, pero son unas muy específicas: las que caen en $\mathbb{R}$.

Definición. Una transformación lineal $\bar{\phi} :\mathbb{R}^n\to \mathbb{R}$ se le llama forma lineal o funcional lineal.

Definición. Llamaremos al espacio vectorial $\mathcal{L}(\mathbb{R}^n,\mathbb{R})$ el espacio dual de $\mathbb{R}^n$ y lo denotamos por ${\mathbb{R}^n}^\ast$.

Hay una relación directa entre las bases de $\mathbb{R}^n$ y las de ${\mathbb{R}^n}^\ast$. Como los elementos de ${\mathbb{R}^n}^\ast$ son transformaciones lineales, basta decir qué les hacen a los elementos de una base. De aquí se motiva la siguiente definición.

Definición. Tomemos una base $\beta=\{ \bar{e}_{1},\dots ,\bar{e}_{n} \}$ para $\mathbb{R}^n$. Sean $\bar{\phi} _{1},\dots ,\bar{\phi} _{n}\in {\mathbb{R}^n}^\ast$ definidas como sigue: \[ \bar{\phi} _{i}(\bar{e}_{j})=\left\lbrace\begin{array}{c} 1\hspace{1cm}si\hspace{1cm}i=j \\ 0\hspace{1cm}si\hspace{1cm}i\neq j. \end{array}\right. \]

A $\bar{\phi} _{1},\dots ,\bar{\phi} _{n}$ le llamamos la base dual a $\beta$ y la denotamos por $\beta^\ast$.

El nombre queda justificado por el siguiente resultado.

Teorema. Se tiene que $\beta^\ast=\{\bar{\phi} _{1},\dots ,\bar{\phi} _{n}\}$ es una base para ${\mathbb{R}^n}^\ast$.

Demostración. Debemos mostrar que $\beta^\ast$ es generador e independiente. Veremos que es generador, y la independencia lineal quedará de tarea moral. Tomemos $\bar{\alpha} \in {\mathbb{R}^n}^\ast$. Supongamos que para cada $j$ se tiene $\bar{\alpha} (\bar{e}_{j})=r_{j}$. Afirmamos que $\bar{\alpha} = r_{1}\bar{\phi} _{1} +\dots +r_{n}\bar{\phi} _{n}$.

Para mostrar la igualdad anterior, que es una igualdad de formas lineales, veremos la igualdad vector a vector. Sea $\bar{v}\in \mathbb{R}^n$. Calcularemos $\bar{\alpha} (\bar{v})$. Para ello, expresamos a $\bar{v}$ como combinación de elementos de $\beta$: $$\bar{v}=\sum _{i=1}^{n}x_{i}\bar{e}_{i}.$$

Al aplicar $\alpha$ obtenemos:

\begin{align*}
\bar{\alpha} (\bar{v})&=\bar{\alpha} \left( \sum _{i=1}^{n}x_{i}\bar{e}_{i} \right)\\
&=\sum_{i=1}^{n}x_{i}\bar{\alpha} (\bar{e}_{i})\\
&=\sum_{i=1}^{n}x_{i}r_{i}\\
&=\sum_{i=1}^{n}x_{i}r_{i}\bar{\phi} _{i}(\bar{e}_{i})\\
&= \sum_{i=1}^{n}r_{i}\bar{\phi }_{i}(x_{i}\bar{e}_{i})\\
&=\sum_{i=1}^{n}r_{i}\bar{\phi} _{i}\left( \sum_{k=1}^{n}x_{k}\bar{e}_{k} \right) \quad \text{(agregando varios $0$)}\\
&=\left( r_{1}\bar{\phi} _{1}+\dots +r_{n}\bar{\phi} _{n}\right)\left( \sum_{k=1}^{n}x_{k}\bar{e}_{k}\right)\\
&=\left( r_{1}\bar{\phi} _{1}+\dots +r_{n}\bar{\phi} _{n}\right)(\bar{v})\\
\end{align*}

Así se da la igualdad $\bar{\alpha} = r_{1}\bar{\phi} _{1} +\dots +r_{n}\bar{\phi} _{n}$, por lo tanto $\beta^\ast$ es un conjunto generador ${\mathbb{R}^n}^\ast$

$\square$

De la demostración podemos obtener algo más. Supongamos que tomamos $\bar{v}\in \mathbb{R}^n$ y una base $\beta=\{\bar{e}_1,\ldots,\bar{e}_n\}$. Supongamos que $\bar{v}=\sum_{i=1}^{n}x_{i}\bar{e}_{i}$. A partir de aquí, podemos construir una forma lineal $\psi(\bar{v})$ que cumple $\psi(\bar{v})=\sum_{i=1}^n x_i \bar{\phi}_i$. Se puede verificar que la asignación $\psi: \mathbb{R}^n\to {\mathbb{R}^n}^\ast$ es un isomorfismo. De aquí, obtenemos que $\mathbb{R}^n\cong {\mathbb{R}^n}^\ast$.

Hasta ahora, de cualquier base de $\mathbb{R}^n$ se puede obtener una base dual, que es base de ${\mathbb{R}^n}^\ast$. ¿Podemos hacer lo inverso? El siguiente resultado dice que sí, si tenemos una base para ${\mathbb{R}^n}^\ast$, podemos construir una para $\mathbb{R}^n$ muy conveniente.

Teorema. Dada $\beta^\ast =\{\bar{\phi} _{1},\dots ,\bar{\phi} _{n}\}$ base para ${\mathbb{R}^n}^\ast$, existe $\beta =\{\bar{w}_{1},\dots , \bar{w}_{n}\}$ base para $\mathbb{R}^n$; tal que $\bar{\phi} _{i}(\bar{w}_{j})=\delta _{ij}$ donde: \[ \delta_{ij}= \left\lbrace\begin{array}{c} 1\hspace{1cm}si\hspace{1cm}i=j \\ 0\hspace{1cm}si\hspace{1cm}i\neq j, \end{array} \right . \]

es decir, tal que $\beta^\ast$ es justo la base dual de $\beta$.

Demostración. Para construir la base deseada, hacemos los siguientes pasos. Cada paso está esbozado. Los detalles quedan como tarea moral.

  1. Primero notemos que para cada $i=1,\dots ,n$ se tiene, por el teorema de la dimensión, que:
    \begin{align*}
    n&=\dim\mathbb{R}^n\\
    &=\dim(\ker(\bar{\phi}_{i}))+\dim(\text{Im}(\bar{\phi} _{i}))\\
    &=\dim(\ker(\bar{\phi}_{i}))+1,
    \end{align*}
    en donde usamos que $\bar{\phi}_i$ es forma lineal no cero (por estar en una base), de donde su imagen tiene dimensión $1$. De aquí $\dim(\ker(\bar{\phi} _{i}))=n-1$. Si tomamos una base de $\ker(\bar{\phi}_i)$, tiene $n-1$ elementos y por lo tanto podemos completarla a una base de $\mathbb{R}^n$ agregando un cierto vector $\bar{v}_i$.
  2. Afirmamos que $\bar{v}_1,\bar{v}_2,\ldots,\bar{v}_n$ elegidos de la manera anterior son un conjunto linealmente independiente. En efecto, al tener una combinación lineal $$\alpha_1\bar{v}_1+\ldots + \alpha_n\bar{v}_n=\bar{0},$$ podemos para cada $i=1,\ldots,n$ aplicar $\bar{\phi}_i$ a ambos lados. Del lado izquierdo se eliminarán todos términos excepto $\alpha_i\bar{\phi}_i(\bar{v}_i)$. Como $\bar{\phi}_i(\bar{v}_i)\neq 0$, entonces $\alpha_i=0$ para todo $i=1,\ldots,n$. Como $\bar{v}_1,\ldots,\bar{v}_n$ son linealmente independientes, y son $n$, entonces son una base de $\mathbb{R}^n$.
  3. Ahora, pensemos que $\bar{\phi}_i(\bar{v}_i)=r_i\neq 0$. Podemos dividir entre $r_i$ para obtener $\bar{\phi}_i\left(\frac{\bar{v}_i}{r_i}\right)=1$.
  4. De todo lo anterior, $\{\bar{v}_{1}/r_{1},\dots ,\bar{v}_{n}/r_{n} \}$ es la base buscada.

$\square$

A la base conformada por los vectores $\bar{w}_1,\ldots,\bar{w}_n$ le llamamos la base primal de $\beta^\ast$.

En estos dos teoremas hemos desarrollado técnicas para construir bases para un espacio y su dual que se coordinan haciendo simples las evaluaciones de las funciones de la base dual sobre las de la base del espacio original. Entre estas dos bases para el espacio y su dual tenemos un par de ecuaciones que las correlacionan muy convenientemente.

Teorema. Sean $\{ \bar{v}_{1},\dots \bar{v}_{n}\}$ una base de $\mathbb{R}^n$ y $\{ \bar{\phi} _{1},\dots \bar{\phi} _{n} \}$ la base dual de ${\mathbb{R}^n}^\ast$. Para todo $\bar{u}\in \mathbb{R}^n$ tenemos $$\bar{u}=\sum_{i=1}^n\bar{\phi} _{i}(\bar{u})\bar{v}_{i}, $$ y para todo $\Phi \in {\mathbb{R}^n}^\ast$ tenemos $$\Phi =\sum_{i=1}^n\Phi (\bar{v}_{i})\bar{\phi} _{i}.$$

Demostración. Sea $\bar{u}\in \mathbb{R}^n$, supongamos $\bar{u}=\sum_{i}x_{i}\bar{v}_{i}$. Para cada $j$ entre $1$ y $n$, tenemos
\begin{align*}
\bar{\phi} _{j}(\bar{u})&=\sum_{i=1}^n x_{i}\bar{\phi} _{j}(\bar{v}_{i})\\
&=x_{j}\bar{\phi} _{j}(\bar{v}_{j})\\
&=x_{j}.
\end{align*}

De esta manera $x_{j}=\bar{\phi} _{j}(\bar{u})$, por tanto obtenemos $\bar{u}=\sum_{i=1}^n\bar{\phi} _{i}(\bar{u})\bar{v}_{i}$.

De manera similar, sea $\Phi \in {\mathbb{R}^n}^\ast$, supongamos $\Phi =\sum_{i}y_{i}\bar{\phi} _{i}$. Para cada $j$ entre $1$ y $n$, tenemos
\begin{align*}
\Phi (\bar{v}_{j})&=\sum_{i=1}^n y_{i}\bar{\phi} _{i}(\bar{v}_{j})\\
&=y_{j}\bar{\phi} _{j}(\bar{v}_{j})\\
&=y_{j}.
\end{align*}

Así hemos obtenido $\Phi (\bar{v}_{j})=y_{j}$, con lo que concluimos $\Phi = \sum_{i=1}^n \Phi (\bar{v}_{i})\bar{\phi} _{i}$.

$\square$

Formas bilineales

Este desarrollo teórico nos permite abordar las formas bilineales tal y como las usaremos mas adelante.

Definición. Sea $\mathbb{R}^n$ un espacio vectorial sobre $\mathbb{R}$. Una forma bilineal es una función $b:\mathbb{R}^n\times \mathbb{R}^n\to \mathbb{R}$ que satisface:

  1. $b(r\bar{u}_{1}+\bar{u}_{2},\bar{v})=rb(\bar{u}_{1},\bar{v})+b(\bar{u}_{2},\bar{v})$ para todo real $r$ y vectores $\bar{u}_1,\bar{u}_2,\bar{v}$ en $\mathbb{R}^n$, a lo que llamamos linealidad en la primera entrada.
  2. $b(\bar{u},r\bar{v}_{1}+\bar{v}_{2})=rb(\bar{u},\bar{v}_{1})+b(\bar{u},\bar{v}_{2})$ para todo real $r$ y vectores $\bar{v}_1,\bar{v}_2,\bar{u}$ en $\mathbb{R}^n$ a lo que llamamos linealidad en la segunda entrada.

Ejemplo. Sea $A\in M_n\left( \mathbb{R}\right)$. A partir de la matriz $A$ puede construirse una forma bilineal $b_{A}$ sobre $\mathbb{R}^{n}$. Para los vectores $\bar{x}=(x_{1},\dots ,x_{n})$ y $\bar{y}=(y_{1},\dots ,y_{n})$, queda definida como sigue

$$b_{A}(\bar{x},\bar{y})=\bar{x}^{T}A\bar{y}.$$

Realizando las cuentas matriciales, tenemos:

\begin{align*}
b_{A}(\bar{x},\bar{y})&=\begin{pmatrix}x_{1}\dots x_{n}\end{pmatrix} \begin{pmatrix} a_{11} & \dots & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{n1} & \dots & a_{nn} \end{pmatrix}\begin{pmatrix}y_{1} \\ \vdots \\ y_{n} \end{pmatrix}\\
&=\sum_{i,j=1}^{n}x_{i}a_{ij}y_{j}.
\end{align*}

Queda como tarea moral verificar que $f_{A}$ en efecto es bilineal, lo que se recomienda verificar en la expresión $\bar{x}^{T}A\bar{y}$.

Un ejemplo todavía más concreto sería tomar la matriz $A=\begin{pmatrix} 2 & 5 \\ 3 & 4 \end{pmatrix}$. Al realizar las cuentas matriciales obtenemos:

$$\begin{pmatrix} x_1 & x_2 \end{pmatrix}\begin{pmatrix} 2 & 5 \\ -3 & 4 \end{pmatrix} \begin{pmatrix} y_1 \\ y_2 \end{pmatrix} = 2x_1y_1 + 5x_1y_2 – 3x_2y_1 + 4 x_2y_2.$$

$\triangle$

El espacio de formas bilineales

Denotaremos por $B(\mathbb{R}^n)$ al conjunto de las formas bilineales en $\mathbb{R}^n$. Le damos a $B(\mathbb{R}^n)$ estructura de espacio vectorial con las operaciones siguientes: $$(b_1+b_2)(\bar{u},\bar{v})=b_1(\bar{u},\bar{v})+b_2(\bar{u},\bar{v}),$$ y $$(rb)(\bar{u},\bar{v})=rb(\bar{u},\bar{v}),$$ para todos los $b_1,b_2,b\in B(\mathbb{R}^n)$ y $r\in \mathbb{R}$.

Con la teoría que tenemos hasta ahora, podemos construir fácilmente una base para el espacio $B(\mathbb{R}^n)$.

Teorema. Sea $\{\bar{\phi} _{1},\dots ,\bar{\phi} _{n}\}$ una base del espacio dual ${\mathbb{R}^n}^\ast$. Entonces $$\mathbb{B}=\{b_{ij}|i,j=1,\dots ,n \}$$ es una base para $B(\mathbb{R}^n)$, donde $$b_{ij}(\bar{u},\bar{v})=\bar{\phi} _{i}(\bar{u})\bar{\phi} _{j}(\bar{v}).$$ De este modo $\dim B(\mathbb{R}^n)=n^{2}$.

Demostración. Para $\{ \bar{\phi} _{1},\dots ,\bar{\phi} _{n}\}$ podemos construir su base primal $\{\bar{v}_{1},\dots ,\bar{v}_{n}\}$,es decir, base de $\mathbb{R}^n$ tal que $\bar{\phi} _{i}(\bar{v}_{j})=\delta _{ij}$, para todo $i,j$.

Veamos que las formas bilineales propuestas en efecto son un conjunto generador. Sea $b\in B(\mathbb{R}^n)$. Para $\bar{u},\bar{v}$ arbitrarios en $\mathbb{R}^n$, calculemos $b(\bar{u},\bar{v})$. Para ello recordemos que $$\bar{u}=\sum_{i=1}^n\bar{\phi}_{i}(\bar{u})\bar{v}_{i}$$ y $$\bar{v}=\sum_{j=1}^n\bar{\phi} _{j}(\bar{v})v_{ij}.$$ Usando esto:

\begin{align*}
b(\bar{u},\bar{v})&=b\left( \sum_{i=1}^n\phi _{i}(\bar{u})\bar{v}_{i}, \sum_{j=1}^n\bar{\phi} _{j}(\bar{v})\bar{v}_{j} \right)\\
&=\sum_{i=1}^n\bar{\phi} _{i}(\bar{u})b\left( \bar{v}_{i}, \sum_{j=1}^n\bar{\phi} _{j}(\bar{v})\bar{v}_{j} \right)\\
&=\sum_{i=1}^n\bar{\phi} _{i}(\bar{u})\sum_{j=1}^n\bar{\phi} _{j}(\bar{v})b(\bar{v}_{i}, \bar{v}_{j})\\
&=\sum_{i=1}^n\sum_{j=1}^n\bar{\phi} _{i}(\bar{u})\bar{\phi} _{j}(\bar{v})b(\bar{v}_{i}, \bar{v}_{j})\\
&=\sum_{i=1}^n\sum_{j=1}^n b_{ij}(\bar{u},\bar{v})b(\bar{v}_{i},\bar{u}_{j}).
\end{align*}

Así vemos que $b$ es combinación lineal del conjunto $\mathbb{B}$. Concluimos que $\mathbb{B}$ es un conjunto generador de $B(\mathbb{R}^n)$. Para calcular la dimensión de $B(\mathbb{R}^n)$, falta todavía ver que $\mathbb{B}$ es linealmente independiente, lo cual queda como tarea moral (en la lista de ejercicios hay una sugerencia). Tras probar que $\mathbb{B}$ es linealmente independiente, se tiene que $\dim B(\mathbb{R}^n)=n^{2}$.

$\square$

Forma matricial de formas bilineales

En el ejemplo anterior vimos cómo a partir de una matriz $A$ podemos construir una forma bilineal $(\bar{x},\bar{y})\to \bar{x}^T A \bar{y}$ de $\mathbb{R}^n$. En realidad así se pueden obtener todas las formas bilineales.

Definición. Consideremos una forma bilineal $b:\mathbb{R}^n\times \mathbb{R}^n \to \mathbb{R}$. Tomemos una base $\beta=\{\bar{u}_1,\ldots ,\bar{u}_n\}$. Tomemos la matriz $\text{Mat}_\beta(b)$ en $M_n(\mathbb{R})$ cuya entrada $(i,j)$ es $f(\bar{u}_{i},\bar{v}_{j})$. Llamaremos a esta matriz la representación matricial de $f$ relativa a la base $\beta$.

La matriz $A:=\text{Mat}_\beta(b)$ representa a $f$ en el siguiente sentido. Se tiene que, para cualesquiera $\bar{u},\bar{v}$ en $\mathbb{R}^n$ se cumple que si los vectores de coordenadas de $\bar{u}$ y $\bar{v}$ en la base $\beta$ son $X=(x_1,\ldots,x_n)$ y $Y=(y_1,\ldots,y_n)$, entonces:

\begin{align*}
b(\bar{u},\bar{v})&=\sum_{i=1}^n\sum_{j=1}^n x_{i}y_{j}b(\bar{u}_{i},\bar{u}_{j})\\
&=\begin{pmatrix} x_{1} & \dots & x_{n}\end{pmatrix}A\begin{pmatrix}y_{1} \\ \vdots \\ y_{n} \end{pmatrix}\\
&=X^{T}A Y.
\end{align*}

Ejemplo. Tomemos la forma bilineal $b$ de $\mathbb{R}^2$ dada por $$b((x_1,x_2),(y_1,y_2))=5x_1y_2+3x_2y_1$$ (verifica que es forma bilineal). Tomemos la base $(1,1)$ y $(1,-1)$ de $\mathbb{R}^2$. Para encontrar la representación matricial de $b$ en esta base, debemos hacer los siguientes cálculos:

\begin{align*}
b((1,1),(1,1))&=8\\
b((1,1),(1,-1))&=-2\\
b((1,-1),(1,1))&=2\\
b((1,-1)(1,-1))&=-8\\
\end{align*}

De esta manera, la representación matricial es $$\begin{pmatrix} 8 & -2 \\ 2 & -8 \end{pmatrix}.$$

$\triangle$

Matrices congruentes y rango

Recordemos dos definiciones más.

Definición. El rango de una matriz es el número máximo de columnas (tratadas como vectores columna) linealmente independientes. La notación para una matriz $A$ será $\rank(A)$.

Definición. Sean $A$ y $B$ matrices en $M_n(\mathbb{R})$. Se dice que $B$ es congruente a $A$ si existe una matriz invertible $P$ tal que $B=P^{t}AP$.

Es sencillo mostrar que esta relación «es congruente a» es una relación de equivalencia, lo cual queda como tarea moral revisar.

Por resultados de rango de matrices, se cumple que el rango de una matriz no cambia si la multiplicamos por una matriz invertible. Si $A$ y $B$ son congruentes mediante la matriz $P$, tenemos que $B=P^t A P$. Como $P$ es invertible, $P^t$ también. Así, $B$ tiene el mismo rango que $A$.

Al igual que con las transformaciones lineales, la representación matricial de las formas bilineales depende de la base del espacio dominio que se considere. Pero tenemos una relación importante entre distintas representaciones matriciales de formas bilineales.

Teorema. Cualesquiera dos representaciones matriciales de una misma forma bilineal son congruentes.

Demostración. Consideremos $b:\mathbb{R}^n\times \mathbb{R}^n\to \mathbb{R}$ una forma bilineal. Tomemos $\beta=\{\bar{v}_{1},\dots ,\bar{v}_{n}\}$ y $\beta’=\{\bar{u}_{1},\dots ,\bar{u}_{n}\}$ dos bases para $\mathbb{R}^n$. Supongamos que para cada $i$ tenemos $$\bar{v}_{i}=\sum_{k=1}^{n}c_{ik}\bar{u}_{k}.$$

Así:
\begin{align*}
b(\bar{v}_{i},\bar{v}_{j})&=b\left( \sum_{k=1}^{n}c_{ik}\bar{u}_{k},\sum_{t=1}^{n}c_{jt}\bar{u}_{t} \right)\\
&=\sum_{k=1}^n\sum_{t=1}^n c_{ik}c_{jt}b(\bar{u}_{k},\bar{u}_{t}).
\end{align*}

Definamos $a’_{kt}=b(\bar{u}_{k},\bar{u}_{t})$, y tomemos $A’$ como la matriz en $M_n(\mathbb{R})$ cuya entrada $(k,t)$ es $a’_{kt}$. Tenemos entonces:

\[b(\bar{v}_{i},\bar{v}_{j})=\begin{pmatrix}c_{i1} & \dots & c_{in} \end{pmatrix}A’\begin{pmatrix}c_{j1} \\ \vdots \\ c_{jn} \end{pmatrix}. \]

Definamos a la matriz $C$ en $M_n(\mathbb{R})$ a aquella con entradas $(k,t)$ iguales a $c_{kt}$. Al variar sobre los posibles valores de $(i,j)$, la igualdad anterior nos dice que la entrada $(i,j)$ de la forma matricial $A$ de $b$ en la base $\beta$ es igual a la entrada $(i,j)$ de la matriz $C^tA’C$, en donde notamos que $A’$ es la forma matricial de $b$ en la base $\beta’$. Esto nos dice que $A=C^{t}A’C$. Así $A$ y $A’$ son congruentes.

$\square$

Con esto, podemos establecer la siguiente definición sin ambigüedades.

Definición. El rango de una forma bilineal $b$ en $\mathbb{R}^n$, escrito $\rank(b)$ se define como el rango de cualquiera de sus representaciones matriciales. Además decimos que $b$ es degenerada o no degenerada según sea $\rank(b)<\dim\mathbb{R}^n$ o $\rank(b)=\dim\mathbb{R}^n$, respectivamente.

Más adelante…

Esta entrada repasa los conceptos de formas lineales y bilineales. La siguiente entrada será nuestra última entrada de repaso de álgebra lineal. Lo que haremos es recordar cómo a partir de las formas bilineales podemos definir a las formas cuadráticas. Las formas cuadráticas también nos ayudarán a establecer ciertas propiedades de funciones al combinarlas con la noción de diferenciabilidad.

En esta entrada hablamos del rango de una matriz. Más adelante retomaremos este concepto, y lo usaremos cuando enunciemos el teorema del rango, un resultado crucial en diferenciabilidad.

Tarea moral

  1. Realiza los siguientes dos problemas:
    • Encuentra la base dual de la base $\{(1,2,3),(3,2,1),(1,-1,0)\}$ de $\mathbb{R}^3$ explícitamente.
    • Encuentra una base de $\mathbb{R}^3$ cuya base dual sean las formas lineales $l_1(x,y,z)=x$, $l_2(x,y,z)=3x-2$, $l_3(x,y,z)=x+y-z$.
  2. Completa los detalles en cada paso del teorema que nos dice cómo obtener una base primar para una base dual.
  3. En el teorema de bases para el espacio de formas bilineales, verifica que el conjunto de formas lineales propuestas es linealmente independiente. Sugerencia. Toma una combinación lineal igual a cero; luego evalúa en los vectores de la base $\{\bar{v}_{1},\dots ,\bar{v}_{n}\}$. Recuerda la definición de $b_{ij}$ y el efecto de evaluar $\bar{\phi} _{j}$ en $\bar{v}_{i}$.
  4. Revisa este enlace correspondiente al curso de Álgebra Lineal I de este blog para profundizar en el tema del rango de una transformación lineal y cómo se relaciona con el rango de una matriz.
  5. Demuestra que la relación «es congruente a» es una relación de equivalencia en $M_n(\mathbb{R})$.

Entradas relacionadas

Álgebra Moderna I: Primer Teorema de Isomorfía y Diagrama de Retícula

Por Cecilia del Carmen Villatoro Ramos

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

Introducción

La estrella de esta entrada es el primero de los cuatro Teoremas de Isomorfía que veremos. Como el nombre indica, estos teoremas relacionan dos conjuntos a través de una isomorfía, pero no sólo eso, además en los conjuntos que se relacionan aparece un cociente de grupos. El primer teorema de isomorfía nos permite entender cómo están relacionados el dominio, el núcleo y la imagen de un homomorfismo de grupos, de forma similar al teorema de la dimensión en Álgebra lineal, que establece la relación entre el dominio, el núcleo y la imagen de una transformación lineal.

El Primer Teorema de Isomorfía se usa en la prueba del resto de los teoremas de isomorfía, así que al final de esta unidad te quedará muy claro cómo se usa y para qué sirve. Normalmente se usa definiendo un homomorfismo clave para que al aplicarlo en el grupo obtengamos los cocientes necesarios.

Si quieres reforzar algunos temas que usaremos mucho a lo largo de estas entradas, puedes revisar los conceptos de Subgrupo Normal, Cociente de grupos, Isomorfísmos y Núcleo e Imagen de un Homomorfismo. Será de mucha ayuda que los tengas presentes.

Por último, junto con los Teoremas de Isomorfía usaremos una ayuda visual llamada Diagrama de Retícula, es importante para describir las relaciones entre los distintos grupos, subgrupos y subgrupos normales que estaremos manejando.

El Teorema que vamos a tratar

Teorema. (Primer Teorema de Isomorfía)
Sean $G,\bar{G}$ grupos, $\varphi: G\to \bar{G}$ un homomorfismo. Entonces
\begin{align*}
G/\text{Núc }\varphi \cong \text{Im }\varphi.
\end{align*}

Demostración.
Sea $G,\bar{G}$ grupos, $\varphi: G\to \bar{G}$ un homomorfismo, $N =\text{Núc }\varphi$.

En la entrada anterior probamos que $N \unlhd G$, de modo que $G/\text{Núc }\varphi$ tiene estructura de grupo.

Para probar que $G/\text{Núc }\varphi$ y $\text{Im }\varphi$ son isomorfos, tenemos que dar un isomorfismo entre ellos. Primero construiremos una función que vaya de $G/N$ a $\text{Im }\varphi$. Sea
\begin{align*}
\psi : G/N &\to \text{Im }\varphi \\
a N &\mapsto \varphi(a) \quad \forall a \in G.
\end{align*}

Definiremos nuestra función $\psi$ como aquella que manda una clase $aN$ de $G/N$ a $\varphi(a)$, pero no queda claro si al tomar otro representante de la clase, digamos $b$, sucederá que $\varphi(a) = \varphi(b)$. Esto tenemos que probarlo.

Tomemos $a,b\in G$ tales que $aN = bN$. Entonces,

\begin{align*}
aN = bN &\Leftrightarrow a^{-1}b\in N \\
&\Leftrightarrow \varphi(a^{-1}b) = e_{\bar{G}}\\
& \Leftrightarrow \varphi(a^{-1}) \varphi(b) = e_{\bar{G}}\\
& \Leftrightarrow (\varphi(a))^{-1}\varphi(b) = e_{\bar{G}} &\text{Propiedades de homomorfismos}\\
& \Leftrightarrow \varphi(b) = \varphi(a).
\end{align*}
En realidad todas las equivalencias anteriores son producto de las propuedades de homomorfismos que ya vimos. Las implicaciones de ida ($\Rightarrow$) nos dicen que $\psi$ está bien definida, como queríamos probar. Pero las implicaciones de regreso ($\Leftarrow$) nos dicen algo más: nuestra $\psi$ es inyectiva.

Por lo tanto $\psi$ está bien definida y es inyectiva.

Ahora nos falta ver que en efecto $\psi$ es un homomorfismo y es suprayectiva.

Para ver que es un homomorfismo consideremos $a,b\in G$, entonces:
\begin{align*}
\psi(aNbN) = \psi(abN) = \varphi(ab) = \varphi(a)\varphi(b) = \psi(aN)\psi(bN).
\end{align*}
Lo anterior sale de la definición de $\psi$ y de que $\varphi$ es un homomorfismo. Así, $\psi$ es un homomorfismo.

Finalmente, si $c \in \text{Im }\varphi$, $c = \varphi(a)$ con $a\in G$. Entonces, por definición:
\begin{align*}
c = \varphi(a) = \psi(aN) \in \text{Im }\psi.
\end{align*}

Así, $\psi$ es suprayectiva.

Por lo tanto tenemos que $\psi$ es un homomorfismo inyectivo y suprayectivo, es decir, $\psi$ es un isomorfismo. En consecuencia, $G/N \cong \text{Im }\varphi$.

$\blacksquare$

Diagrama de retícula

A partir de las siguientes entradas comenzaremos a usar algo llamado diagrama de retícula. Este diagrama es una manera de representar la relación de ser subgrupo. Se escriben todos o algunos subgrupos de un grupo $G$, y se unen dos subgrupos $H$ y $K$ con una arista si $H$ es subgrupo de $K$, de modo que $H$ quede más abajo que $K$. De esta manera, si se consideran todos los sugrupos de $G$ el grupo $G$ aparece hasta arriba y el subrgupo $\{e\}$ hasta abajo del diagrama.

Veamos un ejemplo: Sea $G$ un grupo y $H,K$ subgrupos de $G$. Si consideramos $HK$, sabemos que es subgrupo de $G$, pero además, sabemos que $H\leq HK$ y $K\leq HK$. Por último, consideremos $H\cap K$, que es a su vez un subgrupo de $H$ y $K$.

Todo esto se puede resumir en el siguiente diagrama de retícula:

Diagrama de Retícula.

¿Por qué no unimos $H$ con $G$? Pues porque este diagrama es transitivo, es decir como $H \leq HK \leq G$, está implícito que $H \leq G$. Tampoco unimos un grupo consigo mismo.

Además, si un subgrupo es un subgrupo normal, anotaremos el símbolo $\unlhd$.

Observemos que si $H\unlhd G$, entonces todo elemento en $H$, al ser conjugado con elementos de $G$, sigue siendo un elemento de $H$. En particular, si conjugamos a un elemento de $H$ con un elemento de $HK$ seguimos obteniendo un elemento de $H$. Esto nos dice que $H$ también es normal en $HK$. En el diagrama, la propiedad de ser normal se escribe de la siguiente manera:

Diagrama de Retícula donde se muestra una relación de Subgrupo Normal.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Sea $G$ un grupo cíclico con $G = \left<a\right>$. Considera el homomorfosmo $\varphi: \z \to G$ dado por $\varphi(m) = a^m$ para toda $m\in \z$.
    • Si $a$ es de orden finito con $o(a) = n$ ¿qué concluyes al aplicar el 1er Teorema de Isomorfía? ¿Qué relación existe entre dos grupos cíclicos finitos de orden $n$?
    • Si $a$ es de orden infinito ¿qué concluyes al aplicar en 1er Teorema de Isomorfía? ¿Qué relación existe entre dos grupos cíclicos infinitos?
  2. Puedes revisar los siguientes videos que hablan de homomorfismos:

Más adelante…

Uno de los principales usos del Primer Teorema de Isomorfía es definiendo una $\varphi$ ideal para que el núcleo y la imágen de $\varphi$ sean justo lo que queremos probar. Esto lo veremos en la siguiente entrada, donde lo usamos para probar el Segundo Teorema de Isomorfía.

El diagrama de retícula se volverá fundamental sobretodo cuando veamos el Cuarto Teorema de Isomorfía, porque veremos cómo relacionar muchos subgrupos con grupos cocientes correspondientes.

Entradas relacionadas