Cálculo Diferencial e Integral I: Teorema del valor intermedio

Por Juan Manuel Naranjo Jurado

Introducción

En la entrada anterior se revisó el concepto de continuidad en un punto, así como algunas de sus propiedades. Además, se definió la continuidad en un intervalo, concepto que se empleará en esta entrada para probar uno de los resultados más relevantes para las funciones continuas: el teorema del valor intermedio.

Idea intuitiva

Este teorema nos dice que para una función continua en determinado intervalo $[a,b]$, si el valor de $f$ al evaluarla en $a$ cambia de signo con respecto al valor que se obtiene al evaluarla en $b$, entonces existe algún punto $x$ tal que al evaluar la función en dicho punto, toma el valor de cero.

Recordemos la idea intuitiva de continuidad, una función es continua si puedes dibujarla sin soltar el lápiz; pensemos en el caso particular que $f(a)  < 0$ y $f(b) > 0$. En la siguiente imagen se muestra una función continua que pasa por ambos.

¿Podrías dibujar una función continua que pase por ambos puntos sin pasar por $0$ en el eje horizontal? Probaremos que esto no es posible en el siguiente teorema; pero antes desarrollemos la intuición de lo que debe suceder. Para ello, recordemos el último teorema revisado en la entrada anterior.

Teorema. Supongamos que $f$ es continua en $x_0$ y $f(x_0)>0$. Entonces $f(x) >0$ para todo $x$ en un intervalo que contiene a $x_0$, es decir, existe $\delta > 0$ tal que $f(x) >0$ para todo $x$ tal que $|x-x_0|< \delta$.

De forma análoga, si $f(x_0) <0$, entonces existe $\delta > 0$ tal que $f(x) < 0$ para todo $x$ tal que $|x-x_0|< \delta$.

Es decir, si una función continua toma un valor positivo en un punto $x_0$, entonces debe suceder que es positiva en todo un intervalo: $(x_0-\delta, x_0+\delta)$. Análogamente, si la función es negativa en determinado punto, entonces debe suceder que es negativa en todo un intervalo. Así, podemos pensar en el intervalo más grande que captura el comportamiento negativo (o positivo), ¿en qué punto se termina? Para responder esta pregunta, haremos uso de un concepto revisado anteriormente, el supremo.

Teorema del valor intermedio

Teorema del valor intermedio. Sea $f:[a,b] \to \mathbb{R}$ continua en todo el intervalo $[a,b]$. Si $f(a) < 0$ y $f(b) > 0,$ entonces existe $c$, $a<c<b,$ tal que $f(c) = 0$.

Demostración.

Como $f(a) < 0$, sabemos que existe $\delta_1$ tal que para todo $x \in (a – \delta_1, a + \delta_1) \cap [a,b]$ se tiene que $f(x) < 0$. Es decir,

$$\forall x \in [a, a+\delta_1), \quad f(x) <0. \tag{1}$$

Como $f(b) > 0$, sabemos que existe $\delta_2$ tal que para todo $x \in (b – \delta_2, b + \delta_2) \cap [a,b]$ se tiene que $f(x) > 0$. Es decir,

$$\forall x \in (b-\delta_2,b], \quad f(x) > 0. \tag{2}$$

Definamos ahora el siguiente conjunto:

$$A = \{ t \in [a,b] \quad | \quad \forall x \in [a, t], f(x) < 0 \}.$$


Es decir, el conjunto $A$ está formado por todos los números reales que forman un intervalo $[a, t]$ donde $f$ toma valores negativos. Utilizando la ilustración del inicio, se puede ejemplificar cómo se ve $t$, que estará en el eje $x$ entre $a$ y el punto rojo marcado.

Primero veamos que $A \neq \varnothing$.

Consideremos $t_0 = a + \frac{\delta_1}{2}$. Es inmediato que $a< a + \frac{\delta_1}{2} < a +\delta_1 $ y como $[a, a + \frac{\delta_1}{2}] \subset [a, a+\delta_1)$, por $(1)$ se tiene que, para todo $x \in [a, a + \frac{\delta_1}{2}]$, $f(x) < 0$.

$$\therefore t_0 \in A \Rightarrow A \neq \emptyset.$$

Notemos que el conjunto $A$ está acotado. Por definición si $t \in A$, entonces $t \in [a,b]$, es decir, $t \leq b$. Ahora, como nuestro conjunto $A$ es no vacío y está acotado, sí tiene supremo. Sea $\alpha = supA$.

Adicionalmente, notemos que

  1. $t_0 = a+\frac{\delta_1}{2} \in A$ y $a+\frac{\delta_1}{2} \leq \alpha \leq b$.
  2. Por $(2)$, para todo $x \in (b-\delta_2, b]$ se tiene que $f(x) >0$, entonces $\alpha \leq b-\delta_2$.

Por lo anterior, se tiene
\begin{gather*}
& a< a+\frac{\delta_1}{2} \leq \alpha \leq b-\delta_2 < b.
\end{gather*}
Se sigue que $a<\alpha<b.$

Para finalizar con la prueba, demostraremos que $f(\alpha) = 0$.

Para demostrarlo procederemos por contracción, es decir, supongamos que $f(\alpha) \neq 0$, entonces existen dos casos, $f(\alpha) > 0$ ó $f(\alpha) < 0$.

  • Caso 1: $f(\alpha) < 0$.

    Se tiene que $f(\alpha) < 0$, entonces existe $\delta_3$ tal que para todo $x \in (\alpha – \delta_3, \alpha + \delta_3) \cap [a,b]$ se cumple que $f(x) < 0$.

    Dado que $\alpha = supA \quad$ y $\quad \alpha – \delta_3 < \alpha$, entonces existe $t \in A$ tal que $\alpha-\delta_3 < t \leq \alpha$. Adicionalmente, consideremos $s$ tal que $\alpha < s < \alpha + \delta_3$ y $s <b$.

    Como $[t, s] \subset (\alpha – \delta_3, \alpha + \delta_3)$, entonces

    $$\forall x \in [a,s], \quad f(x) < 0.$$

    Además, por definición del conjunto A, para todo $x \in [a,t]$ se tiene $f(x) < 0$. Entonces

    $$\forall x \in [a,s] = [a,t] \cup [t,s], \quad f(x) < 0.$$

    Entonces $s \in A$ y $\alpha < s$, lo cual es una contradicción pues $\alpha$ es el supremo de $A$.

    $$\therefore f(\alpha) \geq 0.$$
  • Caso 2: $f(\alpha) > 0$.

    Dado que $f$ es continua en $\alpha$, entonces existe $\delta_4 > 0$ tal que para todo $x \in (\alpha – \delta_4, \alpha + \delta_4)$, $f(x) > 0$.

    Como $\alpha – \delta_4 < \alpha$, entonces existe $t \in A$ tal que $\alpha – \delta_4 < t \leq \alpha$. Como $t \in A$, entonces $f(t) < 0$ y como $\alpha – \delta_4<t \leq \alpha < \alpha + \delta$, $f(t) >0$, lo cual es una contradicción.

    Por tanto, $f(\alpha) = 0$.

Así, consideremos $c = \alpha$, $a<c<b$ y $f(c) = 0.$

$\square$

Podemos notar que el teorema no solo vale cuando la función va de negativo ($f(a) < 0$) a positivo ($f(b) > 0$), sino también en el caso inverso ($f(a) > 0$ y $f(b) < 0$) y lo probaremos en el siguiente corolario.

Corolario. Sea $f: [a, b] \to \mathbb{R}$, continua en $[a, b]$. Si $f(a) > 0$ y $f(b) < 0$, entonces existe $c$, $a<c<b$, tal que $f(x) = c$.

Demostración.

Consideremos la función $h: [a, b] \to \mathbb{R}$, $h(x) = -f(x).$

Notemos que $h$ es continua pues $f$ lo es. Además $h(a) = -f(a) <0$ y $h(b) = -f(b) >0$. Aplicando el teorema del valor intermedio, existe $c$ que cumple $a<c<b$ tal que

\begin{gather*}
h(c) = 0.
\end{gather*}

Se sigue que
\begin{gather*}
& -f(c) = 0. \\
\therefore & f(c) = 0.
\end{gather*}

$\square$

Más aún, si en un intervalo $[a, b]$ se cumple que $f(a) < M$ y $f(b) > M$, entonces también existe un punto $c$ tal que $f(c) = M$.

Corolario. Sea $M \in \mathbb{R}$, si $f(a) < M$ y $f(b) > M$. Entonces existe $c$, $a<c<b$, tal que $f(c) = M$.

Demostración.

Consideremos la función $h:[a,b] \to \mathbb{R}$, con $h(x) = f(x)-M$.

Notemos que $h$ es continua. Además $h(a) = f(a)-M < 0$ y $h(b) = f(b)-M > 0$. Por el teorema del valor intermedio, existe $c$, $a<c<b$, tal que $h(c) = 0$. Entonces $f(c)-M = 0$.

$$\therefore f(c) = M.$$

$\square$

Análogamente, tenemos el siguiente resultado.

Corolario. Sea $M \in \mathbb{R}$, si $f(a) >M$ y $f(b) < M$. Entonces existe $c$, $a<c<b$, tal que $f(c) = M$.

Más adelante…

En la siguiente entrada demostraremos otra propiedad fuerte respecto a las funciones continuas: si una función es continua en un intervalo, entonces está acotada. Más aún, existe un valor $x_0$ en el intervalo tal que la función alcanza su máximo en dicho punto. De forma análoga, existe un punto en el que la función alcanza su mínimo.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sea $f$ continua en el intervalo $[0,1]$ y tal que $f(0) = f(1)$. Demostrar que existe un punto $c \in [0, \frac{1}{2}]$ tal que $f(c) = f(c + \frac{1}{2}).$
  • Sea $M \in \mathbb{R}$, si $f(a) >M$ y $f(b) < M$. Prueba que existe $c$, $a<c<b$ tal que $f(c) = M.$
  • Dado $f(x) = x^2 + 2x – 7$, demuestra que existe $c$ tal que $f(c) = 50.$
  • Para la ecuación $2x^7= x-1$, encuentra una solución en $[0,1].$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal II: Matrices positivas y congruencia de matrices

Por Diego Ligani Rodríguez Trejo

Introducción

Ya hablamos de las matrices asociadas a formas bilineales (y sesquilineales), y de formas cuadráticas (y cuadráticas hermitianas). Así mismo, tomamos un pequeño paréntesis para recordar qué es un producto interior y un espacio euclideano. Además, vimos las nociones análogas para el caso complejo.

Lo que haremos ahora es conectar ambas ideas. Extenderemos nuestras nociones de positivo y positivo definido al mundo de las matrices. Además, veremos que estas nociones son invariantes bajo una relación de equivalencia que surge muy naturalmente de los cambios de matriz para formas bilineales (y sesquilineales).

Congruencia de matrices

En las entradas de matrices de formas bilineales y matrices de formas sesquilineales vimos cómo obtener matrices asociadas a una misma forma bilineal (o sesquilineal) usando distintas bases. Dos matrices $A$ y $A’$ representaban a la misma forma bilineal en distintas bases si y sólo si existía una matriz de cambio de base $P$ tal que $$A’= \text{ }^tP A P,$$ en el caso real, o bien tal que $$A’=P^\ast A P,$$ en el caso complejo.

Definición. Sean $A$ y $B$ matrices simétricas en $M_n(\mathbb{R})$. Diremos que $A$ es congruente a $B$ si existe una matriz invertible $P$ en $M_n(\mathbb{R})$ tal que $$A=\text{ } ^tP B P.$$

Definición. Sean $A$ y $B$ matrices hermitianas en $M_n(\mathbb{C})$. Diremos que $A$ es congruente a $B$ si existe una matriz invertible $P$ en $M_n(\mathbb{C})$ tal que $$A=P^\ast B P.$$

Las definiciones anteriores están restringidas a las matrices simétricas (o hermitianas, respectivamente). Se podrían dar definiciones un poco más generales. Sin embargo, a partir de ahora nos enfocaremos únicamente a resultados que podamos enunciar para matrices simétricas (o hermitianas, respectivamente).

Proposición. La relación «ser congruentes» es una relación de equivalencia, tanto en el caso real, como en el caso complejo.

Demostración. Daremos la demostración en el caso real. El caso complejo queda como ejercicio. Empecemos con la reflexividad. Esto es claro ya que la matriz identidad $I_n$ es invertible y se tiene la igualdad

\begin{align*} A=\text{ } ^tI_nAI_n.\end{align*}

Para la simetría, supongamos que tenemos matrices $A$ y $B$ en $M_n(\mathbb{R})$ tales que $A$ es congruente a $B$ con la matriz invertible $P$ de $M_n(\mathbb{R})$, es decir, tales que

\begin{align*} A=\text{ } ^tPBP.\end{align*}

Como $P$ es invertible, su transpuesta también. De hecho, $(^tP)^{-1}=\text{ } ^t(P^{-1})$. Así, podemos multiplicar por la inversa de $^tP$ a la izquierda y la por la inversa de $P$ a la derecha para obtener

\begin{align*} ^t(P^{-1})AP^{-1}=B.\end{align*}

Esto muestra que $B$ es congruente a $A$.

Finalmente, veamos la transitividad. Supongamos que $A$ es congruente a $B$ mediante la matriz invertible $P$ y que $B$ es congruente a $C$ mediante la matriz invertible $Q$. Tendríamos entonces las igualdades

\begin{align*}
A&= \text{ }^t PBP,\\
B&= \text{ }^t QCQ,
\end{align*}

de donde $$A= \text{ }^tP \text{ }^tQCQP= \text{ }^t (QP) C (QP).$$ Esto muestra que $A$ es congruente a $C$ mediante la matriz $QP$, que como es producto de invertibles también es invertible.

$\square$

Clasificación de matrices simétricas por congruencia

¿Será posible para cualquier matriz simétrica encontrar una matriz congruente muy sencilla? La respuesta es que sí. El siguiente teorema puede pensarse como una versión matricial del teorema de Gauss.

Teorema. Cualquier matriz simétrica en $M_n(\mathbb{R})$ es congruente a una matriz diagonal.

Demostración. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$ y sea $q$ la forma cuadrática en $\mathbb{R}^n$ asociada a $A$ en la base canónica, es decir, aquella tal que $$q(X)=\text{ }^tXAX,$$ para cualquier vector $X\in \mathbb{R}^n$.

Lo que tenemos que hacer es encontrar una base de $\mathbb{R}^n$ en la cual la matriz asociada a $q$ sea diagonal. Haremos esto mediante el teorema de Gauss. Por ese resultado, existen reales $\alpha_1,\ldots,\alpha_r$ y formas lineales linealmente independientes $l_1,\ldots,l_r$ tales que $$q(x)=\sum_{i=1}^r \alpha_i l_i(x)^2.$$

Completemos $l_1,\ldots,l_r$ a una base $l_1,\ldots,l_n$ de $(\mathbb{R}^n)^\ast$. Tomemos la base $u_1,\ldots, u_n$ de $\mathbb{R}^n$ dual a $l_1,\ldots,l_n$. Esta es la base que nos ayudará. Recordemos que la definición de base dual hace que tengamos

\begin{align*} l_i(u_j)=
\begin{cases}
1\quad \text{ si $i=j$,}\\
0\quad \text{ si $i\neq j$,}
\end{cases}
\end{align*}

y que por lo tanto las funciones $l_i$ «lean» las coordenadas de un vector en la base de las $u_i$. Tomemos un vector cualquiera $x\in \mathbb{R}^n$ y escribámoslo en la base de las $u_i$ como $x=\sum_{i=1}^n x_iu_i$. Definiendo $\alpha_{r+1}=\ldots=\alpha_n=0$, tenemos que:

\begin{align*}
q(x)&= \sum_{i=1}^n \alpha _i l_i(x)^2\\
&= \sum_{i=1}^n \alpha_i x_i^2.
\end{align*}

Esto nos dice que la matriz asociada a $q$ con respecto a la base $u_1, \ldots, u_n$ es la matriz diagonal $D$ que tiene en la diagonal a los coeficientes $\alpha_i$. Esto muestra lo que queríamos.

$\square$

El teorema también tiene una versión compleja.

Teorema. Cualquier matriz hermitiana en $M_n(\mathbb{C})$ es congruente a una matriz diagonal.

La demostración es similar. Usa el teorema de Gauss complejo. Por esta razón, queda como ejercicio.

Estos resultados parecen una curiosidad algebraica. Sin embargo, pronto veremos que tienen consecuencias importantes como la clasificación de todos los productos interiores (y los productos interiores hermitianos).

Matrices positivas y positivas definidas

En entradas anteriores definimos qué quiere decir que una forma bilineal (o sesquilineal) sea positiva o positiva definida. Podemos dar una definición análoga para matrices. Nos enfocaremos sólo en matrices simétricas (en el caso real) y en matrices hermitianas (en el caso complejo).

Definición. Una matriz simétrica $A$ en $M_n(\mathbb{R})$ es positiva si para cualquier $X\in \mathbb{R}^n$ se tiene que $^tXAX\geq 0$. Es positiva definida si se da esta desigualdad y además la igualdad sucede sólo con $X=0$.

Definición. Una matriz hermitiana $A$ en $M_n(\mathbb{C})$ es positiva si para cualquier $X\in \mathbb{C}^n$ se tiene que $X^\ast AX\geq 0$. Es positiva definida si se da esta desigualdad y además la igualdad sucede sólo con $X=0$.

Es sencillo ver que entonces una matriz $A$ real (o compleja) que sea positiva definida da un producto interior (o bien un producto interior hermitiano) en $\mathbb{R}^n$ (o bien en $\mathbb{C}^n$) dado por $\langle X,Y\rangle = \text{ } ^tX A Y$, (o bien por $\langle X,Y\rangle = X^\ast A Y$). Y viceversa, un producto interior (o producto interior hermitiano) tiene representaciones matriciales que son positivas definidas. Esto no depende de la base elegida.

Proposición. Si $A,B \in M_n(\mathbb{R})$ son matrices congruentes y $A$ es una matriz positiva, entonces $B$ también lo es.

Demostración. Supongamos que la congruencia se da mediante la matriz invertible $P$ de la siguiente manera: $$B=\text{ }^t P A P.$$

Tomemos un vector $X\in \mathbb{R}^n$. Tenemos que:

\begin{align*}
^t X B X &= \text{ }^t X \text{ } ^t P A P X\\
&=\text{ } ^t(PX) A (PX)\\
&\geq 0.
\end{align*}

En la última igualdad estamos usando que $A$ es positiva. Esto muestra lo que queremos.

$\square$

Dicho en otras palabras, en el mundo real las congruencias preservan las positividades de matrices. También puede demostrarse que las congruencias preservan las positividades definitivas. Y así mismo, se tienen resultados análogos para el caso complejo. En la sección de ejercicios viene uno de estos resultados.

Clasificación de matrices positivas

Es sencillo ver si una matriz real diagonal $D$ es positiva. Todas las entradas en su diagonal deben de ser mayores o iguales a cero. En efecto, si su $i$-ésima entrada en la diagonal fuera un número $d_{ii}<0$, entonces para el $i$-ésimo vector canónico $e_i$ de $\mathbb{R}^n$ tendríamos $^te_i D e_i=d_{ii}<0$, lo cual sería una contradicción.

Combinando esto con todo lo hecho en esta entrada, obtenemos un teorema de clasificación de matrices positivas.

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. $A$ es congruente a una matriz diagonal con puras entradas mayores o iguales a cero.
  3. $A$ puede ser escrita de la forma $^tBB$ para alguna matriz $B\in M_n(\mathbb{R})$.

Demostración. 1) implica 2). Sabemos que $A$ es congruente a una matriz diagonal. Como $A$ es positiva, dicha matriz diagonal también lo es. Por el comentario antes del enunciado del teorema, dicha matriz diagonal debe tener únicamente entradas mayores o iguales que 0.

2) implica 3). Supongamos que $A=\text{ }^t P D P$, en donde $P$ es invertible y $D$ tiene únicamente entradas no negativas $d_1,\ldots,d_n$ en la diagonal. Definamos a $S$ como la matriz diagonal de entradas $\sqrt{d_1}, \ldots, \sqrt{d_n}$. Tenemos que $$D=S^2=SS=\text{ }^tSS.$$ De este modo, definiendo $B=SP$ obtenemos \begin{align*}A&= \text{ }^t P D P\\ &= ( \text{ }^t P \text{ }^t S) (SP) \\&= \text{ }^t (SP) SP \\&= \text{ }^t B B,\end{align*} como queríamos.

3) implica 1). Supongamos que $A= \text{ }^t B B$ para alguna matriz $B$. Para cualquier $X\in \mathbb{R}^n$ tendríamos que $$ \text{ }^t X A X = \text{ }^t (BX) BX = \norm{BX}\geq 0.$$ Aquí la norma es con respecto al producto interior canónico de $\mathbb{R}^n$. Esto es lo que queríamos.

$\square$

También existe un teorema análogo que clasifica las matrices positivas definidas.

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva definida.
  2. $A$ es congruente a una matriz diagonal con puras entradas diagonales positivas.
  3. $A$ puede ser escrita de la forma $^tBB$ para alguna matriz $B\in M_n(\mathbb{R})$ invertible.

Y, así mismo, existen análogos para matrices hermitianas con entradas en los complejos.

Más adelante…

En esta entrada definimos la relación de congruencia de matrices. Vimos qué son las matrices positivas y las positivas definidas. Además, vimos que la congruencia preserva estas nociones.

Podemos ser mucho más finos con nuestro análisis. Si tenemos una matriz simétrica, por los resultados de esta entrada es congruente a una matriz diagonal. Podemos fijarnos en cuántas entradas positivas, cuántas negativas y cuántas cero hay en esta diagonal. En la siguiente entrada veremos que las congruencias también preservan estas cantidades.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Demuestra que cualquier matriz hermitiana en $M_n(\mathbb{C})$ es congruente a una matriz diagonal.
  2. Demuestra que si $A$ es una matriz en $M_n(\mathbb{C})$ hermitiana y positiva definida, y $B$ es una matriz en $M_n(\mathbb{C})$ hermitiana y congruente a $A$, entonces $B$ también es positiva definida.
  3. Sea $n \geq 1$ y $A=[a_{ij}] \in M_n(\mathbb{R})$ definida por $a_{ij}=min(i,j)$, prueba que $A$ es simétrica y definida positiva.
  4. Sea $A=[a_{ij}] \in M_n(\mathbb{R})$ tal que $a_{ij}=1$ si $i \neq j$ y $a_{ii} > 1$ si $1 \leq i \leq n$. Prueba que $A$ es simétrica y definida positiva.
  5. Demuestra que una matriz hermitiana $A\in M_n(\mathbb{C})$ es positiva si y sólo si puede ser escrita de la forma $A=BB^\ast$ para alguna matriz $B\in M_n(\mathbb{C})$, y que es positiva definida si y sólo si tiene una expresión así con $B$ invertible.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Adjunciones complejas y transformaciones unitarias

Por Ayax Calderón

Introducción

Lo que hemos trabajado en esta unidad tiene su análogo para espacios hermitianos. En esta entrada haremos una recapitulación de los resultados que demostramos en el caso real, pero ahora los enunciaremos para el caso complejo. Las demostraciones son similares al caso real, pero haremos el énfasis correspondiente cuando haya distinciones para el caso complejo.

Adjunciones en espacios hermitianos

Uno de los ejercicios de la entrada Dualidad y representación de Riesz en espacios euclideanos consiste en enunciar y demostrar el teorema de representación de Riesz para espacios hermitianos. Si recuerdas, eso es justo lo que se necesita para hablar de la adjunción, de modo que en espacios hermitianos también podemos definir la adjunción como sigue.

Definición. Sea $V$ un espacio hermitiano con producto interior hermitiano $\langle \cdot, \cdot \rangle$. Sea $T:V\to V$ una transformación lineal. Definimos a la adjunta de $T$, como la única transformación lineal $T^\ast:V\to V$ que cumple la siguiente condición para todos $x,y$ en $V$:

$$\langle T(x),y\rangle =\langle x, T^*(y)\rangle$$

En el caso real la matriz de la transformación adjunta en una base ortonormal era la transpuesta. En el caso complejo debemos tomar la transpuesta conjugada.

Proposición. Sea $V$ un espacio hermitiano con producto interior hermitiano $\langle \cdot, \cdot \rangle$. Sea $T:V\to V$ una transformación lineal. Sea $\mathcal{B}$ una base ortonormal de $V$. Se tiene que $$\text{Mat}_{\mathcal{B}}(T^\ast)=\text{Mat}_{\mathcal{B}}(T)^\ast.$$

La demostración queda como ejercicio.

Transformaciones unitarias e isometrías

En espacios hermitianos también podemos hablar de las transformaciones lineales que preservan la distancia: las isometrías. En el caso real, las isometrías de un espacio a sí mismo las llamábamos ortogonales, pero en el caso complejo usaremos otro nombre.

Definición. Sean $V_1, V_2$ espacios hermitianos sobre $\mathbb{C}$ con productos interiores hermitianos $\langle \cdot,\cdot \rangle_1,\langle \cdot,\cdot \rangle_2$. Diremos que una transformación lineal $T:V_1\to V_2$ es una isometría si es un isomorfismo de espacios vectoriales y para cualesquiera $x,y\in V_1$ se cumple que $$\langle T(x), T(y) \rangle_2 = \langle x,y\rangle_1.$$ Si $V_1$ $V_2$ son un mismo espacio hermitiano $V$, diremos que $T$ es una transformación unitaria.

Diremos que una matriz $A\in M_n(\mathbb{C})$ se dice unitaria si $AA^\ast=I_n$. Puede demostrarse que si una matriz $A$ es unitaria, entonces la transformación $X\mapsto AX$ también lo es. Así mismo, se puede ver que si $T$ es una transformación unitaria, entonces cualquier representación matricial en una base ortonormal es unitaria.

Equivalencias de matrices y transformaciones unitarias

Así como en el caso real, hay muchas maneras de pensar a las transformaciones y a las matrices unitarias. Puedes pensar en los siguientes resultados como los análogos a las descripciones alternativas en el caso real.

Teorema. Sea $T:V\to V$ una transformación lineal. Las siguientes afirmaciones son equivalentes:

  1. $T$ es unitaria es decir, $\langle T(x),T(y) \rangle = \langle x,y \rangle$ para cualesquiera $x,y\in V$.
  2. $||T(x)||=||x||$ para cualquier $x\in V$.
  3. $T^*\circ T = Id$.

Teorema. Sea $A\in M_n(\mathbb{C})$. Las siguientes afirmaciones son equivalentes:

  1. $A$ es unitaria.
  2. Las filas de $A$ forman una base ortonormal de $\mathbb{C}^n$.
  3. Las columnas de $A$ forman una base ortonormal de $\mathbb{C}^n$.
  4. Para cualquier $x\in \mathbb{C}^n$, se tiene que $$||Ax||=||x||$.

Propiedades de grupo y caracterización de unitarias

Así como en el caso real las transformaciones ortogonales forman un grupo bajo la composición, en el caso complejo las transformaciones unitarias también forman un grupo bajo la composición. Si hablamos de matrices unitarias, entonces forman un grupo bajo el producto de matrices. Es posible clasificar a las matrices unitarias así como se clasificó a las matrices ortogonales, sin embargo los resultados son notablemente más difíciles de expresar.

Más adelante…

En la siguiente entrada hablaremos de quiénes son las transformaciones complejas para las que se puede enunciar el teorema espectral en el caso complejo. Veremos el resultado correspondiente y haremos énfasis en las diferencias que debemos tomar en cuenta.

Tarea moral

  1. Demuestra que si $A$ es una matriz unitaria, entonces $|\det A|=1$.
  2. Prueba que para que una transformación lineal $T$ de un espacio hermitiano sea unitaria, basta que a los vectores de norma $1$ los mande a vectores de norma $1$.
  3. Describe las matrices $A\in M_n(\mathbb{C})$ que son simultaneamente diagonales y unitarias.
  4. Demuestra que el producto de dos matrices unitarias es una matriz unitaria y que la inversa de una matriz unitaria es unitaria.
  5. Revisa nuevamente la entrada y realiza todas las demostraciones faltantes.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Cálculo Diferencial e Integral I: Definición de continuidad y sus propiedades

Por Juan Manuel Naranjo Jurado

Introducción

En esta entrada definiremos la continuidad de una función, es probable que hayas estudiado antes tal concepto y la manera en que se suele definir de forma intuitiva es mediante la siguiente sentencia: «Si puedes dibujar la función sin levantar el lápiz, entonces es una función continua». Nosotros revisaremos el tema con mayor formalidad, pero notarás que tal enunciado será de ayuda para interpretar la definición.

Definición de continuidad

En palabras sencillas, una función es continua en un punto $x_0$ si el límite en tal punto es igual a evaluar la función en $x_0$.

Definición. Sean $f: A \to \mathbb{R}$ con $A \subset \mathbb{R}$ y $x_0 \in A$. La función $f$ es continua en $x_0$ si para todo $\varepsilon > 0$, existe $\delta > 0$ tal que para todo $x \in A$ que satisface que $0<|x-x_0|< \delta$, entonces se cumple que $|f(x)-f(x_0)|< \varepsilon$.

Observación. Si además $x_0$ es un punto de acumulación de $A$, entonces se dice que $f$ es continua en $x_0$ si $$ \lim_{x \to x_0} f(x) = f(x_0).$$

En la entrada de definición formal de límite se vieron algunos ejemplos de funciones continuas; específicamente se dejaron dos ejercicios como tarea moral que procederemos a probar en esta entrada.

Ejemplo 1. La función $f(x) = c$, es continua en $x_0$ para todo $x_0 \in \mathbb{R}$.

Demostración.

Sea $\varepsilon > 0$. Dado que la función es constante, cualquier valor de delta nos funciona, así consideremos $\delta = 1$.

Si $0<|x-x_0|< \delta$, entonces

\begin{align*}
|f(x)-f(x_0)| & = |c-c|\\
& = 0 \\
& < \varepsilon.
\end{align*}

$$\therefore \lim_{x \to x_0} f(x) = f(x_0).$$

$\square$

Ejemplo 2. La función $f(x) = x$ es continua en $x_0$ para todo $x_0 \in \mathbb{R}$.

Demostración.

Sea $\varepsilon > 0$. Consideremos $\delta = \varepsilon$.

Si $0<|x-x_0|<\delta$, entonces
\begin{align*}
|f(x)-f(x_0)| & = |x-x_0|\\
& < \delta \\
& = \varepsilon.
\end{align*}

$$\therefore \lim_{x \to x_0} f(x) = f(x_0).$$

Antes de revisar el siguiente ejemplo, demostraremos un resultado que nos será muy útil al momento de calcular límites.

Proposición. Sea $f: A \to \mathbb{R}$, entonces

$$\lim_{x \to x_0} f(x) = L \Leftrightarrow \lim_{h \to 0} f(x_0+h) = L.$$

Demostración.

$\Rightarrow]$ Supongamos que $$\lim_{x \to x_0} f(x) = L.$$

Sea $\varepsilon > 0$. Existe $\delta > 0 $ tal que si $0 < |x-x_0| < \delta$, entonces $|f(x)-L| < \varepsilon.$

Notemos que si $0 < |h| < \delta$, entonces $0 < |(h+x_0)-x_0| < \delta$. Por lo tanto, $|f(x_0+h)-L| < \varepsilon.$

$$\therefore \lim_{h \to 0} f(x_0+h) = L.$$

$\Leftarrow]$ Supongamos que $$\lim_{h \to 0} f(x_0+h) = L.$$

Sea $\varepsilon>0$. Existe $\delta >0$ tal que si $0<|h|<\delta$, entonces $|f(x_0+h)-L|< \varepsilon.$

Notemos que si $0<|x−x_0|<\delta$, entonces $|f(x_0+(x−x_0))−L|=|f(x)−L|<\varepsilon$.

$$\therefore \lim_{x \to x_0} f(x) = L.$$

$\square$

Ejemplo 3. La función $f(x) = sen(x)$ es continua en $x_0$ para todo $x_0 \in \mathbb{R}.$

Demostración.

Para probar la continuidad de esta función, procederemos a calcular sus límites laterales y emplearemos el hecho de que las funciones seno y coseno son continuas en $x = 0$, lo cual se demostró en esta entrada. Además, usaremos las siguientes identidades trigonométricas:

  1. $$sen(a+b) = sen(a)cos(b) + cos(a)sen(b).$$
  2. $$sen(a-b) = sen(a)cos(b) – cos(a)sen(b).$$

Calculando el límite por la derecha, usando la primera identidad y empleando la proposición anterior, tenemos

\begin{align*}
\lim_{x \to x_0^+} sen(x) & = \lim_{h \to 0^+} sen(x_0+h) \\
& = \lim_{h \to 0^+} sen(x_0)cos(h) + cos(x_0)sen(h) \text{, pues $h > 0$} \\
& = sen(x_0)cos(0) + cos(x_0)sen(0) \\
& = sen(x_0).
\end{align*}

Calculando el límite por la izquierda, usando la segunda identidad y empleando la proposición anterior, tenemos

\begin{align*}
\lim_{x \to x_0^-} sen(x) & = \lim_{h \to 0^-} sen(x_0+h) \\
& = \lim_{h \to 0^-} sen(x_0)cos(h) – cos(x_0)sen(h) \text{, pues $h < 0$} \\
& = sen(x_0)cos(0) + cos(x_0)sen(0)\\
& = sen(x_0).
\end{align*}

Como los límites laterales existen y coinciden, se concluye que

$$\lim_{x \to x_0} sen(x) = sen(x_0).$$

Por lo tanto, la función es continua.

$\square$

Propiedades básicas de la continuidad

A continuación revisaremos tres propiedades aritméticas de las funciones continuas.

Teorema. Si $f$ y $g$ son funciones continuas en $x_0$, entonces

  1. $f+g$ es continua en $x_0$.
  2. $f \cdot g$ es continua en $x_0$.
  3. Si además $g(x_0) \neq 0$, entonces $\frac{1}{g}$ es continua en $x_0$.

Demostración.

Como $f$ y $g$ son continuas en $x_0$, entonces
$$\lim_{x \to x_0} f(x) = f(x_0) \quad \text{ y } \quad \lim_{x \to x_0} g(x) = g(x_0).$$
Por las propiedades del límite, tenemos lo siguiente
\begin{align*}
\lim_{x \to x_0} (f + g)(x) & = \lim_{x \to x_0} [f(x) + g(x)] \\
& = \lim_{x \to x_0} f(x) + \lim_{x \to x_0} g(x) \\
& = f(x_0) + g(x_0) \\
& = (f+g)(x_0).
\end{align*}

$$\therefore \lim_{x \to x_0} (f + g)(x) = (f+g)(x_0).$$

Por lo tanto, $f+g$ es continua en $x_0$.

Podemos notar que los incisos siguientes tienen demostraciones análogas ocupando las propiedades demostradas para el límite de una función, por lo cual su prueba se omitirá.

$\square$

Gracias al teorema anterior y los ejemplos vistos, tenemos una gama de funciones continuas, las funciones polinomiales: $p(x) = \alpha_n x^n + \alpha_{n-1} x^{n-1} + \ldots + \alpha_1 x +\alpha_0$.

La siguiente propiedad que veremos hace referencia a la composición de funciones continuas.

Teorema. Si $g$ es continua en $x_0$ y $f$ es continua en $g(x_0)$, entonces la composición de funciones $f \circ g$ es continua en $x_0.$

Demostración.

Queremos probar que $$\lim_{x \to x_0} (f \circ g)(x) = (f \circ g)(x_0)$$
y para demostrarlo procederemos mediante la definición épsilon-delta.

Sea $\varepsilon > 0$.

Como $f$ es continua en $g(x_0)$, existe $\delta’ > 0$ tal que para todo $y$ que cumpla $|y-g(x_0)|< \delta’$, entonces $|f(y)-f(g(x_0))|< \varepsilon$.

Dado que estamos viendo la composición, podemos considerar particularmente $y = g(x)$, de esta manera se tiene que si $|g(x)-g(x_0)|< \delta’$, entonces
\begin{align*}|f(g(x))-f(g(x_0))| <\varepsilon. \tag{1} \end{align*}

Como $g$ es continua en $x_0$, para cualquier valor positivo arbitrario, en este caso consideraremos $\delta’>0$, existe $\delta > 0$ tal que si $0<|x-x_0|<\delta$, entonces
\begin{align*} |g(x)-g(x_0)| < \delta’. \tag{2} \end{align*}

De (1) y (2), se sigue que $$\text{si } 0<|x-x_0|<\delta \Rightarrow |g(x)-g(x_0)| < \delta’ \Rightarrow |f(g(x))-f(g(x_0))| <\varepsilon.$$

Es decir, si $0<|x-x_0|<\delta$, entonces $|f(g(x))-f(g(x_0))| <\varepsilon$.

$\square$

El teorema anterior nos permite extender aún más el almacén de funciones continuas. Por ejemplo, sabemos que $g(x) = x^2+x-10$ es continua en $x_0$ para todo $x_0 \in \mathbb{R}$ y la función $f(x) = sen(x)$ es continua en cualquier punto, particularmente en $g(x_0)$, entonces la composición $(f \circ g) (x) = sen(x^2+x-10)$ también es continua en $x_0$.

Existen cierto tipo de funciones que no están definidas en algún punto en particular. Por ejemplo $f(x) = xsen(\frac{1}{x})$, no está definida en $x_0=0$ y, por tanto, no puede ser continua en tal punto, pero a partir de ella podemos construir una nueva función que sí sea continua en $x_0=0$. En una entrada anterior, vimos que $$\lim_{x \to 0} xsen \left( \frac{1}{x} \right) = 0.$$

De esta forma, podemos definir una nueva función:

$$f(x) = \begin{cases} xsen(\frac{1}{x}) & \text{si } x \neq 0 \\
0 & \text{si } x = 0. \end{cases}$$

Esta nueva función $f$ es continua en $x_0 = 0$. A este tipo de funciones que podemos convertirlas en funciones continuas en $x_0$ redefiniéndolas en tal punto, se dice que tienen una discontinuidad removible o evitable.


Por otro lado, también hay funciones cuya discontinuidad es no removible. Consideremos la función $f(x) = sen\left( \frac{1}{x} \right)$, revisamos anteriormente que el límite de tal función no existe. Por lo cual, aunque la definiéramos en $x_0$, seguiría siendo discontinua en dicho punto.

Hasta ahora estuvimos empleando la definición de continuidad en un punto, sin embargo, para la mayoría de los ejemplos revisados probamos la continuidad para todo $\mathbb{R}$, puesto que consideramos un $x_0$ arbitrario. Es conveniente tener una definición para la continuidad en un intervalo. Y, como podrás imaginarlo, para que una función sea continua en un intervalo $(a,b)$, se requiere que la función sea continua en cada punto del intervalo (con una pequeña particularidad para intervalos cerrados).

Definición (Continuidad en un intervalo abierto). Si $f$ es continua en todo $x$ con $x \in (a,b)$, se dice que $f$ es continua en el intervalo $(a,b)$.

Definición (Continuidad en un intervalo cerrado). Si $f$ es continua en todo $x$ con $x \in (a,b)$ y se cumple que

$$\lim_{x \to a^+} f(x) = f(a) \quad \text{ y } \quad \lim_{x \to b^-} f(x) = f(b).$$

Entonces se dice que $f$ es continua en el intervalo $[a,b]$.

Terminaremos esta entrada probando un teorema que nos dice que si $f$ es continua en $x_0$ y $f(x_0)$ es mayor a cero (o menor a cero), entonces existe todo un intervalo en el que es mayor a cero (o menor a cero).

Teorema. Supongamos que $f$ es continua en $x_0$ y $f(x_0)>0$. Entonces $f(x) >0$ para todo $x$ en un intervalo que contiene a $x_0$, es decir, existe $\delta > 0$ tal que $f(x) >0$ para todo $x$ tal que $|x-x_0|< \delta$.

De forma análoga, si $f(x_0) <0$, entonces existe $\delta > 0$ tal que $f(x) < 0$ para todo $x$ tal que $|x-x_0|< \delta$.

Demostración.

Supongamos que $f$ es continua en $x_0$ y $f(x_0)>0$, entonces para $\varepsilon = \frac{1}{2}f(x_0) > 0$, existe $\delta>0$ tal que si $|x-x_0|< \delta$, entonces
\begin{gather*}
& |f(x)-f(x_0)|< \frac{1}{2}f(x_0). \\
\Leftrightarrow & -\frac{1}{2}f(x_0) < f(x)-f(x_0) < \frac{1}{2}f(x_0). \\
\Leftrightarrow & -\frac{1}{2}f(x_0) + f(x_0) < f(x) < \frac{1}{2}f(x_0) + f(x_0). \\
\Leftrightarrow & f(x) > \frac{1}{2}f(x_0) > 0.
\end{gather*}

La demostración para cuando $f(x_0)< 0$ es análoga usando $\varepsilon = – \frac{1}{2}f(x_0) > 0.$

$\square$

Más adelante…

Tras revisar las propiedades básicas de las funciones continuas, estamos listos para revisar resultados muy interesantes derivados de la continuidad. En la siguiente entrada revisaremos el popular teorema del valor intermedio, que nos indica que si una función continua en un intervalo $[a,b]$ y que al evaluarla en $a$ toma un valor negativo, $f(a) < 0$, y al evaluarla en $b$ toma un valor positivo, $f(b) > 0$, entonces dicha función necesariamente toma el valor cero, es decir, existe un $x_0$ en el intervalo $[a,b]$ tal que $f(x_0) = 0$. Para probar este resultado, se hará uso del último teorema revisado en esta entrada.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Prueba que la función $f(x) = cos(x)$ es continua en cualquier punto $x_0 \in \mathbb{R}$.
  • Sea $f: A \to \mathbb{R}$. Prueba que si $f$ es continua en un punto $x_0 \in A$, entonces la función $|f|(x):= |f(x)|$ también es continua en $x_0$. ¿Se cumple el regreso? Es decir, ¿si $|f|$ es continua en $x_0$ entonces $f$ también es continua en tal punto?
  • Se dice que una función $f$ es aditiva si $f(x+y) = f(x)+f(y)$ para todo $x$, $y$ en $\mathbb{R}$. Prueba que para una función aditiva $f$ tal que es continua en algún punto $x_0$, entonces es continua en todo su dominio.
  • Da un ejemplo de dos funciones $f$ y $g$ discontinuas en $x_0$ tales que la suma $f+g$ sea continua en $x_0.$
  • Da un ejemplo de dos funciones $f$ y $g$ discontinuas en $x_0$ tales que el producto $f \cdot g$ sea continuo en $x_0.$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Cálculo Diferencial e Integral I: Raíz cuadrada y desigualdades

Por Karen González Cárdenas

Introducción

Ahora veremos el concepto de raíz cuadrada, su definición formal, resultados útiles y ejercicios de desigualdades donde se vea involucrada.

Definición de raíz cuadrada de un número real

Definición (Raíz cuadrada): Sea $x,y \in \r$ tal que $x, y \geq 0$. Definiremos a la raíz cuadrada de $x$ como sigue:
$$\sqrt{x}=y \Leftrightarrow x= y^{2}.$$

Para dejar más clara la definición observemos el siguientes ejemplo:

  • Si $x =9$ tenemos que para $\sqrt{9}$:
    $\sqrt{(3)^{2}}= 3$

Observaciones

  1. Para toda $x \in \r$ con $x>0$. Observamos que la raíz cuadra de $x$ cumple con las siguientes desigualdades, es decir, $$-\sqrt{x} \leq 0 , \quad \sqrt{x} \geq 0.$$
  2. Para $y \in \r$ tenemos que $\sqrt{y^{2}} =|y|.$
  3. $|y^{2}|=y^{2};$
    $|y^{2}|=|y|^{2}.$

Demostración de 1: Consideramos $x=y^{2}$ donde $y^{2}\geq 0$. Así al sustituir y aplicar la raíz cuadrada se sigue que:
\begin{equation*}
\sqrt{y^{2}}=
\begin{cases}
y &\text{si $y \geq 0$}\\
-y & \text{si $y< 0$}.
\end{cases}
\end{equation*}

Demostración de 2: Vemos que esto se sigue de la observación anterior ya que
\begin{equation*}
|y|=
\begin{cases}
y &\text{si $y \geq 0$}\\
-y & \text{si $y< 0$}.
\end{cases}
\end{equation*}
$$\therefore \sqrt{y^{2}} =|y|.$$

$\square$

Algunos resultados importantes

Teorema: Para $x,y \in \r$ donde $x \geq 0$ y $y \geq 0$.
$$x \leq y \Leftrightarrow x^{2} \leq y^{2}$$

Demostración:
$\Rightarrow$): Como tenemos por hipótesis $x \leq y$ vemos que al multiplicar por $x$ obtendríamos
$$x \leq y \Rightarrow x^{2} \leq xy$$
Y si multiplicamos por $y$:
$$x \leq y \Rightarrow xy \leq y^{2}$$
Así por transitividad:
$$\Rightarrow x^{2} \leq y^{2}$$
$\Leftarrow$): Ahora tenemos como hipótesis que $x^{2} \leq y^{2}$. Y esto es equivalente a decir
$$0 \leq y^{2}-x^{2} \Leftrightarrow (y+x)(y-x) \geq 0$$

Por lo que debemos considerar los casos en que:
a) $y+x \geq 0$ y $y-x \geq 0$
De la segunda desigualdad concluimos $y \geq x$.

O el caso b) $y+x \leq 0$ y $y-x \leq 0$
Vemos que este caso no tiene sentido.
$$\therefore \quad y \geq x$$

$\square$

Corolario: Para $x \geq 0$, $y \geq 0$.
$$x\leq y \Leftrightarrow \sqrt{x} \leq \sqrt{y}$$
Demostración:
Tomemos $a = \sqrt{x}$ y $b=\sqrt{y}$.
$\Rightarrow$):
Entonces $a^{2}=(\sqrt{x})^{2}$ y $b^{2}=(\sqrt{y})^{2}\Rightarrow a^{2}=x$ y $b^{2}=y$
Y como por hipótesis $x\leq y$
\begin{align*}
&\Rightarrow a^{2} \leq b^{2}\\
&\Rightarrow a \leq b\\
&\Rightarrow \sqrt{x} \leq \sqrt{y}
\end{align*}
$\Leftarrow$):
Ahora como por hipótesis $\sqrt{x} \leq \sqrt{y}$
\begin{align*}
&\Rightarrow a \leq b\\
&\Rightarrow a^{2} \leq b^{2}\\
&\Rightarrow x \leq y
\end{align*}

$\square$

Corolario: Para cualesquiera $x,y \in \r$ donde $y\geq 0$.
$$|x|^{2}\leq y \Leftrightarrow |x| \leq \sqrt{y}$$
Demostración:
Aplicando el corolario anterior tenemos las siguientes equivalencias
\begin{align*}
|x|^{2}\leq y &\Leftrightarrow \sqrt{|x|^{2}} \leq \sqrt{y}\\
&\Leftrightarrow \sqrt{x^{2}} \leq \sqrt{y}\\
&\Leftrightarrow |x| \leq \sqrt{y}\\
\end{align*}

$\square$

A continuación resolveremos ejercicios de desigualdades donde se encontraran involucrados la raíz cuadrada y el valor absoluto.

Ejercicio 1

Encuentra los valores $x$ que cumplan la desigualdad:

$$2x^{2}<|x-1|$$

Por el valor absoluto presente sabemos que debemos tomar casos, por lo que tenemos:

CASO 1: $x-1\geq 0 \Leftrightarrow x\geq 1$

Sustituyendo nos queda:
\begin{align*}
2x^{2}<|x-1|&\Leftrightarrow 2x^{2}< x-1\\
&\Leftrightarrow 2x^{2}- x+1<0\\
\end{align*}
Aplicando la fórmula general para ecuaciones de segundo grado:
\begin{align*}
x &=\frac{1 \pm \sqrt{(-1)^2 -4(2)(1)}}{2(2)}\\
&=\frac{1 \pm \sqrt{1-8}}{4}\\
&=\frac{1 \pm \sqrt{-7}}{4}.\\
\end{align*}
Pero como $\sqrt{-7}$ no tiene solución en $\r$, tenemos que la solución de este caso es:
$$[1,\infty) \cap \emptyset= \emptyset.$$

CASO 2: $x-1\leq 0 \Leftrightarrow x\leq 1$
Por lo que tendríamos:
\begin{align*}
2x^{2}<|x-1|&\Leftrightarrow 2x^{2}< -(x-1)\\
&\Leftrightarrow 2x^{2}+x-1<0\\
\end{align*}

Y por la fórmula general se sigue:
\begin{align*}
x&=\frac{-1\pm \sqrt{(1)^2 -4(2)(-1)}}{2(2)}\\
&=\frac{-1\pm \sqrt{9}}{4}\\
&=\frac{-1\pm 3}{4}.\\
\end{align*}
$$\therefore \quad x_{1}=\frac{1}{2}, \quad x_{2}=-1$$
Sustituyendo lo anterior tenemos que:
$$2x^{2}+x-1<0 \Rightarrow \left(x-\frac{1}{2} \right)(x+1)<0$$

Dado lo anterior notamos que para que el producto satisfaga la desigualdad hay que considerar el siguiente par de casos:
CASO 2.1: $x-\frac{1}{2}>0$ y $ x+1<0$
De donde $x>\frac{1}{2}$ y $ x<-1$. Al considerar la intersección vemos que ocurre:
$$\left(\frac{1}{2}, \infty \right) \cap (-\infty,-1)= \emptyset$$

CASO 2.2: $x-\frac{1}{2}<0$ y $ x+1>0$
Ahora tendríamos que $x<\frac{1}{2}$ y $ x>-1$. Y la solución sería:
$$\left(-1,\frac{1}{2} \right)$$

Concluimos así que la solución del CASO 2 esta dada por:
$$\left[\emptyset \cup \left(-1, \frac{1}{2} \right) \right] \cap (-\infty, 1)=\left(-1,\frac{1}{2} \right)$$

Finalmente la solución total es:
$$\left(-1,\frac{1}{2} \right)\cup \emptyset =\left(-1,\frac{1}{2} \right)$$


Ejercicio 2

$$x^{2}-4x-1 >0$$

Buscando la solución de la ecuación $x^{2}-4x-1 =0$:
\begin{align*}
x &=\frac{-(-4)\pm \sqrt{(-4)^2 -4(1)(-1)}}{2(1)}\\
&=\frac{4\pm \sqrt{16+4}}{2}\\
&=\frac{4\pm \sqrt{20}}{2}\\
&=\frac{4\pm 2\sqrt{5}}{2}\\
&= 2\pm 2\sqrt{5}
\end{align*}
$$\therefore \quad x_{1}=2+\sqrt{5},\quad x_{2}=2-\sqrt{5}$$

Entonces la desigualdad que queremos resolver sería:
$$(x – (2+\sqrt{5}))(x-(2-\sqrt{5}))>0$$

Para que el producto cumpla con la condición de ser mayor que cero debemos considerar los casos:
CASO 1: $x-2-\sqrt{5} >0$ y $x-2+\sqrt{5} >0$
$\Rightarrow x>2+\sqrt{5}$ y $x>2-\sqrt{5}$
$\Rightarrow x>2+\sqrt{5}$

CASO 2: $x-2-\sqrt{5} <0$ y $x-2+\sqrt{5} <0$
$\Rightarrow x<2+\sqrt{5}$ y $x<2-\sqrt{5}$
$\Rightarrow x<2-\sqrt{5}$


De los casos anteriores obtenemos que nuestro conjunto solución es:
$$(-\infty, 2-\sqrt{5}) \cup (2+\sqrt{5}, \infty)$$

Ahora que ya hemos revisado estos ejercicios, te invitamos a poner en práctica los procedimientos vistos con los siguientes ejercicios.

Más adelante

En la siguiente entrada veremos las cotas de un conjunto en $\r$. Definiremos formalmente los conceptos de cota superior e inferior y veremos algunos ejemplos donde los aplicaremos. Estos serán de suma importancia para comenzar a hablar de ínfimos y supremos posteriormente.

Tarea moral

Prueba que:

  • $|y^{2}|=y^{2}$
  • $|y^{2}|=|y|^{2}$

Obtén todos los valores de $x$ que satisfagan las siguientes desigualdades:

  • $-5x^{2} + 2x +|x|-1 \leq 3$
  • $x^{2}-4x-1<0$
  • $-7x^{2}+2x+|x|<-4$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»