Archivo de la categoría: Sin clasificar

Cálculo Diferencial e Integral II: Introducción a funciones de varias variables

Por Miguel Ángel Rodríguez García

Introducción

Con esta sección acabamos el curso de Cálculo Diferencial e Integral II, por lo que daremos una breve introducción a funciones de varias variables ya que su siguiente curso de Cálculo Diferencial e Integral III se enfoca en varias variables. Comencemos definiendo una función en varias variables.

Funciones en varias variables

Definición: Una función $f:D\subset \mathbb{R}^{n}\mapsto \mathbb{R}^{m}$ es que a cada punto $X \space \epsilon \space D$ le corresponde un único punto $Y \space \epsilon \space \mathbb{R}^{n}$ lo cual se denota como $Y=f(X)$ y que llamaremos la imagen del punto $X$ mediante la función $f$.

Observemos que a $X$ se define como:

$$X=(x_{1}, x_{2}, x_{3}, …., x_{n})$$

y la función $f$:

$$f(X)=(f_{1}(x_{1}, x_{2}, …., x_{n}), f_{2}(x_{1}, x_{2}, …., x_{n}), …., f_{m}(x_{1}, x_{2}, …., x_{n}))$$

Donde cada $f_{i}$ con $i=1,….,m$ es la componente i-esima de la función $f$, asi:

$$f=(f_{1},…., f_{m})$$

Ejemplos

  • Sea $f:D\subset \mathbb{R}^{3}\mapsto \mathbb{R}^{2}$ definida como:

$$f(x,y,z)=(x^{2}+y^{2}+z^{2}, \frac{\sin(xy)}{x-y})$$

Donde $D={(x,y,z) \space\epsilon \space \mathbb{R}^{3}}$ con $\space x \neq y$. Las componentes de $f$ son:

$$f_{1}(x,y,z)=x^{2}+y^{2}+z^{2}\space \space \space \space \space \space \space f_{2}(x,y,z)=\frac{\sin(xy)}{x-y}$$

  • Sea $f:\mathbb{R}^{3}\mapsto \mathbb{R}^{3}$ definida como $f(x,y,z)=(x^{2}, y^{2}, x^{2}-z^{2})$ por lo que las componentes de $f$ son:

$$f_{1}(x,y,z)=x^{2}\space \space \space \space f_{2}(x,y,z)=y^{2} \space \space \space \space f_{3}(x,y,z)=x^{2}-z^{2}$$

El conjunto $\mathbb{R}^{n}$ tiene estructura de espacio vectorial si definimos las operaciones de suma y producto por escalares como sigue:

  • Dados $X=(x_{1}, …., x_{n}) \space \epsilon \space \mathbb{R}^{n}, Y=(y_{1}, ….., y_{n}) \space \epsilon \space \mathbb{R}^{n}$,

$$X+Y=(x_{1}, …., x_{n})+(y_{1}, …., y_{n})=(x_{1}+y_{1}, …., x_{n}+y_{n})$$.

  • Dados $X=(x_{1}, …., x_{n}) \space \epsilon \space \mathbb{R}^{n}, \lambda \space \epsilon \space \mathbb{R}^{n}$,

$$\lambda X=\lambda (x_{1}, …., x_{n})=(\lambda x_{1}, …., \lambda x_{n})$$.

Por eso mismo, a $X=(x_{1}, …., x_{n}) \space \epsilon \space \mathbb{R}^{n}$ se les denomina vectores.

Definición:

Si $m=1$ se dice que la función $f: D \subseteq \mathbb{R}^{n} \mapsto \mathbb{R}$ es una función real o campo escalar de n-variables.

Si $m>1$ se dice que la función $f: D \subseteq \mathbb{R}^{n} \mapsto \mathbb{R}^{m}$ es una función vectorial o un campo vectorial de n-variables y m-componentes.

Veamos la definición de una grafica en varias variables.

Definición: Sea $f: D \subset \mathbb{R}^{n} \mapsto \mathbb{R}$. Se define la gráfica de la función $f$ como:

$$Gr(f)={(x_{1}, …., x_{n},y) \space \epsilon \space \mathbb{R}^{n+1}: (x_{1}, …., x_{n}) \space \epsilon \space D, y=f(x_{1}, …., x_{n}) }$$

Cuando $n=1$ la representación de $f$ nos proporciona una curva en $\mathbb{R}^{2}$, en el caso cuando $n=2$ nos proporciona una superficie en $\mathbb{R}^{3}$.

Curvas de nivel

En general, para una función de dos variables no es facil graficarla por lo que tenemos que recurrir a otras tecnicas para graficar estas funciones, una tecnica se le conoce como curvas de nivel el cual consiste en que la función se igual a una constante.

$$f(x,y)=k$$

Donde $k$ es una constante.

Gráficamente lo que se esta haciendo es que a la grafica de la función $f(x,y)$ la estamos cortando en «rebanadas» para cada valor de $k$ distinta por lo que veremos para cada corte, una parte de la grafica de la función $f(x,y)$.

Veamos el siguiente ejemplo.

Figura 1: Función $f(x,y)$ cortada por dos planos.

De la figura $(1)$ tenemos la función de dos variables $f(x,y)=x^{2}+y^{2}$ que es el cono azul de la figura $1$, si le hacemos unos cortes por dos planos con valores $k=2$ y $k=4$ obtendremos que las curvas de nivel (viéndolos desde la perspectiva de arriba) se notan como circunferencias como se muestran en la figura $(2)$.

Figura 2: Curvas de nivel para los valores $k=2$ y $k=4$ a la función $f(x,y)$.

Análogamente a este método de graficar funciones de dos variables, para tres variables se puede hacer lo mismo el cual se le conoce como el método de curvas de superficies.

Otro concepto importante para esta introducción a varias variables es la topología, lo que es usual en una variable el concepto de una función dentro de un intervalo abierto, cerrado, propio o impropio, se extiende estos concepto para funciones de varias variables. Como esta sección es una pequeña introducción a funciones de varias variables no se verán estos conceptos pero si se recomienda tener un poco de noción de estos conceptos de topología.

Tarea moral

Los siguientes ejercicios no son para evaluación pero son ejercicios para que practiques lo aprendido que te ayudaran en el desarrollo del entendimiento del tema, por lo que te invitamos a resolver los siguientes ejercicios propuestos relacionado con el tema visto.

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Encuentra el dominio y el rango de la función $f(x,y)=\sqrt{9-x^{2}-y^{2}}$
  2. Sea la función $f(x,y)=x^{2}+3y^{2}$, hallas las curva de nivel con $k=1,2 \space y \space 3$
  3. Obtén la grafica de la función $z=x^{2}-y^{2}$
  4. Hallar las superficies de nivel de la función $f(x,y,z)=x^{2}+y^{2}-z^{2}$ con $k=0$ y $k=-1$

Más adelante…

En esta entrada vimos una introducción a las funciones de varias variables como paso para estudiar estas funciones de varias variables con mas detenimiento en el curso de Cálculo Diferencial e Integral III, así como se estudio las funciones de una variable.

Con esta entrada concluimos el curso de Cálculo Diferencial e Integral II.

Entradas relacionadas

Ecuaciones Diferenciales I – Videos: Método de valores y vectores propios para sistemas lineales homogéneos con coeficientes constantes. Valores propios distintos

Por Eduardo Vera Rosales

Introducción

En la entrada anterior dimos las definiciones elementales y necesarias para diagonalizar una matriz de coeficientes constantes. Vimos los conceptos de valores y vectores propios y el polinomio característico, todo esto para poder encontrar la matriz $\textbf{e}^{t\textbf{A}}$. Sabemos que $\textbf{e}^{t\textbf{A}}$ es una matriz fundamental de soluciones al sistema lineal homogéneo $\dot{\textbf{X}}=\textbf{A}\textbf{X}$, por lo que sus columnas son soluciones linealmente independientes a dicho sistema. Así, de paso encontramos la solución general al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$.

Ahora vamos a olvidarnos un poco de $\textbf{e}^{t\textbf{A}}$, y vamos a resolver $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ pero de una manera ligeramente distinta. Lo que haremos será suponer que una solución a tal sistema es de la forma $\textbf{X}(t)=e^{\lambda t}\textbf{v}$ para cierto vector constante $\textbf{v}$. Resultará que $\textbf{X}(t)$ será solución al sistema si y sólo si $\textbf{A}\textbf{v}=\lambda\textbf{v}$. Es decir, si y sólo si $\textbf{v}$ es un vector propio de la matriz $\textbf{A}$ del sistema, y $\lambda$ es el valor propio asociado a $\textbf{v}$.

El método de valores y vectores propios que desarrollamos para diagonalizar una matriz en la entrada anterior, nos servirá de la misma manera para hallar la solución general al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$, al menos si $\textbf{A}$ es diagonalizable, pues ya sabemos cómo encontrar los valores y vectores propios de $\textbf{A}$, y al tener $n$ valores propios con sus respectivos vectores propios, entonces seremos capaces de encontrar $n$ soluciones linealmente independientes al sistema y formas la solución general a este.

Una vez establecido cómo debe verse la solución general al sistema, finalizaremos la entrada resolviendo un par de ejemplos de sistemas donde la matriz $\textbf{A}$ es diagonalizable y las raíces del polinomio característico igualado a cero son todas reales y distintas.

La solución general al sistema lineal homogéneo con coeficientes constantes

Hallamos la solución general al sistema lineal homogéneo $\dot{\textbf{X}}=\textbf{A}\textbf{X}$, suponiendo que $\textbf{A}$ es una matriz diagonalizable.

Método de valores y vectores propios. Raíces reales distintas del polinomio característico

Mediante un par de ejemplos revisamos el caso cuando $\textbf{A}$ es diagonalizable y las raíces del polinomio característico son todas reales y distintas. Además en el segundo ejemplo, verificamos que $$\textbf{e}^{t\textbf{A}}=\textbf{X}_{f}(t)\textbf{X}_f^{-1}{0}$$ donde $\textbf{X}_{f}(t)$ es una matriz fundamental de soluciones al sistema. La matriz del segundo ejemplo fue diagonalizada en el siguiente video de la entrada anterior, y calculamos $\textbf{e}^{t\textbf{A}}$. (Compara los resultados obtenidos).

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

Resuelve los siguientes sistemas y problemas de condición inicial. Encuentra $\textbf{e}^{t\textbf{A}}$ en cada caso:

  • $\dot{\textbf{X}}=\begin{pmatrix} 1 & 1\\ 4 & -2\end{pmatrix}\textbf{X}$.
  • $\dot{\textbf{X}}=\begin{pmatrix} 1 & 4\\ 3 & 2\end{pmatrix}\textbf{X} \, \, \, \, \, ; \, \, \, \, \, \textbf{X}(0)=\begin{pmatrix} 1\\ 10\end{pmatrix}$.
  • $\dot{\textbf{X}}=\begin{pmatrix} 1 & -1 & 4\\ 3 & 2 & -1 \\ 2 & 1 & -1\end{pmatrix}\textbf{X}$.
  • $\dot{\textbf{X}}=\begin{pmatrix} 0 & 1 & 0\\ 2 & 0 & 2 \\ 0 & 1 & 0\end{pmatrix}\textbf{X} \, \, \, \, \, ; \, \, \, \, \, \textbf{X}(0)=\begin{pmatrix} 1\\ 0 \\ 0\end{pmatrix}$.

Más adelante

Una vez que hemos logrado escribir la solución general al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$, cuando $\textbf{A}$ es diagonalizable, continuaremos revisando los posibles casos que se presentan con las raíces del polinomio característico. En particular, en la siguiente entrada revisaremos el caso cuando se presentan raíces complejas, es decir, cuando aparecen valores propios complejos de la matriz $\textbf{A}$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I – Videos: Método de eliminación de variables

Por Eduardo Vera Rosales

Introducción

En la entrada anterior revisamos las principales propiedades que satisface el conjunto de soluciones a un sistema lineal de ecuaciones de primer orden de la forma $$\dot{\textbf{X}}=\textbf{A}\textbf{X}+\textbf{Q}.$$ En particular vimos que el conjunto de soluciones al sistema homogéneo forma un espacio vectorial con la suma y producto por escalar usuales de matrices. Gracias a esta propiedad logramos encontrar la solución general a dichos sistemas, tanto homogéneos como no homogéneos.

Con esto en mente, podemos comenzar a resolver algunos sistemas lineales. Los más sencillos son los sistemas con coeficientes constantes, es decir, sistemas donde la matriz $\textbf{A}$ es una matriz conformada por constantes. En esta entrada revisaremos el método más sencillo disponible para resolver dichos sistemas, que será el de eliminación de variables.

El método de eliminación de variables consiste, como su nombre lo indica, en tratar de eliminar las variables dependientes $x_{i}(t)$ hasta quedarnos únicamente con una de ellas dentro de una ecuación diferencial de orden superior con coeficientes constantes. Para eliminar las variables utilizaremos la linealidad del sistema, por lo que podremos realizar operaciones elementales entre las ecuaciones del sistema, es decir, podremos sumar ecuaciones y multiplicar por escalares.

Una vez que llegamos a la ecuación diferencial de orden superior con coeficientes constantes, debemos resolverla para encontrar la función $x_{i}(t)$ con la que nos quedamos. Con esta función conocida, podremos ir encontrando las demás funciones que resuelven el problema. Además, como $x_{i}(t)$ es solución general a la ecuación diferencial de orden superior, entonces todas las soluciones involucrarán constantes arbitrarias $c_{1}, c_{2},…,c_{n}$. Por lo tanto, $$\textbf{X}=\begin{pmatrix} x_{1}(t) \\ x_{2}(t) \\ \vdots \notag \\ x_{n}(t) \end{pmatrix}$$ será la solución general al sistema.

Antes de comenzar debemos advertir que, dado que el método depende de la resolución de una ecuación diferencial de orden superior, no es conveniente utilizarlo para resolver sistemas de más de tres ecuaciones diferenciales.

Método de eliminación de variables

En el primer video resolvemos de forma general el sistema lineal de dos ecuaciones diferenciales con coeficientes constantes por el método de eliminación de variables. Luego, en el segundo video utilizamos el método desarrollado en el primer video para resolver un par de ejemplos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

Resuelve los siguientes sistemas de ecuaciones:

  • $\begin{alignedat}{4} \dot{x} &= 7x+3y \\ \dot{y} &= 2x-y \end{alignedat}$
  • $\begin{alignedat}{4} \dot{x} &= x-5y \\ \dot{y} &= y \end{alignedat}$

Resuelve los siguientes problemas de condición inicial:

  • $\begin{alignedat}{4} \dot{x} &= 2x+10y \\ \dot{y} &= -x-y \end{alignedat} \, \, \, \, ; \, \, \, \, \begin{alignedat}{4} x(0) &= 0 \\ y(0) &= 1 \end{alignedat}.$
  • $\begin{alignedat}{4} \dot{x} &= 3x-4y+e^{t} \\ \dot{y} &= x-y-e^{t} \end{alignedat} \, \, \, \, ; \, \, \, \, \begin{alignedat}{4} x(0) &= 1 \\ y(0) &= -1 \end{alignedat}.$

Resuelve el siguiente sistema de tres ecuaciones:

  • $\begin{alignedat}{4} \dot{x} &= 2x+y+z \\ \dot{y} &= x-y-z \\ \dot{z} &= 3x+y-2z \end{alignedat}$

Recuerda que aunque no resolvimos ecuaciones diferenciales de tercer orden, los métodos que desarrollamos para ecuaciones de segundo orden se pueden extender a ecuaciones de orden superior.

Más adelante

Ya hemos resuelto algunos sistemas lineales con coeficientes constantes, aunque su solución dependió de nuestros conocimientos acerca de las ecuaciones de orden superior con coeficientes constantes. Necesitamos nuevas herramientas para poder resolver los mismos sistemas sin tener que resolver una ecuación de orden superior.

En la próxima entrada hablaremos de la exponencial de una matriz, veremos cómo definir este nuevo término y por supuesto estudiaremos sus principales propiedades. La exponencial de una matriz estará fuertemente relacionada con la forma como resolveremos más adelante los sistemas lineales con coeficientes constantes.

¡Hasta la próxima entrada!

Notas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I – Videos: Introducción a sistemas de ecuaciones de primer orden

Por Eduardo Vera Rosales

Introducción

Bienvenidos a la tercera unidad del curso de Ecuaciones diferenciales ordinarias, donde estudiaremos sistemas de ecuaciones diferenciales lineales de primer orden.

Un sistema de ecuaciones es una familia de ecuaciones diferenciales de la forma $$\begin{alignedat}{4} \dot{x}_{1} &= F_{1}(t,x_{1},x_{2},…,x_{n}) \\ \dot{x}_{2} &= F_{2}(t,x_{1},x_{2},…,x_{n}) \\ & \; \; \vdots \notag \\ \dot{x}_{n} &= F_{n}(t,x_{1},x_{2},…,x_{n}) \end{alignedat}$$ donde $t$ es la variable independiente, cada $x_{i}$ es una variable dependiente de $t$ y cada $F_{i}$ es una función que depende de las $n+1$ variables.

Los sistemas de ecuaciones aparecen con frecuencia en problemas de física o biología, en los que el fenómeno en cuestión involucra más de una variable. Estas variables interactúan entre sí, por lo que la razón de cambio de éstas depende tanto del tiempo como de las variables restantes.

Vamos a estudiar propiedades que cumple el conjunto de soluciones a un sistema lineal homogéneo, y posteriormente resolveremos estos sistemas desde un punto de vista matricial, por lo que tus conocimientos de Álgebra lineal serán de utilidad.

En esta entrada definiremos lo que es un sistema de ecuaciones de primer orden, así como también una solución. Hablaremos del problema de condición inicial y enunciaremos el teorema de existencia y unicidad, el cual es la base para desarrollar toda la teoría alrededor de los sistemas lineales. Escribiremos el sistema de ecuaciones en forma matricial, y finalizaremos haciendo un cambio de variable para transformar una ecuación de orden $n\geq 2$ en un sistema de $n$ ecuaciones diferenciales de primer orden. Con esta transformación podremos encontrar soluciones a ecuaciones de cualquier orden resolviendo su sistema de ecuaciones asociado.

Como te habrás dado cuenta, en el sistema de ecuaciones escrito al inicio, para denotar a la derivada de una función utilizaremos la siguiente notación: $$\dot{y}=y’=\frac{dy}{dt}.$$

Además, denotaremos por $x_{1}, x_{2},…,x_{n}$ a las variables dependientes de $t$. Para los sistemas de dos o tres ecuaciones diferenciales denotaremos $x$, $y$, $z$ a las variables dependientes de $t$, salvo que esta notación cause confusión.

Vamos a comenzar.

Sistemas de ecuaciones de primer orden y ejemplos

En el primer video de esta entrada damos las definiciones de un sistema de ecuaciones diferenciales de primer orden, una solución al sistema, diremos cuándo el sistema es lineal, no lineal, homogéneo o no homogéneo. Finalizamos dando dos ejemplos de problemas donde aparecen sistemas de ecuaciones de primer orden.

Problema de condición inicial y el teorema de existencia y unicidad

En el segundo video hablamos un poco de los problemas de condición inicial y enunciamos el teorema de existencia y unicidad para sistemas de ecuaciones de primer orden, tanto la versión general como la versión para sistemas lineales homogéneos. Mas adelante daremos una demostración de la segunda versión.

Sistemas de ecuaciones en forma matricial y transformación de una ecuación de orden superior en un sistema de ecuaciones de primer orden

En el último video, damos la notación matricial para los sistemas de ecuaciones de primer orden. Además, transformamos una ecuación de orden $n\geq 2$ en un sistema de $n$ ecuaciones diferenciales haciendo un sencillo cambio de variable.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Transforma las ecuaciones $a\ddot{y}+b\dot{y}+cy=0$ y $a\dddot{y}+b\ddot{y}+c\dot{y}+dy=0$, donde $a$,$b$,$c$,$d$ son constantes y $a\neq0$ en sistemas de ecuaciones de primer orden, y escribe el sistema en forma matricial.
  • Transforma la ecuación diferencial no lineal $$\ddot{y}+\cos{y}=t$$ en un sistema de ecuaciones de primer orden.
  • Considera la ecuación $$a\ddot{y}+b\dot{y}+cy=0.$$ Prueba que si $$\textbf{X}=\begin{pmatrix} x_{1}(t) \\ x_{2}(t) \end{pmatrix}$$ es solución al sistema de ecuaciones $$\dot{\textbf{X}}=\begin{pmatrix} 0 & 1 \\ -\frac{c}{a} & -\frac{b}{a} \end{pmatrix} \textbf{X}$$ entonces $y(t)=x_{1}(t)$ es solución a la ecuación diferencial.
  • Prueba que si $y(t)$ es solución a la ecuación diferencial $$a\ddot{y}+b\dot{y}+cy=0$$ entonces $$\textbf{X}=\begin{pmatrix} y(t) \\ \dot{y}(t) \end{pmatrix}$$ es solución al sistema de ecuaciones $$\dot{\textbf{X}}=\begin{pmatrix} 0 & 1 \\ -\frac{c}{a} & -\frac{b}{a} \end{pmatrix} \textbf{X}.$$

Más adelante

Una vez que hemos establecido las definiciones básicas, la notación y el teorema de existencia y unicidad, vamos a estudiar propiedades que cumple el conjunto de soluciones a un sistema lineal de ecuaciones. Estas propiedades son en su mayoría análogas a las que enunciamos y probamos para ecuaciones diferenciales de segundo orden, por lo que será fácil abordarlas.

¡Hasta la próxima!

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Superior I: Negaciones de proposiciones con conectores y cuantificadores

Por Guillermo Oswaldo Cota Martínez

Introducción

Ya hemos visto cómo podemos crear proposiciones complejas a partir de proposiciones básicas usando conectores y cuantificadores. En esta entrada repasaremos cómo hacer negaciones de los distintos conectores lógicos de los que hemos platicado, y hablaremos de cómo hacer eso mismo para los cuantificadores universales y existenciales.

Recordatorio de negaciones de conectores lógicos.

Hemos hablado de cinco conectores lógicos: negación, conjunción, disyunción, implicación y doble implicación. En entradas anteriores hemos platicado de qué sucede con algunos de ellos si los negamos.

Negación, conjunción y disyunción

Negar una negación es sencillo. Ya vimos con anterioridad que $\neg(\neg P)\equiv P$. Para la conjunción y disyunción hablamos de las leyes de De Morgan en la entrada correspondiente. Nos dicen que estos conectores se niegan como sigue:

  • $\neg (P \lor Q) \equiv \neg P \land \neg Q$
  • $\neg (P \land Q) \equiv \neg P \lor \neg Q$

Siendo que trabajemos con alguna de estas, solo es necesario recordar: «la conjunción se niega con la disyunción de las negaciones y la disyunción se niega con la conjunción de las negaciones».

Implicación

Para ver cómo es que se niega este conector, recordemos su equivalencia lógica: $$P \Rightarrow Q \equiv \neg P \lor Q.$$

Lo siguiente que podemos hacer es aplicar una ley de De Morgan:

$$\neg (P \Rightarrow Q) \equiv \neg(\neg P \lor Q) \equiv P \land \neg Q.$$

Lo cuál nos quiere decir: «la negación de la implicación es que se cumpla la hipótesis y no la tesis» o «una promesa falla cuando pasa la condición requerida, pero no sucede lo requerido».

Doble implicación

Ahora, recordemos que la doble implicación $P \Leftrightarrow Q$ la definimos mediante $(P\Rightarrow Q) \land (Q \Rightarrow P)$. De esta manera, podemos usar nuevamente leyes de De Morgan para obtener:

$$ \begin{aligned} \neg(P \Leftrightarrow Q) &\equiv \neg((P\Rightarrow Q) \land (Q \Rightarrow P))\\ &\equiv \neg(P\Rightarrow Q) \lor \neg(Q \Rightarrow P) \\ &\equiv (P \land \neg Q) \lor (Q \land \neg P)\end{aligned}$$

Esto lo podemos pensar como «Las negación de un doble condicional es que las dos proposiciones tengan valores de verdad distintos». Para que la negación de la doble implicación sea verdadera necesitamos que $P$ sea verdad y $Q$ falsa o $Q$ verdad y $P$ falsa.

Para recapitular esta parte, recuerda la siguiente tabla:

ConectorNegación
$\neg P$$P$
$P \lor Q$$\neg P \land \neg Q$
$P \land Q$$\neg P \lor \neg Q$
$P \Rightarrow Q$$P \land \neg Q $
$P \Leftrightarrow Q$$(P \land \neg Q) \lor (Q \land \neg P)$

Negaciones de cuantificadores

Ahora que ya hemos visto sobre las negaciones de los conectores, es turno de que hablemos un poco de los cuantificadores. Y para esto recordemos que un cuantificador nos da información sobre los posibles valores de verdad de un predicado a través de un universo.

Negación de cuantificadores universales

Observa por un momento el siguiente predicado:

«Todos los números primos son impares»

Esta proposición la podemos ver de la forma $\forall x: P(x)$ en el universo de discurso de los números enteros. Y la proposición nos dice que cada número primo que tomemos, será impar. ¿Esto es verdad? Pues resulta que no. Y de hecho el único número primo que no es impar es el 2. En este caso no podemos decir que sea verdad la proposición cuantificada, esto pues existe al menos un número entero que no cumple la proposición. ¿Ves a dónde vamos con las palabras resaltadas?

Para negar el cuantificador $\forall$ usamos el cuantificador $\exists$ diciendo que existe un elemento que no cumple la propiedad:

$\neg(\forall x: P(x)) \equiv \exists x: \neg P(x)$

Pensemos en el significado de la expresión. Si tenemos $\neg(\forall x: P(x))$ significa que en el universo de discurso, existe una manera de elegir a $x$, digamos $x=a$ donde $P(a)$ es falsa, es decir $\neg P(a)$ es verdadera.

Negación de cuantificadores existenciales

Por otro lado, pensemos en el siguiente ejemplo:

«Existe un número entero mayor a 1 y menor a 2»

Para poder decir si es verdad o no, deberíamos ponernos de acuerdo en qué es un número entero o qué significa que sea menor o mayor que otro. Pero nuestra intuición nos dice que esto no es cierto (y estamos en lo correcto al pensar así). Ahora ¿Cómo se te ocurre que podríamos negar la expresión $\exists x: P(x)$, donde nuestro universo de discurso son los números enteros y $P(x) : 1<x \land x<2$? Pues necesitaríamos que no exista algún elemento que cumpla la condición. Entonces podemos notar que lo que nos dice esta negación es que cualquier elemento que tomemos de nuestro universo de discurso, no cumplirá con la proposición. Es decir, «Para todo $x$ en el universo de discurso, no se cumplirá el predicado». Dicho de otra forma:

$\neg (\exists x: P(x)) \equiv \forall x: \neg (P(x)).$

Vayamos un paso más allá, pues $P(x) : 1<x \land x<2$ es una conjunción. Al negarla, por leyes de De Morgan obtenemos una disyunción $\neg P(x): \neg(1<x) \lor \neg (x<2)$. Así, podríamos concluir entonces que la negación de

«Existe un número entero $x$ tal que $x>1$ y $x<2$.»

es

«Para todo número entero $x$, o bien no se cumple $x>1$ o bien no se cumple $x<2$.»

Negar hasta lo más profundo posible

Cuando hablamos de negar una proposición matemática compuesta por proposiciones específicas, o bien de negar una fórmula proposicional, nuestro objetivo es llevar las negaciones hasta las proposiciones básicas o las variables proposicionales o las variables de predicado. Por ejemplo, pensemos en simplificar la siguiente negación:

$$\neg(\exists x: (P(x)\lor Q(x)) \land (\neg R(x)\Rightarrow P(x))).$$

Aquí la primera negación está afectando al cuantificador existencial, entonces lo primero que hacemos es cambiarlo en un cuantificador universal de la negación:

$$\forall x: \neg((P(x)\lor Q(x)) \land (\neg R(x)\Rightarrow P(x))).$$

Ahora la negación está actuando en una conjunción, entonces usamos De Morgan para simplificar a

$$\forall x: \neg(P(x)\lor Q(x)) \lor \neg (\neg R(x) \Rightarrow P(x)).$$

Ahora hay una negación en una disyunción y una en una implicación. Entonces, usamos las reglas que vimos arriba para simplificar a lo siguiente

$$\forall x: (\neg P(x)\land \neg Q(x)) \lor (\neg R(x) \land \neg P(x)).$$

Esta ya es la forma final que nos interesa. Nota que las negaciones ya están sólo junto a $P(x), Q(x), R(x)$, pero ya no afectan conjunciones, disyunciones, condicionales ni cuantificadores.

Más adelante…

Llegando a este punto, ya tenemos el conocimiento necesario para hablar de una sustancia muy importante en la matemática: las demostraciones. Esto es, ¿cómo podemos estar seguros de cuándo algo se cumple y cuándo no?, ¿qué significa que un enunciado se derive de otros enunciados? Y más importante: vamos a introducir algunas técnicas de demostración que te ayudarán a entender de qué estamos hablando en matemáticas cuando haya que verificar algo. Y para esto usaremos algo conocido como reglas de inferencia.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. ¿Cuál es la negación de las siguientes proposiciones?
    • $P\lor (Q \Rightarrow S)$
    • $(P \Leftrightarrow (Q\land \neg S))$
    • $P \land (Q\lor R)$
    • $P \Rightarrow(Q \Rightarrow P)$
  2. ¿Cuál es la negación de las siguientes proposiciones que involucran cuantificadores?
    • $\forall x:(P(x)\Rightarrow Q(x))$
    • $\exists y: (\forall x: (P(x)\land Q(y)))$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»