\documentclass[11pt]{article}

%\usepackage[sort&compress]{natbib}
%\usepackage{natbib}
%\RequirePackage{filecontents}
%\usepackage[comma,authoryear]{natbib}
%\usepackage[style=authoryear]{biblatex}
\usepackage[comma,authoryear]{natbib}
%\bibliographystyle{abbrvnat}
%\setcitestyle{authoryear,open={(},close={)}}
\usepackage{ifpdf}
\usepackage[spanish]{babel}
\usepackage[utf8]{inputenc}
\usepackage[spanish]{babel}
\usepackage{amsmath, amsthm, amsfonts}
\ifpdf 
    \usepackage[pdftex]{graphicx}   % to include graphics
    \pdfcompresslevel=9 
    \usepackage[pdftex,     % sets up hyperref to use pdftex driver
            plainpages=false,   % allows page i and 1 to exist in the same document
            breaklinks=true,    % link texts can be broken at the end of line
            %colorlinks=true,
            pdftitle=My Document
            pdfauthor=My Good Self
           ]{hyperref} 
    \usepackage{thumbpdf}
\else 
    \usepackage{graphicx}       % to include graphics
    \usepackage{hyperref}       % to simplify the use of \href
\fi 
\usepackage[font={small,it}]{caption}
\newtheorem{ejem}{Ejemplo}[section]
\theoremstyle{plain}
\newtheorem{defin}{Definici\'on}[section]
\newtheorem{lema}{Lema}[section]
\newtheorem{teor}{Teorema}[section]
\newtheorem{prop}[teor]{Proposici\'on}
\newtheorem{corol}{Corolario}
\newtheorem{Nota}{Nota}[section]
\newtheorem{Obs}{Observaci\'on}[section]
\newtheorem{notacion}{Notaci\'on}[section]
\newtheorem*{falacia}{Falacia}

\title{Una falacia en probabilidad ilustrada vía teoría de cópulas}
%\author{Jarles Andrés Marimon Hernández
%\footnote{Matemático Egresado. Integrante del Semillero IPREA-UD. Proyecto Curricular de Matemáticas. Universidad Distrital Francisco José de Caldas. Correo: jamarimonh@correo.udistrital.edu.co}\\
%Luis Alejandro Másmela Caita
%\footnote{Profesor Asistente. Líder del Semillero IPREA-UD. Proyecto Curricular de Matemáticas. Universidad Distrital Francisco José de Caldas. Correo: lmasmela@udistrital.edu.co}\\
%}
\date{}


\begin{document}
\maketitle
\abstract{En cursos básicos de probabilidad, al abordar el tema de vectores aleatorios se demuestra que las distribuciones marginales de tales vectores pueden obtenerse de manera única a partir de la distribución conjunta. El recíproco de esta afirmación no necesariamente se tiene. Se construye aquí un contraejemplo haciendo uso de la teoría de cópulas que prentende ilustrar la falacia: ``\textsl{Distribuciones marginales y correlación determinan la distribución conjunta}".\\
\textbf{Palabras clave:} coeficiente de correlación, distribución conjunta, distribución marginal, distribución normal bivariada, teoría de cópulas, vectores aleatorios.
\section*{Introducción}
En cursos básicos de probabilidad, un tema de bastante interés se refiere a los vectores aleatorios, y relacionados con ellos están sus distribuciones de probabilidad que los caracterizan de manera única. Se especifica en la teoría que, dada la distribución conjunta de un vector aleatorio, es posible obtener de manera única sus distribuciones marginales aplicando el concepto de límite y haciendo uso de las propiedades de estas funciones.\\

Al respecto, se afirma en \citet{Blanco} que: 
\begin{quote}
 \textit{Si la función de distribución acumulada de las variables aleatorias $X_1,X_2,...,X_n$ se conoce entonces las distribuciones marginales también se conocen. El recíproco, sin embargo, no siempre es cierto.}
\end{quote}
Sobre la parte del recíproco en la afirmación, se podría pensar en la posibilidad de obtener la distribución conjunta, de manera única, dadas las distribuciones marginales. Esta proposición, con bastante frecuencia, se asume como un argumento que parece válido pero no lo es, en lógica se habla de una falacia. Dar en matemáticas un contraejemplo es una forma de demostrar que una proposición es una falacia.\\

En \citet{Embrechts} se establece un contraejemplo que refuta la proposición considerada. La construcción de este contraejemplo se basa en la distribución de probabilidad normal bivariada y la teoría de cópulas. Los autores enuncian la falacia en su artículo como: ``\textsl{Distribuciones marginales y correlación determinan la distribución conjunta}". El objetivo propuesto en este documento busca hacer énfasis en la teoría que soporta la construcción del ejemplo que demuestra la falsedad del enunciado, específicamente en la teoría de cópulas.\\

El documento está dividido en tres secciones, la Sección \ref{vectores} se basa en la teoría expuesta en \citet{Blanco} y presenta los conceptos básicos de vectores aleatorios restringido al caso bivariado, de manera particular se trata la distribución normal bivariada. La Sección \ref{copulas} está dedicada a la teoría de cópulas, específicamente a los conceptos requeridos para la construcción de distribuciones conjuntas a partir del conocimiento de marginales y se basa principalmente en la teoría expuesta en \cite{Nelsen}. La Sección \ref{falacia} expone la construcción del contraejemplo que ilustra la falacia de interés y que se presenta en \citet{Embrechts}. Por último se dan algunas conclusiones que surgen del desarrollo teórico del artículo.
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Vectores aleatorios}\label{vectores}
El concepto de variable aleatoria es piedra angular en el desarrollo de la teoría de la probabilidad. Dado el resultado del experimento aleatorio, el interés recae en la medición que se hace sobre el mismo. El concepto se puede generalizar cuando se trata de realizar más de una medición sobre el mismo resultado del experimento y sus valores son organizados en un vector denominado vector aleatorio. En adelante se hará referencia a vectores aleatorios bivariados.

\subsection{Función de distribución conjunta}

\begin{defin}[\textbf{Vector aleatorio}]
Sean $X_1,X_2$ variables aleatorias definidas sobre el mismo espacio de probabilidad $(\Omega, \mathfrak{J}, P).$ A la función $\textbf{X}: \Omega \longrightarrow \mathbb{R}^{2}$ definida por
$$\textbf{X}(\omega) := (X_1(\omega), X_2(\omega))$$
se le llama un vector aleatorio bidimensional y lo llamaremos simplemente vector aleatorio en adelante.
\end{defin}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
Asociado al concepto de vector aleatorio está la función de distribución del mismo, esta distribución lo caracteriza de manera única y se trata de una función que describe el comportamiento simultaneo de todas las variables que lo componen.


\begin{defin}[\textbf{Función de distribución conjunta}]
La función de distribución bivariada de un vector aleatorio $\textbf{X} = (X_1, X_2):\Omega \rightarrow \mathbb{R}^2$ sobre el espacio de probabilidad $(\Omega, \mathfrak{J}, P)$ está definida para todo $x_1$, $x_2$ en $\mathbb{R}$ por
$$F(x_1,x_2) = P(X_1 \leq x_1, X_2 \leq x_2).$$
\end{defin}

Ya que la distribución del vector aleatorio queda completamente determinada a partir de su función de distribución, es posible extraer a partir de ella el comportamiento univariado de las variables aleatorias que lo componen, esto es de $X_1$ y $X_2$. Mediante un razonamiento sencillo es posible concluir que las distribuciones de cada variable se obtienen aplicando el concepto de límite como sigue
$$F_{X_1} (x_1) = \displaystyle\lim_{x_2 \to \infty}F(x_1,x_2),$$
$$F_{X_2} (x_2) = \displaystyle\lim_{x_1 \to \infty}F(x_1,x_2).$$
A cada función $F_{X_j}$ se le llama la \textbf{función de distribución marginal} de la variable $X_j, j=1,2.$\\

El siguiente resultado establece las propiedades más importantes para la función de distribución conjunta. Su demostración puede consultarse en \citet{Blanco}. 
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\begin{teor}[\textbf{Propiedades de la función de distribución conjunta}]
\label{propidc}
Sea $\textbf{X} = (X_1,X_2)$ un vector aleatorio. La función de distribución conjunta $F$ de las variables $X_1, X_2$ tiene las siguientes propiedades.
\begin{enumerate}
\item $$\Delta_{a}^{b}F := F(b_1,b_2) + F(a_1,a_2) - F(a_1,b_2) - F(b_1,a_2) \geq 0$$
donde $a = (a_1,a_2), b = (b_1,b_2) \in \mathbb{R}^{2}$ con $a_1 \leq b_1$ y $a_2 \leq b_2.$
\label{propi1dc}
\item $F$ es continua a derecha en cada componente.
\label{propi2dc}
\item $$\displaystyle\lim_{x_1 \to -\infty}F(x_1,x_2) = 0 \text{ y } \displaystyle\lim_{x_2 \to -\infty}F(x_1,x_2) = 0.$$
\label{propi3dc}
\item $$\displaystyle\lim_{(x_1,x_2) \to (\infty,\infty)}F(x_1,x_2) = 1.$$
\label{propi4dc}\\
\end{enumerate}
\end{teor}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
Siempre que exista una función $f: \mathbb{R}^{2} \longrightarrow [0,+\infty)$ tal que 
$$F(x_1,x_2) = P(X_1 \leq x_1, X_2 \leq x_2) = \int_{-\infty}^{x_2}\int_{-\infty}^{x_2}{f(t_1,t_2)}dt_1dt_2,$$
se dirá que el vector aleatorio $(X_1,X_2)$ es \textbf{absolutamente continuo} y se llamará a $f$ la \textbf{función de densidad} de las variables aleatorias $X_1,X_2.$ Una característica de $f$ que se obtiene de la condición \ref{propi4dc} en el Teorema \ref{propidc} es que 
$$\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}{f(t_1,t_2)}dt_1dt_2 = 1.$$
También, como consecuencia directa del teorema fundamental del cálculo es posible obtener el siguiente teorema.
\begin{teor}
Sea $X_1$ y $X_2$ variables aleatorias continuas con función de distribución conjunta $F.$ Entonces la función de densidad de probabilidad $f$ está dada por
\begin{equation*}
\label{densidad}
f(x_1,x_2) = \frac{\partial ^{2}F(x_1,x_2)}{\partial x_1 \partial x_2} = \frac{\partial ^{2}F(x_1,x_2)}{\partial x_2 \partial x_1}
\end{equation*} 
para todos los puntos $(x_1,x_2)$ donde $f(x_1,x_2)$ sea continua.
\end{teor}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{Coeficiente de correlación $\rho$}
Un estudio de mucho interés desde la estadística trata sobre el modelamiento de dependencia entre fenómenos, específicamente referido a la dependencia de tipo lineal. Se definen a continuación dos conceptos importantes asociados a la dependencia lineal entre dos variables aleatorias, estos son la \textbf{covarianza} y el \textbf{coeficiente de correlación}. Para abordar estos conceptos se hace uso de la esperanza matemática y la varianza de una variable aleatoria $X$ notadas por $\textup{E}(X)$ y $\textup{Var}(X)$ respectivamente, más detalles sobre las definiciones y propiedades de estas cantidades se pueden consultar en \citet{Blanco}.
\begin{defin}[\textbf{Covarianza}]
Sean $X_1$ y $X_2$ variables aleatorias definidas sobre el mismo espacio de probabilidad y tales que $\textup{E}(X_1^2) < \infty$ y $\textup{E}(X_2^2) < \infty.$ La covarianza entre $X_1$ y $X_2$ está definida por:
\begin{equation*}
\label{covarianza}
\textup{Cov}(X_1,X_2) = \textup{E}\lbrace[X_1 - \textup{E}(X_1)][X_2 - \textup{E}(X_2)]\rbrace
\end{equation*}
\end{defin}
Algunas propiedades de la covarianza son:
\begin{itemize}
\item $\textup{Cov}(X_1,X_2) = \textup{E}(X_1 X_2) - \textup{E}(X_1)\textup{E}(X_2)$
\item $\textup{Cov}(X_1,X_2) = \textup{Cov}(X_2,X_1)$
\item $\textup{Var}(X_1) = \textup{Cov}(X_1,X_1)$
\item $\textup{Cov}(aX_1 + b,X_2) = a\textup{Cov}(X_1,X_2)$ para cualquier $a,b \in \mathbb{R}$
\end{itemize}
Una resultado adicional surge de la primera propiedad antes mencionada y es que si $X_1$ y $X_2$ son independientes, entonces $\textup{Cov}(X_1,X_2) = 0,$ esto debido a que $\textup{E}(X_1 X_2) = \textup{E}(X_1)\textup{E}(X_2)$ dada la independencia entre las variables aleatorias $X_1$ y $X_2$. Sin embargo, el recíproco de esta afirmación no se tiene en general.\\

Una forma alterna para obtener la covarianza se da en el siguiente teorema que establece la que se conoce como identidad de H\"{o}ffding.
\begin{teor}[\textbf{Identidad de H\"{o}ffding}]
Si $(X_1,X_2)$ tiene función de distribución conjunta $F$ y marginales $F_1$ y $F_2,$ entonces la covarianza de $X_1$ y $X_2$ siempre que sea finita está dada por
\begin{equation}
\label{idho}
\textup{Cov}(X_1,X_2) = \int_{-\infty}^{\infty}\int_{-\infty}^{\infty}{(F(x_1,x_2) - F_1(x_1)F_2(x_2))dx_1dx_2}
\end{equation} 
\end{teor}
\begin{proof}
Ver \citet[pág 203]{Mcneil}.
\end{proof}
Haciendo uso del concepto de covarianza, es posible establecer una medida adicional que es libre de la escala de medida de las variables aleatorias que se involucran y que de manera intuitiva puede tratarse como un índice que mide el grado de relación de dos variables siempre y cuando ambas sean cuantitativas, se habla del Coeficiente de Correlación.

\begin{defin}[\textbf{Coeficiente de correlación}]
Si $X_1$ y $X_2$ son variables aleatorias con $0 < \textup{Var}(X_1) < \infty$ y $0 < \textup{Var}(X_2) < \infty$, el coeficiente de correlación entre ellas está dado por
\begin{equation*}
\rho(X_1,X_2) = \frac{\textup{Cov}(X_1,X_2)}{\sqrt{\textup{Var}(X_1)\textup{Var}(X_2)}} \label{coeficientec}
\end{equation*}
\end{defin}
Este coeficiente toma valores en el intervalo $[-1,1]$ y cumple que si las variables aleatorias $X_1$ y $X_2$ son independientes $\rho(X_1,X_2) = 0$ como consecuencia de que $\textup{Cov}(X_1,X_2) = 0.$  Si hay dependencia lineal perfecta entre las variables, es decir, $X_2 = aX_1 + b$ o $P[X_2 = aX_1 + b] = 1$ para $a \in \mathbb{R} \setminus \left\lbrace 0 \right\rbrace, b \in \mathbb{R}$ entonces $\rho(X_1,X_2) = \pm 1,$ por último cuando hay dependencia lineal imperfecta, $-1 < \rho(X_1,X_2) <1.$

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{Distribución normal bivariada}
A manera de ejemplo y ya que se hará uso de esta distribución en la última sección, se presentará la distribución normal bivariada junto con sus principales características.\\

Una distribución normal bivariada o también conocida como distribución gaussiana bivariada es una generalización de la distribución normal univariada. Se dice que el vector aleatorio $\mathbf{X}=(X_1,X_2)$ tiene una distribución normal bivariada con vector de medias $\boldsymbol{\mu}$ y matriz de varianzas y covarianzas $\boldsymbol{\Sigma}$, que se nota como
\begin{eqnarray*}
\mathbf{X}=(X_1,X_2)\stackrel{\mathrm{d}}{=}N(\boldsymbol{\mu},\boldsymbol{\Sigma}),
\end{eqnarray*}
si su función de densidad de probabilidad conjunta está dada por la expresión
\begin{eqnarray*}
f(\mathbf{x}):=\frac{1}{2 \pi}(\det\boldsymbol{\Sigma})^{-\frac{1}{2}}
\exp{\left[\frac{1}{2}(\mathbf{x}-\boldsymbol{\mu})\boldsymbol{\Sigma}^{-1}(\mathbf{x}-\boldsymbol{\mu})^T\right].}
\end{eqnarray*}
Más específicamente, si
\begin{eqnarray*}
\boldsymbol{\Sigma}=\begin{pmatrix} \sigma_1^2 & \sigma_{12} \\ \sigma_{21} & \sigma_2^2 \end{pmatrix}
\end{eqnarray*}
con
\begin{eqnarray*}
\sigma_1^2:=\textup{Var}(X_1),\textup{   } \sigma_2^2:=\textup{Var}(X_2)\\
\sigma_{12}=\textup{Cov}(X_1,X_2)=\sigma_{21}=\rho \sigma_1 \sigma_2
\end{eqnarray*}
donde $\rho$ representa el coeficiente de correlación y
\begin{eqnarray*}
\boldsymbol{\mu}=(\mu_1,\mu_2) \textup{ con } \mu_1:=\textup{E}(X_1) \textup{ y } \mu_2:=\textup{E}(X_2)
\end{eqnarray*}
se tiene que

\begin{equation}\label{disnormal}
f(x_1,x_2)=\frac{1}{2 \pi \sigma_1 \sigma_2 \sqrt{1-\rho^2}}
\exp{\left(-\frac{1}{2}Q\right),}
\end{equation}
donde
\begin{equation*}
Q=\frac{1}{(1-\rho^2)} \left[ \left(\frac{x_1-\mu_1}{\sigma_1}\right)^2 
 - 2 \rho \frac{(x_1-\mu_1)(x_2-\mu_2)}{\sigma_1 \sigma_2}
+ \left(\frac{x_2-\mu_2}{\sigma_2}\right)^2 \right].
\end{equation*}
La familia de distribuciones normal multivariada es, en todo sentido, una familia ya que sus marginales y condicionales son también distribuciones normales. En lo que respecta al caso bivariado, las dos marginales del vector aleatorio $\mathbf{X}=(X_1,X_2)$ son normales univariadas, así
\begin{equation*}
f(x_1)=\int_{-\infty}^{\infty}f(x_1,x_2)dx_2
=\frac{1}{\sqrt{2 \pi}\sigma_1}\exp{\left[-\frac{1}{2} \left(\frac{x_1-\mu_1}{\sigma_1}\right)^2 \right]}
\end{equation*}
y
\begin{equation*}
f(x_2)=\int_{-\infty}^{\infty}f(x_1,x_2)dx_1
=\frac{1}{\sqrt{2 \pi}\sigma_2}\exp{\left[-\frac{1}{2} \left(\frac{x_2-\mu_2}{\sigma_2}\right)^2 \right]}
\end{equation*}


\begin{figure}[h!] 
  {\includegraphics[width=0.5\textwidth]{NormalEstPersp}}
%  \subfigure[Gráfica de $f(x_1,x_2)$ con parámetro $\gamma = 0.3$]
  {\includegraphics[width=0.5\textwidth]{NormalEstContor}}\\%
%    \subfigure[Gráfica de $f(x_1,x_2)$ con parámetro $\gamma = 0.3$]
  {\includegraphics[width=0.5\textwidth]{NormPersp}}
 % \subfigure[Gráfica de contorno de $f(x_1,x_2)$ con parámetro $\gamma = 0.3$]
  {\includegraphics[width=0.5\textwidth]{NormContor}}
   % \captionsetup{justification=centering}
  \caption{Densidades y contornos de dos distribuciones normales bivariadas.}
   \label{normal}
   \end{figure}

\begin{ejem}
Los gráficos que se presentan en la Figura \ref{normal} corresponden a dos distribuciones normales bivariadas. En la parte superior de la figura se observan, el gráfico de la densidad y al lado, sus respectivas curvas de nivel para una distribución normal bivariada con vector de medias
\begin{eqnarray*}
\boldsymbol{\mu}=(\mu_1,\mu_2)=(0,0)
\end{eqnarray*}
y matriz de varianzas y covarianzas
\begin{eqnarray*}
\boldsymbol{\Sigma}=\begin{pmatrix} \sigma_1^2 & \sigma_{12} \\ \sigma_{21} & \sigma_2^2 \end{pmatrix}=\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}.
\end{eqnarray*}
En la parte inferior de la Figura \ref{normal} se observan, gráficos de la densidad y sus respectivas curvas de nivel para una distribución normal bivariada con vector de medias
\begin{eqnarray*}
\boldsymbol{\mu}=(\mu_1,\mu_2)=(0,0)
\end{eqnarray*}
y matriz de varianzas y covarianzas
\begin{eqnarray*}
\boldsymbol{\Sigma}=\begin{pmatrix} \sigma_1^2 & \sigma_{12} \\ \sigma_{21} & \sigma_2^2 \end{pmatrix}=\begin{pmatrix} 2 & \sqrt{2}\times 2 \times 0.7 \\ \sqrt{2}\times 2 \times 0.7 & 4 \end{pmatrix},
\end{eqnarray*}
esta última matriz aparece escrita así para identificar fácilmente el coeficiente de correlación, sabiendo que $\sigma_{12}=\sigma_{21}= \sigma_1 \times \sigma_2 \times \rho$.
\end{ejem}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Resultados básicos de la teoría de cópulas}\label{copulas}
Las cópulas han generado particular interés en probabilidad por ser un punto de partida sin precedentes para la construcción de familias de distribuciones bivariadas, estas son, desde un punto de vista general, funciones que unen las distribuciones multivariadas de un vector aleatorio con sus distribuciones marginales. Un estudio introductorio pero muy detallado sobre cópulas se encuentra en \cite{Nelsen}. 
\begin{defin}[\textbf{Cópula}]
Una cópula $C$ es la función de distribución de un vector aleatorio sobre $[0,1]^{2}$ con marginales uniformes-(0,1). Alternativamente una cópula es una función $C:\mathbb{I}^2\rightarrow\mathbb{I}$ con las siguientes propiedades:
\begin{enumerate}
\item $C(u,v)$ es no decreciente en cada componente.
\item Para cualquier $u,v\in \mathbb{I}:=[0,1]$
   $$C(u,0)=0=C(0,v),$$
   $$C(u,1)=u, C(1,v)=v$$
\item Para cualesquiera $u_1,u_2,v_1,v_2\in\mathbb{I}$ tales que $u_1\leq u_2$ y $v_1\leq v_2$
    \begin{equation*}
    C(u_2,v_2)-C(u_2,v_1)-C(u_1,v_2)+C(u_1,v_1)\geq0\label{copulapropiedad3}
    \end{equation*}
\end{enumerate}
\end{defin}
%%%%%%%%%%%%%%%%%
\subsection{Teorema de Sklar}
Se atribuye al matemático Abe Sklar el haber enlazado por medio de una cópula la función de distribución de un vector aleatorio y sus distribuciones marginales; el resultado que lleva su nombre es considerado uno de los más importantes de la teoría de cópulas y jugará un papel importante porque además proporciona un método para construir cópulas dada una función de distribución bivariada.
\begin{teor}
Sea $F$ una función de distribución conjunta bivariada con marginales $F_{X_1}$ y $F_{X_2}$. Entonces existe una copula $C: [0,1]^2 \rightarrow [0,1]$ tal que para cualesquiera $x_1,x_2 \in \mathbb{\overline{R}}$
\begin{equation}
F(x_1,x_2)=C(F_{X_1}(x_1),F_{X_2}(x_2))
\label{tsklar}
\end{equation}
Si $F_{X_1}$ y $F_{X_2}$ son continuas, entonces $C$ es única; en cualquier otro caso, $C$ sólo está determinada de forma única sobre el conjunto $Ran F_{X_1} \times Ran F_{X_2}$. También, si $C$ es una copula y $F_{X_1}$ y $F_{X_2}$ son funciones de distribución univariadas, entonces la función $F$ definida mediante (\ref{tsklar}) es una función de distribución conjunta bivariada con marginales $F_{X_1}$ y $F_{X_2}$.
\end{teor}
%%%%%%%%%%%%%%%%%%%%%%%%%%
Se puede ver que 
\begin{equation}
\label{sklarinv}
C(u_1,u_2) = F(F_{X_1}^{-1}(u_1),F_{X_2}^{-1}(u_2))\footnote{$F_{X_i}^{-1}$ es la función cuantil de $F_{X_i}$, esto es, $F_{X_i}^{-1}(u):= \inf \lbrace x: F_{X_i}(x) \geq u\rbrace, i \in \lbrace 1,2 \rbrace$.} 
\end{equation}
es una cópula cuando se evalúa  $x_i = F_{X_i}^{-1}(u_i),  i \in \lbrace 1,2 \rbrace$ en (\ref{tsklar}) y se suponen las $F_{X_i},  i=\lbrace 1,2 \rbrace$ continuas. Esto quiere decir que se puede usar la expresión (\ref{sklarinv}) para construir cópulas cuando se conoce la función de distribución y sus marginales. 
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{Cópula gaussiana}
Si el vector aleatorio $(X_1,X_2)$ tiene función de distribución normal estándar bivariada entonces de la expresión (\ref{disnormal}) se sabe que su función de distribución está dada por
$$\Phi_2^{\rho}(x_1,x_2) = \int_{-\infty}^{x_1}\int_{-\infty}^{x_2}{\frac{1}{2\pi\sqrt{1 - \rho^2}}\exp\left\lbrace\frac{-(y_{1}^2 - 2\rho y_1y_2 + y_{2}^2)}{2(1 - \rho^2)}\right\rbrace dy_2dy_1},$$
donde $-1 < \rho < 1$ es el coeficiente de correlación entre las variables $X_1$ y $X_2.$\\
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
Como consecuencia de (\ref{sklarinv}) se define la cópula Gaussiana $C_{\rho}^{Ga}(u,v) = \Phi_2^{\rho}(\Phi^{-1}(u),\Phi^{-1}(v)),$ la cual está dada explícitamente por 
\begin{equation}
C_{\rho}^{Ga}(u,v) = \int_{-\infty}^{\Phi^{-1}(u)}\int_{-\infty}^{\Phi^{-1}(v)}{{\frac{1}{2\pi(1 - \rho)^{1/2}}}\exp\left\lbrace\frac{-(s^2 - 2\rho st + t^2)}{2(1 - \rho^2)}\right\rbrace dsdt,} 
\label{cgaussiana}
\end{equation}
aquí la función $\Phi$ es una distribución normal estándar. Se concluye entonces que, variables con función de distribución  $C_{\rho}^{Ga}(\Phi(x),\Phi(v))$ son variables normal estándar bivariada con coeficiente de correlación $\rho.$ La Figura \ref{gcopgauss} ilustra el comportamiento de la cópula Gaussiana y su función de densidad.
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\begin{figure}[h!]
  \centering
    \includegraphics[width=0.8\textwidth]{copnormalpyc}
    \caption{Arriba: Gráfica y contorno de la cópula Gaussiana con $\rho = 0.5.$   Abajo: Gráfica y contorno de la función de densidad de la cópula Gaussiana con $\rho = 0.5.$}
   \label{gcopgauss}
\end{figure}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{Un método para construir cópulas}
El siguiente es un método de construcción de cópulas propuesto en \citet{Embrechts}, el cual se encuentra desarrollado con más detalles en \citet{Pena}.\\

Si se tienen dos funciones $f,g : [0,1] \longrightarrow \mathbb{R}$ donde $\int_{0}^{1}{f(x_1)dx_1} = \int_{0}^{1}{g(x_2)dx_2} = 0$ y $f(x_1)g(x_2) \geq -1$ para todo $x_1,x_2 \in [0,1].$ Se puede generar una variedad de cópulas teniendo en cuenta que $h(x_1,x_2) = 1 + f(x_1)g(x_2)$ es una función de densidad bivariada sobre $[0,1]^2.$ Por lo cual, 
\begin{eqnarray}
\label{copmetodo}
C(x_1,x_2) &=& \int_{0}^{x_1}\int_{0}^{x_2}{h(u_1,u_2)du_2du_1} \nonumber \\
&=& \int_{0}^{x_1}\int_{0}^{x_2}{1 + f(u_1)g(u_2)du_2du_1} \nonumber \\
&=& x_1x_2 + \left(\int_{0}^{x_1}f(u_1)du_1 \right)\left(\int_{0}^{x_2}g(u_2)du_2 \right) 
\end{eqnarray} 
es una cópula. Este método será usado más adelante.

\section{La falacia}\label{falacia}
El principal objetivo de este documento pretende construir, con base en la teoría desarrollada, un contraejemplo mediante el cual se pueda verificar que la siguiente proposición es una falacia.
\begin{falacia}
Distribuciones marginales y correlación determinan de manera única la distribución conjunta.
\end{falacia}
Lo que se comprobará es que se pueden construir infinitas funciones de distribución bivariadas dada la correlación y el comportamiento marginal de dos variables aleatorias; particularmente se tomarán variables aleatorias con distribución normal, lo cual también evidenciará los riesgos de asumir normalidad en el proceso de construcción.\\

Si $X_1$, $X_2$ son variables aleatorias con distribuciones normal estándar $\Phi(x_1)$ y $\Phi(x_2)$ respectivamente, y $\rho(X_1,X_2) = \rho;$ entonces se sabe de la expresión (\ref{cgaussiana}) que la función de distribución de $(X_1,X_2)$ está dada por
$$F(x_1,x_2) = C_{\rho}^{Ga}(\Phi(x_1),\Phi(x_2))$$
por tanto cualquier otra cópula $C \neq C_{\rho}^{Ga}$ proporcionará una distribución bivariada cuyas marginales tienen distribución normal estándar pero que no será normal bivariada con correlación $\rho.$\\
Se construirá entonces una cópula $C$ como en (\ref{copmetodo}) donde las funciones $f$ y $g$ sean:
$$f(x_1) = \textbf{1}_{\left\lbrace(\gamma,1-\gamma)\right\rbrace}(x_1) + \frac{2\gamma - 1}{2\gamma}\textbf{1}_{\left\lbrace(\gamma,1-\gamma)^c\right\rbrace}(x_1)$$
$$g(x_2) = -\textbf{1}_{\left\lbrace(\gamma,1-\gamma)\right\rbrace}(x_2) - \frac{2\gamma - 1}{2\gamma}\textbf{1}_{\left\lbrace(\gamma,1-\gamma)^c\right\rbrace}(x_2),$$
$\frac{1}{4} \leq \gamma \leq \frac{1}{2}$ y
\begin{equation*}
\textbf{1}_{\lbrace(a,b)\rbrace}(\alpha)=
 \begin{cases}
  1, & \text{si $\alpha \in (a,b)$}\\
 0, & \text{si $\alpha \not\in (a,b).$}
  \end{cases}
\end{equation*}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
Luego $h(x_1,x_2) = 1 + f(x_1)g(x_2)$ es una función de densidad, pues $f$ y $g$ satisfacen las condiciones requeridas, es decir,
\begin{itemize}
\item $f,g : [0,1] \longrightarrow \mathbb{R},$
\item $\int_{0}^{1}{f(x_1)dx_1} =0 = \int_{0}^{1}{g(x_2)dx_2},$
\item Además $f(x_1)g(x_2) \geq -1$ para todo $x_1,x_2 \in [0,1].$ 
\end{itemize}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
La función de distribución de $h(x_1,x_2)$ es la cópula que se obtiene, la cual con dominio $\Phi(x_1)$ y $\Phi(x_2)$ tiene la forma
\begin{eqnarray*}
C(\Phi(x_1),\Phi(x_2)) &=& \int_{0}^{\Phi(x_1)}\int_{0}^{\Phi(x_2)}{h(u_1,u_2)du_2du_1} \\
&=& \Phi(x_1)\Phi(x_2) + \left(\int_{0}^{\Phi(x_1)}f(u_1)du_1 \right)\left(\int_{0}^{\Phi(x_2)}g(u_2)du_2 \right).
\end{eqnarray*}
Resulta del teorema de Sklar que $C(\Phi(x_1),\Phi(x_2)) = F(x_1,x_2),$ donde la función de distribución $F$ tiene marginales $\Phi(x_1)$ y $\Phi(x_2).$ Desde luego podemos encontrar su función de densidad conjunta $f(x_1,x_2),$ la cual está dada por
\begin{eqnarray*}
f(x_1,x_2) &=& \frac{\partial^{2}}{\partial x_1 \partial x_2}F(x_1,x_2) \\
&=& \frac{\partial^{2}}{\partial x_1 \partial x_2} \left[ \Phi(x_1)\Phi(x_2) + \left(\int_{0}^{\Phi(x_1)}f(u_1)du_1 \right)\left(\int_{0}^{\Phi(x_2)}g(u_2)du_2 \right) \right]\\
&=& \Phi '(x_1)\Phi '(x_2) + f(\Phi(x_1))\Phi '(x_1)g(\Phi(x_2))\Phi '(x_2)\\
&=& \Phi '(x_1)\Phi '(x_2) [1 + f(\Phi(x_1))g(\Phi(x_2))]\\
&=& \Phi '(x_1)\Phi '(x_2) + h(\Phi(x_1),\Phi(x_2))
\end{eqnarray*}
donde 
$$\Phi '(x_1)\Phi '(x_2) = \frac{1}{2\pi}\exp^{\frac{-(x_1^2+x_2^2)}{2}}.$$
\begin{figure}[h!]
  {\includegraphics[width=0.5\textwidth]{desaparece2}}
%  \subfigure[Gráfica de $f(x_1,x_2)$ con parámetro $\gamma = 0.3$]
  {\includegraphics[width=0.5\textwidth]{densigp3}}\\%
%    \subfigure[Gráfica de $f(x_1,x_2)$ con parámetro $\gamma = 0.3$]
  {\includegraphics[width=0.5\textwidth]{densigp31}}
 % \subfigure[Gráfica de contorno de $f(x_1,x_2)$ con parámetro $\gamma = 0.3$]
  {\includegraphics[width=0.5\textwidth]{contorgp3}}
   % \captionsetup{justification=centering}
  \caption{Densidad y contorno de una distribución que no es normal bivariada pero que tiene marginales normal estándar.}
   \label{nonormal}
   \end{figure}
La función $h(x,y)$ se anula sobre el cuadrado $\left[\gamma,1-\gamma\right]^2,$ por tanto la función de densidad $f(x_1,x_2)$ también lo hace en el intervalo $[\Phi^{-1}(\gamma),\Phi^{-1}(1-\gamma)]^{2},$ es decir, en el centro como se ilustra en la Figura \ref{nonormal}; esto implica que $C$ para $\gamma < \frac{1}{2}$ y $F(x,y) = C(\Phi(x), \Phi(y))$ no será una distribución normal bivariada. Además para cada $1/4 \leq \gamma \leq 1/2$ se obtiene una función de distribución distinta, lo que permite asegurar que las marginales dadas determinan infinitas funciones de distribución conjunta.\\
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
Adicionalmente se tiene que la correlación independientemente de $\gamma$ es cero. En efecto, si se considera la función $I$ definida sobre $[0,1]$ por  
\begin{eqnarray*}
I(x) &:=& \int_0^x f(u) du\\
&=& \int_0^x \left[\textbf{1}_{\left\lbrace(\gamma,1-\gamma)\right\rbrace}(u) + \frac{2\gamma - 1}{2\gamma}\textbf{1}_{\left\lbrace(\gamma,1-\gamma)^c\right\rbrace}(u)\right] du,
\end{eqnarray*}
explícitamente estará dada por
\begin{equation*}
I(x)=
 \begin{cases}
  \left(\frac{2\gamma - 1}{2\gamma}\right)x, & \text{si } 0 \leq x < \gamma   \\
  \frac{2\gamma - 1}{2}+x-\gamma, & \text{si } \gamma \leq x < 1- \gamma   \\
   \left(\frac{2\gamma - 1}{2\gamma}\right)(x-1), & \text{si } 1 - \gamma \leq x \leq 1, 
       \end{cases}
\end{equation*}
esta función posee una simetría alrededor de $1/2$ por la forma en que se ha definido $f$ y por tanto satisface que 
$$I(1-x) = \int_0^{1-x} f(u) du = \int_0^{1} f(u) du - \int_0^{x} f(u) du = -\int_0^{x} f(u) du = -I(x)$$
para todo $x \in (0,1/2)$. \\
Lo anterior permite afirmar que el coeficiente de correlación es 0 dado que según la expresión (\ref{idho}) y teniendo en cuenta que  
$$C(x,y) = xy - \left(\int_0^x f(u) du\right) \left(\int_0^y f(v) dv\right),$$
ya que $g(x) = -f(x)$ entonces
\begin{eqnarray*}
\textup{Cov} \lbrace(X_1,X_2)\rbrace &=& \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} (C(\Phi(x_1), \Phi(x_2)) - \Phi(x_1) \Phi(x_2)) dx_1dx_2\\
&=& \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} \left[-\left(\int_{0}^{\Phi(x_1)}f(u_1)du_1 \right)\left(\int_{0}^{\Phi(x_2)}f(u_2)du_2 \right)\right] dx_1dx_2\\
&=& \left[ -\int_{-\infty}^{\infty} \int_{0}^{\Phi(x_1)} f(u_1) du_1 dx_1 \right] \left[ \int_{-\infty}^{\infty} \int_{0}^{\Phi(x_2)} f(u_2) du_2 dx_2\right]\\
&=& \left[-\int_{-\infty}^{\infty}(I(\Phi(x_1))) dx_1\right] \left[\int_{-\infty}^{\infty} (I(\Phi(x_2))) dx_2\right]
\end{eqnarray*}
Estas últimas integrales se anulan debido a la simetría de la función $I,$ por tanto se concluye que $\textup{Cov} \lbrace(X_1,X_2)^{t}\rbrace = 0$ y de ahí que $\rho = 0$ independientemente de $\gamma.$

\section*{Conclusiones}

El teorema de Sklar constituye una herramienta fundamental en la teoría de cópulas, dentro de sus bondades se resalta la facilidad que brinda para construir modelos multivariados dado el comportamiento marginal y su utilidad para obtener información sobre la estructura de dependencia de un vector aleatorio, la cual se encuentra implícita en su función de distribución conjunta.\\

Gracias a la teoría de cópulas se logra ilustrar teórica y gráficamente que las distribuciones marginales de un par de variables aleatorias y su coeficiente de correlación lineal no determinan de manera única la función de distribución conjunta, este hecho evidencia la necesidad de ser cuidadosos a la hora de construir modelos multivariados dados los comportamientos marginales. Así, el coeficiente de correlación lineal, de gran uso en la mayoría de estudios en donde el interés recae en la estructura de dependencia de variables aleatorias, no proporciona toda la información de utilidad sobre un vector aleatorio, ya que no es invariante bajo transformaciones crecientes no lineales sobre las variables, además que variables no correlacionadas en general no son independientes.

\nocite{Marimon}
\bibliographystyle{apalike}
%\bibliographystyle{acm}
%\bibliographystyle{jtbnew}
%\bibliographystyle{natdin}
\bibliography{bibliogpa} 



%\bibliography{bibliogpa}{}

\end{document}
