Prueba de hipótesis

Las pruebas de hipótesis están estrechamente relacionadas al problema de estimación.

Estimación por intervalos

Supongamos que la variable aleatoria de interes sigue la función de densidad (masa) de probabilidad \(f(x,\theta)\), pero desconocemos el parámetro \(\theta\).

Es importante observar que partimos de una suposición y él como se llega a esa suposición es un proceso que no está bien formalizado.

Entonces lo que queremos es tener un conjunto de valores al que \(\theta\) pertenece con cierto grado certeza.

Sea \(X_1,\dots,X_n\) una muestra aleatoria. Si \(T = \mathcal{T}(X_1,\dots,X_n)\), puede ser visto de dos maneras: \(T\) como una variable aleatoria, y \(\mathcal{T}\) es una función de la muestra aleatoria. Además denotemos por \(t\) un valor de \(T\).

Definición. Sean \(\tau(\theta)\) una función real \(\theta\), \(\alpha \in (0,1)\) , \(X_1,\dots,X_n\) una muestra aleatoria de una función de densidad \(f(\cdot; \theta)\), $$T_1 = \mathcal{T}_1(X_1,\dots,X_n) \text{ y } T_2 = \mathcal{T}_2(X_1,\dots,X_n)$$ dos estadísticas tales que \(T1\leq T_2\) y $$P(T_1 < \tau(\theta)< T_2) = 1 - \alpha.$$ Un valor de \((t_1,t_2)\) del intervalo aleatorio \((T_1,T_2)\) o el intervalo aleatorio mismo \((T_1,T_2)\) es llamado un intervalo de confianza para \(\tau(\theta)\).

Notemos que \(\tau\) bien puede ser \(\tau(\theta) = \theta\).

A \(1-\alpha\) se le llama grado o coeficiente de confianza y es común tomar \(\alpha =0.05\).

Método pivotal

Definición. Sea \(X_1,\dots,X_n\) una muestra aleatoria de \(f(\cdot;\theta)\). Sea \(Q = \mathcal{Q}(X_1,\dots,X_n;\theta)\), es decir \(Q\) es una función de \(X_1,\dots,X_n\) y \(\theta\). Si \(Q\) tiene una distribución que no depende de \(\theta\), entonces \(Q\) es una cantidad pivotal .

Método pivotal. Si \(Q = \mathcal{Q}(X_1,\dots,X_n;\theta)\) es una cantidad pivotal, entonces para cualquier valor fijo \(0 < \alpha < 1\) existe \(q_1\) y \(q_2\) que dependen de \(\alpha\) tales que $$P(q_1 < Q < q_2)= \alpha.$$ Ahora, si para cada posible valor de la muestra \((x_1,\dots,x_n)\), $$q_1 < \mathcal{Q}(x_1,\dots,x_n;\theta) < q_2 \Longleftrightarrow \mathcal{T}_1(x_1,\dots,x_n)< \tau(\theta)< \mathcal{T}_2(x_1,\dots,x_n)$$ para funciones \(\mathcal{T}_1\) y \(\mathcal{T}_2\) que no dependen de \(\theta\), entonces \((T_1,T_2)\) es un intervalo de confianza para \(\tau(\theta)\), donde \(T_i = \mathcal{T}_i(X_1,\dots,X_n)\), \(i = 1,2\).

Los dos pasos en este método son:

1. Encontrar una cantidad pivotal.

2. Invertirla.

Observaciones:

- Como \(\mathcal{Q}\) es una función de \(X_1,\dots,X_n\) y \(\theta\), entonces podemos pasar de las desigualdades \(q1< \mathcal{Q}< q2\) a \(\mathcal{T}_1< \tau(\theta) < \mathcal{T}_2\), "despejando".

- En la práctica tomamos un estimador puntual \(\tau\) para \(\theta\) para encontrar la cantidad pivotal. Y nos fijamos en su distribución, si esta depende de \(\theta\), debemos pensar en hacer alguna trasformación o modificar la función.

- Por ejemplo podemos usar la expresión que nos da el Teorema del límite central, para estimar un intervalo de confianza para la media o fijarnos en estimadores puntuales para los cuales se conocemos su distribución.

¿Para cualquier problema existe una cantidad pivotal?

Proposición. Si \(X_1,\dots,X_n\) es una muestra aleatoria de \(f(\cdot;\theta)\), para la cual la función de distribución acumulada \(F(x;\theta)\) es continua en \(x\), entonces $$\prod_{i=1}^n F(X_i;\theta) \text{ o } -\sum_{i=1}^n log F(X_i;\theta),$$ es una cantidad pivotal. Es más, si \(F(x;\theta)\) también monótona en \(\theta\) para cada \(x_1,\dots,x_n\), entonces se puede encontrar un intervalo de confianza para \(\theta\).

Ejemplo

Sean \(X_1,\dots,X_n\) una muestra aleatoria de una distribución normal con varianza 1 y media \(\theta\) desconocida.

Consideremos estimar \(\tau(\theta)=\theta\). Resulta que $$Q = \mathcal{Q}(X_1,\dots,X_n; \theta) =\frac{ (\overline{X}-\theta)}{ \sqrt{1/n}}$$ tiene una distribución normal estandar, y entonces es una cantidad pivotal.

Para un \(\alpha\) dado existen \(q_1\) y \(q_2\) tales que $$\{q_1 < \frac{ (\overline{x}-\theta)}{ \sqrt{1/n}}< q_2\}$$ si y sólo si $$\{\overline{x} -q_2 \sqrt{1/n}< \theta < \overline{x} -q_1 \sqrt{1/n}\},$$ así \(\left (\overline{X} -q_2 \sqrt{1/n},\overline{X} -q_1 \sqrt{1/n}\right)\) es un intervalo de confianza para \(\theta\) con coeficiente \(1-\alpha\).

Para minimizar la longitud del intervalo se debe tener \(q_1 = -q_2\).

Así con una tabla de la distribución o usando programación podemos encontrar \(q_1\) y \(q_2\).

Algunas definiciones

En la investigación experimental, el objetivo es algunas veces meramente la estimación de paramétros. Por ejemplo comparar la media de una característica de un producto que se ha producido por dos procesos diferentes: un proceso \(A\) y proceso \(B\), entonces en base a los datos queremos saber que media es mayor. Se conoce la media del proceso \(A\) digamos \(\mu_0\). Tradicionalmente consideramos la hipótesis que la media del proceso \(B\) es mayor o menor que \(\mu_0\), entonces en base a una muestra de la población del proceso \(B\) veremos si aceptamos o rechazamos la hipótesis.

Definición. Una hipótesis estadística es una afirmación o conjetura sobre la distribución de una o más variables aleatorias. Si la hipótesis estadística determina completamente la distribución, entonces se llama simple, sino se llama compuesta. Y la denotamos por \(\mathcal{H}\).

Definición. Una prueba de hipótesis estadística es una regla o procedimiento para decidir si rechazar la hipótesis. Y la denotamos por \(\mathcal{Y}\).

Definición. Sea \(\mathcal{Y}\) una prueba de una hipótesis \(\mathcal{H}\). \(\mathcal{Y}\) se dice no aleatoria si rechazamos \(\mathcal{H}\) si y sólo si \((x_1,\dots,x_n) \in C_{\mathcal{Y}}\), donde \(C_{\mathcal{Y}}\) es un subconjunto del espacio muestral, y \(C_{\mathcal{Y}}\) es llamada la región critica de la prueba \(\mathcal{Y}\).

En la mayoría de problemas dos hipótesis son discutidas. Una es llamada hipótesis nula, denotada por \(H_0\). Y a la segunda hipótesis se llamada hipótesis alternativa, denotada por \(H_1\).

Se piensa que si una de ellas es falsa la otra es verdadera.

Tipos de errores \(H_0\) cierta \(H_0\) falsa
Rechazar \(H_0\) Error tipo I \(\checkmark\)
No rechazar \(H_0\) \(\checkmark\) Error tipo II

Tamaño de error. $$\alpha =P(\text{Error tipo I})=P(\text{Rechazar }H_0 | H_0 \text{ es verdadera}),$$ $$\beta = P(\text{Error tipo II})= P(\text{No rechazar }H_0 | H_0 \text{ es falsa}).$$

Definición. Sea \(\mathcal{Y}\) una prueba de de la hipótesis \(H_0\). La función de potencia de la prueba \(\mathcal{Y}\), es denotada por \(\pi_{\mathcal{Y}}(\theta)\) es la probabilidad de rechazar \(H_0\) cuando la distribución de la muestra es parametrizada por \(\theta\).

Definición. Sea \(\mathcal{Y}\) una prueba de de la hipótesis \(H_0: \theta \in \Theta_0\), donde \(\Theta_0\subset \Theta\), es decir, \(\Theta_0\) es un subconjunto del espacio parametral \(\Theta\). El tamaño de la prueba \(\mathcal{Y}\) de \(H_0\) es definida por \(sup_{\theta \in \Theta_0}[\pi_{\mathcal{Y}}(\theta)]\). El tamaño de prueba para una prueba no aleatorizada es también referida como el tamaño de la región crítica.

Existen dos problemas como en estimación:

1. Un método para encontrar una prueba.

2. Tener un criterio para comparar pruebas.