lunes, 3 de abril de 2017

Kolmogorov, Anderson y Chi-cuadrado



Prueba de Kolmogorov
Antes de realizar cualquier análisis estadístico se deben tener presentes las condiciones de aplicación del mismo. En casi todos los análisis estadísticos, la asunción de normalidad es un común denominador. De ahí que comencemos este apartado con la prueba estadística de Normalidad. Ésta se denomina prueba de Kolmogorov - Smirnov y se halla en el menú de Análisis, dentro de la opción de Pruebas no paramétricas y finalmente bajo el nombre abreviado de K-S de una muestra. El cuadro de diálogo nos permite seleccionar la variable a analizar y la ley de probabilidad que se propone como de la población de la que ha sido extraída la muestra. Es importante notar que a veces las asunciones se refieren a la Normalidad de las poblaciones que se comparan, por lo que esta prueba de K-S debe repetirse para cada una de las muestras a comparar.
Estadística Inferencial Tema 8: Estimación Tema 9: Contraste de Hipótesis Tema 10: Inferencia paramétrica Tema 11: Inferencia no paramétrica 1 Introducción 2 Pruebas de un grupo 2.1 Binomial 2.2 Kolmogorov 3 Dos o más grupos 4 Datos categóricos 2.2 Kolmogorov
La prueba de Kolmogorov es una prueba de bondad de ajuste, es decir, del grado en que la distribución observada difiere de otra distribución. Es una alternativa a la prueba Ji  Cuadrado de bondad de ajuste cuanto el número de datos es pequeño. La prueba no debe ser aplicada si hay muchos empates.  a) Supuestos. Los datos están medidos al menos a nivel ordinal.  b) Hipótesis Nula: No hay diferencias entre las distribuciones comparadas.
c) Estadístico de contraste: D (mayor diferencia entre las frecuencias relativas de las distribuciones).
d) Distribución del estadístico de contraste: Específico dependiendo de la distribución con que se compare la distribución observada.

Referencias:
http://www.uv.es/webgid/Inferencial/22_kolmogorov.html
http://e-stadistica.bio.ucm.es/web_spss/proc_ks.html







Prueba de Anderson
La prueba de Anderson-Darling es usada para probar si una muestra viene de una distribución especifica. Esta prueba es una modificación de la prueba de Kolmogorov- Smirnov donde se le da más peso a las colas de la distribución que la prueba de Kolmogorov-Smirnov.

En estadística, la prueba de Anderson-Darling es una prueba no paramétrica sobre si los datos de una muestra provienen de una distribución específica. La fórmula para el estadístico determina si los datos (observar que los datos se deben ordenar) vienen de una distribución con función acumulativa  F.


Donde:
n es el número de datos
f(x): es la función de distribución de probabilidad teórica
FS(X): es la función de distribución empírica.
Para definir la regla de rechazo para esta prueba es necesario, también, obtener el estadístico ajustado para luego compararlo con los valores críticos de la tabla de Anderson- Darling


Una vez obtenido el estadístico ajustado, la regla de rechazo se realiza análogamente a la utilizada en la prueba de K-S.

El estadístico de la prueba se puede entonces comparar contra las distribuciones del estadístico de prueba (dependiendo que F se utiliza) para determinar el P- valor.



Referencia:
http://simulacionunilibre.blogspot.mx/p/prueba-anderson-darling.html




Prueba chi-cuadrado
Esta prueba puede utilizarse incluso con datos medibles en una escala nominal. La hipótesis nula de la prueba Chi-cuadrado postula una distribución de probabilidad totalmente especificada como el modelo matemático de la población que ha generado la muestra.
Para realizar este contraste se disponen los datos en una tabla de frecuencias. Para cada valor o intervalo de valores se indica la frecuencia absoluta observada o empírica (Oi). A continuación, y suponiendo que la hipótesis nula es cierta, se calculan para cada valor o intervalo de valores la frecuencia absoluta que cabría esperar o frecuencia esperada (Ei=n·pi , donde n es el tamaño de la muestra y pi la probabilidad del i-ésimo valor o intervalo de valores según la hipótesis nula). El estadístico de prueba se basa en las diferencias entre la Oi y Ei y se define como:

Este estadístico tiene una distribución Chi-cuadrado con k-1 grados de libertad si n es suficientemente grande, es decir, si todas las frecuencias esperadas son mayores que 5. En la práctica se tolera un máximo del 20% de frecuencias inferiores a 5.
Si existe concordancia perfecta entre las frecuencias observadas y las esperadas el estadístico tomará un valor igual a 0; por el contrario, si existe una gran discrepancias entre estas frecuencias el estadístico tomará un valor grande y, en consecuencia, se rechazará la hipótesis nula. Así pues, la región crítica estará situada en el extremo superior de la distribución Chi-cuadrado con k-1 grados de libertad.






Kolmogorov y Anderson: 
https://onedrive.live.com/edit.aspx?cid=14cf2f771bcfa82b&page=view&resid=14CF2F771BCFA82B!217&parId=14CF2F771BCFA82B!214&app=Excel

Chi cuadrada: 
https://onedrive.live.com/edit.aspx?cid=14cf2f771bcfa82b&page=view&resid=14CF2F771BCFA82B!218&parId=14CF2F771BCFA82B!214&app=Excel 

Statfit:
https://onedrive.live.com/edit.aspx?cid=14cf2f771bcfa82b&page=view&resid=14CF2F771BCFA82B!219&parId=14CF2F771BCFA82B!214&app=Word