
















Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Prepara tus exámenes
Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Prepara tus exámenes con los documentos que comparten otros estudiantes como tú en Docsity
Los mejores documentos en venta realizados por estudiantes que han terminado sus estudios
Estudia con lecciones y exámenes resueltos basados en los programas académicos de las mejores universidades
Responde a preguntas de exámenes reales y pon a prueba tu preparación
Consigue puntos base para descargar
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Comunidad
Pide ayuda a la comunidad y resuelve tus dudas de estudio
Descubre las mejores universidades de tu país según los usuarios de Docsity
Ebooks gratuitos
Descarga nuestras guías gratuitas sobre técnicas de estudio, métodos para controlar la ansiedad y consejos para la tesis preparadas por los tutores de Docsity
El análisis conductual es el estudio científico de la conducta. ABA es la aplicación de los principios de aprendizaje y motivación del análisis de la conducta, y los procesos y tecnología procedentes de esos principios, hasta obtener la solución de problemas de importancia social.
Tipo: Guías, Proyectos, Investigaciones
1 / 24
Esta página no es visible en la vista previa
¡No te pierdas las partes importantes!
“Año de la Promoción de la Industria Responsable y Compromiso Climático”
UNIVERSIDAD NACIONAL DE EDUCACION
ESCUELA DE POSTGRADO
DOCENTE: Dr. NARCISO FERNANDEZ SAUCEDO
A Dios por permitirnos ser cada día mejores.
La Estadística Inferencial se divide principalmente en:
Las técnicas paramétricas y las no paramétricas. Las primeras se basan en suposiciones específicas acerca de la población de la que se desea hacer algún tipo de inferencia,
mientras que en cambio las técnicas no paramétricas hacen supuestos muy generales respecto a la distribución poblacional de la que se desea hacer inferencias. Son supuestos generales por ejemplo la simetría o continuidad de la distribución. Tradicionalmente lo que
separa ambas técnicas estadísticas es el supuesto de que la población de la que se toman los datos sigue una distribución normal.
Durante mucho tiempo los estadísticos han preferido las técnicas paramétricas o han optado por diversas transformaciones a fin de poder aplicarlas, dejando como recurso
final a las pruebas no paramétricas cuando no se ha podido encontrar evidencia estadística de que la población sigue una distribución normal. Por otro lado Hollander M.,
Wolfe D. (1973) recalcan la falta de robustez de las pruebas paramétricas frente al supuesto de normalidad en la mayoría de los casos. Indican además que los supuestos de donde se parte para el desarrollo teórico de dichas técnicas son “fuertes”, es decir difíciles
de suponer sin pruebas de hipótesis apropiadas, mientras que las pruebas no paramétricas permiten soluciones “elegantes” donde los supuestos son más sencillos de cumplir que los propuestos por las técnicas paramétricas.
En esta monografía nos centraremos en el desarrollo de la estadística NO paramétrica,
La estadística no paramétrica es una rama de la estadística que estudia las pruebas y modelos estadísticos cuya distribución subyacente no se ajusta a los llamados criterios paramétricos. Su distribución no puede ser definida a priori, pues son los datos observados los que la determinan. La utilización de estos métodos se hace recomendable cuando no se puede asumir que los datos se ajusten a una distribución conocida, cuando el nivel de medida empleado no sea, como mínimo, de intervalo. Una estadística no paramétrica está basada en un modelo que especifica solo condiciones muy generales y ninguna acerca de la forma específica de la distribución de la cual fue obtenida la muestra. Los procedimientos no paramétricos permiten probar diferentes hipótesis acerca de la población, precisamente donde los procedimientos paramétricos no actúan.
1.2. VENTAJAS Y DESVENTAJAS DE LA ESTADISTICA NO PARAMÉTRICA: 1.2.1. Ventajas de la Estadística No Paramétrica: Si el tamaño de la muestra es muy pequeño, puede no haber otra opción que usar una prueba no paramétrica, a menos que la naturaleza de la distribución de la población se conozca con exactitud. Las pruebas no paramétricas típicamente hacen menos suposiciones acerca de los datos y pueden ser más relevantes a una situación particular. Los métodos no paramétricos están disponibles para tratar datos que son simplemente clasificatorios, es decir medidos en escala nominal. Existen pruebas no paramétricas que son adecuadas para tratar muestras obtenidas en observaciones de diferentes poblaciones. La interpretación de una prueba no paramétrica suele ser más directa que la interpretación de las pruebas paramétricas.
2.1. Prueba X^2 de Pearson:^1 La prueba X^2 de Pearson es considerada como una prueba no paramétrica que mide la discrepancia entre una distribución observada y otra teórica (bondad de ajuste), indicando en qué medida las diferencias existentes entre ambas, de haberlas, se deben al azar en el contraste de hipótesis. También se utiliza para probar la independencia de dos variables entre sí, mediante la presentación de los datos en tablas de contingencia.
2.1.1. Bondad de ajuste: Permite comprobar si la distribución empírica de una variable cualitativa se ajusta a una distribución teórica. Es una extensión del contraste sobre una proporción para el caso de que la variable tenga más de dos categorías. La fórmula que da el estadístico es la siguiente: 2 ^ ^2 1
I (^) i i i (^) i
En caso de rechazar Ho, puede investigarse la causa calculando los errores:
o el error tipificado: ei^ i^ i i
2.1.2. Independencia e igualdad de proporciones: Se utiliza para evaluar si existe relación entre dos variables cualitativas.
(^1) https://www.uam.es/personal_pdi/psicologia/cadalso/Docencia/ADII/Materiales/esquema_tema_6.pdf
Si la distribución de una variable es igual en todos los grupos de la otra. Se comprueba si la distribución conjunta de ambas variables se ajusta a lo esperado bajo la hipótesis de independencia. Las hipótesis son: Ho : las variables son independientes. H 1 : las variables están relacionadas. En este caso la zona crítica para la toma de decisión es:
2 2
2.2. Contraste de los signos e intervalos de confianza:
El contraste no paramétrico más sencillo de realizar es el contraste de signos. Se utiliza principalmente para contrastar hipótesis sobre la posición central (mediana) de una distribución poblacional o para analizar datos de muestras pareadas. El contraste de signos se emplea en los estudios de mercado para averiguar si los consumidores prefieren uno de dos productos. Dado que los encuestados manifiestan simplemente su preferencia, los datos son nominales y se prestan a métodos no paramétricos. 2.2.1. Contraste de signos de muestras pareadas: Cuando se toman muestras pareadas de una población y se descartan las diferencias iguales a 0, por lo que quedan “n” observaciones. El contraste de signos puede utilizarse para contrastar la hipótesis nula de que la mediana poblacional de las diferencias es 0. Sea + una diferencia positiva y
Donde P es la proporción de observaciones no nulas en la población que son positivas.
Donde:
Se rechaza la hipótesis nula si T es menor o igual que el valor de la tabla.
En la hipótesis nula de que las diferencias poblacionales están centradas en 0, el contraste de Wilcoxon tiene una media y una varianza que vienen dadas por:
^
2 ^ ^
Y cuando el tamaño de la muestra, es grande, la distribución de la variable aleatoria, Z, es aproximadamente normal estándar donde: T T
2.4. Prueba de Mann – Whitney:^2 Se presenta cuando se toman muestras aleatorias independientes de las dos poblaciones, el contraste U de Mann-Whitney. La distribución del estadístico de Mann-Whitney, U, se aproxima a la distribución normal a un ritmo bastante rápido a medida que aumenta el número de observaciones muestrales. La aproximación es adecuada si cada muestra contiene al menos 10 observaciones. Por lo tanto,
contrastar la hipótesis nula de que la posición central de las dos distribuciones poblacionales es igual, suponemos que, aparte de la existencia de cualquier posible diferencia entre las posiciones centrales, las dos distribuciones poblacionales son idénticas.
2.4.1. Supongamos que, aparte de la existencia de posibles diferencias entre las posiciones centrales, las dos distribuciones poblacionales son idénticas.
(^2) Estadística para administradores y economía. Capítulo 15.
las observaciones en sentido ascendente, asignando, en caso de empate, la
las observaciones de la primera población. En ese caso, el estadístico U de Mann-Whitney se define de la forma siguiente: 1 ^1 1 2 1
2.4.2. Contraste U de Mann-Whitney: aproximación normal.
Suponiendo como hipótesis nula que las posiciones centrales de las dos distribuciones poblacionales son iguales, el estadístico U de Mann-Whitney tiene la media y la varianza siguientes: E U U ^ n n^12
2 1 2 ^1 2
Cuando las muestras son de gran tamaño (ambas son como mínimo de 10), la distribución normal es una buena aproximación de la distribución de la variable aleatoria: U U
2.4.3. Reglas de decisión del contraste U de Mann-Whitney. Se supone que las dos distribuciones poblacionales son idénticas, aparte de las diferencias que puedan existir entre sus posiciones centrales. Para contrastar la hipótesis nula de que las dos distribuciones poblacionales tienen la misma posición central, las reglas de decisión para un nivel de significación dado son las siguientes: Si la hipótesis alternativa es la hipótesis de la cola superior unilateral, la regla de decisión es:
U
Si la hipótesis alternativa es la hipótesis de la cola inferior unilateral, la regla de decisión es:
2.6. Prueba exacta de Fisher para tablas de 2 x 2.
La prueba de la probabilidad exacta de Fisher para tablas de 2 x 2 es una técnica extremadamente satisfactoria para analizar datos discretos (tanto nominales como ordinales) cuando dos muestras independientes son pequeñas. Se usa cuando las observaciones de dos muestras independientes al azar caen dentro de dos clases mutuamente excluyentes; las cuales son representadas por frecuencias en una tabla de 2 x 2. Los encabezados de los renglones, pueden tener cualquiera de dos clasificaciones: por arriba y por debajo de la media, acertaron y erraron, ciencias mayores y artes mayores, acuerdos y desacuerdos, etc. La prueba determina si los dos grupos difieren en las proporciones en donde caen dentro de cualquiera de las clasificaciones.
2.7. Prueba de la mediana: Es un procedimiento para evaluar si dos grupos independientes difieren en sus tendencias culturales. Más precisamente, esta prueba nos proporciona información acerca de que tan probable es que dos grupos independientes (no necesariamente del mismo tamaño) hayan sido extraídos de la misma población con la misma mediana. La hipótesis nula plantea que los dos grupos son la misma población y tienen la misma mediana; la hipótesis alterna puede plantear que la mediana de una población es diferente de la otra población, o que la mediana de una población es superios que la otra población. La prueba puede utilizarse cuando las puntuaciones de los dos grupos se miden, al menos, en una escala ordinal. Se podrá observar que no puede existir una prueba alterna a la prueba de la mediana, aún para datos en escala de intervalo. Esto podría ocurrir cuando una o más de las observaciones están “fuera de la escala” y truncadas hacia el máximo o el mínimo de las observaciones asignadas. Esta prueba está especialmente indicada cuando los datos sean extremos o estén sesgados.
2.8. Prueba de Kruskal – Wallis: El análisis de la varianza unifactorial por rangos. De Kruskal – Wallis, es una prueba extremadamente útil para decidir si k muestras independientes provienen de diferentes poblaciones. Los valores de la muestra invariablemente difieren de alguna manera, y la pregunta es si la diferencia entre las muestras significan diferencias genuinas en la población o si solo representan la clase de variaciones que pueden esperarse en muestras que se obtiene al azar de la misma población. La técnica Kruskal – Wallis prueba la hipótesis nula de que las k muestras provienen de la misma población o de poblaciones idénticas con la misma
la mediana de la población para el j-esimo grupo o muestra. Entonces podemos escribir la hipotesis nula de que las medianas son las mismas como
grupos i y j. Si la hipótesis alterna es verdadera, al menos un par de grupos tienen medianas diferentes. Según la hipótesis nula, la prueba supone que las variables en estudio tienen la misma distribución subyacente; además, requiere que las mediciones de la variable se encuentres, al menos, en escala nominal. El estadístico de prueba es:
2 1
k (^) j j (^) j
2.9. La prueba de Anderson-Darling Es una prueba estadística que permite determinar si una muestra de datos se extrae de una distribución de probabilidad. En su forma básica, la prueba asume que no existen parámetros a estimar en la distribución que se está probando, en cuyo caso la prueba y su conjunto de valores críticos siguen una distribución libre. Sin embargo, la prueba se utiliza con mayor frecuencia en contextos en los que se está probando una familia de distribuciones, en cuyo caso deben ser estimados los parámetros de esa familia y debe tenerse estos en cuenta a la hora de ajustar la prueba estadística y sus valores críticos. Cuando se aplica para probar si una
se esperaría por el puro azar. Si el resultado fuera 1, se trataría de una concordancia perfecta. Si K toma un valor negativo, significa existencia de discordancia, que solamente en la tabla de 2 x 2, podría llegar hasta – 1, lo que señalaría una discordancia total entre las dos clasificaciones o evaluaciones.
Con todo, hay que calcular también el intervalo de confianza en el que se mueve K, ya que, aunque K tenga valores positivos, si el intervalo de confianza es muy amplio, habría que reconsiderar la significación, es decir, si es suficiente para decidir que ambas clasificaciones, observadores, etc. son similares. Aunque siempre es una escala subjetiva, Landis y Koch propusieron unos límites para el grado de acuerdo estimado con el resultado del cálculo de Kappa:
Otros discuten la afirmación de que kappa "tiene en cuenta" la posibilidad de acuerdo. Para hacerlo con eficacia se requeriría un modelo explícito de cómo afecta el azar a las decisiones de los observadores. El llamado ajuste por azar del estadístico kappa supone que, cuando no están absolutamente seguros, los evaluadores simplemente aventuran una respuesta (un escenario muy poco realista)
2.11. Prueba de Friedman:^4 La prueba de Friedman es la alternativa no paramétrica para el análisis de la varianza de una vía con medidas repetidas. Fue desarrollado por el economista Milton Friedman. Esta prueba puede utilizarse en aquellas situaciones en las que se seleccionan n grupos de k elementos de forma que los elementos de cada grupo sean lo más parecidos posible entre sí, el método consiste en ordenar los datos por filas o bloques, reemplazándolos por su respectivo orden.
Las hipótesis a plantearse son: Ho : No existen diferencias entre los grupos. H1 : Existen diferencias entre los grupos.
(^4) http://www.estadisticafi.unam.mx/point/11.pdf
Para resolver el contraste de hipótesis anterior, Friedman propuso un estadístico que distribuye como una Chi-cuadrado con K – 1 grados de libertad, siendo K el número de variables relacionadas; se calcula mediante la siguiente expresión.
El estadístico de prueba es:
X (^) r^2 (^) HK^12 K^ 1 Rc^2 3 H (^) K (^1)
Donde:
H = representa el número de elementos o bloques. K = el número de variables relacionadas.
2.12. Prueba de Cochran:^5
Es una prueba no paramétrica de comparación de proporciones para tres o más muestras relacionadas, debe cumplir las siguientes características: a) Los datos se ajustan a la distribución de chi cuadrada b) Nivel nominal de la variable dependiente Su función es comparar el cambio en la distribución de proporciones entre más de dos mediciones de una variable dicotómica y determinar que la diferencia no se deba al azar (que las diferencia sea estadísticamente significativa).
2.13. Prueba de Kendall: En lugar de comparar los rangos, solo se calcula si una coordenada es mayor que la otra. El coeficiente tau de Kendall es:
(^5) http://www.let.rug.nl/nerbonne/teach/rema-stats-meth-seminar/presentations/Vonk-Cochrans-Q- 2011-June-7.pdf
De esa manera, D es la mayor diferencia absoluta observada entre la frecuencia acumulada observada F^ n xi y la frecuencia acumulada teórica F 0 (^) xi , obtenida a partir de la distribución de probabilidad que se especifica como hipótesis nula. Cuanto mayor sea la discrepancia entre la distribución empírica F (^) n xi y la distribución teórica, mayor será el valor de D.
Por lo tanto, el criterio para la toma de decisiones entre las dos hipótesis será de la forma:
Siendo el nivel de significación del contraste.
2.15. Prueba de Siegel-Tukey:^7
El procedimiento de Mann-Whitney fue adaptado por S. Siegel y J. Tukey puede adaptarse para contrastar si dos muestras independientes han sido extraídas de poblaciones con igual varianza, frente a la hipótesis alternativa de que han sido extraídas de poblaciones con varianzas diferentes. Para ello, una vez ordenados todos los elementos de ambas muestras, combinados, se asignan rangos comenzando desde el menor y el mayor, hacia el centro: al menor valor se le asocia el rango 1; al valor más elevado y al que le precede se asignan los rangos 2 y 3 ; al segundo y tercer valores más bajos se asignan los rangos 4 y 5, y así sucesivamente. Si el número total de observaciones en ambas muestras es par, una de ellas se quedará sin rango. Las expresiones anteriores se utilizan para
(^7) https://www.ucm.es/data/cont/docs/518-2013-11-13-noparam.pdf
calcular el estadístico Rm, que es la suma de rangos de la muestra de menor tamaño. La interpretación del contraste estriba en que si una de las dos muestras procede de una población con mayor dispersión, recibirá los rangos menores, mientras que la que procede de una muestra de menor variabilidad recibirá los rangos mayores. Puede apreciarse que el contraste tiene interés cuando condicionamos en que ambas distribuciones tienen una media de posición central similar.
Normal:
1 ^ ; 1 2 1
Donde: nm min (^) n n 1 , 2 (^) , y n n 1 (^) n 2