Pruebas no paramétricas: conceptos, precauciones y ventajas

Después de leer este artículo, aprenderá acerca de: 1. Conceptos de pruebas no paramétricas 2. Supuestos de pruebas no paramétricas 3. Precauciones 4. Algunas pruebas no paramétricas 5. Ventajas 6. Desventajas.

Conceptos de pruebas no paramétricas:

Algo más recientemente, hemos visto el desarrollo de un gran número de técnicas de inferencia que no hacen suposiciones numerosas o estrictas sobre la población de la que hemos extraído los datos. Estas técnicas de distribución gratuita o no paramétrica resultan en conclusiones que requieren menos calificaciones.

Habiendo usado uno de ellos, podríamos decir que, "independientemente de la forma de la (s) población (s), podemos concluir que ...".

Los dos nombres alternativos que se dan con frecuencia a estas pruebas son:

Distribución gratuita:

Las pruebas no paramétricas son "sin distribución". No asumen que los puntajes bajo análisis se extraen de una población distribuida de cierta manera, por ejemplo, de una población normalmente distribuida.

Al realizar pruebas de la importancia de la diferencia entre dos medias (en términos de CR o t, por ejemplo), asumimos que las puntuaciones en las que se basan nuestras estadísticas se distribuyen normalmente en la población. Lo que en realidad se hace, bajo la hipótesis nula, es estimar a partir de nuestras estadísticas de muestra la probabilidad de una diferencia real entre los dos parámetros.

Cuando N es bastante pequeño o los datos están muy sesgados, por lo que la suposición de normalidad es dudosa, los "métodos paramétricos" tienen un valor dudoso o no son aplicables en absoluto. Lo que necesitamos en tales casos son técnicas que nos permitan comparar muestras y hacer inferencias o pruebas de importancia sin tener que asumir la normalidad en la población.

Tales métodos son llamados no paramétricos o de distribución gratuita. La prueba de chi cuadrado X 2, por ejemplo, es una técnica no paramétrica. El significado de X 2 depende solo de los grados de libertad en la tabla; no es necesario suponer la forma de distribución de las variables clasificadas en las categorías de la tabla X 2 .

El coeficiente de correlación de diferencia de rango (rho) también es una técnica no paramétrica. Cuando p se calcula a partir de las puntuaciones clasificadas por orden de mérito, la distribución a partir de la cual se obtienen las puntuaciones puede estar muy sesgada y N es casi siempre pequeña.

Pruebas de clasificación:

Alternativamente, muchas de estas pruebas se identifican como "pruebas de clasificación", y este título sugiere su otro mérito principal: las técnicas no paramétricas se pueden usar con puntuaciones que no son exactas en ningún sentido numérico, pero que en realidad son simplemente rangos.

Supuestos de las pruebas no paramétricas:

Una prueba estadística no paramétrica se basa en un modelo que especifica solo condiciones muy generales y ninguna en relación con la forma específica de la distribución de la cual se extrajo la muestra.

Ciertas suposiciones están asociadas con la mayoría de las pruebas estadísticas no paramétricas, a saber:

1. Que las observaciones son independientes;

2. La variable en estudio tiene continuidad subyacente;

3. Los procedimientos no paramétricos para diferentes hipótesis sobre la población que los procedimientos paramétricos;

4. A diferencia de las pruebas paramétricas, existen pruebas no paramétricas que pueden aplicarse de manera apropiada a los datos medidos en una escala ordinal, y otras a los datos en una escala nominal o categórica.

Precauciones en el uso de pruebas no paramétricas:

En el uso de pruebas no paramétricas, se advierte al estudiante contra los siguientes errores:

1. Cuando las mediciones se realizan en términos de escalas de intervalo y relación, la transformación de las mediciones en escalas nominales u ordinales conducirá a la pérdida de mucha información. Por lo tanto, en la medida de lo posible, las pruebas paramétricas deben aplicarse en tales situaciones. Al utilizar un método no paramétrico como método abreviado, estamos desperdiciando dólares para ahorrar centavos.

2. En situaciones donde se cumplen los supuestos subyacentes a una prueba paramétrica y se pueden aplicar pruebas tanto paramétricas como no paramétricas, la elección debería estar en la prueba paramétrica porque la mayoría de las pruebas paramétricas tienen mayor poder en tales situaciones.

3. Las pruebas no paramétricas, sin duda, proporcionan un medio para evitar el supuesto de normalidad de distribución. Pero estos métodos no hacen nada para evitar los supuestos de independencia sobre la homoscedasticidad donde sea aplicable.

4. El científico del comportamiento debe especificar la hipótesis nula, la hipótesis alternativa, la prueba estadística, la distribución muestral y el nivel de significación antes de la recopilación de datos. La búsqueda de una prueba estadística después de haber recopilado los datos tiende a maximizar los efectos de cualquier diferencia casual que favorezca una prueba sobre otra.

Como resultado, la posibilidad de rechazar la hipótesis nula cuando es verdadera (error de Tipo I) aumenta considerablemente. Sin embargo, esta precaución se aplica tanto a las pruebas paramétricas como a las no paramétricas.

5. No tenemos el problema de elegir pruebas estadísticas para variables categóricas. Las pruebas no paramétricas solas son adecuadas para datos enumerativos.

6. Las pruebas F y t generalmente se consideran pruebas robustas porque la violación de los supuestos subyacentes no invalida las inferencias.

Se acostumbra a justificar el uso de una prueba de teoría normal en una situación en la que no se puede garantizar la normalidad, argumentando que es robusta bajo la no normalidad.

Algunas pruebas no paramétricas:

Vamos a discutir algunas pruebas comunes no paramétricas.

1. Prueba de signos:

La prueba de signos es la más simple de todas las estadísticas sin distribución y tiene un nivel muy alto de aplicabilidad general. Es aplicable en situaciones en las que no se puede utilizar la proporción crítica, t, prueba para muestras correlacionadas porque no se cumplen los supuestos de normalidad y homoscedasticidad.

Los estudiantes son conscientes del hecho de que ciertas condiciones en el contexto del experimento introducen el elemento de relación entre los dos conjuntos de datos.

Estas condiciones generalmente son una prueba previa, una situación posterior a la prueba; una situación de prueba y re-prueba; prueba de un grupo de sujetos en dos pruebas; la formación de "grupos emparejados" mediante el emparejamiento de algunas variables extrañas que no son objeto de investigación, pero que pueden afectar las observaciones.

En sign-test probamos el significado del signo de diferencia (como más o menos). Esta prueba se aplica cuando N es menor que 25.

El siguiente ejemplo nos dejará claro acerca de la prueba de signos:

Ejemplo:

Las puntuaciones a menudo sujetos bajo dos condiciones diferentes, A y B se dan a continuación. Aplica la prueba de signos y prueba la hipótesis de que A es superior a B.

Excluyendo 0 (cero) tenemos nueve diferencias, de las cuales siete son más.

Ahora tenemos que expandir el binomio, (p + q) 9

(p + q) 9 = p 9 + 9p 8 q + 36p 7 q 2 + 84p 6 q 3 + 126 p 5 q 4 + 126 p 4 q 5 + 84p 3 q 6 + 36 p 2 q 7 + 9 pq 8 + q 9 .

El número total de combinaciones es 2 9 o 512. Sumando los primeros 3 términos (a saber, p 9 + 9p 8 q + 36 p 7 q 2 ), tenemos un total de 46 combinaciones (es decir, 1 de 9, 9 de 8 y 36 de 7) que contienen 7 o más signos más.

Alrededor de 46 veces en 512 intentos, se producirán 7 o más signos de un máximo de 9 cuando el número medio de signos + bajo la hipótesis nula sea 4.5. La probabilidad de 7 o más signos +, por lo tanto, es 46/512 o .09, y claramente no es significativa.

Esta es una prueba de una cola, ya que nuestra hipótesis indica que A es mejor que B. Si la hipótesis inicial hubiera sido que A y B difieren sin especificar cuál es superior, habríamos tenido una prueba de dos colas para la cual P = .18.

Hay tablas disponibles que dan la cantidad de signos necesarios para la importancia en diferentes niveles, cuando N varía en tamaño. Cuando el número de pares es tan grande como 20, la curva normal puede usarse como una aproximación a la expansión binomial o la prueba de x 2 aplicada.

2. Prueba de mediana:

La prueba de la mediana se utiliza para comparar el rendimiento de dos grupos independientes como, por ejemplo, un grupo experimental y un grupo de control. Primero, los dos grupos se juntan y se calcula una mediana común.

Si los dos grupos se han seleccionado al azar de la misma población, la mitad de los puntajes de cada grupo deberían estar por encima y la mitad por debajo de la mediana común. Para probar esta hipótesis nula, necesitamos elaborar una tabla de 2 x 2 y calcular x 2 .

El método se muestra en el siguiente ejemplo:

Ejemplo:

Un psicólogo clínico quiere investigar los efectos de una droga tranquilizadora sobre el temblor de las manos. Catorce pacientes psiquiátricos reciben el medicamento y otros 18 pacientes reciben una dosis inofensiva. El primer grupo es el experimental, el segundo el grupo de control.

¿El fármaco aumenta la estabilidad, como lo muestran las puntuaciones más bajas en el grupo experimental? Como nos preocupa solo si la droga reduce el temblor, esta es una prueba de una cola.

Prueba de mediana aplicada a grupos experimentales y de control. Los signos más indican las puntuaciones por encima de la mediana común, los signos menos las puntuaciones por debajo de la mediana común.

N = 14 N = 18

Mediana común = 49.5

La mediana común es 49.5. En el grupo experimental, las puntuaciones están por encima y 10 por debajo de la mediana común en lugar de las 7 anteriores y las 7 por debajo que se esperan por casualidad. En el grupo de control, 12 puntuaciones están por encima y 6 por debajo de la mediana común en lugar de las 9 esperadas en cada categoría.

Estas frecuencias se ingresan en la siguiente tabla y X 2 se calcula mediante la fórmula (que se indica a continuación) con corrección para la continuidad:

AX 2 c de 3.17 con 1 grado de libertad produce un ap que se encuentra en .08 a mitad de camino entre .05 y .10. Queríamos saber si la mediana del grupo experimental era significativamente más baja que la del control (lo que indica más estabilidad y menos temblor).

Para esta hipótesis, una prueba de una cola, p / 2, es de aproximadamente .04 y X 2 c es significativa en el nivel de 0.5. Si nuestra hipótesis hubiera sido que los dos grupos difieren sin especificar la dirección, habríamos tenido una prueba de dos colas y X 2 habría sido marcado no significativo.

Nuestra conclusión, hecha de manera un tanto tentativa, es que la droga produce cierta reducción en el temblor. Pero debido a las pequeñas muestras y la falta de un hallazgo altamente significativo, el psicólogo clínico casi seguramente repetiría el experimento, quizás varias veces.

X 2 es generalmente aplicable en la prueba de la mediana. Sin embargo, cuando N 1 y N 2 son pequeños (por ejemplo, menos de aproximadamente 10) y la prueba X 2 no es precisa y se debe utilizar el método exacto de cálculo de probabilidades.

Ventajas de las pruebas no paramétricas:

1. Si el tamaño de la muestra es muy pequeño, puede que no haya alternativa al uso de una prueba estadística no paramétrica a menos que se conozca exactamente la naturaleza de la distribución de la población.

2. Las pruebas no paramétricas generalmente hacen menos suposiciones sobre los datos y pueden ser más relevantes para una situación particular. Además, la hipótesis probada por la prueba no paramétrica puede ser más apropiada para la investigación de investigación.

3. Las pruebas estadísticas no paramétricas están disponibles para analizar los datos que están inherentemente en los rangos, así como los datos cuyos puntajes aparentemente numéricos tienen la fuerza de los rangos. Es decir, el investigador solo puede decir de sus sujetos que uno tiene más o menos características que otro, sin poder decir cuánto más o menos.

Por ejemplo, al estudiar una variable como la ansiedad, podemos afirmar que el sujeto A está más ansioso que el sujeto B sin saber exactamente cuánto más ansioso está A.

Si los datos están inherentemente en los rangos, o incluso si se pueden clasificar solo como más o menos (más o menos, mejor o peor), se pueden tratar con métodos no paramétricos, mientras que no se pueden tratar con métodos paramétricos a menos que sean precarios y, tal vez, se hacen suposiciones poco realistas sobre las distribuciones subyacentes.

4. Los métodos no paramétricos están disponibles para tratar datos que son simplemente clasificatorios o categóricos, es decir, se miden en una escala nominal. Ninguna técnica paramétrica se aplica a tales datos.

5. Existen pruebas estadísticas no paramétricas adecuadas para el tratamiento de muestras compuestas de observaciones de diferentes poblaciones. Las pruebas paramétricas a menudo no pueden manejar dichos datos sin que sea necesario que hagamos suposiciones aparentemente poco realistas o que exijan cálculos engorrosos.

6. Las pruebas estadísticas no paramétricas suelen ser mucho más fáciles de aprender y aplicar que las pruebas paramétricas. Además, su interpretación a menudo es más directa que la interpretación de las pruebas paramétricas.

Desventajas de las pruebas no paramétricas:

1. Si todos los supuestos de un método estadístico paramétrico se cumplen, de hecho, en los datos y la hipótesis de la investigación podría probarse con una prueba paramétrica, entonces las pruebas estadísticas no paramétricas son inútiles.

2. El grado de desperdicio se expresa por la eficiencia energética de la prueba no paramétrica.

3. Otra objeción a las pruebas estadísticas no paramétricas es que no son sistemáticas, mientras que las pruebas estadísticas paramétricas se han sistematizado, y las diferentes pruebas son simplemente variaciones sobre un tema central.

4. Otra objeción a las pruebas estadísticas no paramétricas tiene que ver con la conveniencia. Las tablas necesarias para implementar pruebas no paramétricas están dispersas y aparecen en diferentes formatos.