Error estandar de la media

Después de leer este artículo, aprenderá sobre el estándar de la media.

La inferencia estadística también nos ayuda a probar la hipótesis de que "la estadística basada en la muestra no es significativamente diferente del parámetro de la población y que la diferencia, si alguna de ellas, se debe solo a la variación aleatoria" .

Error estándar de la media (SE M o σ M )

El error estándar de la media (SE M ) es bastante importante para probar la representatividad o la confiabilidad o el significado de la media.

Supongamos que hemos calculado que la puntuación media de 200 niños de 10º grado de Delhi en la Prueba de habilidad numérica es 40. Por lo tanto, 40 es la media de solo una muestra extraída de la población (todos los niños que leen en clase X en Delhi).

También podemos extraer diferentes muestras aleatorias de 200 niños de la población. Supongamos que elegimos al azar 100 muestras diferentes, cada muestra que consiste en 200 niños de la misma población y calculamos la media de cada muestra.

Aunque 'n' es 200 en cada caso, 200 niños elegidos al azar para constituir las diferentes muestras no son idénticos, por lo que debido a la fluctuación en el muestreo obtendríamos 100 valores medios de estas 100 muestras diferentes.

Estos valores medios tenderán a diferir entre sí y formarían una serie. Estos valores forman la distribución muestral de las medias. Se puede expresar matemáticamente que estas medias muestrales se distribuyen normalmente.

Los 100 valores medios (en nuestro ejemplo) caerán en una distribución normal alrededor de M pop, siendo M pop la media de la distribución muestral de las medias. La desviación estándar de estas 100 medias de muestra se denomina SE M o Error estándar de la media, que será igual a la desviación estándar de la población dividida por la raíz cuadrada de (tamaño de la muestra).

La SE M muestra la extensión de las medias de muestra alrededor de M pop . Por lo tanto, SE M es una medida de la variabilidad de las medias muestrales. Es una medida de la divergencia de las medias muestrales de M pop . SE M también se escribe como σ M.

El error estándar de la media (SE M o σ M ) se calcula utilizando la fórmula (para muestras grandes)

(A) Cálculo de SE M en muestras grandes :

donde σ = desviación estándar de la población y

n = número de casos incluidos en la muestra

(Como rara vez podemos tener la SD de una población, para σ usamos el valor de SD de las medias de muestra).

Intervalo de confianza:

Los dos intervalos de confianza, es decir, el 95% y el 99% son de uso general. RA Fisher nombra los límites del intervalo de confianza que contiene el parámetro como "límites fiduciarios" y nombró la confianza colocada en el intervalo como probabilidad fiduciaria.

(a) 95% del intervalo de confianza:

Refiriéndonos a la tabla de área bajo la curva normal, encontramos que el 95% de los casos se encuentran entre M ± 1.96 SE M. Que tenemos un 95% de confianza o es correcto decir que M pop estaría en el intervalo M + 1.96 SE M y M + 1.96 SE M y estamos 5% equivocados al decir que M pop estará fuera de este intervalo.

En otras palabras, la probabilidad de que M pop esté en el rango M ± 1.96 SE M es del 95% (o .95) y la probabilidad de que M pop esté fuera del rango es del 5% (o .05). El valor, 1.96 es el valor crítico en un nivel de significancia de .05.

(b) 99% del intervalo de confianza:

Refiriéndonos a la tabla de área bajo la curva normal, encontramos que el 99% de los casos se encuentran entre M ± 2.58 SE M. Que estamos 99% seguros o correctos para decir que M pop estaría en el intervalo M - 2.58 SE M y M + 2.58 SE M y estamos 1% equivocados al decir que M pop estará fuera de este intervalo.

En otras palabras, la probabilidad de que M pop esté en el rango M ± 2.58 SE M es del 99% (o .99) y la probabilidad de que M pop esté fuera del rango es del 1% (o .01). El valor 2.58 es el valor crítico en un nivel de significancia de .01.

Aquí encontramos que el nivel de significación está inversamente relacionado con el grado de precisión. En el nivel de significancia de 05, seríamos precisos en el 95% de los casos y en el nivel de significancia de .01 seríamos precisos en el 99% de los casos.

La tabla que figura a continuación te precederá aún más:

Ejemplo 1:

La media y la desviación estándar de 225 niños de la clase XII de Delhi en una prueba de habilidad numérica fueron 48 y 6 respectivamente. Qué tan bien esta media representa el pop pop o el pop pop estimado. (n = 225, σ = 6, media = 48]

Al referirnos a la tabla de distribución normal (Tabla A), encontramos que la mayoría de todos los casos (99.7) se encuentran en ± 3σ. En el caso de nuestro ejemplo, todas las medias de muestra estarán entre M pop + 3σ m y M pop - 3σ M. Por lo tanto, cualquier media de muestra será mejor 3σ m menor que M pop en 3σ M más que M pop .

Por lo tanto, si conocemos el valor de σ M podemos inferir sobre el M pop de nuestra media muestral. Aquí 4 es la desviación estándar de la distribución de medias muestrales de la que nuestra media es una. Todos los medios de muestra que normalmente se distribuyen alrededor de M pop estarán entre M pop + 3 SE M y M pop - 3 SE M.

3 SE M = 3 x .4 = 1.2

Aunque no sabemos el valor exacto de M pop, al menos podemos decir con confianza que M Pop se encuentra en el medio

(48 -1.2) y (48 + 1.2) o 46.8 → 49.2

De la Tabla A encontramos que el 95% de las facilidades se encuentran entre ± 1.96 σ. En el caso de nuestro ejemplo, el intervalo de confianza del 95% para M pop varía de M - 1.96 SE M a M + 1.96 SE M.

Ahora, 1.96 SE M = 1.96 x .4 = .78

. . . M- 1.96 SE M = 48 - .78 = 47.22 y M + 1.96 SE M = 48 + .78 = 48.78

. . . El intervalo de confianza del 95% varía de 47, 22 a 48, 78. El intervalo de confianza del 99% para M pop varía de M - 2.58 SE M a M + 2.58 SE M.

Ahora 2.58 SE M = 2.58 X .4 = 1.03

. . . M - 2.58 SE M = 48 -1.03 = 46.97 y M + 2.58 SE M = 48 + 1.03 = 49.03

. . . El intervalo de confianza del 99% para M pop oscila entre 46.97 y 49.03.

Ejemplo 2:

Se encontró que la media y la SD de 400 estudiantes en una prueba eran 42 y 8. ¿Se puede estimar la puntuación media de la población con un intervalo de confianza de 99% y 95%?

Solución:

(i) El intervalo de confianza del 95% para M pop varía de M - 1.96 SE M a M + 1.96 SE M.

Ahora 1.96 SE M = 1.96 x .4 = .784

. . . M-1.96 SE M = 42-.784 = 41.22

y M + 1.96 SE M = 42 + .784 = 42.78 (hasta dos decimales).

Así, el intervalo de confianza del 95% varía de 41, 22 a 42, 78. Tenemos una precisión del 95% de que el pop M se encuentra entre 41.22 y 42.78.

(ii) El intervalo de confianza del 99% para M pop varía de M - 2.58 SE M a M + 2.58 SE M

Ahora 2.58 SE M = 2.58 x 4 = 1.03

. . . M - 2.58 SE M = 42 - 1.03 = 40.97

y M +2.58 SE M = 42 + 1.03 = 43.03

Así, el intervalo de confianza del 99% varía de 40, 97 a 43, 03. Tenemos un 99% de confianza en que el pop pop está entre 40.97 y 43.03.

Ejemplo 3:

Los promedios y la desviación estándar de una muestra de 169 niños en una prueba de habilidad numérica son 50 y 6 respectivamente:

(i) Determine el intervalo del 95% para la media de la población e interprételo.

(ii) Determine el error de muestreo aceptable en niveles de significancia de .05 y .01.

(iii) Determine el intervalo de confianza del 99% para M pop .

Solución:

M = 50

(i) El intervalo de confianza del 95% para Mp 0p varía de M - 1.96 SE M a M + 1.96 SE M.

Ahora 1.96 SE m = 1.96 x .46 = .90

Así M-1.96 SE M = 50-.90 = 49.10

y M + 1.96 SE M = 50 +.90 = 50.90

. . . El intervalo de confianza del 95% para M pop oscila entre 49.10 y 50.90. A partir de los promedios de muestra de 50, estimamos que el pop pop es un valor fijo entre 49.10 y 50.90 y, por lo tanto, tenemos una confianza del 95%.

En otras palabras, nuestra media de muestra de 50 no perderá el M pop por más de 0, 90 y esto será cierto para 95 casos en 100. Alternativamente, solo en 5 casos de 100 nuestra media de muestra de 50 perderá el M pop por más de .90.

(ii) Valor crítico a un nivel de significancia de .05 = 1.96

Valor crítico en .01 nivel de significancia = 2.58

“Error de muestreo = valor crítico x SE M

Por lo tanto, el error de muestreo en el nivel de significancia de .05 es 1.96 SE M y el nivel de significancia de .01 es de 2.58 SE M

Error de muestreo aceptable a nivel .05 = 1.96 SE M = 1.96 x .46 = .90

Error de muestreo permitido a nivel .01 = 2.58 SE M = 2.58 X .46 = 1.19

(iii) El intervalo de confianza del 99% varía de M - 2.58 SE M a M + 2.58 SE M

Ahora 2.58 SE M = 2.58 X .46 = 1.19

Así, M-2.58 SE M = 50- 1.19 = 48.81

y M +2.58 SE M = 50 + 1.19 = 51.19

El intervalo de confianza del 99% varía de 48.81 a 51.19.

Ejemplo 4:

Para un grupo dado de 500 soldados, la puntuación AGCT media es de 95.00 y SD es de 25.

(ii) Determine el intervalo de confianza de .99 para la media verdadera.

(ii) ¿Es improbable que la media verdadera sea mayor que el valor?

Solución:

(i) El intervalo de confianza del 99% varía de M - 2.58 SE M a M + 2.58 SE M.

Ahora 2.58 SE M = 2.58 x 1.12 = 2.89

Así, M-2.58 SE M = 95.0-2.89 = 92.11

y M + 2.58 SE M = 95.0 + 2.89 = 97.89

. . . El intervalo de confianza del 99% varía de 92.11 a 97.89.

De nuestras medias de muestra de 95.0 estimamos que la verdadera media es un valor fijo entre 92.11 y 97.89 y, por lo tanto, tenemos una confianza del 99%.

(ii) Nuestra media muestral de 95.0 no perderá la verdadera media en más de 2.89, es decir, la verdadera no es mayor que 97.89.

(B) Cálculo de SE M en muestra pequeña:

Es convencional llamar a cualquier muestra mayor que 30 como muestra grande. Cuando N es grande, no vale la pena hacer la corrección. Pero cuando N es "pequeño" (menos de 30), es recomendable usar (N - 1), y es imperativo cuando N es bastante pequeño, por ejemplo, menos de 10.

El estudiante debe recordar (i) que la teoría (N - 1) siempre debe usarse cuando SD debe ser una estimación de la población a; y que (ii) la distinción entre "estadísticas de muestras grandes" y "estadísticas de muestras pequeñas" en términos de un punto de corte de N = 30 es arbitraria, y en parte es una cuestión de conveniencia.

Cuando N es menor que alrededor de 30, la fórmula para σ M o SE M debería decir:

Ejemplo 5:

Los siguientes cinco estudiantes han obtenido calificaciones en una prueba:

Determine los límites del límite de confianza del 95% para la media de la población.

Los puntajes son - 11, 13, 9, 12, 15:

Solución:

M = 12

Aquí el df = n- 1 = 5-1 = 4

Con referencia a la Tabla D, con df = 4, el valor de t en un nivel de significancia de .05 (es decir, un nivel de confianza del 95%) es de 2.78.

El intervalo de confianza del 95% define M ± 2.78 SE M

2.78 SE M = 2.78 x 1.0 = 2.78

M - 2.78 SE M = 12 - 2.78 x1.0 = 9.22 y

M + 2.78 SE M = 12 + 2.78 x1.0 = 14.78

. . . Los límites del intervalo de confianza del 95% son 9.22 y 14.78.

Esto significa que P = .95 que M pop se encuentra en el intervalo 9.22 a 14.78.

Ejemplo 6:

Se toman diez medidas del tiempo de reacción a la luz de un observador practicado. La media es de 175.50 ms (milisegundos) y la S es de 5.82 ms. Determine el intervalo de confianza de .95 para el pop M; El intervalo de confianza de .99.

Solución:

n = 10, S = 5.82 ms, M = 175.50 ms

Los df (grados de libertad) disponibles para determinar t son (n - 1) o (10 - 1) = 9

(i) Determinación del intervalo de confianza del 95% (o. 95):

Al ingresar a la Tabla D con 9 df, leemos que t = 2.26 en el punto .05.

El intervalo de confianza del 95% para M pop varía de M - 2.26 SE M a M + 2.26 SE M.

Ahora 2.26 SE M = 2.26 x 1.84 = 4.16

Así M - 2.26 SE M = 175.50 -4.16 = 171.34

y M + 2.26 SE M = 175.50 + 4.16 = 179.66

. . . El intervalo de confianza del 95% para M pop oscila entre 171.34 y 179.66. La P es .95 que el M pop no es menor que 171.34 ni mayor que 179.66. Si inferimos que M pop se encuentra dentro de este intervalo, en una larga serie de experimentos deberíamos estar en lo cierto el 95% del tiempo y el 5% equivocado.

(ii) Determinando el intervalo de confianza del 99% (o .99):

Entrando en la Tabla D con 9 df leemos que t = 3.25 en .01 punto. El intervalo de confianza del 99% para M pop varía de M - 3.25 SE M a M + 3.25 SE M.

Ahora 3.25 SE M = 3.25 x 1.84 = 5.98

Por lo tanto, M - 3.25 SE M = 175.50 - 5.98 = 169.52

y M + 3.25 SE M = 175.50 + 5.98 = 181.48

. . . El intervalo de confianza del 99% para M pop varía de 169.52 a 181.48.

La P es .99 que el M pop no es menor que 169.52 ni mayor que 181.48. Si inferimos que M pop se encuentra dentro de este intervalo, en una larga serie de experimentos deberíamos estar en lo correcto -99% del tiempo e incorrecto 1%.

Inferencias con respecto a otras estadísticas:

Como todas las estadísticas tienen distribuciones de muestreo y errores estándar, la importancia de la mediana, la desviación del cuartil, la desviación estándar, los porcentajes y otras estadísticas se puede interpretar como la media y podemos estimar el parámetro.

(i) Error estándar de la mediana (o SE Mdn -):

En términos de SD y Q, las SE de la mediana para muestras grandes se pueden calcular a través de las siguientes fórmulas:

en la que σ = SD de la muestra, n = tamaño de la muestra y Q = desviación de cuartil de la muestra.

Un ejemplo ilustrará el uso e interpretación de las fórmulas:

Ejemplo 7:

En la escala de idiomas A de Trabue, 801 niños de once años hicieron el siguiente registro:

Mediana = 21, 40 y Q = 4, 90. ¿Qué tan bien representa esta mediana la mediana de la población de la cual se extrae esta muestra?

Solución:

n = 801, Mdn = 21.40, Q = 4.90.

Aplicando la segunda fórmula, la

Como N es grande, la distribución de muestreo puede tomarse como normal y el intervalo de confianza encontrado en la última línea en la Tabla D. El intervalo de confianza de .99 para el pop de Mdn es 21.40 ± 2.58 x .32 o 21.40 ± .83.

Podemos estar seguros de que la mediana de la población no es inferior a 20.57 ni superior a 22.23. Este rango estrecho muestra un alto grado de confiabilidad en la mediana de la muestra.

(ii) Error estándar de desviación estándar (SE σ ):

El error estándar de la desviación estándar, como SE M, se encuentra al calcular la probable divergencia de la muestra SD de su parámetro (población SD). La fórmula para SE σ es

Ejemplo 8:

n = 400, σ = 6

¿Qué tan bien representa esta SD la SD de la población de la cual se extrae la muestra?

Solución:

Cuando las muestras son grandes y se extraen al azar de su población, la fórmula anterior puede aplicarse e interpretarse de la misma manera que la SEM.

Como N es grande, el intervalo de confianza de .99 para el pop SD se puede tomar con seguridad en los límites ± 2.58 σ σ . Sustituyendo σ σ tenemos 6 ± 2.58 x .21, es decir, los límites entre (6 - .54) y (6 + .54) o 5.46 y 6.54.

Si asumimos que el pop SD se encuentra entre los límites 5.46 y 6.54, deberíamos estar en lo correcto el 99% del tiempo y equivocarnos en el 1%.

(iii) Error estándar de la desviación del cuartil (o SE Q o σ q ):

SE Q se puede encontrar en las fórmulas:

Ejemplo 9:

n = 801, Q = 4.90

¿Qué tan bien representa esta Q la desviación del cuartil de la población?

Solución:

Aplicando la fórmula.

El intervalo de confianza de .99 para el Q pop es de 4.90 ± 2.58 x .203, es decir, de 4.38 a 5.42. Este rango muestra que la muestra Q es una estadística altamente confiable.

(iv) Error estándar de porcentaje (o SE% o σ%):

Indique el porcentaje de ocurrencia de un comportamiento, a menudo surge la pregunta de cuánta confianza podemos depositar en la figura. ¿Qué tan confiable es un índice nuestro porcentaje de la incidencia del comportamiento en el que estamos interesados? Para responder a esta pregunta,

Debemos computar el SE de un porcentaje por la fórmula:

en el cual

p = el porcentaje de ocurrencia del comportamiento, q = (1 - p)

n = número de casos.

Ejemplo 10:

En un estudio sobre el engaño en niños de escuela primaria, se descubrió que el 100% o el 25% de los 400 niños de hogares de alto estatus socioeconómico habían hecho trampa en varias pruebas. ¿Qué tan bien representa el porcentaje de la población?

Solución:

p = 25% (porcentaje de ocurrencia)

q = 75% (100% - 25%)

El intervalo de confianza del 99% para el porcentaje de población varía desde

25% ± 2.58 x 2.17%.

25% - 2.58 x 2.17% = 25% - 5.60% = 19.4%

y 25% + 2.58 x 2.17% = 25% + 5.60 = 30.60%

Podemos suponer con un 99% de confianza que los niños de escuelas primarias de alto estatus socioeconómico harían trampa con al menos un 19, 4% y no serán más grandes que un 30, 60%.

(v) Error estándar del coeficiente de correlación (SE r o σ r ):

La fórmula clásica para el SE de a- es

(SE de un coeficiente de correlación r cuando N es grande)

Ejemplo 11:

n = 120, r = .60.

¿Cuáles son los límites del intervalo de confianza del 99% para la población r?

Solución:

Intervalo de confianza del 99%

= r ± 2.58 SE r = .60 ± 2.58 SE r

= .60 ± .15 o .45 a .75

Términos estadísticos importantes:

(i) Niveles:

.05:

Probabilidad de ir mal en 5 muestras de 100 muestras.

.01:

Probabilidad de ir mal en 1 muestra de 100 muestras.

(ii) Confianza:

En un nivel de significancia de .05, el experimentador tiene un 95% de confianza en que los datos deben representar a la población.

En el nivel de significancia de .01, el experimentador tiene un 99% de confianza en que la estadística muestral debe representar a la población.

(iii) Niveles de significancia:

Antes de probar la hipótesis, tenemos que decidir los criterios con los que queremos aceptar o rechazar la hipótesis nula. Tenemos que establecer el nivel de importancia antes de la prueba. Dos niveles de importancia son, en general, uso, es decir .05 nivel y .01 nivel.

(a) .05 nivel de significancia:

En la Tabla A, leemos que el 95% de los casos en una distribución normal se encuentran dentro de los límites ± 1.96 SE M. Si tomamos los límites especificados por M ± 1.96 SE M, definimos un intervalo para el cual el nivel de confianza es .95. Basándonos en nuestro criterio según el tamaño de M pop en estos límites, podemos estar en lo cierto en el 95% del tiempo y en el 5% equivocado.

El área entre - 1.96 SE M y + 1.96 SE M se conoce como el área de aceptación de O y el área más allá de - 1.96 SE M y + 1.96 SE M se conoce como el área de rechazo. Si cualquier media de la muestra se encuentra en el área de aceptación, aceptamos el H o . Al rechazar el H o admitimos que la media de la muestra puede estar fuera de ± 1.96 SE M.

Por lo tanto, al rechazar H o cometemos un error del 5% porque en el 5% de cada 100 alivios puede ocurrir una media de este tipo. Estamos dispuestos a asumir un riesgo de hasta el 5% al ​​rechazar el H o cuando sea cierto. Por lo tanto, los criterios para rechazar el Ho son los altos niveles de importancia.

(b) .01 nivel de significancia:

En la Tabla A, leemos que el 99% de las facilidades en una distribución normal se encuentran dentro de los límites ± 2.58 SE M. Si ajustamos los límites especificados por M ± 2.58 SE M, definimos un intervalo para el cual el nivel de confianza es 0.99. Basándonos en nuestro criterio en cuanto al tamaño de M pop en estos límites, podemos estar en lo cierto el 99% del tiempo y el 1% equivocado.

El área entre - 2.58 SE M y + 2.58 SE M sería el área de aceptación de H 0 y el área más allá sería el área de rechazo de H o . Estamos dispuestos a asumir un riesgo de hasta el 1% al rechazar el H o cuando sea cierto.

El nivel de significancia de .01 es más exacto que el nivel de .05 porque en el nivel de .01 el error al rechazar el Ho es del 1%, mientras que en el nivel de .05 tal error es del 5%.

(iv) t-Distribución:

Cuando N es inferior a aproximadamente 30, es decir, cuando la muestra es pequeña, la distribución de muestreo se denomina "distribución t ".

La distribución t no difiere mucho de la normal a menos que N sea bastante pequeña. A medida que N aumenta en tamaño, la distribución t se acerca cada vez más a la forma normal.

Propiedades de la distribución t:

1. Parece una curva en forma de campana. Pero su distribución es más variable con cero sesgo y 'Ku' mayor que 3.

2. Es simétrico sobre la línea t = 0.

3. Es unimodal con ordenada máxima en t = 0.

4. Cuando N es pequeño, la distribución t se encuentra debajo de la curva normal, pero las colas o los extremos de la curva son más altos que las partes correspondientes de la curva normal.

5. Las unidades a lo largo de la línea de base de la distribución t son en realidad puntuaciones σ, es decir,

(v) Grados de Libertad (df):

El concepto de grados de libertad es muy importante en las estadísticas de pequeñas muestras. También es crucial, en el análisis de la varianza y en otros procedimientos. Grados de libertad significa libertad para variar.

Vamos a elegir cinco puntuaciones, cuya media será 15. Ahora, suponga que las cuatro puntuaciones son 18, 10, 20, 15. Para que la media sea igual a 15, la quinta puntuación debe ser 12. Tenemos, por supuesto, Libertad para elegir cualquiera de las cuatro puntuaciones.

Pero no tenemos libertad para elegir el quinto puntaje porque el quinto puntaje hace ajustes en la variación provocada por los primeros cuatro puntajes y con el supuesto de que la media será de 15. Aquí se impone el N = 5 y una restricción, es decir, el la media debe ser 15. Por lo tanto, el grado de libertad es N - 1 o 4.

Si tenemos 5 puntuaciones 5, 6, 7, 8 y 9, la media es 7; y las desviaciones de nuestras puntuaciones de 7 son - 2, - 1, 0, 1 y 2. La suma de estas desviaciones es cero. De las 5 desviaciones, solo 4 (N - 1) pueden seleccionarse "libremente" como la condición de que la suma igual a cero restringe inmediatamente el valor de la quinta desviación.

El SD ​​se basa, por supuesto, en los cuadrados de las desviaciones tomadas alrededor de la media. Hay N df para calcular la media, pero solo (N - 1) está disponible para la "S" (SD), ya que se pierde una df al calcular la media.

En otro ejemplo, donde N = 10, el df disponible para estimar el M pop se dio como 9 o (N - 1), es decir, uno menos que el número de observaciones, es decir, 10. Se pierde un df al calcular la M y, en consecuencia solo quedan 9 para estimar el pop M a través de 'S' y la distribución t.

Cuando se usa una estadística para estimar un parámetro, la regla es que el df disponible es igual a N menos el número de parámetros ya estimados a partir de la muestra. La M es una estimación de M pop y al calcularla perdemos 1 df .

Al estimar la fiabilidad de una r, por ejemplo (que depende de las desviaciones de dos medios), los df son (N - 2). En el caso de pruebas de chi-cuadrado y análisis de varianza, se siguen procedimientos separados para determinar el df .

(vi) Hipótesis nula:

La hipótesis nula es una herramienta útil para probar el significado de las diferencias. Esta hipótesis afirma que no hay una diferencia real entre dos medias poblacionales, y que la diferencia encontrada entre medias muestrales es, por lo tanto, accidental y sin importancia.

La hipótesis nula está relacionada con el principio legal de que "un hombre es inocente hasta que se demuestre que es culpable". Constituye un desafío y la función de un experimento es dar a los hechos la oportunidad de refutar (o no refutar) este desafío.

Para ilustrar, supongamos que se afirma que "los estándares de instrucción de las escuelas de un solo turno son mejores que las escuelas de doble turno". Esta hipótesis está vagamente establecida y no puede ser probada con precisión.

Si afirmamos que "las escuelas de un solo turno no producen mejores estándares de instrucción que las escuelas de doble turno" (la verdadera diferencia es cero). Esta hipótesis nula es exacta y puede ser probada. Si nuestra hipótesis nula no es imponible, debe ser rechazada. La declaración sin diferencias supone que los dos grupos se probarán y se considerará que son iguales.

La forma nula es preferida por la mayoría del personal investigador experimentado. Esta forma de declaración define más fácilmente el modelo matemático que se utilizará en la prueba estadística de hipótesis.

Una hipótesis nula nunca se prueba o refuta. Puede ser aceptado o rechazado con cierto grado de confianza (o en cierto nivel de importancia).

Antes de probar una hipótesis debemos tener en cuenta lo siguiente:

1. Si la muestra es grande o pequeña.

2. ¿Cuál es el nivel de significación?

3. Si la prueba es una prueba de dos colas o una prueba de una cola.

(vii) Errores al hacer inferencias:

Al aceptar o rechazar la hipótesis nula, existe la posibilidad de cometer dos tipos de errores y los investigadores deben tener en cuenta la lujuria.

Los errores de tipo I y tipo II pueden explicarse a continuación:

Errores de tipo I:

Dichos errores se cometen cuando rechazamos una hipótesis nula al marcar una diferencia significativa, aunque no hay una verdadera diferencia. Supongamos que la diferencia entre dos medias de población (M pop - M pop = 0) es en realidad cero. (Por ejemplo, se puede considerar que los niños y las niñas constituyen la misma población con respecto a la mayoría de las pruebas mentales). Si las pruebas de significancia de dos medias muestrales reflejan el hecho de que la diferencia en las medias poblacionales es significativa, cometemos un error de Tipo I.

Errores de tipo II:

Este tipo de errores se cometen cuando aceptamos una hipótesis nula al marcar una diferencia que no es significativa, aunque existe una diferencia real. Supongamos que hay una diferencia real entre las dos medias de población.

Si nuestra prueba de significancia aplicada a las dos medias de muestra nos lleva a creer que la diferencia en las medias de población no es significativa, cometemos un error de Tipo II.

Se pueden tomar varias precauciones para evitar ambos tipos de errores. Si configuramos un nivel de significación bajo (P es mayor que .05), aumentamos la probabilidad de errores de Tipo I; mientras que, si configuramos un alto nivel de significación (P es menor que .05), los errores de Tipo I serán menores. La posibilidad de extraer inferencias erróneas del tipo de Tipo II se ve aumentada cuando establecemos un nivel de significación muy alto.

(viii) Pruebas de significación de dos colas y de una cola:

En la hipótesis nula, las diferencias entre las medias obtenidas (es decir, M 1 - M 2 ) pueden ser más o menos. En la determinación de las probabilidades tomamos ambas colas de la distribución de muestreo.

(ix) Relación Crítica (CR):

La relación crítica (CR) se encuentra dividiendo la diferencia entre las medias de la muestra por su error estándar (CR = D / SE D ). Cuando las N de las muestras son grandes (30 o más son "grandes"), se sabe que la distribución de los CR es normal en torno a la diferencia real entre las medias de la población, t es una proporción crítica en la que una estimación más exacta de σ D se utiliza La distribución muestral de t no es normal cuando N es pequeño (menos de 30, por ejemplo), t es un CR; Pero todos los CR's no son t's.

Prueba de dos colas:

1. En la prueba de dos colas tomamos en consideración ambas colas de la curva normal.

2. En el caso de hipótesis alternativas sin colas, hacemos una prueba de dos colas.

3. Ejemplo:

Una prueba de interés se administra a ciertos niños en una vocacional. Clase de entrenamiento y para ciertos chicos en una clase de latín. ¿Es la diferencia de medias entre los dos grupos significativa en el nivel de .05?

4. La media de la muestra se desvía de M pop en cualquier dirección + o -.

5. H 0 : M 1 - M 2 = 0

H A : M 1 = M 2

6. Valor para ser significativo:

1.96 a nivel .05

2.58 a nivel .01

7. El área de rechazo se divide en ambos extremos (colas) de la curva normal (es decir, 05 en .025 y .025, 01 en .005 y .005).

Prueba de una cola:

1. Tenemos que tener en cuenta uno alto, es decir, en el lado izquierdo o derecho de la curva normal.

2. En el caso de una hipótesis alternativa direccional, hacemos una prueba de una cola a saber, M 1 > M 2 . En tal caso, la dirección es muy clara.

3. Ejemplo:

Diez sujetos reciben 5 pistas sucesivas en una prueba de símbolo de dígitos de la cual solo se muestran las puntuaciones de las rutas 1 y 5. ¿Es significativa la ganancia media desde la prueba inicial hasta la final?

4. La media muestral se desvía de la media poblacional en una dirección.

5. H 0 : M 1 = M 2

A : M 1 > M 2 o M 1 <m 2

6. Valor para ser significativo:

1.62 a nivel .05

2.33 a nivel .01

7. Hay un área de rechazo en la cola derecha de la distribución o la cola izquierda de la distribución.