Notas de estudio sobre la prueba de Chi-cuadrado

Este artículo proporciona una nota de estudio sobre la prueba de chi-cuadrado.

La prueba X 2 (letra griega X 2 pronunciada como Ki-cuadrado) es un método para evaluar si las frecuencias que se han observado empíricamente difieren significativamente de las que se esperaría bajo un cierto conjunto de supuestos teóricos. Por ejemplo, supongamos que las preferencias políticas y el lugar de residencia o natividad se han clasificado de forma cruzada y los datos se resumen en la siguiente tabla de contingencia 2 × 3.

En la tabla se ve que las proporciones de personas urbanas son 38/48 = 0.79, 20/46 = 0.34 y 12/18 = 0.67 (redondeado a dos decimales) para los tres partidos políticos en el país. Entonces nos gustaría saber si estas diferencias son estadísticamente significativas o no.

Para este fin, podemos proponer una hipótesis nula que asume que no hay diferencias entre los tres partidos políticos con respecto a la natividad. Esto significa que se debe esperar que las proporciones de la población urbana y rural sean las mismas para cada uno de los tres partidos políticos.

Sobre la base del supuesto de que la hipótesis nula es correcta, podemos calcular un conjunto de frecuencias que se esperaría dados estos totales marginales. En otras palabras, podemos calcular el número de personas que muestran preferencia por el partido del Congreso que esperaríamos sobre la base del supuesto anterior como urbanitas y comparar esta cifra con la observada realmente.

Si la hipótesis nula es cierta, podemos calcular una proporción común como:

38 + 20 + 12/48 + 46 + 18 = 70/112 = 0.625

Con esta proporción estimada, esperaríamos 48 x (0.625) = 30 personas afiliadas al Congreso, 46 x (0.625) = 28.75 personas afiliadas al Partido Janata y 18 x (0.625) = 11.25 personas afiliadas a Lok Dal de los 70 urbanitas Al restar estas cifras de las respectivas cifras observadas de los tamaños respectivos de las tres muestras, encontramos 48 - 30 = 18 afiliados al Congreso, 46 ​​- 28.75 = 17.25 afiliados a Janata y 18 - 11.25 = 6.25 personas afiliadas a Lok Dal de 42 personas de las zonas rurales.

Estos resultados se muestran en la siguiente tabla, donde las frecuencias esperadas son ar. se muestra entre paréntesis.

Para probar la estabilidad de la hipótesis nula, comparamos las frecuencias esperadas y observadas. La comparación se basa en la siguiente estadística de X 2 .

X 2 = Σ (O- E) 2 / E

donde O representa las frecuencias observadas y E para las frecuencias esperadas.

Grados de Libertad :

El número de grados de libertad significa el número de restricciones independientes impuestas sobre nosotros en una tabla de contingencia.

El siguiente ejemplo ilustrará el concepto:

Supongamos que los dos atributos A y B son independientes, en cuyo caso, el

la frecuencia esperada o la celda AB sería 40 × 30/60 = 20. Una vez que se identifica esto, las frecuencias de las tres celdas restantes se fijan automáticamente. Por lo tanto, para la celda, αB, la frecuencia esperada debe ser 40-20 = 20, de manera similar, para la celda AB debe ser 30-20 = 10 y para αB debe ser 10.

Esto significa que para la tabla 2 × 2 solo tenemos una opción, mientras que no tenemos libertad en las tres celdas restantes. Por lo tanto, los grados de libertad (df) se pueden calcular mediante la fórmula:

df - (c - 1) (r - 1)

donde df representa los grados de libertad, c para el número de columnas y r para el número de filas.

Así, en tabla 2 x 3 (tabla 18.54)

df = (3 - 1) (2 - 1) = 2 x 1 = 2

Nivel de significancia :

Como se dijo anteriormente, la prueba de chi-cuadrado se usa para examinar si la diferencia entre las frecuencias observadas y esperadas se debe a las fluctuaciones del muestreo y, como tal, insignificante o contraria, si la diferencia se debe a alguna otra razón y, como tal, significativa.

Antes de llegar a la conclusión de que la diferencia es significativa, los investigadores establecieron una hipótesis, a menudo denominada hipótesis nula (simbolizada como H o ) en contraste con la hipótesis de investigación (H 1 ) que se configura como una alternativa a H o .

Generalmente, aunque no siempre, la hipótesis nula establece que no hay diferencia entre varios grupos o ninguna relación entre las variables, mientras que una hipótesis de investigación puede predecir una relación positiva o negativa.

En otras palabras, la hipótesis nula asume que hay ausencia de errores de no muestreo y que la diferencia se debe solo al azar. Entonces se determina la probabilidad de que ocurra tal diferencia.

La probabilidad indica el grado de confianza que podemos depositar en la inferencia dibujada. Los valores de la tabla de chi-cuadrado están disponibles en varios niveles de probabilidad. Estos niveles son llamados niveles de significación. Podemos averiguar en la tabla los valores de chi-cuadrado en ciertos niveles de importancia.

Generalmente (en el problema de las ciencias sociales), el valor de chi cuadrado a 0.05 o .01 niveles de significación de los grados de libertad dados se ve en la tabla y se compara con el valor observado de chi cuadrado. Si el valor observado o y 1 es mayor que el valor de la tabla en 0.05, significa que la diferencia es significativa.

Grado de Libertad :

Para usar la prueba de chi-cuadrado, el siguiente paso es calcular los grados de libertad: supongamos que tenemos una tabla de contingencia de 2 x 2 como la de la Fig. 1.

Sabemos que la fila y la columna suman r t 1 y r t 2 - y c t 1 y c t 2 . El número de grados de libertad se puede definir como el número de valores de celda que podemos especificar libremente.

En la Fig. 1, una vez que especifiquemos el valor de la Fila 1 (indicado mediante la verificación en la figura), el segundo valor en esa fila y los valores de la segunda fila (indicados por X) ya están determinados; no tenemos la libertad de especificarlos porque conocemos los totales de fila y los totales de columna. Esto muestra que en una tabla de contingencia de 2 x 2 tenemos la libertad de especificar un solo valor.

Procedimiento :

Cálculo para Chi-cuadrado:

Chi-cuadrado como prueba de bondad de ajuste:

En la sección anterior usamos el chi-cuadrado como prueba de independencia; es decir, si aceptar o rechazar una hipótesis nula. Las pruebas x ~ también pueden usarse para decidir si hay una diferencia significativa entre una distribución de frecuencia observada y una distribución de frecuencia teórica.

De esta manera podemos determinar qué tan bueno es el ajuste de las frecuencias observadas y esperadas. Es decir, el ajuste se consideraría bueno si no hay una divergencia significativa entre los datos observados y esperados cuando la curva de las frecuencias observadas se superpone a la curva de las frecuencias esperadas.

Sin embargo, debemos recordar que incluso si las proporciones en las celdas no cambian, el valor de chi-cuadrado varía directamente con el número total de casos (N). Si duplicamos el número de casos, el valor de chi-cuadrado se duplica; si triplicamos el número de casos, también triplicamos chi-cuadrado y así sucesivamente.

Las implicaciones de este hecho se pueden ilustrar con un ejemplo que se presenta a continuación:

En el presente ejemplo, el valor de chi-cuadrado es 3.15. Sobre esta base, naturalmente inferiríamos que la relación no es significativa.

Ahora, supongamos que se han recopilado datos sobre 500 casos con los siguientes resultados:

El valor de Chi cuadrado como se calcula a partir de las cifras, ahora es 6.30, que es el doble del valor al que se llegó en el ejemplo anterior. El valor 6.30 es estadísticamente significativo. Si hubiéramos expresado los resultados en términos de porcentajes, no habría habido una diferencia en la interpretación.

Los ejemplos anteriores ilustran un punto muy importante, a saber, que el chi cuadrado es directamente proporcional a N. Por lo tanto, necesitaríamos una medida que no se vea afectada simplemente por un cambio en el número de casos. La medida phi (ǿ) proporciona esta facilidad, es decir, la propiedad que deseamos en nuestra medida. Esta medida es simplemente una relación entre el valor de chi-cuadrado y el total numérico de los casos estudiados.

La medida phi (ø) se define como:

Ø = √x 2 / n

es decir, la raíz cuadrada de chi-cuadrado dividida por el número de casos.

Por lo tanto, al aplicar esta fórmula a los dos ejemplos citados anteriormente, obtenemos, en el primer caso:

Por lo tanto, la medida ø a diferencia del chi-cuadrado, da el mismo resultado cuando las proporciones en las celdas comparables son idénticas.

G. Udny Yule ha propuesto otro coeficiente de asociación generalmente designado como "Q" (más conocido como Q de Yule) en el cual se mide la asociación? x 2 mesa. El coeficiente de asociación (Q) se obtiene al calcular la relación entre la diferencia y la suma de los productos cruzados de las celdas diagonales, si las celdas de la tabla 2 × 2 se designan como en la siguiente tabla:

ac- bc / ad + be

donde a, b, c y d se refieren a las frecuencias de celda.

El coeficiente de asociación Q varía entre menos uno y más uno (+1), ya que es menor o mayor que un anuncio. Q alcanza sus límites de +1 cuando cualquiera de las celdas es cero, es decir, la asociación está completa (la correlación es perfecta). Q es cero cuando las variables son independientes (es decir, cuando no hay asociación), es decir, cuando el anuncio. = ser y. Q = 0.

La aplicación de la fórmula anterior se ilustra en el siguiente ejemplo:

Calculemos el Coeficiente de Asociación de Yule entre el estado civil y el desempeño en el examen sobre la base de los datos presentados en la siguiente tabla:

Sustituyendo los valores anteriores en la fórmula de Yule:

Por lo tanto, existe una ligera asociación negativa entre el estado civil y el desempeño en el examen.

Podemos ver el problema desde otro punto de vista también.

El porcentaje de estudiantes casados ​​que fallaron es = 60 × 100/150 = 40.

El porcentaje de estudiantes solteros que fallaron es, = 100 × 100/350 = 28.57 (Aprox.)

Así, el 40 por ciento de los estudiantes casados ​​y casi el 29 por ciento de los estudiantes no casados ​​fallaron en el examen. Por lo tanto, el bajo rendimiento de los estudiantes puede atribuirse al estado civil.

Las inferencias causales pueden establecerse de manera muy segura en situaciones experimentales. Hemos considerado este problema cuando se trata de diseños experimentales. En ciencias sociales, es muy difícil establecer un experimento, por lo que la mayoría de los estudios no son experimentales. Sin embargo, se han ideado procedimientos analíticos para extraer inferencias sobre relaciones causales en estudios no experimentales.

En la medida en que la mayoría de las investigaciones sociales implican un estudio de las muestras extraídas de la "población" y tratan de extraer generalizaciones a esta "población", es necesario, en interés de la ciencia, saber en qué medida las generalizaciones así dibujadas son justificado.

Supongamos que, en un estudio sobre muestras de estudiantes hombres y mujeres, nuestros resultados muestran diferencias significativas entre las dos muestras en cuanto al número de horas que dedican a los estudios.

Podemos preguntarnos si las diferencias que se observan reflejan las verdaderas diferencias entre los estudiantes masculinos y femeninos o si las dos 'poblaciones' de estudiantes son similares en términos de las horas que dedican a los estudios, pero las muestras extraídas de estas 'poblaciones' para el estudio podría haber diferido en esta medida por "casualidad".

Se han diseñado varios procedimientos estadísticos que nos permiten responder a una pregunta de este tipo en términos de las declaraciones de probabilidad.

Cuando estamos comparando muestras o estudiando la diferencia entre los grupos experimentales y de control, normalmente deseamos probar algunas hipótesis sobre la naturaleza de la verdadera diferencia entre las "poblaciones" que se supone representan las muestras en estudio.

En ciencias sociales, generalmente nos preocupan las hipótesis relativamente crudas (por ejemplo, las estudiantes dedican más tiempo a sus estudios que los estudiantes varones).

Normalmente no estamos en posición de considerar hipótesis más específicas o exactas (por ejemplo, que especifican en términos exactos la diferencia entre las dos 'poblaciones'). Supongamos que nuestros datos muestran que la muestra de estudiantes mujeres dedica en promedio cuatro horas a los estudios, mientras que la muestra de estudiantes varones, solo dos horas.

Claramente, los hallazgos de nuestras muestras están en sintonía con la hipótesis, es decir, las estudiantes dedican más tiempo a sus estudios que sus homólogos masculinos. Pero siempre debemos tener en cuenta la posibilidad de que los hallazgos basados ​​en nuestras muestras pueden no ser exactamente los mismos que los que podríamos haber obtenido si hubiéramos estudiado dos 'poblaciones' en su totalidad.

Ahora, queremos estimar si todavía habríamos observado más tiempo dedicado a los estudios entre las alumnas, si hubiéramos estudiado la "población" total. Tal estimación es posible si probamos la 'hipótesis nula'.

La 'hipótesis nula' afirma que las 'poblaciones' no difieren en términos de las características en estudio. En este caso, una "hipótesis nula" indicaría que en la "población" más grande de estudiantes en su conjunto, los subgrupos de estudiantes femeninos y masculinos no difieren con respecto al tiempo que dedican a sus estudios.

Se han ideado varias técnicas estadísticas llamadas pruebas de significación, que nos ayudan a estimar la probabilidad de que nuestras dos muestras puedan haber diferido en la medida en que lo hacen, por casualidad, incluso si en realidad no hay diferencia entre las dos "poblaciones" correspondientes del hombre. y alumnas con respecto al tiempo dedicado a los estudios.

Entre los diversos métodos para evaluar la importancia, la decisión sobre qué método será apropiado para un estudio en particular depende de la naturaleza de las mediciones utilizadas y la distribución de las características (por ejemplo, horas de estudio, número de niños, expectativas salariales, etc.). ).

La mayoría de estas pruebas de importancia suponen que las mediciones constituyen una escala de intervalo y que la distribución de la característica se aproxima a una curva normal. En la investigación social, estas suposiciones rara vez corresponden a la realidad. Sin embargo, recientes desarrollos estadísticos han surgido con algún tipo de solución a esto, en forma de pruebas no paramétricas que no se basan en estas suposiciones.

Debemos tratar de comprender en este punto la razón por la cual la 'hipótesis nula' debe probarse cuando nuestro interés real es probar una hipótesis (hipótesis alternativa, como se llama) que establece que existe una diferencia entre las dos 'poblaciones' Representado por las muestras.

La razón es fácil de apreciar. Como no sabemos cuál es la imagen real en la "población", lo mejor que podemos hacer es hacer inferencias al respecto sobre la base de nuestra búsqueda de muestras.

Si estamos comparando dos muestras, existen, por supuesto, dos posibilidades:

(1) O bien, las poblaciones representadas por la muestra son iguales o

(2) Son diferentes.

Nuestras muestras de dos 'poblaciones' son diferentes con respecto a algunos atributos; Horas dedicadas a los estudios en nuestro ejemplo. Claramente, esto podría suceder si las dos 'poblaciones' que representan las muestras realmente difieran con respecto a dicho atributo.

Sin embargo, esto no constituye una evidencia definitiva de que estas 'poblaciones' difieran, ya que siempre existe la posibilidad de que las muestras no se correspondan exactamente con las 'poblaciones' que pretenden representar.

Por lo tanto, debemos dejar espacio para la posibilidad de que el elemento de azar que está involucrado en la selección de una muestra nos haya dado muestras que difieren entre sí, aunque las dos 'poblaciones' de las que se extraen no difieren de hecho.

La pregunta que podemos hacer, por lo tanto, es:

“¿Podríamos haber obtenido muestras que difieran entre sí en la medida en que lo hacen, incluso si las 'poblaciones' de las que se extraen no difirieron?” Esta es precisamente la pregunta que responde una 'hipótesis nula'.

La 'hipótesis nula' nos ayuda a estimar cuáles son las probabilidades de que las dos muestras que difieren en este sentido se hayan extraído de dos 'poblaciones' que de hecho son similares: ¿5 en 100? 1 en 100? o lo que sea.

Si la prueba estadística de significación sugiere que es improbable que dos muestras que difieran en este sentido se hayan extraído de "poblaciones" que de hecho sean similares, podemos concluir que las dos "poblaciones" probablemente difieran entre sí.

Un punto a tener en cuenta aquí es que todas las pruebas estadísticas de importancia y, por lo tanto, todas las generalizaciones de las muestras a las poblaciones se basan en el supuesto de que las muestras no se seleccionan de manera tal que el sesgo podría haber entrado en el proceso de extracción de las muestras.

En otras palabras, el supuesto es que la muestra que hemos seleccionado se ha extraído de tal manera que todos los casos o elementos en la "población" tenían una posibilidad igual o especificable de ser incluidos en la muestra.

Si esta suposición no está justificada, las pruebas de significación se vuelven sin sentido e inaplicables. En otras palabras, las pruebas de significación se aplican solo cuando se ha empleado el principio de probabilidad para seleccionar la muestra.

Para volver a nuestra ilustración, supongamos que nuestros hallazgos no muestran diferencias entre las dos muestras: lo que significa que tanto los estudiantes masculinos como los femeninos en nuestra muestra dedican el mismo tiempo a sus estudios.

¿Podemos decir entonces que las dos 'poblaciones' de estudiantes masculinos y femeninos son similares en términos de este atributo? Por supuesto, no podemos decir esto con certeza ya que existe la posibilidad de que las muestras puedan ser similares cuando las poblaciones realmente difieran.

Pero para volver al caso en que las dos muestras difieren, podemos afirmar que las dos poblaciones que representan probablemente difieren si podemos rechazar la "hipótesis nula"; es decir, si podemos demostrar que la diferencia entre las dos muestras es poco probable que aparezca si las "poblaciones" anteriores no difieren.

Pero, una vez más, existe la posibilidad de que podamos estar equivocados al rechazar la "hipótesis nula", ya que es en la naturaleza de la probabilidad que a veces ocurran eventos altamente improbables.

También tiene otro lado. Así como podemos estar equivocados al rechazar la "hipótesis nula", también es probable que podamos estar equivocados al aceptar la "hipótesis nula". Es decir, incluso si nuestra prueba estadística de significación indica que las diferencias en la muestra podrían haber surgido fácilmente por casualidad, aunque las "poblaciones" son similares, puede ser cierto que las "poblaciones" difieren de hecho.

En otras palabras, siempre nos enfrentamos con el riesgo de cometer cualquiera de los dos tipos de error:

(1) Podemos rechazar la 'hipótesis nula' cuando en realidad es cierta,

(2) Podemos aceptar la 'hipótesis nula' cuando en realidad es falsa.

El primer tipo de error, podemos llamar el error de tipo I. Esto consiste en inferir que las dos 'poblaciones' difieren cuando en realidad son iguales.

El segundo tipo de error puede llamarse error de Tipo II. Esto consiste en inferir que las dos 'poblaciones' son iguales cuando en realidad difieren.

El riesgo de cometer el error de Tipo I está determinado por el nivel de importancia que estamos dispuestos a aceptar en nuestras pruebas estadísticas, por ejemplo, 0.05, 0.01, 0.001, etc. (es decir, 5 en 100, 1 en 100 y 1 en 1000). Por lo tanto, si decidimos, por ejemplo, que las poblaciones realmente difieran cada vez que una prueba de significación muestre que se esperaría que la diferencia entre las dos muestras ocurra por casualidad no más de 5 veces en 100.

Esto significa que si las dos 'poblaciones' representadas por la muestra fueran de hecho similares (en términos de un determinado atributo), entonces estamos aceptando 5 posibilidades en 100 de que estaremos equivocados al rechazar la 'hipótesis nula'. Por supuesto, podemos minimizar el riesgo de cometer un error de Tipo I haciendo que nuestro criterio para rechazar la hipótesis nula sea más estricto y estricto.

Podemos, por ejemplo, decidir el nivel de significación en 0.01, es decir, rechazaríamos la 'hipótesis nula' solo si la prueba muestra que la diferencia en las dos 'muestras' podría haber aparecido por casualidad solo una vez en cien.

En esencia, lo que estamos diciendo es que rechazaremos la 'hipótesis nula' si la prueba muestra que de cada cien muestras de un tamaño designado seleccionado de las 'poblaciones' respectivas empleando el principio de probabilidad, solo una muestra mostrará la diferencia en términos de los atributos en la medida en que esto se ve en las dos muestras en estudio.

El criterio para rechazar la "hipótesis nula" se puede hacer aún más estricto al elevar aún más el nivel de importancia. Pero la dificultad aquí es que los errores de Tipo I y Tipo II están tan relacionados entre sí que cuanto más nos protegemos contra un error de Tipo I, más vulnerables somos a cometer un error de Tipo II.

Una vez determinado el grado de riesgo del error de tipo I que estamos dispuestos a ejecutar, la única forma de reducir la posibilidad de error de tipo II es tomar muestras más grandes y utilizar pruebas estadísticas que aprovechen al máximo la información relevante disponible.

La situación con respecto al error de Tipo II se puede ilustrar de manera muy precisa mediante una "curva característica de apertura". El comportamiento de esta curva depende de qué tan grande es la muestra. Cuanto más grande sea la muestra, menos probable es que aceptemos una hipótesis que sugiere un estado de cosas que está muy lejos del estado de realidad.

En la medida en que la relación entre los errores Tipo I y Tipo II es inversa, es necesario lograr un equilibrio razonable entre los dos tipos de riesgo.

En ciencias sociales, casi se ha convertido en una práctica o convención establecida para rechazar la 'hipótesis nula' cuando la prueba indica que la diferencia entre las muestras no se produciría por casualidad más de 5 veces de cada 100. Pero las convenciones son útiles cuando existen No hay otra guía razonable.

El investigador debe tomar la decisión sobre cómo debe lograrse el equilibrio entre los dos tipos de error. En algunos casos, es más importante estar seguro de rechazar una hipótesis cuando es falsa que no aceptarla cuando es verdadera. En otros casos lo contrario puede ser cierto.

Por ejemplo, en ciertos países, se considera más importante rechazar una hipótesis de culpabilidad cuando es falsa que no aceptar esta hipótesis cuando es verdadera, es decir, se considera que una persona no es culpable siempre que haya una duda razonable. sobre su culpa. En algunos otros países, una persona acusada de un delito es considerada culpable hasta el momento en que haya demostrado su falta de culpa.

En muchas investigaciones, por supuesto, no hay una base clara para decidir si un error Tipo I o Tipo II sería más costoso y, por lo tanto, el investigador hace uso del nivel convencional para determinar la significación estadística. Pero, puede haber algunos estudios en los que un tipo de error sería claramente más costoso y perjudicial que el otro.

Supongamos que, en una organización, se ha sugerido que un nuevo método de división del trabajo sería más efectivo y también se supone que este método requeriría muchos gastos.

Si un experimento constituido por dos grupos de personal, uno que opera como grupo experimental y otro como grupo de control, se configura para probar si el nuevo método es realmente beneficioso para los objetivos de la organización y si se anticipa que el nuevo método implicaría muchos gastos, la organización no querría adoptarlo a menos que hubiera una seguridad considerable de su superioridad.

En otras palabras, sería caro cometer un error de Tipo 1, es decir, concluir que el nuevo método es mejor cuando, de hecho, no es así.

Si el nuevo método implicara gastos casi iguales a los del método anterior, entonces el error de tipo II sería indeseable y más dañino, ya que puede llevar a la falla de la administración a adoptar el nuevo método cuando de hecho es superior y como tal tiene beneficios a largo plazo en la tienda para la organización.

Cualquier generalización de la muestra a la "población" es simplemente una declaración de probabilidad estadística. Digamos que hemos decidido trabajar con un nivel de significancia de 0.05. Esto significa que rechazaremos la 'hipótesis nula' solo si se puede esperar que la diferencia muestral de la magnitud que hemos observado ocurra por casualidad no más de 5 veces en 100.

Por supuesto, aceptaremos la 'hipótesis nula' si se puede esperar que tal diferencia ocurra por casualidad más de 5 veces de cada 100. Ahora la pregunta es: ¿nuestro hallazgo representa una de esas 5 veces cuando tal diferencia podría tener? aparecido por casualidad?

Esta pregunta no puede responderse definitivamente sobre la base de un hallazgo aislado. Sin embargo, es posible que podamos decir algo al respecto cuando examinemos los patrones dentro de nuestros hallazgos.

Supongamos que estamos interesados ​​en probar los efectos de una película sobre las actitudes hacia un programa gubernamental en particular, por ejemplo, la planificación familiar. Hemos de decir, que hemos tenido mucho cuidado para mantener al máximo las condiciones deseadas para la experimentación.

Ahora supongamos que usamos como una medida de las actitudes hacia el programa, solo un elemento, a saber, la actitud hacia el espaciamiento de los niños y encontramos que los que vieron la película se inclinan más favorablemente hacia este tema que los que no vieron la película.

Supongamos ahora que la prueba estadística muestra que la diferencia no habría aparecido por casualidad debido a las fluctuaciones de muestreo aleatorio más de una vez en veinte. Lógicamente, también significa que podría haber aparecido por casualidad una vez en veinte (o 5 veces en 100). Como hemos señalado, no tenemos una forma definitiva de saber si nuestra muestra es una de las cinco en 100. Ahora, ¿qué podemos hacer mejor?

Digamos que hemos hecho 40 preguntas diferentes a los encuestados, que son indicadores razonables de la actitud hacia el programa gubernamental de bienestar familiar. Si utilizamos un nivel de confianza del 5% y si formulamos 100 preguntas, podemos esperar encontrar diferencias estadísticamente significativas atribuibles al azar en 5 de ellas.

Por lo tanto, de nuestras 40 preguntas sobre diversos ítems, podemos esperar encontrar diferencias estadísticamente significativas en 2 de ellas. Pero, supongamos que en realidad encontramos que en 25 de 40 preguntas sobre aquellos que vieron la película tenían actitudes más favorables en comparación con aquellos que no vieron la película.

Podemos, siendo este el caso, sentirnos mucho más seguros al concluir que hay una verdadera diferencia en las actitudes (aunque la prueba estadística indica que la diferencia pudo haber surgido por casualidad en cada pregunta 5 veces en 100).

Ahora supongamos que de las 40 preguntas, las respuestas a una sola, es decir, sobre el espaciamiento de los niños, mostraron una diferencia estadísticamente significativa entre los dos grupos expuestos a la película y los que no lo son). Esta diferencia podría haber ocurrido por casualidad.

Por otro lado, puede ser que el contenido de la película realmente influyera en las opiniones sobre este punto, pero no sobre ninguna otra (como la relacionada con las operaciones de esterilidad). Pero a menos que nuestra hipótesis haya predicho específicamente de antemano que la película afectaría más las actitudes hacia el espaciamiento de los niños que las actitudes hacia cualquiera de las otras 39 preguntas, no estamos justificados para hacer esta interpretación.

Tal interpretación, es decir, una invocada para explicar los hallazgos después de que surjan, se conoce como la interpretación 'post-factum', porque implica explicaciones proporcionadas para justificar los hallazgos cualesquiera que sean. Depende del ingenio del investigador, en cuanto a qué explicación puede inventar para justificar estos hallazgos. Él puede, por lo tanto, justificar incluso los hallazgos opuestos.

Merton ha señalado muy lúcidamente que las interpretaciones post-factum están diseñadas para "explicar" las observaciones. El método de explicación post-factum es completamente flexible. Si el investigador encuentra que los desempleados tienden a leer menos libros que antes, esto puede ser "explicado" por la hipótesis de que la ansiedad que resulta del desempleo afecta la concentración y la lectura se vuelve difícil.

Sin embargo, si se observa que los desempleados leen más libros que antes (cuando están en el empleo), se puede invocar una nueva explicación post-factum; La explicación es que los desempleados tienen más tiempo libre y, por lo tanto, leen más libros.

La prueba crítica sobre una relación obtenida (entre las variables) no es la justificación post-factum ni su explicación; es más bien la capacidad de predecirlo o predecir otras relaciones sobre la base de ello. Por lo tanto, nuestro hallazgo previamente impredecible de una diferencia en las actitudes hacia el espaciamiento de los niños, aunque es estadísticamente significativo, no puede considerarse como lo establece el estudio que hemos realizado.

Dado que, las declaraciones estadísticas son declaraciones de probabilidad, nunca podemos confiar totalmente en la evidencia estadística sola para decidir si aceptaremos o no una hipótesis como verdadera.

La confianza en la interpretación de un resultado de investigación requiere no solo una confianza estadística en la confiabilidad del hallazgo (es decir, que las diferencias probablemente no hayan ocurrido por casualidad), sino además, cierta evidencia sobre la validez de las presuposiciones de la investigación.

Esta evidencia es necesariamente indirecta. Proviene de la congruencia de los hallazgos de la investigación con otros conocimientos que han resistido la prueba del tiempo y, por lo tanto, sobre los cuales existe una seguridad considerable.

Incluso en la investigación más rigurosamente controlada, el establecimiento de confianza en la interpretación de los resultados de uno o en la imputación de relaciones causales requiere la replicación de la investigación y la relación de los hallazgos con los de otros estudios.

Es necesario tener en cuenta que incluso cuando las pruebas estadísticas y los hallazgos de varios estudios sugieren que efectivamente existe una diferencia consistente entre dos grupos o una relación consistente entre dos variables, esto todavía no constituye la evidencia de la razón de la relación.

Si queremos obtener inferencias causales (por ejemplo, X produce Y), debemos cumplir con los supuestos por encima de los requeridos para establecer la existencia de una relación. También es digno de notar que un resultado no es social o psicológicamente significativo solo porque es estadísticamente significativo. Muchas diferencias estadísticamente significativas pueden ser triviales en el lenguaje social práctico.

Por ejemplo, una diferencia promedio de menos de un punto de CI entre la población urbana y rural puede ser estadísticamente significativa, pero no tanto en la vida cotidiana práctica. Por el contrario, hay casos en que una diferencia pequeña pero confiable tiene un gran significado práctico.

En una encuesta a gran escala, por ejemplo, una diferencia de la mitad o el uno por ciento puede representar a cientos de miles de personas y la conciencia de la diferencia puede ser importante para decisiones políticas importantes. Por lo tanto, el investigador, además de preocuparse por la importancia estadística de sus hallazgos, también debe preocuparse por sus significados sociales y psicológicos.

Inferir relaciones causales:

Debido a dificultades obvias, tales diseños experimentales rígidos rara vez se pueden elaborar en investigaciones científicas sociales. La mayoría de las consultas en ciencias sociales no son de carácter experimental.

En tales estudios, existen ciertos obstáculos empíricos para determinar si una relación entre variables es causal o no. Se ha mencionado repetidamente que una de las tareas más difíciles en el análisis de datos de comportamiento social es el establecimiento de relaciones de causa y efecto.

Una situación problemática debe su origen y el proceso de convertirse, no solo a un factor, sino a un complejo de una variedad de factores y secuencias.

El proceso de desenredar estos elementos plantea un desafío importante para la imaginación sociológica y pone a prueba la habilidad de los investigadores. Es peligroso seguir una explicación de "una vía" que lleva a la causa. Es imperativo buscar una batería completa de factores causales que, en general, desempeñan un papel importante en situaciones sociales complejas.

Como Karl Pearson observa acertadamente, “ningún fenómeno o etapa en secuencia tiene una sola causa; todas las etapas precedentes son causas sucesivas; "Cuando declaramos científicamente las causas, realmente estamos describiendo las etapas sucesivas de una rutina de experiencia".

Yule y Kendall han reconocido el hecho de que las estadísticas "deben aceptarse para el análisis, los datos están sujetos a la influencia de una gran cantidad de causas y deben tratar de descubrir a partir de los datos en sí mismos cuáles son las causas importantes y la cantidad del efecto observado se debe a El funcionamiento de cada uno. "

Paul Lazarsfeld ha trazado las fases involucradas en la técnica que él llama "discernimiento". Aboga por su uso en la determinación de relaciones causales entre variables. Lazarsfeld establece este procedimiento:

(a) Verificando un supuesto incidente como en:

In order to verify this occurrence, it is necessary to ascertain if the person has actually experienced the alleged situations. If so, how does the occurrence manifest itself and under what conditions, in his immediate life?

What reasons are advanced for the belief that there is a specific interconnection between two variables, eg, loss of employment and loss of authority? How correct is the person's reasoning in this particular instance?

(b) Attempting to discover whether the alleged condition is consistent with objective facts of the past life of this person.

(c)Testing all possible explanation for the observed condition.

(d) Ruling out those explanations which are not in accord with the pattern of happenings.

It is quite understandable that most difficulties or obstacles to establishing causal relationships afflict non-experimental studies most sharply. In non-experimental studies where the interest is in establishing causal relationships among two variables, the investigator must find substitutes for safeguards that are patently built into the experimental studies.

Many of these safeguards enter at the time of planning data- collection, in the form of providing for the gathering of information about a number of variables that might well be the alternative conditions for producing the hypothesized effect.

By introducing such additional variables into the analysis, the researcher approximates some of the controls that are inherent in experiments. Nevertheless, the drawing of inferences of causality does always remain somewhat hazardous in non-experimental studies.

We shall now discuss some of the problems and the strategies to overcome them, relating to drawing inferences about causality in non-experimental studies. If a non-experimental study points to a relationship or association between two variables, say X and Y, and if the research interest is in causal relationships rather than in the simple fact of association among variables, the analysis has taken only its first step.

The researcher must further consider (besides association between X and Y) whether Y (effect) might have occurred before X (the hypothesized cause), in which case Y cannot be the effect of X.

In addition to this consideration, the researcher must ponder over the issue whether factors other than X (the hypothesized cause) may have produced Y (the hypothesized effect). This is generally taken care of by introducing additional variables into the analysis and examining how the relation between X and Y is affected by these further variables.

If the relationship between X and Y persists even when other presumably effective and possibly alternative variables are introduced, the hypothesis that X is the cause of Y remains tenable.

For example, if the relation between eating a particular seasonal fruit (X) and cold (Y) does not change even when other variables such as age, temperature, state of digestion, etc., are introduced into the analysis, we may accept the hypothesis that X leads to Y as tenable.

But it is possible in no small number of cases that the introduction of other additional variables may change the relationship between X and Y. It may reduce to totally eliminate the relationship between X and Y or it may enhance the relationship in one group and reduce it in another.

If the relationship between X (eating of seasonal fruit) and Y (cold) is enhanced in a sub-group characterized by Z (bad state of digestion) and reduced in sub-group not characterized by Z (normal state of digestion), we may conclude that Z is the contingent condition for the relationship between X and Y.

This means, in other words, that we have been able to specify condition (Z) under which the relation between X and Y holds. Now if introduction of Z in the analysis reduces or totally eliminates the relationship between X and Y, we shall be safe in concluding either that X is not a producer of Y, that is, the relation between X and Y is 'spurious' or that we have traced the process by which X leads to Y (ie, through Z).

Let us turn to consider the situation in which we can legitimately conclude that the relation between X and Y is spurious.

An apparent relationship between two variables X and Y is said to be spurious if their concomitant variation stems not from a connection between them but from the fact that each of them (X and Y) is related to some third variable (Z) or a combination of variables that does not serve as a link in the process by which X leads to Y.

The situation characterizing spurious relationship may be diagrammed as under:

The objective here is to determine the cause of Y, the dependent variable (let us say, the monetary expectation by college graduates). The relationship (broken line) between X the independent variable (let us say, the grades obtained by students) and the monetary expectation of graduates (Y) has been observed in the course of the analysis of data.

Another variable (Z) is introduced to see how the relation between X and Y behaves with the entry of this third factor. Z is the third factor (let us say, the income-level of the parents of students). We find that the introduction of this factor reduces the relationship between X and Y.

That is, it is found that the relation between higher grade in the examination and higher monetary expectations does not hold itself up, but is considerably reduced when we introduce the third variable, ie, the level of parents' income.

Such an introduction of Z brings to light the fact that not X but Z may probably be a determining factor of Y. So the relationship between X and Y (shown in the diagram by a dotted line) is a spurious one, whereas the relation between Z and Y is a real one. Let us illustrate this with the help of hypothetical data.

Suppose, in the course of the analysis of data in a study, it was seen that there is a significant correlation between the grades or divisions (I, II, III) that students secured in the examination and the salary they expect for a job that they might be appointed to.

It was seen, for instance, that generally the first divisioners among students expected a higher remuneration compared to the second divisioners and the second divisioners expected more compared to the third divisioners.

The following table illustrates the hypothetical state of affairs:

It is clearly seen from the table that there is a basis for hypothesizing that the grades of the students determine their expectations about salaries. Now, let us suppose that the researcher somehow hits upon the idea that the income-level of the parents (X) could be one of the important variables determining or influencing the students' expectations about salaries (Y). Thus, Z is introduced into the analysis.

Suppose, the following table represents the relationship among the variables:

Nota:

HML in the horizontal row, dividing each category of the students' grades, stand respectively for high parental level of income, moderate parental level of income and low parental level of income. The above table clearly shows that the relation between X and Y has become less significant compared to the relation between Z and Y. '

To get a clearer picture, let us see the following table (a version of Table B omitting the categories of X) showing the relationship between Z and, ie, parental income level and students' monetary expectations:

We can very clearly see from the table that, irrespective of their grades, the students' monetary expectations are very strongly affected by the parental levels of income (Z).

We see that an overwhelming number of students (ie, 91.5%) having high monetary expectations are from the high parental income group, 92% having moderate monetary expectations are from moderate parental income group and lastly, 97% having low monetary expectations are from the low parental income group.

Comparing this picture with the picture represented by Table A, we may say that the relation between X and Y is spurious, that is, the grade of the students did not primarily determine the level of the monetary expectations of the students.

It is noted in Table A that students getting a higher grade show a significant tendency toward higher monetary expectations whereas the lower grade students have a very marked concentration in the lower monetary expectation bracket.

But when we introduce the third variable of parental income, the emerging picture becomes clear enough to warrant the conclusion that the real factor responsible differential levels of monetary expectations is the level of parental income.

En la Tabla C, vemos una concentración muy fuerte y formidable de casos de estudiantes que corresponden a las tres combinaciones mencionadas, a saber, de mayores expectativas monetarias y mayores ingresos de los padres, de moderadas expectativas monetarias y moderados de los ingresos de los padres y de menores expectativas monetarias y menor ingreso de los padres, es decir, 5%, 92.1% y 1% respectivamente.

Rastreo del proceso involucrado y una relación entre variables: como se indicó anteriormente, si un tercer factor Z reduce o elimina la relación entre la variable independiente X y la variable dependiente Y, podemos concluir que la relación entre X e Y es falsa, o que hemos podido rastrear el proceso mediante el cual X conduce a Y.

Ahora consideraremos las circunstancias que justificarían la conclusión de que el proceso de relación entre X e Y se ha rastreado a través de un tercer factor Z.

Supongamos que, en un estudio, los investigadores encontraron que las comunidades más pequeñas tenían un puntaje promedio de intimidad más alto, siendo el puntaje de intimidad una medida de la intimidad de asociación entre los miembros de una comunidad mediante el uso de una escala de intimidad.

Supongamos que también encontraron que las comunidades de tamaño mediano tenían una puntuación de intimidad menor en comparación con las comunidades de tamaño pequeño y las comunidades de tamaño grande tenían la puntuación de intimidad media menor. Tal hallazgo sugiere que el tamaño de la comunidad determina la intimidad de la asociación entre los miembros de la comunidad.

En otras palabras, las observaciones justifican la conclusión de que los miembros que viven en una comunidad pequeña tienen una mayor intimidad de asociación, mientras que las comunidades de gran tamaño se caracterizan por una menor intimidad de asociación entre los miembros.

La siguiente tabla presenta los datos hipotéticos:

En la segunda columna de la tabla, se muestran las muestras correspondientes a cada una de las comunidades.

En la segunda columna de la tabla, se muestran las muestras correspondientes a cada una de las comunidades. En la columna 3, se muestran los puntajes promedio de intimidad correspondientes a los tipos de comunidades calculados sobre la base de las respuestas dadas a ciertos ítems en una escala relacionada con las asociaciones diarias entre los miembros.

En la tabla se ve que los puntajes promedio de intimidad varían inversamente con el tamaño de la comunidad, es decir, cuanto menor sea el tamaño, mayor será el puntaje de intimidad y, a la inversa, mayor será el tamaño, menor será el puntaje de intimidad.

Supongamos ahora que los investigadores tuvieron la idea de que los tres tipos de comunidades diferirían en términos de las oportunidades que ofrecen para la interacción entre los miembros, en la medida en que los arreglos de vivienda, los patrones residenciales, las utilidades compartidas comúnmente, etc., promoverían dicha asociación.

Por lo tanto, los investigadores introducirían el tercer factor en el análisis del potencial de interacción, es decir, en la medida en que las circunstancias en que viven las personas es probable que brinden oportunidades para la interacción entre ellas.

Para verificar la hipótesis de que fue en gran parte a través de las diferencias en los patrones residenciales, los arreglos de vivienda, los servicios compartidos, etc., que los tres tipos de comunidades produjeron diferencias en la interacción entre los miembros de una comunidad, los investigadores considerarán el tamaño de la comunidad y Interacción-potencial conjuntamente en relación con el puntaje promedio de intimidad.

El potencial de infracción es, pues, la tercera variable Z introducida en el análisis. El potencial de interacción se clasifica, digamos, en un potencial de interacción medio (b) potencial de interacción medio, y (c) potencial de interacción alto.

La siguiente tabla representa los datos hipotéticos:

Al leer a través de las filas de la tabla, vemos que el potencial de interacción está fuertemente relacionado con la puntuación de intimidad de los miembros de la comunidad, independientemente del tamaño de la comunidad.

Es decir, ya sea que consideremos la fila para las comunidades de tamaño pequeño, para las comunidades de tamaño medio o para las comunidades de tamaño grande, en cada caso hay un aumento en el puntaje promedio de intimidad con un aumento en el potencial de interacción. Además, al leer las entradas a lo largo de las filas, queda claro que el tamaño de la comunidad y el potencial de interacción tienen una correlación significativa.

Por ejemplo, aproximadamente dos tercios de los encuestados en una comunidad pequeña viven en condiciones de alto potencial de interacción; También encontramos que una proporción mucho menor de los residentes de la comunidad de tamaño moderado viven en condiciones de alto potencial de interacción y una proporción muy pequeña de los residentes de la comunidad de gran tamaño en condiciones de alto potencial de interacción.

Ahora, leemos las puntuaciones de intimidad en las columnas solo para descubrir que la relación entre el tipo de comunidad y la intimidad de asociación se ha reducido considerablemente. De hecho, para las personas que viven en condiciones de alto potencial de interacción, no se obtiene una relación definida entre el tamaño de la comunidad y la puntuación de intimidad.

De este conjunto de relaciones, los investigadores pueden concluir que la relación inversa entre el tamaño de la comunidad y el puntaje de intimidad es buena, pero que una de las formas principales en que un tipo particular de comunidad fomenta la intimidad entre sus miembros es ofrecer Oportunidades que aumentan la tasa de interacción entre ellos.

En otras palabras, las comunidades de pequeño tamaño se caracterizan por un puntaje promedio de intimidad más alto porque su pequeño tamaño proporciona un entorno para muchas oportunidades para un alto grado de interacción entre los miembros. Las comunidades de gran tamaño, por otro lado, se caracterizan por un puntaje de intimidad relativamente más bajo.

Pero el puntaje de intimidad más bajo no es atribuible al tamaño de la comunidad en sí, sino al hecho de que una comunidad de gran tamaño no puede ofrecer oportunidades para una mayor interacción entre los miembros como lo hacen las comunidades de pequeño tamaño.

Por lo tanto, los investigadores, en lugar de concluir que la relación entre el tamaño de la comunidad y el puntaje promedio de intimidad entre los miembros es falsa, podrían concluir que han podido rastrear el proceso mediante el cual X (es decir, el tipo de comunidad) influye en Y (La puntuación de la intimidad).

El primero justificaba la conclusión de que la relación entre las variables X e Y era falsa y el segundo la conclusión de que el proceso de X a Y se puede rastrear a través de Z (X a Z a Y). En ambos casos, la introducción de una tercera variable Z redujo o eliminó la relación entre ellas (X e Y).

Una diferencia puede, sin embargo, ser notada. En el primer ejemplo, la variable Z (es decir, el nivel de ingresos de los padres) fue claramente anterior a las otras dos variables (grado de los estudiantes en el examen y expectativas monetarias de los estudiantes).

En el segundo ejemplo, la tercera variable Z (potencial de interacción proporcionada por las comunidades) no ocurrió antes de la variable causal supuesta (tamaño de la comunidad). Fue concurrente con él y podría pensarse que comenzaría después de él.

La secuencia temporal de las variables, por lo tanto, es una consideración importante para decidir si una relación causal aparente es falsa. Es decir, si la tercera variable Z, que elimina o elimina la relación entre las variables originalmente relacionadas X e Y, generalmente concluimos que la relación causal aparente entre las variables X e Y es falsa.

Pero si se sabe o se supone que la tercera variable Z ocurrió al mismo tiempo que X o después de X, puede ser para concluir que el proceso por el cual X lleva a Y ha sido rastreado. Por lo tanto, para tener cierta medida de La confianza en la relación causal inferida de estudios que no son de carácter experimental, es necesario someterlos a la prueba crítica de eliminar las otras variables posiblemente relevantes.

Por esta razón, es importante recopilar en el curso del estudio, datos sobre variables posiblemente influyentes distintas de aquellas con las cuales la hipótesis del estudio está relacionada de manera central.

Se señaló anteriormente que la introducción de una tercera variable en el análisis puede tener el efecto de intensificar la relación dentro de un subgrupo y de reducir la misma en otro subgrupo. Si es así, decimos que hemos especificado una condición (Z) en la que se cumple la relación entre X e Y.

Ilustremos ahora el proceso de especificación. Supongamos que, en un estudio comunitario, identificamos una relación entre los ingresos y el nivel educativo.

Esto se muestra en la siguiente tabla:

Vemos en la tabla que la relación entre educación e ingresos es bastante marcada. A mayor nivel educativo, generalmente, mayor porcentaje de casos que ganan un ingreso anual de Rs. 5.000 / y más. Sin embargo, podemos decidir que la relación requiere una especificación adicional.

Es decir, podemos desear saber más sobre las condiciones bajo las cuales se obtiene esta relación. Supongamos que el pensamiento nos sorprende de que el hecho de que los encuestados viven en comunidades urbanas e industriales podría afectar positivamente las ventajas de la educación para el empleo remunerado y, por lo tanto, su reflejo en los ingresos.

En este supuesto, introducimos el tercer factor Z, es decir, los encuestados que viven en la comunidad industrial urbana y los que viven en la comunidad rural no industrial, en el análisis y vemos cómo afecta la relación inicial entre X e Y ( es decir, educación e ingresos).

Supongamos que obtenemos una imagen como se muestra en la siguiente tabla:

Podemos ver claramente que la Tabla B refleja una relación muy diferente entre el ingreso y la educación para las personas que viven en la comunidad rural-no industrial en comparación con la de aquellos que viven en la comunidad urbana-industrial. Vemos que para aquellos que viven en las ciudades industriales, la relación entre educación e ingresos es algo más alta que la relación original.

Pero, para aquellos que viven en comunidades rurales no industriales, la relación en la tabla anterior es considerablemente más baja que la relación inicial.

Por lo tanto, la introducción del tercer factor y el desglose de la relación original sobre la base del tercer factor (Z) ha ayudado a especificar una condición bajo la cual la relación entre X e Y es más pronunciada como también la condición bajo la cual La relación es menos pronunciada.

De manera similar, supongamos que, en el curso de un estudio, las personas que pertenecen a la categoría de ingresos más altos generalmente tienen menos niños en comparación con los de la categoría de ingresos más bajos. Supongamos que creemos (sobre la base de una orientación teórica) que el factor de la ciudad podría ser importante para afectar la relación.

Al introducir este factor, supongamos que encontramos que la relación original entre el nivel de ingresos y el número de niños se hace más pronunciada en la ciudad y que se vuelve menos pronunciada entre la población rural, que una condición Z (es decir, la ciudad que vive). ) bajo la cual la relación se vuelve decisivamente realzada o pronunciada.

Interpretando los hallazgos de un estudio:

Hasta el momento, nos hemos preocupado principalmente por los procedimientos que juntos comprenden, lo que llamamos habitualmente, el análisis de datos. Sin embargo, la tarea del investigador es incompleta si se detiene presentando sus hallazgos en forma de generalizaciones empíricas a las que puede llegar a través del análisis de datos.

Un investigador que, por ejemplo, termina su ejercicio de investigación simplemente al afirmar que "las personas no casadas tienen una mayor incidencia de suicidio en comparación con las personas casadas" apenas cumple con su obligación general con la ciencia, aunque la generalización empírica que ha expuesto tiene algún valor por sí mismo.

El investigador en el mayor interés de la ciencia también debe tratar de mostrar que su observación apunta a ciertas relaciones y procesos subyacentes que inicialmente están ocultos a la vista. En otras palabras, el investigador debe demostrar que su observación tiene un significado, mucho más amplio y profundo, que el que parece tener en la superficie.

Para volver a nuestro ejemplo de suicidio, el investigador debe poder demostrar que su observación de que "las personas no casadas se caracterizan por el suicidio" refleja, de hecho, la relación más profunda entre la cohesión social y la tasa de suicidio (teoría de Durkheim).

Una vez que el investigador puede exponer las relaciones y los procesos que subyacen a sus hallazgos concretos, puede establecer relaciones abstractas entre sus hallazgos y otros.

En esencia, entonces, el trabajo del investigador va más allá de la recopilación y análisis de datos. Su tarea se extiende a la interpretación de los resultados de su estudio. Es a través de la interpretación que el investigador puede entender el significado real de sus hallazgos, es decir, puede apreciar por qué los hallazgos son lo que son.

Como se dijo anteriormente, la interpretación es la búsqueda de significados más amplios y abstractos de los hallazgos de la investigación. Esta búsqueda implica ver los resultados de la investigación a la luz de otros conocimientos establecidos, una teoría o un principio. Esta búsqueda tiene dos aspectos principales.

El primer aspecto implica el esfuerzo por establecer una continuidad en la investigación mediante la vinculación de los resultados de un estudio dado con los de otro. Es a través de la interpretación que el investigador puede desentrañar o comprender el principio abstracto debajo de las observaciones empíricas concretas.

Habiéndose discernido este denominador común abstracto, el investigador puede proceder fácilmente a vincular sus hallazgos con los de otros estudios realizados en diversos entornos, diversos en cuestiones de detalle pero que reflejan el mismo principio abstracto en el nivel de los hallazgos.

No hace falta decir que el investigador puede, sobre la base del reconocimiento del principio teórico abstracto que subyace a su descubrimiento, hacer varias predicciones sobre el mundo concreto de los acontecimientos que no están relacionadas, aparentemente, con el área de sus hallazgos. Por lo tanto, se pueden desencadenar nuevas consultas para probar predicciones y, comprensiblemente, dichos estudios tendrían una relación con el estudio inicial del investigador.

En un sentido algo diferente, la interpretación está necesariamente involucrada en la transición de la investigación exploratoria a la experimental. La interpretación de los hallazgos de la primera categoría de investigaciones a menudo conduce a hipótesis para la segunda.

Dado que, para empezar, un estudio exploratorio no tiene una hipótesis, los hallazgos o conclusiones de un estudio de este tipo deben interpretarse en una interpretación 'post-factum' a menudo es un juego peligroso cargado de implicaciones peligrosas. Dicha interpretación implica una búsqueda de un padrino en la naturaleza de alguna teoría o principio que adoptaría (es decir, explicaría) los hallazgos del estudio.

Esta búsqueda a menudo resulta ser un ejercicio por parte del investigador para justificar sus hallazgos al ubicar alguna teoría adecuada que se ajuste a sus hallazgos. Como resultado, muy a menudo las conclusiones contradictorias pueden encontrar a sus "padrinos" en diversas teorías.

Este aspecto de la interpretación post-factum, que comprende los intentos de racionalizar los hallazgos de la investigación, debe tenerse claramente en cuenta al proceder. En ocasiones no hay, sin embargo, otra alternativa.

En segundo lugar, la interpretación conduce al establecimiento de conceptos explicativos. Como se ha señalado, la interpretación de los hallazgos implica esfuerzos para explicar por qué son las observaciones o los hallazgos, cuáles son. En el cumplimiento de esta tarea, la teoría asume una importancia central.

Es un sensibilizador y una guía de los factores y procesos subyacentes (bases explicativas) que se encuentran debajo de los hallazgos. Debajo de las observaciones del investigador en el curso de un estudio, se encuentra un conjunto de factores y procesos que podrían explicar sus observaciones del mundo empírico. La interpretación teórica descubre estos factores.

La tarea del investigador es explicar las relaciones que ha observado en el curso de su estudio, exponiendo los procesos subyacentes que le proporcionan una comprensión más profunda de estas relaciones y señalan el papel de ciertos factores básicos que operan en el área del problema de su estudio.

Por lo tanto, la interpretación tiene un doble propósito. En primer lugar, proporciona una comprensión de los factores generales que parecen explicar lo que se ha observado en el curso de un estudio y, en segundo lugar, proporciona una concepción teórica que puede servir a su vez como una guía para futuras investigaciones.

De esta manera, la ciencia llega a desenganchar de manera más exitosa los procesos básicos que dan forma a la porción del mundo empírico que concierne al investigador.

La interpretación está tan intrínsecamente relacionada con el análisis que debería concebirse más adecuadamente como un aspecto especial del análisis en lugar de una operación separada o distinta. Para concluir, estamos tentados a citar al profesor C. Wright Mills, quien ha declarado la esencia misma de lo que todo está involucrado en el análisis (que involucra la interpretación) de los datos.

Dice Mills: “Así que descubrirás y describirás, configurando tipos para ordenar lo que has descubierto, enfocando y organizando la experiencia al distinguir los artículos por su nombre. Esta búsqueda de orden hará que busque patrones y tendencias y encuentre relaciones que pueden ser típicas y causales. En breve, buscará el significado de lo que ha encontrado o lo que puede interpretarse como una muestra visible de algo que parece estar involucrado en cualquier cosa que esté tratando de entender; lo reducirás a lo esencial; luego, cuidadosa y sistemáticamente, se relacionarán entre sí para formar una especie de modelo de trabajo ... ".

"Pero siempre entre todos los detalles, buscará indicadores que puedan apuntar a la deriva principal, a las formas y tendencias subyacentes de la gama de la sociedad en su período particular de tiempo". Después de terminar una investigación, la declaración que plantea una serie de nuevas preguntas y problemas se pueden hacer.

Algunas de las nuevas preguntas constituyen la base para nuevos emprendimientos de investigación y la formulación de nuevas teorías que modificarán o reemplazarán las antiguas. Esto es, de hecho, lo que significa la investigación. Sirve para abrir nuevas y más amplias avenidas de aventuras intelectuales y simula la búsqueda de más conocimiento y mayor sabiduría en su uso.