La correlación no implica necesariamente causalidad, como sabrá si lee investigaciones científicas. Dos variables pueden estar asociadas sin tener una relación causal. Sin embargo, el hecho de que una correlación tenga un valor limitado como inferencia causal no significa que los estudios de correlación no sean importantes para la ciencia. La idea de que la correlación no necesariamente implica causalidad ha llevado a muchos a devaluar los estudios de correlación. Sin embargo, usados apropiadamente, los estudios de correlación son importantes para la ciencia.
¿Por qué son importantes los estudios de correlación? Stanovich (2007) señala lo siguiente:
“Primero, muchas hipótesis científicas se expresan en términos de correlación o falta de correlación, por lo que tales estudios son directamente relevantes para estas hipótesis…”
“En segundo lugar, aunque la correlación no implica causalidad, la causalidad sí implica correlación. Es decir, aunque un estudio correlacional no puede probar definitivamente una hipótesis causal, puede descartarla.
Tercero, los estudios correlacionales son más útiles de lo que parecen, porque algunos de los diseños correlacionales complejos desarrollados recientemente permiten algunas inferencias causales muy limitadas.
…algunas variables simplemente no pueden manipularse por razones éticas (por ejemplo, desnutrición humana o discapacidades físicas). Otras variables, como el orden de nacimiento, el sexo y la edad, son inherentemente correlacionales porque no se pueden manipular y, por lo tanto, el conocimiento científico sobre ellas debe basarse en la evidencia de la correlación”.
Una vez que se conoce la correlación, se puede utilizar para hacer predicciones. Cuando conocemos una puntuación en una medida, podemos hacer una predicción más precisa de otra medida que está muy relacionada con ella. Cuanto más fuerte sea la relación entre las variables, más precisa será la predicción.
Cuando sea práctico, la evidencia de los estudios de correlación puede llevar a probar esa evidencia bajo condiciones experimentales controladas.
Si bien es cierto que correlación no implica necesariamente causalidad, la causalidad sí implica correlación. Los estudios correlacionales son un trampolín hacia el método experimental más poderoso y, con el uso de diseños correlacionales complejos (análisis de rutas y diseños de panel cruzado), permiten inferencias causales muy limitadas.
Notas:
Hay dos problemas principales cuando se intenta inferir causalidad a partir de una simple correlación:
- Problema de direccionalidad: antes de concluir que una correlación entre la variable 1 y 2 se debe a cambios en 1 que causan cambios en 2, es importante darse cuenta de que la dirección de causalidad puede ser la opuesta, por lo tanto, de 2 a 1
- problema de la tercera variable: la correlación en las variables puede ocurrir porque ambas variables están relacionadas con una tercera variable
Las estadísticas correlacionales complejas, como el análisis de rutas, la regresión múltiple y la correlación parcial, “permiten recalcular la correlación entre dos variables después de que se elimine la influencia de otras variables, o se elimine en factores o se elimine parcialmente” (Stanovich, 2007, p. 77). Incluso cuando se utilizan diseños correlacionales complejos, es importante que los investigadores hagan declaraciones de causalidad limitadas.
Los investigadores que utilizan un enfoque de análisis de ruta siempre tienen mucho cuidado de no enmarcar sus modelos en términos de declaraciones causales. ¿Puedes averiguar por qué? Esperamos que haya razonado que la validez interna de un análisis de ruta es baja porque se basa en datos correlacionales. La dirección de causa a efecto no se puede establecer con certeza, y las «terceras variables» nunca se pueden descartar por completo. Sin embargo, los modelos causales pueden ser extremadamente útiles para generar hipótesis para futuras investigaciones y para predecir secuencias causales potenciales en instancias donde la experimentación no es factible (Myers & Hansen, 2002, p.100).
Condiciones necesarias para inferir causalidad (Kenny, 1979):
precedencia de tiempo: Para que 1 cause 2, 1 debe preceder a 2. La causa debe preceder al efecto.
Relación: Las variables deben correlacionarse. Para determinar la relación de dos variables, se debe determinar si la relación podría ocurrir debido al azar. Los observadores legos a menudo no son buenos jueces de la presencia de relaciones, por lo que se utilizan métodos estadísticos para medir y probar la existencia y la fuerza de las relaciones.
no espuria (espuria que significa ‘no genuino’): “La tercera y última condición para una relación causal es la no espuria (Suppes, 1970). Para que una relación entre X e Y no sea espuria, no debe haber una Z que cause tanto a X como a Y, de modo que la relación entre X e Y desaparezca una vez que se controle Z” (Kenny, 1979, pp. 4-5).