¿Cómo podemos saber si un factor que se correlaciona con un resultado causa el resultado?

David Hume alertó a la filosofía occidental sobre este problema: argumentó que no había pruebas sólidas e inconclusas para demostrar que dos eventos correlacionados causaron el otro.

Hume planteó algunos argumentos a favor de su punto. Muchos de ellos son considerados tediosos en los tiempos modernos. En The Logic of Scientific Discovery , Karl Popper incluso argumenta que Hume no creía en sus argumentos él mismo, sino que simplemente los utilizó para callar a los filósofos con puntos de vista alternativos. Sin embargo, uno de estos argumentos es bastante valioso. Se llama el problema de la inducción .

La lógica inductiva nos es muy familiar. Es la lógica que se basa en la experiencia. Si vamos al estanque diez veces, y cada vez que vemos cisnes blancos, razonamos que los cisnes deben ser blancos. Esto se llama “inductivo”: recurrimos a casos específicos para llegar a una conclusión general.

Un consenso en la filosofía moderna es que, en la práctica, la lógica inductiva no es infalible. En el ejemplo, nunca probaste que todos los cisnes son blancos. Encontraste un poco de datos; un poco de evidencia, eso es cierto. Pero nunca probaste que todos los cisnes deben ser blancos (y sabemos por biología que eso no es cierto).

Por lo tanto, no podemos recurrir a la lógica inductiva para realizar una ciencia infalible. Sin embargo, en la práctica, la ciencia a menudo se realiza a través de una base inductiva. * Esto se llama el problema de la inducción .

También es la razón principal por la que nunca podemos igualar la correlación con la causalidad.

Una exención importante es la matemática: las matemáticas tienen una lógica cerrada, una estructura axiomática y, por lo tanto, pueden recurrir a pruebas inductivas.

* Formalmente, la ciencia cambió a modelos basados ​​en la deducción y la falsabilidad, pero explicar esas cosas está más allá del alcance de esta respuesta.

Pregunta: ¿Cómo podemos saber si un factor que se correlaciona con un resultado causa el resultado?

Comencemos con un par de definiciones y explicaciones.

Factor : cualquier parte cuantificable e identificable de las condiciones de una explicación científica.

Factor extraño: cualquier parte de las condiciones de una explicación científica, que cuando se quita, no quita nada de la totalidad de la explicación.

Correlación: cualquier relación uno a uno, uno a muchos, muchos a muchos o muchos a uno entre factores y resultados.

Causa : para cualquier resultado, cualquier conjunto de factores no extraños que instancian el siguiente esquema: si el conjunto de factores no extraños (x) no hubiera sido el caso, entonces el resultado (y) no habría sido el caso.

He usado la terminología dada en la pregunta intencionalmente, y ahora sería un buen momento para alguien que investiga para discutir conceptos como: población, muestra, desviación estándar, alfa, margen de error, normal, significación estadística. Básicamente todas las cosas de las que no recuerdo los puntos finos pero que recuerdo de hace veinte años. En cualquier caso, déjame terminar mi respuesta.

—————————————————- ***** ————————————————

La forma en que “sabemos” si algún factor, uno de los varios que estamos evaluando con respecto a algún resultado, es la causa de un resultado es mediante la investigación. Descartamos varios factores que son extraños y determinamos la fuerza de la causa en diferentes condiciones que podrían contenerla. Controlamos los factores lo mejor que podemos en función de lo que estamos estudiando y en qué medida es posible. Las reacciones químicas, por ejemplo, se pueden controlar en gran medida en un laboratorio. El comportamiento humano, por otro lado, debe observarse en su estado natural.

No se conoce con certeza ningún conocimiento inductivo.

Sin embargo, existen diferentes grados de certeza con respecto al conocimiento inductivo. Las leyes fundamentales de la física son las más seguras.

Las únicas afirmaciones que podemos decir que son lógicamente ciertas e inviolables se encuentran en matemáticas y lenguajes formales, pero esto depende de lo que se esté probando o afirmando (esto depende de la autoevidencia y la verdad de los axiomas).

En general, si dos o más variables se correlacionan significativamente entre sí, inferimos que existe una relación causal. Esta relación está en un continuo que va de fuerte a débil. La naturaleza de esta relación se puede aclarar mediante un análisis bayesiano.

Inferimos que si fumamos tendremos cáncer porque la probabilidad de que alguien que fuma tenga cáncer es lo suficientemente alta como para que aceptemos esta relación causal, y aunque hay muchas personas que fuman, eso también nunca lo hará.

Si la relación estadística no es significativa (lo que significa que no hay más o menos correlación entre las variables en un modelo) rechazamos la hipótesis de que estas variables estén causalmente relacionadas. La relación casual se infiere de la relación correlativa.

Por ejemplo, la cantidad de episodios de TV de Amigos que ves no tiene correlación con que tengas cáncer. Sería absurdo decir que hay una relación o correlación causal aquí.

Es importante tener en cuenta que la correlación no implica necesariamente causalidad.

A menudo, sin muchos estudios repetidos, estudios longitudinales y estudios que intenten aislar las variables involucradas, no podemos saber si las variables en un modelo están correlacionadas debido a su relación causal o si están correlacionadas debido a otro factor.

Esto sucede mucho en el modelado económico y la investigación psicológica, sin embargo, cualquier ciencia que use estadísticas también se encontrará con este problema.

Pero no es el caso de que no podamos saber nada sobre la relación entre las diferentes variables solo porque no podemos reclamar y probar una hipótesis con absoluta certeza.

Las ciencias físicas duras son las más seguras (incluso si un componente principal de la mecánica cuántica sigue siendo absolutamente aleatorio), y las otras ciencias empíricas se basan en eso.

No llamaría pseudociencia de la ciencia médica solo porque no podemos decirle exactamente si contraerá cáncer o no, dependiendo de si fuma, cuánto y por cuánto tiempo.

Todavía llamamos a las ciencias de las ciencias no físicas porque pueden predecir lo que ocurre en el mundo en un grado que se considera lo suficientemente preciso como para decir que estamos obteniendo conocimiento empírico sobre la forma en que funciona el universo. Si los resultados que se obtienen de una ciencia no tienen poder predictivo, o cada vez que los datos entran en conflicto con los modelos utilizados en esa ciencia, y el modelo tuvo que ajustarse continuamente para explicar datos nuevos, anómalos o conflictivos, diríamos que este es un mal modelo En el peor de los casos, una pseudociencia.

Muchos modelos del universo que hacemos terminan siendo incorrectos. Pero esto no debería significar que deberíamos renunciar por completo a comprender la naturaleza de las cosas solo porque no podemos tener una comprensión perfecta de nuestro mundo.

Al probarlo. Vea si puede provocar el resultado utilizando esa causa en un entorno controlado.
A veces puede no ser algo que realmente se pueda probar, tal vez debido a la ética, o algo así. Pero puede haber alguna forma de solucionar ese problema.