La crisis global a partir de la emergencia por la pandemia de Coronavirus pone en juego diferentes miradas sobre la salud pública y el desarrollo de las enfermedades. En particular, el debate epidemiológico sobre las diferentes estrategias de intervención posibles que ha tomado el centro de la escena revelan tanto su importancia, como la necesidad de un enfoque científico que permita dar cuenta de los procesos que se ponen en juego en cada nivel (biológico, social, político, etc.), las interrelaciones y dinámicas concretas, históricamente determinadas, detrás de los modelados matemáticos. Esto es, la necesidad de un enfoque dialéctico.
Como ejemplo –urgente– de esto, en el artículo de Rob Wallace, Alex Liebman, Luis Fernando Chaves y Rodrick Wallace que publicamos en esta edición, los autores analizan críticamente los presupuestos del que se ha convertido en un modelado epidemiológico de referencia a nivel mundial, el de lmperial College de Londres:
… [como señalan Richard Lewontin y Richard Levins] ‘dejar que los números hablen’ solo enmascara todos los supuestos incorporados de antemano. Modelos como el estudio del Imperial College limitan explícitamente el alcance del análisis a preguntas estrechamente enmarcadas a medida dentro del orden social dominante. Por diseño, no logran capturar las fuerzas más amplias del mercado que impulsan los brotes y las decisiones políticas subyacentes a las intervenciones.
Como un aporte en este sentido, publicamos en exclusiva dicho texto de referencia de los científicos marxistas Richard Lewontin y Richard Levins, que forma parte de su libro La biología en cuestión. Ensayos dialécticos sobre ecología, agricultura y salud que publicará en breve, traducido por primera vez al castellano, Ediciones IPS. Ambos autores son sumamente reconocidos por sus aportes en sus respectivos campos, Lewontin en biología molecular, genética de poblaciones y evolución en la universidades de Harvard y Columbia, y Levins –recientemente fallecido – en epidemiología y salud pública, ecología, genética, evolución y agricultura, investigando y enseñando en Escuela de Salud Pública de la Universidad de Harvard. Asimismo fueron parte de toda una generación de científiques que surgió a la militancia en los años 60 en colectivos como Science for the People, denunciando la mercantilización de la ciencia, sus usos sociales y políticos y criticando desde una posición dialéctica las visiones deterministas biológicas.
DEJEMOS QUE HABLEN LOS NÚMEROS
Luego de tres siglos de reinado de la ciencia reduccionista en Europa y en los países que pertenecen a su órbita cultural, en los que el problema de “¿qué cosa es esto?” por lo general recibe como respuesta “esto es aquello de lo que la cosa está hecha”, la ciencia moderna se enfrenta cada vez más a los problemas que plantean la complejidad y la dinámica. Mientras que los grandes logros de la ciencia han consistido, por lo general, en fenómenos aislables o pequeños objetos en los que operan un pequeño número de causas, los fracasos más estrepitosos han sido fruto de intentos infructuosos por resolver los problemas que plantean los sistemas complejos y la dinámica. No exageramos al afirmar que la complejidad es el problema científico central de nuestra época.
En los capítulos anteriores hemos criticado los enfoques reduccionistas en varios campos, cuestionando el supuesto fundamental que anima a la ciencia reduccionista, de que si uno puede comprender las partes más pequeñas de un sistema en forma aislada, entonces todo lo que uno debe hacer reunirlas en forma correcta con el fin de comprender el todo. Como táctica de investigación, este modelo ciertamente funciona, dando por sentado que el sistema que estudiamos sea lo suficientemente simple, e incluso para aquellos sistemas muy complejos, muchos de sus elementos constituyentes son casi independientes entre sí, y se los puede comprender mejor mediante una estrategia de investigación reduccionista. La metáfora cartesiana que entiende al organismo como un mecanismo de relojería ciertamente es válida para los relojes, o para el corazón si lo consideramos una máquina de bombeo aislada, pero no funciona con los organismos en su conjunto, o la organización social y económica, o las comunidades de especies. Nuestra crítica al modelo reduccionista y simplista de la máquina parte de entender que, en lo que se refiere a la naturaleza genuina de las cosas, sus propiedades no existen en forma aislada, sino que nacen a la existencia determinadas por el contexto.
Por lo tanto, suponer que podemos comprender sistemas compuestos dividiéndolos en partes a priori, y luego proceder a estudiar las propiedades de esas partes aisladamente constituye lo que los filósofos llaman un error ontológico. Pero la estrategia de investigación reduccionista aplicada al estudio de los sistemas complejos también ha sido abandonada por muchos científicos que son ontológicamente reduccionistas, por una razón diferente, pese a que creen que el mundo es realmente un enorme ensamblaje de engranajes y palancas con propiedades intrínsecas que podemos abordar en forma aislada. Lo han abandonado porque ellos creen que, en la práctica, no podemos estudiar todas las propiedades y todas las conexiones de los sistemas muy grandes, que están compuestos de muchas partes diferentes con muchas vías de interacción entre ellas, y en las cuales las múltiples fuerzas causales son individualmente débiles. Estos partidarios del no reduccionismo epistemológico dicen que es muy arduo, que no disponemos de suficiente tiempo y no nos alcanza el mundo, o que en razón de límites físicos, políticos o éticos la estrategia reduccionista no puede desplegar todo su potencial. Hasta hace relativamente poco, diseccionar cadáveres era un acto criminal.
Laplace dijo una frase muy famosa: que si él conociera la posición y velocidad de todas las partículas en el universo, podría predecir el curso de toda la historia futura. Este fue el postulado más contundente que podía hacerse en favor del reduccionismo en un universo material determinista. Pero él también sabía que no podía tener acceso a semejante cúmulo de información y entonces recurrió al concepto de probabilidad, abordando el efecto de todas causas inexplorables bajo la noción de azar. El percatarse de que el mundo podría ser demasiado complejo para poder estudiarlo mediante la disección, incluso aunque en realidad funcionara al modo de una máquina, ha alentado el surgimiento de un modo de estudio que, durante el último siglo y medio se ha convertido en la principal metodología de análisis causal para los sistemas sociales y físicos complejos. Esta metodología es la estadística. En el siglo dieciocho, la estadística era un conjunto de técnicas puramente descriptivas destinadas a caracterizar ensamblajes de objetos, especialmente las poblaciones humanas, y era una herramienta política controlada por el Estado. A comienzos del siglo diecinueve, mediante la confluencia con la teoría de la probabilidad, la estadística se convirtió en el principal método de inferencia de relaciones causales cuando, por una razón o la otra, no era posible aplicar el método reduccionista de disección y reconstrucción –el método preferido–.
Aunque por lo común pensamos en la estadística como análisis de poblaciones, la base del enfoque estadístico para inferir causas es un modelo de lo individual, y lo que se busca es una explicación de las propiedades del individuo. Se supone que las propiedades de cada individuo son la consecuencia de un nexo de causas variables, cuyas magnitudes relativas entre sí son insuficientes para tener un efecto no ambiguo sobre cada objeto individual. Todos los árboles que son talados caerán porque la fuerza de gravedad actúa por encima de todas las otras perturbaciones menores, pero cada árbol tiene un tamaño y forma diferente porque el crecimiento es la consecuencia de la interacción de un número muy grande de secuencias causales genéticas y ambientales que son débiles tomadas individualmente, así como también de eventos moleculares variables que se producen a nivel microscópico dentro de las células. No necesitamos de la estadística para inferir la gravedad, al menos para los objetos de gran tamaño, pero los métodos estadísticos son las técnicas preponderantes a la hora de inferir relaciones causales a nivel de los genes, el ambiente y el “ruido” molecular que existe en la naturaleza, porque cada individuo difiere en los efectos que provocan estas causas variables. Con el fin de superar la dificultad que plantea la existencia de un gran número de causas, cada una de ellas con un efecto débil, grandes cantidades de individuos son aglomerados en poblaciones estadísticas y así estudiamos valores promedios de causas y efectos. Toda la acción se concentra en el armado de estas poblaciones y en el cálculo de los promedios.
Esencialmente, hay solo dos técnicas de inferencia estadística. En una de ellas, el análisis de contrastes, los individuos son agrupados en dos o más poblaciones en base a algún criterio a priori: varones y mujeres, diferentes grupos étnicos, categorías de edad o clases sociales. Luego se calcula algún tipo de descripción promedio de alguna característica de interés en el seno de cada grupo y, si estos promedios entre los grupos son lo suficientemente diferentes, luego se infiere que el criterio usado para crear los grupos tiene importancia causal. El promedio que es calculado puede simplemente consistir en un promedio numérico de la característica en cuestión (la media), por ejemplo la media del ingreso familiar, o bien puede ser la proporción de familias con ingresos por encima de los 50.000 dólares, o puede ser alguna medida de la variabilidad de la característica de un individuo a otro.
La técnica alternativa, el análisis de correlación, consiste en reunir a todos los individuos en una única población, para medir dos o más características designadas también a priori, y luego buscar tendencias en una o más de estas características de acuerdo a la variación de otras características. ¿Los indicadores de mala salud tienden a incrementarse a medida que baja el nivel de ingresos familiares? El tiempo es una variable que se usa comúnmente. Para todas las personas que han muerto en los últimos cien años, ¿la proporción de aquellos que mueren a causa del cáncer de pulmón se incrementa a medida que la fecha de nacimiento es más tardía? Cuando se observa alguna relación entre las variables, entonces se procede a hacer algún tipo de inferencia acerca de la causación.
Aunque por lo general se dice que las técnicas estadísticas son formas de dejar que los datos objetivos hablen por sí mismos, en estos dos modelos de inferencia estadística todo el trabajo real se condensa en las decisiones a priori que son incorporadas al análisis. ¿Qué categorías a priori usaremos, en el primer modelo, para crear las poblaciones que vamos a contrastar? ¿Lo relevante es el género, la clase social o la pertenencia étnica? Estas decisiones hay que tomarlas antes de que los datos sean recolectados. La sociología estadounidense es conocida por no usar la noción de clase social, connotada teóricamente, como variable, reemplazándola por la de estatus económico social, también connotada teóricamente, como indicador numérico y por ende “objetivo”. Tanto en el análisis de correlación como en el de contraste, ¿qué características vamos a medir: la media del ingreso familiar medio, que está fuertemente distorsionada por un pequeño número de familias de muy altos ingresos, o la mediana del ingreso familiar, que no está sujeta a tales distorsiones? ¿Vamos a considerar los días de trabajo perdidos que, para ciertas causas de mala salud, pueden ser mayores para los más acomodados que para aquellos que deben ir a trabajar aun cuando están enfermos? ¿Qué características deben ser consideradas constantes mientras otras características son comparadas? ¿Los blancos difieren de los negros en cuanto a su situación de salud si los datos son filtrados de modo tal que igualamos el estatus ocupacional y el ingreso entre los dos grupos? Por último, ¿cuál es la causa y cuál es el efecto? ¿Los bajos ingresos son la causa de la mala salud, o es la mala salud la causa de los bajos ingresos? En cada etapa del análisis, desde la recolección de los datos hasta el análisis final, la metodología estadística “objetiva” es guiada por un modelo teórico a priori. Por lo tanto, es necesario reconocer que las relaciones causales inferidas a partir de comparaciones estadísticas pueden ser artefactos construidos a partir de un conjunto de supuestos que forman parte de la evaluación estadística “objetiva” de los datos.
Exploremos brevemente el problema de la direccionalidad de la causación, y el tema de la relación entre causas y efectos, por un lado, y las variables dependientes e independientes, por el otro. Se dice que una variable es “independiente” si partimos de suponer que está determinada por condiciones que son externas y autónomas con respecto a los efectos que estudiamos. La distinción entre variables dependientes e independientes es un constructo teórico fundamental que rige gran parte del trabajo estadístico de correlación. En los estudios medioambientales, el nivel de uso de pesticidas puede ser la variable “independiente” y la prevalencia de cáncer cerebral la variable “dependiente”. En los análisis económicos, la tasa impositiva puede ser la variable independiente y la inversión la variable dependiente. En el nuevo campo de la “gestión política”, la decisión política de asignar recursos a los programas de salud puede ser considerada la variable independiente, y los logros de salud pública la variable dependiente. A continuación, se elaboran los cálculos estadísticos usando estas variables a priori y las inferencias realizadas sobre causas y efectos. Una u otra regla estadística es usada para decidir si la presunta relación causal es validada por la relación entre la variable independiente (la causa) y la dependiente (el efecto).
Ahora bien, ¿qué sucede si la causa fluye en ambas direcciones? ¿Qué sucede si los logros de las políticas de salud pública conducen a acciones públicas para cambiar la política, si la discapacidad impacta sobre el ingreso? En el siglo diecinueve, Engels escribió acerca de la intercambiabilidad entre la causa y el efecto (interchanging), los fisiólogos describieron la autorregulación y los ingenieros estaban diseñando procesos industriales que se ajustaban por sí solos. En los sistemas que poseen un cierto grado de complejidad existe la retroalimentación [feedback], y esta afecta la relación entre los resultados estadísticos y las secuencias causales.
En presencia de retroalimentación negativa, un cambio en un elemento de un sistema provoca cambios en otros que eventualmente anulan el cambio original. Esta anulación puede ser parcial, completa, o incluso excesiva, de modo tal que arrojar nitrógeno en una laguna podría reducir el nivel de nitrógeno si se produce un cambio radical en la composición de las especies, o aplicar pesticidas podría incrementar la presencia de plagas al eliminar a ciertos competidores que son más sensibles a los pesticidas o, como sucede a menudo, al matar a los predadores de la plaga. Los predadores son envenenados directamente por el pesticida, pero tanto una vertiente positiva como negativa están involucradas en el circuito de retroalimentación. Por el lado positivo, la cantidad de depredadores disminuye porque su alimento, la plaga, disminuye producto del pesticida. Por el lado negativo, la plaga que porta las moléculas de insecticida envenena al predador, lo que conduce a un incremento en las presas. No se trata de que los predadores sean fisiológicamente más sensibles a los pesticidas, sino que su ubicación en el bucle de retroalimentación los torna más vulnerables ecológicamente. El punto importante, en cuanto al análisis estadístico, es que todo circuito de retroalimentación negativa tiene un costado negativo y uno positivo. Del lado positivo, podemos contabilizar que la abundancia de presas incrementan la población de predadores, los altos niveles de azúcar en sangre incrementan la producción de insulina, el agregado de nutrientes el crecimiento de las algas y los altos precios de los cereales alientan la siembra. En esta vertiente del circuito, ambas variables aumentan o disminuyen juntas: esto se interpreta formalmente como correlación positiva entre las variables dependientes y las independientes. Pero si pasamos a la vertiente negativa del circuito de retroalimentación, los predadores disminuyen la cantidad de presas, la insulina reduce el azúcar en sangre, la proliferación de algas crea una escasez de minerales y el incremento en la producción empuja a la baja en los precios agrícolas. Entonces, las dos variables se mueven en direcciones opuestas y muestran una correlación negativa.
Estos circuitos de retroalimentación están inmersos en contextos más grandes, y otras influencias podrían impactar en el circuito en cualquier punto de él, alterando primero la vertiente positiva, o bien la negativa. Por ende, los mismos pares de variables, predador/presa, insulina/azúcar, producción/precio, nutrientes/algas, podrían mostrar correlaciones positivas en algunas situaciones y correlaciones negativas en otras. Por último, si las influencias de otras variables acaban por impactar tanto en las vertientes positivas como en las negativas, podría resultar que no haya ninguna correlación en absoluto, incluso aunque las variables interactúen en forma robusta. Esto podría hacer que los estudiantes saquen la conclusión errónea de que la correlación no es lo mismo que la causación. ¿Entonces para qué realizamos análisis de correlación al fin de cuentas? [1].
COMENTARIOS