La verosimilitud, pero no la ciencia, ha dominado los debates públicos sobre la pandemia de Covid
Por Harvey Risch, 26 de noviembre de 2022 Filosofía, Salud Pública 30 minutos de lectura
«Los ataques a mi persona, francamente, son ataques a la ciencia». ~ Anthony Fauci, 9 de junio de 2021 (MSNBC).
Es absurdo.
Por un lado, el Dr. Fauci no ha informado con exactitud sobre cuestiones científicas a lo largo de la pandemia de Covid-19. Por otro, la dialéctica esencial de la ciencia es argumentar, cuestionar, debatir. Sin debate, la ciencia no es más que propaganda.
Sin embargo, cabe preguntarse cómo ha sido posible presentar material técnico al público estadounidense, si no al público internacional, durante casi tres años y lograr un entendimiento general de que los asuntos eran «científicos», cuando en realidad no lo eran. Afirmo que lo que se ha transmitido a estos públicos a través de los medios de comunicación tradicionales en el transcurso de la pandemia ha sido en gran medida verosimilitud, pero no ciencia, y que tanto el público estadounidense como el internacional, así como la mayoría de los médicos y los propios científicos, no pueden distinguir la diferencia. Sin embargo, la diferencia es fundamental y profunda.
La ciencia comienza con teorías, hipótesis, que tienen ramificaciones empíricas examinables. Sin embargo, esas teorías no son ciencia, sino que motivan la ciencia. La ciencia se produce cuando los individuos hacen experimentos o realizan observaciones que tienen que ver con las implicaciones o ramificaciones de las teorías. Esos hallazgos tienden a apoyar o refutar las teorías, que luego se modifican o actualizan para ajustarse a las nuevas observaciones o se descartan si las pruebas convincentes demuestran que no describen la naturaleza. El ciclo se repite entonces. La ciencia es la realización de un trabajo empírico u observacional para obtener pruebas que confirmen o refuten las teorías.
En general, las teorías suelen ser afirmaciones plausibles que describen algo concreto sobre el funcionamiento de la naturaleza. La plausibilidad está en el ojo del que mira, ya que lo que es plausible para un experto con conocimientos técnicos puede no serlo para un profano. Por ejemplo -quizá demasiado simplificado-, el heliocentrismo no era plausible antes de que Nicolás Copérnico publicara su teoría en 1543, y tampoco fue especialmente plausible después durante bastante tiempo, hasta que Johannes Kepler comprendió que las mediciones astronómicas realizadas por Tycho Brahe sugerían refinar las órbitas circulares copernicanas hasta convertirlas en elipses, así como que las reglas matemáticas parecían regir los movimientos planetarios a lo largo de esas elipses -aunque las razones de esas reglas matemáticas, aunque fueran buenas descripciones de los movimientos, no fueron plausibles hasta que Isaac Newton, en 1687, postuló la existencia de una fuerza gravitatoria universal entre las masas, junto con una ley de distancia inversa al cuadrado y proporcional a la masa que rige la magnitud de la atracción gravitatoria, y observó numerosos fenómenos cuantitativos coherentes con esta teoría y que la respaldan.
Para nosotros, hoy en día, apenas pensamos en la plausibilidad de las órbitas elípticas heliocéntricas del sistema solar, porque los datos observacionales que abarcan 335 años han sido altamente consistentes con esa teoría. Pero podemos negarnos a pensar que es plausible que la luz viaje simultáneamente como partículas y como ondas, y que la realización de mediciones sobre la luz, lo que hacemos como observadores, determina si vemos el comportamiento de las partículas o el de las ondas, y podemos elegir observar las partículas o las ondas, pero no ambas cosas a la vez. La naturaleza no es necesariamente plausible.
Pero de todos modos, las teorías plausibles son fáciles de creer, y ése es el problema. Eso es lo que nos han alimentado durante casi tres años de la pandemia del Covid-19. Aunque, de hecho, nos han alimentado con verosimilitud en lugar de con ciencia durante mucho más tiempo.
La ciencia del culto a la carga
Los charlatanes que pretendían doblar cucharas con la mente, o que decían estudiar la «percepción extrasensorial», inconfirmable e irreplicable, eran muy populares en los años 60 y 70. Las extrañas creencias sobre lo que la «ciencia» podía establecer alcanzaron tal nivel que el Premio Nobel de Física Richard Feynman pronunció el discurso de apertura de Caltech en 1974 (Feynman, 1974) lamentando tales creencias irracionales. Sus comentarios no iban dirigidos al público en general, sino a los estudiantes que se graduaban en Caltech, muchos de los cuales estaban destinados a convertirse en científicos académicos.
En su discurso, Feynman describió cómo los isleños de los Mares del Sur, después de la Segunda Guerra Mundial, imitaron a los soldados estadounidenses destinados allí durante la guerra que habían guiado los aterrizajes de los aviones con suministros. Los habitantes de la isla, utilizando materiales locales, reprodujeron la forma y los comportamientos de lo que habían presenciado de los soldados estadounidenses, pero no llegó ningún suministro.
En nuestro contexto, el argumento de Feynman sería que hasta que una teoría no tenga pruebas empíricas objetivas que la respalden, sigue siendo sólo una teoría, por muy plausible que pueda parecer a todos los que la contemplan. A los isleños se les escapaba el hecho crucial de que no entendían cómo funcionaba el sistema de suministro, a pesar de lo plausible que les parecía su reproducción. El hecho de que Feynman se sintiera obligado a advertir a los estudiantes de Caltech que se graduaban de la diferencia entre verosimilitud y ciencia, sugiere que esta diferencia no se aprendió adecuadamente en su educación en el Instituto. No se enseñaba explícitamente cuando este autor era un estudiante universitario allí en aquellos años, pero de alguna manera, se esperaba que lo hubiéramos aprendido «por ósmosis».
Medicina basada en la evidencia
Tal vez no haya hoy en día una mayor farsa de verosimilitud que la «medicina basada en la evidencia» (MBE). Este término fue acuñado por Gordon Guyatt en 1990, después de que su primer intento, la «Medicina Científica», fracasara en su aceptación el año anterior. Como epidemiólogo universitario en 1991, me sentí insultado por la arrogancia y la ignorancia en el uso de este término, EBM, como si la evidencia médica fuera de alguna manera «no científica» hasta que se proclamara una nueva disciplina con nuevas reglas para la evidencia. No fui el único que criticó la EBM (Sackett et al., 1996), aunque gran parte de esa respuesta negativa parece haberse basado en la pérdida de control narrativo más que en una revisión objetiva de lo que la investigación médica había logrado realmente sin la «EBM».
El conocimiento médico occidental se ha acumulado durante miles de años. En la Biblia hebrea (Éxodo 21:19), «Cuando dos partes riñan y una golpee a la otra… la víctima quedará completamente curada» [mi traducción], lo que implica que existían individuos con tipos de conocimientos médicos y que se heredaba cierto grado de eficacia. Hipócrates, en el siglo V-IV a.C., sugirió que el desarrollo de las enfermedades podría no ser aleatorio, sino estar relacionado con exposiciones del entorno o con determinados comportamientos. En aquella época, había muchos de los que hoy consideraríamos contraejemplos de la buena práctica médica. Sin embargo, fue un comienzo para pensar en la evidencia racional del conocimiento médico.
James Lind (1716-1794) defendía la protección contra el escorbuto mediante la ingesta de cítricos. Este tratamiento era conocido por los antiguos, y en particular había sido recomendado anteriormente por el cirujano militar inglés John Woodall (1570-1643), pero Woodall fue ignorado. Lind se lleva el mérito porque en 1747 llevó a cabo un pequeño pero exitoso ensayo controlado y no aleatorizado de naranjas y limones frente a otras sustancias entre 12 pacientes con escorbuto.
Durante el siglo XIX, el uso de Edward Jenner de la viruela de las vacas como vacuna contra la viruela se elaboró mediante el cultivo en otros animales y se generalizó su uso en los brotes, de modo que en la época del caso Jacobson contra Massachusetts del Tribunal Supremo de 1905, el Presidente del Tribunal Supremo pudo afirmar que las autoridades médicas habían acordado que la vacunación contra la viruela era un procedimiento comúnmente aceptado. Las revistas médicas empezaron a publicar regularmente también en el siglo XIX. Por ejemplo, la revista Lancet empezó a publicarse en 1824. Los conocimientos médicos en aumento empezaron a ser compartidos y debatidos de forma más general y amplia.
Avanzamos rápidamente hasta la década de 1900. En 1914-15, Joseph Goldberger (1915) llevó a cabo un ensayo de intervención dietética no aleatorizado que concluyó que la pelagra estaba causada por la falta de proteínas en la dieta. En la década de 1920, se desarrollaron vacunas contra la difteria, la tos ferina, la tuberculosis y el tétanos. Se extrajo la insulina. Se desarrollaron las vitaminas, incluida la vitamina D para prevenir el raquitismo. En la década de 1930, se empezaron a crear y utilizar eficazmente los antibióticos. En la década de 1940 se desarrolló el paracetamol, así como las quimioterapias, y se empezó a utilizar el estrógeno conjugado para tratar los sofocos de la menopausia. El número de nuevos medicamentos, vacunas y dispositivos médicos eficaces creció exponencialmente en los años 50 y 60. Todo ello sin la MBE.
En 1996, en respuesta a las críticas a la MBE, David Sackett et al. (1996) intentaron explicar sus principios generales. Sackett afirmaba que la MBE se derivaba de que «los buenos médicos utilizan tanto la experiencia clínica individual como la mejor evidencia externa disponible». Se trata de una implicación de plausibilidad anodina, pero ambos componentes son básicamente erróneos o, al menos, engañosos. Al formular esta definición en términos de lo que deben hacer los médicos individuales, Sackett daba a entender que los médicos individuales deben utilizar sus propias observaciones clínicas y su experiencia. Sin embargo, es probable que la representatividad probatoria general de la experiencia clínica de un individuo sea débil. Al igual que otras formas de evidencia, las pruebas clínicas deben ser recopiladas, revisadas y analizadas sistemáticamente, para formar una síntesis de razonamiento clínico, que luego proporcionaría el componente clínico de la evidencia médica científica.
Un fallo mayor del razonamiento probatorio es la afirmación de Sackett de que hay que utilizar «las mejores pruebas externas disponibles» en lugar de todas las pruebas externas válidas. Los juicios sobre lo que constituye la «mejor» evidencia son muy subjetivos y no necesariamente producen resultados globales que sean cuantitativamente los más exactos y precisos (Hartling et al., 2013; Bae, 2016). Al formular sus ahora canónicos «aspectos» del razonamiento causal probatorio, Sir Austin Bradford Hill (1965) no incluyó un aspecto de lo que constituiría la «mejor» prueba, ni sugirió que los estudios debieran medirse o clasificarse por la «calidad del estudio», ni siquiera que algunos tipos de diseños de estudio pudieran ser intrínsecamente mejores que otros. En el Manual de Referencia sobre la Evidencia Científica, Margaret Berger (2011) afirma explícitamente: «… muchos de los organismos científicos más respetados y prestigiosos (como la Agencia Internacional para la Investigación del Cáncer (IARC), el Instituto de Medicina, el Consejo Nacional de Investigación y el Instituto Nacional de Ciencias de la Salud Ambiental) consideran todas las pruebas científicas relevantes disponibles, tomadas en su conjunto, para determinar qué conclusión o hipótesis relativa a una afirmación causal está mejor respaldada por el conjunto de pruebas». Éste es exactamente el enfoque de Hill; sus aspectos del razonamiento causal se han utilizado ampliamente durante más de 50 años para razonar desde la observación hasta la causalidad, tanto en la ciencia como en el derecho. Que la MBE se base en la selección subjetiva de las «mejores» pruebas es un método plausible, pero no científico.
Con el paso del tiempo, el enfoque de la MBE de considerar selectivamente las «mejores» pruebas parece haberse «atontado», primero colocando los ensayos controlados aleatorios (ECA) en la cima de una pirámide de todos los diseños de estudio como el supuesto diseño «estándar de oro», y más tarde, como el supuesto único tipo de estudio en el que se puede confiar para obtener estimaciones imparciales de los efectos. Todas las demás formas de pruebas empíricas son «potencialmente sesgadas» y, por tanto, poco fiables. Se trata de una presunción de verosimilitud, como demostraré más adelante.
Pero es tan plausible que se enseña de forma rutinaria en la educación médica moderna, de modo que la mayoría de los médicos sólo tienen en cuenta las pruebas de los ECA y descartan todas las demás formas de pruebas empíricas. Es tan plausible que este autor tuvo una batalla verbal en directo sobre ella con un comentarista de televisión sin formación médica que no aportó más pruebas que las de la plausibilidad (Whelan, 2020): ¿No es «simplemente obvio» que si se aleatoriza a los sujetos, cualquier diferencia debe ser causada por el tratamiento, y no se puede confiar en otro tipo de estudios? Obvio, sí; cierto, no.
¿Quién se beneficia de un enfoque único y obsesivo en las pruebas de los ECA? Los ECA son muy caros de realizar si se quiere que sean epidemiológicamente válidos y estadísticamente adecuados. Pueden costar millones o decenas de millones de dólares, lo que limita su atractivo en gran medida a las empresas que promueven productos médicos que pueden reportar beneficios sustancialmente mayores que esos costes. Históricamente, el control y la manipulación por parte de las farmacéuticas de las pruebas de los ECA en el proceso de regulación supusieron un enorme impulso en la capacidad de empujar los productos a través de la aprobación reguladora hacia el mercado, y la motivación para hacerlo aún continúa en la actualidad.
Este problema fue reconocido por el Congreso, que aprobó la Ley de Modernización de la Administración de Alimentos y Medicamentos de 1997 (FDAMA), que estableció en el año 2000 el sitio web ClinicalTrials.gov para el registro de todos los ensayos clínicos realizados en el marco de las solicitudes de investigación de nuevos fármacos, con el fin de examinar la eficacia de los medicamentos experimentales para los pacientes con enfermedades graves o potencialmente mortales (Biblioteca Nacional de Medicina, 2021). Por motivos relacionados con los conflictos de intereses en los ensayos clínicos, se crearon el sitio web de ProPublica «Dollars for Docs» (Tigas et al., 2019), que cubre los pagos de las empresas farmacéuticas a los médicos durante los años 2009-2018, y el sitio web OpenPayments (Centros de Servicios de Medicare y Medicaid, 2022), que cubre los pagos desde 2013 hasta 2021. Estos sistemas de información se crearon porque se reconoció que la «plausibilidad» de que la aleatorización hace automáticamente que los resultados de los estudios sean precisos e imparciales es insuficiente para hacer frente a las argucias de la investigación y a los motivos inapropiados de conflicto de intereses de los investigadores.
Aunque estos intentos de reformar o limitar la corrupción en la investigación médica han servido de algo, la tergiversación de las pruebas bajo el disfraz de la MBE persiste. Uno de los peores ejemplos fue un artículo publicado en el New England Journal of Medicine el 13 de febrero de 2020, al comienzo de la pandemia de Covid-19, titulado «La magia de la aleatorización frente al mito de la evidencia en el mundo real», por cuatro conocidos estadísticos médicos británicos con importantes vínculos con las empresas farmacéuticas (Collins et al., 2020). Probablemente se escribió en enero de 2020, antes de que la mayoría de la gente supiera que la pandemia se acercaba. Este documento afirma que la aleatorización crea automáticamente estudios sólidos, y que todos los estudios no aleatorizados son basura probatoria. En el momento de leerlo, lo sentí como una arenga contra toda mi disciplina, la epidemiología. Me ofendió de inmediato, pero más tarde comprendí los graves conflictos de intereses de los autores. Representar que sólo las pruebas de ECA altamente inasequibles son apropiadas para las aprobaciones reguladoras proporciona una herramienta a las empresas farmacéuticas para proteger sus caros y muy rentables productos patentados contra la competencia de medicamentos genéricos eficaces y baratos aprobados fuera de la etiqueta, cuyos fabricantes no podrían permitirse realizar ECA a gran escala.
Aleatorización
Entonces, ¿cuál es el defecto de la aleatorización al que he estado aludiendo, que requiere un examen más profundo para comprender la validez relativa de los estudios de ECA frente a otros diseños de estudio? El problema radica en la comprensión de los factores de confusión. La confusión es una circunstancia epidemiológica en la que la relación entre una exposición y un resultado no se debe a la exposición, sino a un tercer factor (el factor de confusión), al menos en parte. El factor de confusión está de alguna manera asociado a la exposición, pero no es un resultado de la misma.
En estos casos, la aparente relación exposición-resultado se debe realmente a la relación confusor-resultado. Por ejemplo, un estudio sobre el consumo de alcohol y el riesgo de cáncer podría estar potencialmente confundido por los antecedentes de tabaquismo, que se correlacionan con el consumo de alcohol (y no son causados por el consumo de alcohol), pero que realmente están impulsando el aumento del riesgo de cáncer. Un simple análisis del alcohol y el riesgo de cáncer, ignorando el tabaquismo, mostraría una relación. Sin embargo, una vez controlado o ajustado el efecto del tabaco, la relación del alcohol con el riesgo de cáncer disminuiría o desaparecería.
El propósito de la aleatorización, de equilibrar todo entre los grupos de tratamiento y control, es eliminar los posibles factores de confusión. ¿Hay alguna otra forma de eliminar los posibles factores de confusión? Sí: medir los factores en cuestión y ajustarlos o controlarlos en los análisis estadísticos. Por tanto, es evidente que la aleatorización tiene exactamente una posible ventaja que no tienen los estudios no aleatorios: el control de los factores de confusión no medidos. Si las relaciones biológicas, médicas o epidemiológicas no se comprenden del todo sobre un resultado de interés, puede que no se midan todos los factores relevantes, y algunos de esos factores no medidos podrían seguir confundiendo una asociación de interés.
Así pues, la aleatorización, en teoría, elimina los posibles factores de confusión no medidos como explicación de una asociación observada. Éste es el argumento de la plausibilidad. Sin embargo, la cuestión se refiere a lo bien que funciona la aleatorización en la realidad, y a quién debe equilibrar exactamente la aleatorización. Los ensayos clínicos aplican la aleatorización a todos los sujetos participantes para determinar las asignaciones de los grupos de tratamiento. Si en el estudio los individuos de los eventos de resultado comprenden un subconjunto del total del estudio, entonces esas personas de resultado necesitan estar equilibradas también en sus potenciales factores de confusión. Por ejemplo, si todos los fallecidos del grupo de tratamiento son varones y todos los del grupo de placebo son mujeres, es probable que el género confunda el efecto del tratamiento.
El problema es que los estudios de ECA no demuestran nunca de forma explícita una aleatorización adecuada de sus sujetos de resultado, y lo que pretenden mostrar de la aleatorización de sus grupos de tratamiento total es casi siempre científicamente irrelevante. Este problema se debe probablemente a que las personas que llevan a cabo los estudios de ECA, y los revisores y editores de revistas que consideran sus artículos, no comprenden suficientemente los principios epidemiológicos.
En la mayoría de las publicaciones de ECA, los investigadores proporcionan una tabla descriptiva inicial somera de los grupos de tratamiento y placebo (como columnas), frente a diversos factores medidos (como filas). Es decir, las distribuciones porcentuales de los sujetos de tratamiento y placebo por género, grupo de edad, raza/etnia, etc. La tercera columna de estas tablas suele ser la estadística del valor p para la diferencia de frecuencia entre los sujetos de tratamiento y los de placebo en cada factor medido. En términos generales, esta estadística estima la probabilidad de que una diferencia de frecuencia entre los sujetos de tratamiento y los de placebo tan grande pueda haberse producido por azar. Dado que los sujetos fueron asignados a sus grupos de tratamiento totalmente por azar, el examen estadístico del proceso de azar de la aleatorización es tautológico e irrelevante. El hecho de que en algunos ECA algunos factores puedan parecer más extremos de lo que el azar permitiría en el marco de la aleatorización, se debe únicamente a que se han examinado múltiples factores en las filas en busca de diferencias de distribución y, en tales circunstancias, debe invocarse el control estadístico de las comparaciones múltiples.
Lo que se necesita en la tercera columna de la tabla descriptiva del ECA no es el valor p, sino una medida de la magnitud de la confusión del factor concreto de la fila. La confusión no se mide por la forma en que se ha producido, sino por su magnitud. Según mi experiencia como epidemiólogo de carrera, la mejor medida de confusión es el cambio porcentual en la magnitud de la relación tratamiento-resultado con o sin ajuste del factor de confusión. Así, por ejemplo, si con el ajuste por género, el tratamiento reduce la mortalidad en un 25% (riesgo relativo = 0,75), pero sin el ajuste la reduce en un 50%, entonces la magnitud de la confusión por género sería (0,75 – 0,50)/0,75 = 33%. Los epidemiólogos suelen considerar que más de un 10% de cambio con dicho ajuste implica que la confusión está presente y debe ser controlada.
Como he observado, la mayoría de las publicaciones de ECA no proporcionan la magnitud de las estimaciones de los factores de confusión para sus grupos de tratamiento general, y nunca para sus sujetos de resultado. Por tanto, no es posible saber si los sujetos de resultado han sido aleatorizados adecuadamente para todos los factores indicados en la tabla descriptiva del artículo. Pero el posible defecto fatal de los estudios de ECA, lo que puede hacer que no sean mejores que los estudios no aleatorios y, en algunos casos, peores, es que la aleatorización sólo funciona cuando se ha aleatorizado a un gran número de sujetos (Deaton y Cartwright, 2018), y esto se aplica específicamente a los sujetos de resultado, no sólo al estudio total.
Piensa en lanzar una moneda diez veces. Puede salir al menos siete caras y tres cruces, o viceversa, fácilmente por azar (34%). Sin embargo, la magnitud de esta diferencia, 7/3 = 2,33, es potencialmente bastante grande en términos de posible confusión. Por otra parte, la ocurrencia de la misma magnitud de 2,33 a partir de 70 o más caras de 100 lanzamientos sería rara, p=.000078. Para que la aleatorización funcione, tiene que haber un número considerable de eventos de resultado tanto en el grupo de tratamiento como en el de placebo, digamos 50 o más en cada grupo. Éste es el principal defecto potencial no declarado de los estudios de ECA que hace que su argumento de plausibilidad sea inútil, porque los estudios de ECA suelen estar diseñados para tener la suficiente potencia estadística para encontrar la significación estadística de su resultado primario si el tratamiento funciona como se predice, pero no están diseñados para tener suficientes sujetos de resultado que reduzcan la confusión potencial a menos del 10%, digamos.
Un ejemplo importante de esta cuestión puede verse en el primer resultado publicado del ECA sobre la eficacia de la vacuna Covid-19 de Pfizer BNT162b2 de ARNm (Polack et al., 2020). Este estudio se consideró lo suficientemente grande (43.548 participantes aleatorizados) y lo suficientemente importante (Covid-19) como para que, debido a su supuesta plausibilidad de ECA, consiguiera su publicación en el «prestigioso» New England Journal of Medicine. El resultado primario del estudio era la aparición de Covid-19 con inicio al menos siete días después de la segunda dosis de la vacuna o de la inyección de placebo. Sin embargo, mientras que observó 162 casos entre los sujetos del placebo, suficientes para una buena aleatorización, sólo encontró ocho casos entre los sujetos de la vacuna, lo que no es suficiente para que la aleatorización haya servido para controlar los factores de confusión.
Según la experiencia epidemiológica general, es poco probable que un riesgo relativo estimado tan grande (aproximadamente 162/8 = 20) se deba por completo a un factor de confusión, pero la exactitud del riesgo relativo o su eficacia implícita ((20 – 1)/20 = 95%) es dudosa. El hecho de que se haya observado que esta vacuna en uso no es tan eficaz para reducir el riesgo de infección no es sorprendente, dada la debilidad del resultado del estudio debido al tamaño inadecuado de la muestra para asegurar que la aleatorización funcionó para los sujetos del resultado tanto en el grupo de tratamiento como en el de placebo.
Esta «inmersión en la maleza» de la epidemiología aclara por qué un estudio de ECA con menos de, digamos, 50 sujetos de resultado en todos y cada uno de los brazos de tratamiento del ensayo tiene poca o ninguna pretensión de evitar la posible confusión por factores no medidos. Pero también pone de manifiesto por qué un ensayo de este tipo puede ser peor que un ensayo controlado no aleatorio de la misma exposición y resultado. En los ensayos no aleatorios, los investigadores saben que muchos factores pueden, como posibles factores de confusión, influir en la aparición del resultado, por lo que miden todo lo que consideran relevante, para luego ajustar y controlar esos factores en los análisis estadísticos.
Sin embargo, en los ECA, los investigadores suelen pensar que la aleatorización ha tenido éxito y, por lo tanto, realizan análisis estadísticos sin ajustar, proporcionando resultados potencialmente confusos. Cuando veas que los ECA se presentan como estudios «grandes» debido a sus decenas de miles de participantes, mira más allá, hacia el número de eventos de resultado primario en los brazos de tratamiento del ensayo. Los ensayos con un número reducido de eventos de resultado primario son inútiles y no deberían publicarse, y mucho menos confiar en ellos para consideraciones de salud pública o política.
Pruebas empíricas
Después de leer todo lo anterior, podrías pensar que estos argumentos relativos a los ensayos aleatorios frente a los no aleatorios son muy plausibles, pero ¿qué hay de las pruebas empíricas que los apoyan? Para ello, la Base de Datos de Revisiones Sistemáticas de la Biblioteca Cochrane llevó a cabo un análisis muy exhaustivo (Anglemyer et al., 2014). Este estudio realizó una búsqueda exhaustiva en siete bases de datos de publicaciones electrónicas para el periodo comprendido entre enero de 1990 y diciembre de 2013, con el fin de identificar todos los trabajos de revisión sistemática que compararan «las estimaciones cuantitativas del tamaño del efecto que miden la eficacia o la efectividad de las intervenciones probadas en ensayos [aleatorios] con las probadas en estudios observacionales». En efecto, un meta-análisis de meta-análisis, el análisis incluyó muchos miles de comparaciones de estudios individuales resumidas en 14 documentos de revisión.
El resultado: una media de sólo un 8% de diferencia (límites de confianza del 95%, -4% a 22%, no significativo estadísticamente) entre los resultados de los ECA y sus correspondientes ensayos no aleatorios. En resumen, este conjunto de conocimientos -tanto los empíricos como los basados en principios epidemiológicos- demuestra que, en contra de lo que se denomina «plausibilidad», los ensayos aleatorios no tienen una clasificación automática como patrón de oro de las pruebas médicas o como la única forma aceptable de pruebas médicas, y que cada estudio debe examinarse de forma crítica y objetiva en función de sus propios puntos fuertes y débiles, y de la importancia de dichos puntos fuertes y débiles para las conclusiones extraídas.
Otras plausibilidades
Durante la pandemia de Covid-19, se han utilizado otras numerosas afirmaciones de evidencia científica para justificar las políticas de salud pública, incluso para la propia declaración de la emergencia pandémica. En muchas de ellas ha subyacido el principio, plausible pero falaz, de que el objetivo de la gestión de la pandemia de salud pública es minimizar el número de personas infectadas por el virus del SARS-CoV-2.
Esta política puede parecer obvia, pero es errónea como política general. Lo que hay que minimizar son las consecuencias perjudiciales de la pandemia. Si la infección provoca síntomas desagradables o molestos para la mayoría de las personas, pero no problemas graves o a largo plazo -como suele ocurrir con el SRAS-CoV-2, sobre todo en la época de Omicron-, entonces no habría ningún beneficio tangible de las intervenciones generales de salud pública y las limitaciones que infringen los derechos naturales o económicos de esas personas y que causan daños en sí mismas.
Las sociedades occidentales, incluida la estadounidense, se toman con calma las oleadas anuales de infecciones respiratorias sin que se declaren emergencias pandémicas, aunque produzcan millones de individuos infectados cada año, porque las consecuencias de la infección se consideran generalmente menores desde el punto de vista médico, incluso teniendo en cuenta algunas decenas de miles de muertes anuales.
En los primeros meses de la pandemia de Covid-19 se estableció que el riesgo de mortalidad por infección variaba en más de 1.000 veces a lo largo de la edad, y que las personas sin enfermedades crónicas como la diabetes, la obesidad, las cardiopatías, las enfermedades renales, los antecedentes de cáncer, etc., tenían un riesgo insignificante de mortalidad y un riesgo muy bajo de hospitalización. En ese momento, era sencillo definir categorías de individuos de alto riesgo que, por término medio, se beneficiarían de las intervenciones de salud pública, frente a los individuos de bajo riesgo que superarían la infección sin problemas apreciables o a largo plazo. Por tanto, un esquema de gestión de la pandemia obsesivo y de talla única que no distinguiera las categorías de riesgo era irrazonable y opresivo desde el principio.
En consecuencia, las medidas promovidas por la plausibilidad para reducir la transmisión de la infección, incluso si hubieran sido eficaces para ese fin, no han servido para una buena gestión de la pandemia. Sin embargo, estas medidas nunca estuvieron justificadas por la evidencia científica en primer lugar. La regla de los seis pies de distancia social fue un invento arbitrario de los CDC (Dangor, 2021). Las afirmaciones sobre los beneficios del uso de mascarillas rara vez han distinguido entre el beneficio potencial para el usuario, para el que dicho uso sería una elección personal de aceptar o no un riesgo más teórico, y el beneficio para los transeúntes, el llamado «control de la fuente», en el que podrían aplicarse adecuadamente las consideraciones de salud pública. Los estudios sobre el control de la fuente basado en la mascarilla para los virus respiratorios, en los casos en que los estudios carecen de defectos fatales, no han mostrado ningún beneficio apreciable en la reducción de la transmisión de la infección (Alexander, 2021; Alexander, 2022; Burns, 2022).
Los cierres generales de la población nunca se han utilizado en los países occidentales y no tienen ninguna prueba de su efecto para hacer otra cosa que posponer lo inevitable (Meunier, 2020), como ponen de manifiesto los datos de la población de Australia (Worldometer, 2022). En el debate definitivo sobre las medidas de salud pública para el control de la gripe pandémica (Inglesby et al., 2006), los autores afirman: «No hay observaciones históricas ni estudios científicos que apoyen el confinamiento mediante cuarentena de grupos de personas posiblemente infectadas durante periodos prolongados para frenar la propagación de la gripe». Un Grupo de Redacción de la Organización Mundial de la Salud (OMS), tras revisar la literatura y considerar la experiencia internacional contemporánea, concluyó que ‘el aislamiento forzado y la cuarentena son ineficaces y poco prácticos’. … Las consecuencias negativas de la cuarentena a gran escala son tan extremas (confinamiento forzoso de los enfermos con los sanos; restricción total de los movimientos de grandes poblaciones; dificultad para hacer llegar los suministros críticos, los medicamentos y los alimentos a las personas que se encuentran dentro de la zona de cuarentena) que esta medida de mitigación debería eliminarse de una consideración seria».
En cuanto a las restricciones de viaje, Inglesby et al. (2006) señalan: «Las restricciones de viaje, como el cierre de los aeropuertos y el control de los viajeros en las fronteras, han sido históricamente ineficaces. El Grupo de Redacción de la Organización Mundial de la Salud llegó a la conclusión de que «el cribado y la puesta en cuarentena de los viajeros que entran en las fronteras internacionales no retrasó sustancialmente la introducción del virus en pandemias pasadas… y probablemente será aún menos eficaz en la era moderna». Sobre el cierre de escuelas (Inglesby et al., 2006) «En anteriores epidemias de gripe, el impacto del cierre de las escuelas en las tasas de enfermedad ha sido desigual. Un estudio de Israel informó de un descenso de las infecciones respiratorias tras una huelga de profesores de 2 semanas, pero el descenso sólo fue evidente durante un único día. Por otra parte, cuando las escuelas cerraron por vacaciones de invierno durante la pandemia de 1918 en Chicago, «se desarrollaron más casos de gripe entre los alumnos… que cuando las escuelas estaban en sesión».
Esta discusión deja claro que estas acciones que supuestamente interfieren en la transmisión del virus basándose en argumentos de verosimilitud sobre su eficacia han sido tanto erróneas para gestionar la pandemia, como carentes de pruebas científicas sobre su eficacia para reducir la propagación. Su promoción a gran escala ha demostrado el fracaso de las políticas de salud pública en la era Covid-19.
Plausibilidad frente a mala ciencia
Se podría argumentar que varias políticas de salud pública, así como la información puesta a disposición del público en general, no se han apoyado en la plausibilidad, sino en una ciencia mala o fatalmente defectuosa, que se hace pasar por ciencia real. Por ejemplo, en su revista interna, no revisada por pares, Morbidity and Mortality Weekly Reports, los CDC han publicado varios análisis sobre la eficacia de las vacunas. Estos informes describían estudios transversales pero los analizaban como si fueran estudios de casos y controles, utilizando sistemáticamente parámetros de odds ratio estimados en lugar de riesgos relativos para calcular la eficacia de las vacunas. Cuando los resultados del estudio son poco frecuentes, por ejemplo, menos del 10% de los sujetos del estudio, entonces las odds ratio pueden aproximarse a los riesgos relativos, pero en caso contrario, las odds ratio tienden a ser sobreestimadas. Sin embargo, en los estudios transversales, los riesgos relativos pueden calcularse directamente y pueden ajustarse a los posibles factores de confusión mediante una regresión de riesgo relativo (Wacholder, 1986), de forma similar al uso de la regresión logística en los estudios de casos y controles.
Un ejemplo representativo es un estudio sobre la eficacia de las vacunas de tercera dosis de Covid-19 (Tenforde et al., 2022). En este estudio, «… la Red IVY inscribió a 4.094 adultos de edad ≥18 años», y tras las exclusiones de sujetos pertinentes, «se incluyeron 2.952 pacientes hospitalizados (1.385 pacientes-caso y 1.567 controles sin Covid-19)». Los estudios transversales, por su diseño, identifican el número total de sujetos, mientras que el número de casos y controles, y de expuestos y no expuestos, se produce al margen de la intervención del investigador, es decir, por los procesos naturales que subyacen a los mecanismos médicos, biológicos y epidemiológicos que se examinan. Al seleccionar un número total de sujetos, el estudio de Tenforde et al. es por definición un diseño transversal. Este estudio informó de una eficacia de la vacuna del 82% entre los pacientes sin condiciones de inmunocompromiso. Esta estimación refleja una odds ratio ajustada de 1 – 0,82 = 0,18. Sin embargo, la fracción de pacientes casuales entre los vacunados fue del 31% y entre los no vacunados fue del 70%, ninguno de los cuales es lo suficientemente infrecuente como para permitir el uso de la aproximación de la razón de momios para calcular la eficacia de la vacuna. Según los números de la tabla 3 del informe del estudio, calculo un riesgo relativo no ajustado de 0,45 y un riesgo relativo ajustado aproximado de 0,43, lo que da una eficacia real de la vacuna de 1 – 0,43 = 57%, que es sustancialmente diferente y mucho peor que el 82% presentado en el documento.
En un contexto diferente, después de que publicara un artículo de revisión resumida sobre el uso de la hidroxicloroquina (HCQ) para el tratamiento precoz del Covid-19 en régimen ambulatorio (Risch, 2020), se publicaron varios artículos de ensayos clínicos en un intento de demostrar que la HCQ es ineficaz. La primera de estas llamadas «refutaciones» se realizó en pacientes hospitalizados, cuya enfermedad es casi totalmente diferente en cuanto a fisiopatología y tratamiento que la enfermedad temprana en pacientes externos (Park et al., 2020). Los resultados importantes que había abordado en mi revisión, los riesgos de hospitalización y la mortalidad, se distrajeron en estos trabajos al centrarse en resultados subjetivos y menores, como la duración de la positividad de las pruebas víricas o la duración de la estancia hospitalaria.
Posteriormente, empezaron a publicarse ECA sobre el uso de HCQ en pacientes externos. Uno típico es el de Caleb Skipper et al. (2020). El criterio de valoración principal de este ensayo fue el cambio en la gravedad general de los síntomas autodeclarados durante 14 días. Este criterio de valoración subjetivo tenía poca importancia pandémica, sobre todo teniendo en cuenta que los sujetos de los estudios de este grupo de investigación eran medianamente capaces de decir si estaban en los brazos de HCQ o de placebo del ensayo (Rajasingham et al., 2021) y, por tanto, los resultados autoinformados no estaban del todo cegados a los brazos de medicación. A partir de sus análisis estadísticos, los autores concluyeron acertadamente que «la hidroxicloroquina no redujo sustancialmente la gravedad de los síntomas en pacientes ambulatorios con COVID-19 leve y temprana». Sin embargo, los medios de comunicación generalistas informaron de este estudio como si demostrara que «la hidroxicloroquina no funciona». Por ejemplo, Jen Christensen (2020) en CNN Health afirmó sobre este estudio: «El fármaco antipalúdico hidroxicloroquina no benefició a los pacientes no hospitalizados con síntomas leves de COVID-19 que fueron tratados al principio de su infección, según un estudio publicado el jueves en la revista médica Annals of Internal Medicine».
Pero, de hecho, el estudio de Skipper sí informó sobre los dos resultados de importancia, los riesgos de hospitalización y mortalidad: con el placebo, 10 hospitalizaciones y 1 muerte; con la HCQ, 4 hospitalizaciones y 1 muerte. Estas cifras muestran una reducción del 60% del riesgo de hospitalización que, aunque no es estadísticamente significativa (p=0,11), es totalmente coherente con todos los demás estudios sobre el riesgo de hospitalización por el uso de HCQ en pacientes ambulatorios (Risch, 2021). No obstante, este pequeño número de eventos de resultado no es suficiente para que la aleatorización haya equilibrado ningún factor, y el estudio es esencialmente inútil sobre esta base. Pero aún así se interpretó erróneamente en la literatura no especializada como si demostrara que la HCQ no aporta ningún beneficio en el uso ambulatorio.
Conclusiones
Durante la pandemia de Covid-19 se han producido muchos otros casos de bulos científicos plausibles o de mala ciencia. Como se vio con los artículos retractados de Surgisphere, las revistas médicas publican de forma rutinaria y acrítica estas tonterías siempre que las conclusiones se alineen con las políticas gubernamentales. Este conjunto de conocimientos falsos ha sido promulgado al más alto nivel, por el NSC, la FDA, los CDC, los NIH, la OMS, el Wellcome Trust, la AMA, las juntas de especialidades médicas, las agencias de salud pública estatales y locales, las multinacionales farmacéuticas y otras organizaciones de todo el mundo que han incumplido sus responsabilidades con el público o han decidido deliberadamente no entender la ciencia falsa.
El Senado estadounidense votó recientemente, por tercera vez, para poner fin al estado de emergencia de Covid-19, pero el presidente Biden declaró que vetaría la medida por «miedo» a que se repitan los casos. Mis colegas y yo sostuvimos hace casi un año que la emergencia pandémica había terminado (Risch et al., 2022), pero la dependencia espuria del recuento de casos para justificar la supresión de los derechos humanos bajo la cobertura de la «emergencia» continúa sin cesar.
La censura masiva de los medios de comunicación tradicionales y de gran parte de los medios sociales ha bloqueado la mayor parte del debate público sobre esta ciencia mala y falsa. La censura es la herramienta de lo indefendible, ya que la ciencia válida se defiende por sí misma. Hasta que el público no empiece a comprender la diferencia entre verosimilitud y ciencia y lo grande que ha sido el esfuerzo por producir en masa un «producto» científico que parece ciencia pero no lo es, el proceso continuará y los líderes que buscan el poder autoritario seguirán confiando en él para justificarse falsamente.
Referencias
Alexander, P. E. (2021, 20 de diciembre). Más de 150 estudios y artículos comparativos sobre la ineficacia y los daños de las máscaras. Instituto Brownstone. https://brownstone.org/articles/more-than-150-comparative-studies-and-articles-on-mask-ineffectiveness-and-harms/
Alexander, P. E. (2022, 3 de junio). Los CDC se niegan a publicar la corrección de su estudio sobre las mascarillas. Instituto Brownstone. https://brownstone.org/articles/cdc-refuses-to-post-the-fix-to-its-mask-study/
Anglemyer, A., Horvath, H. T., Bero, L. (2014). Resultados sanitarios evaluados con diseños de estudios observacionales comparados con los evaluados en ensayos aleatorios (Revisión). Base de datos Cochrane de revisiones sistemáticas, 4, artículo MR000034. https://doi.org/10.1002/14651858.MR000034.pub2
Bae, J.-M. (2016). Una sugerencia para la evaluación de la calidad en las revisiones sistemáticas de estudios observacionales en epidemiología nutricional. Epidemiología y Salud, 38, Artículo e2016014. https://doi.org/10.4178/epih.e2016014
Berger, M. A. (2011). La admisibilidad del testimonio de los expertos. En National Research Council, Committee on the Development of the Third Edition of the Reference Manual on Scientific Evidence, Reference Manual on Scientific Evidence, Third Edition (pp. 11-36). National Academies Press. https://nap.nationalacademies.org/catalog/13163/reference-manual-on-scientific-evidence-third-edition
Burns, E. (2022, 10 de noviembre). Otro día, otro terrible estudio sobre la máscara. Miremos bajo el capó de la más reciente pieza de ciencia de baja calidad sobre las mascarillas. Substack. https://emilyburns.substack.com/p/another-day-another-terrible-mask
Centros de Servicios de Medicare y Medicaid. (2022, junio). Buscar pagos abiertos. Departamento de Salud y Servicios Humanos de EEUU, Centros de Servicios de Medicare y Medicaid. https://openpaymentsdata.cms.gov/
Christensen, J. (2020, 16 de julio). La hidroxicloroquina tampoco ayuda a los pacientes de Covid-19 que no están hospitalizados, según un nuevo estudio. CNN Health. https://www.cnn.com/2020/07/16/health/hydroxychloroquine-doesnt-work-hospitalized-patients/
Collins, R., Bowman, L., Landray, M. y Peto, R. (2020). La magia de la aleatorización frente al mito de las pruebas del mundo real. New England Journal of Medicine, 382(7), 674-678. https://www.nejm.org/doi/10.1056/NEJMsb1901642
Dangor, G. (2021, 19 de septiembre). La regla de los CDC de los seis pies de distancia social era «arbitraria», dice el ex comisario de la FDA. Forbes. https://www.forbes.com/sites/graisondangor/2021/09/19/cdcs-six-foot-social-distancing-rule-was-arbitrary-says-former-fda-commissioner/
Deaton, A., y Cartwright, N. (2018). Comprender y malinterpretar los ensayos controlados aleatorios. Social Science & Medicine, 210, 2-21. https://doi.org/10.1016/j.socscimed.2017.12.005
Feynman, R. P. (1974). La ciencia del culto a la carga. Ingeniería y Ciencia, 37(7), 10-13. https://resolver.caltech.edu/CaltechES:37.7.CargoCult
Goldberger, J., Waring, C. H., y Willets, D. G. (1915). La prevención de la pelagra: Una prueba de la dieta entre los reclusos de las instituciones. Public Health Reports, 30(43), 3117-3131. https://www.jstor.org/stable/4572932
Hartling, L., Milne, A., Hamm, M. P., Vandermeer, B., Ansari, M., Tsertsvadze, A., Dryden, D. M. (2013). La prueba de la Escala de Ottawa de Newcastle mostró una baja fiabilidad entre revisores individuales. Journal of Clinical Epidemiology, 66, 982-993. https://doi.org/10.1016/j.jclinepi.2013.03.003
Hill, A. B. (1965). El medio ambiente y la enfermedad: asociación o causalidad. Actas de la Real Sociedad de Medicina, 58(5), 295-300. https://doi.org/10.1177/003591576505800503
Inglesby, T. V., Nuzzo, J. B., O’Toole, T., Henderson, D. A. (2006). Medidas de mitigación de enfermedades en el control de la gripe pandémica. Bioseguridad y Bioterrorismo: Biodefense Strategy, Practice, and Science, 4(4):366-375. https://doi.org/10.1089/bsp.2006.4.366
Meunier, T. (2020, 1 de mayo). Las políticas de bloqueo total en los países de Europa Occidental no tienen impactos evidentes en la epidemia de COVID-19. medRxiv. https://doi.org/10.1101/2020.04.24.20078717
MSNBC. (2021, 9 de junio). Fauci responde a los ataques de los republicanos [Vídeo]. YouTube. https://www.youtube.com/watch?v=z-tfZr8Iv0s
Biblioteca Nacional de Medicina (2021, mayo). ClinicalTrials.gov. Historia, políticas y leyes. Departamento de Salud y Servicios Humanos de EE.UU., Institutos Nacionales de Salud, Biblioteca Nacional de Medicina. https://clinicaltrials.gov/ct2/about-site/history
Park, J. J. H., Decloedt, E. H., Rayner, C. R., Cotton, M., Mills, E. J. (2020). Los ensayos clínicos de los estadios de la enfermedad en COVID 19: complicados y a menudo malinterpretados. Lancet Global Health, 8(10), e1249-e1250. https://doi.org/10.1016/S2214-109X(20)30365-X
Polack, F. P., Thomas, S. J., Kitchin, N., Absalon, J., Gurtman, A., Lockhart, S., Pérez, J. L., Pérez Marc, G., Moreira, E. D., Zerbini, C., Bailey, R., Swanson, K. A., Roychoudhury, S., Koury, K., Li, P., Kalina, W. V., Cooper, D., Frenck, R. W., Jr., Hammitt, L. L., …, Gruber, W. C. (2020). Seguridad y eficacia de la vacuna BNT162b2 mRNA Covid-19. New England Journal of Medicine, 383(27), 2603-2615. https://www.nejm.org/doi/full/10.1056/nejmoa2034577
Rajasingham, R., Bangdiwala, A. S., Nicol, M. R., Skipper, C. P., Pastick, K. A., Axelrod, M. L., Pullen, M. F., Nascene, A. A., Williams, D. A., Engen, N. W., Okafor, E. C., Rini, B. I., Mayer, I. A., McDonald, E. G., Lee, T. C., Li P., MacKenzie, L. J., Balko, J. M., Dunlop, S. J., …, Lofgren, S. M. (2021). Hidroxicloroquina como profilaxis previa a la exposición a la enfermedad por coronavirus 2019 (COVID-19) en trabajadores sanitarios: Un ensayo aleatorio. Clinical Infectious Diseases, 72(11), e835-e843. https://doi.org/10.1093/cid/ciaa1571
Risch, H. A. (2020). El tratamiento ambulatorio precoz de los pacientes sintomáticos de alto riesgo de COVID-19 que debe aumentarse inmediatamente es la clave de la crisis pandémica. American Journal of Epidemiology, 189(11), 1218-1226. https://doi.org/10.1093/aje/kwaa093
Risch, H. A. (2021, 17 de junio). Hidroxicloroquina en el tratamiento precoz de pacientes ambulatorios de alto riesgo de COVID-19: Pruebas de eficacia y seguridad. EarlyCovidCare.org, https://earlycovidcare.org/wp-content/uploads/2021/09/Evidence-Brief-Risch-v6.pdf
Risch, H., Bhattacharya, J., Alexander, P. E. (2022, 23 de enero). Hay que poner fin a la emergencia, ahora. Instituto Brownstone. https://brownstone.org/articles/the-emergency-must-be-ended-now/
Sackett, D. L., Rosenberg, W. M. C., Gray, J. A. M., Haynes, R. B. y Richardson, W. S. (1996). Medicina basada en la evidencia: qué es y qué no es. BMJ, 312, artículo 71. https://doi.org/10.1136/bmj.312.7023.71
Skipper, C. P., Pastick, K. A., Engen, N. W., Bangdiwala, A. S., Abassi, M., Lofgren, S. M., Williams, D. A., Okafor, E. C., Pullen, M. F., Nicol, M. R., Nascene, A. A., Hullsiek, K. H., Cheng, M. P., Luke, D., Lother, S. A., MacKenzie, L. J., Drobot, G., Kelly, L. E., Schwartz, I. S., …, Boulware, D. R. (2020). Hidroxicloroquina en adultos no hospitalizados con COVID-19 precoz: Un ensayo aleatorio. Anales de Medicina Interna, 173(8), 623-631. https://doi.org/10.7326/M20-4207
Tenforde, M. W., Patel, M. M., Gaglani, M., Ginde, A. A., Douin, D. J., Talbot, H. K., Casey, J. D., Mohr, N. M., Zepeski, A., McNeal, T., Ghamande, S., Gibbs, K. W., Files, D. C., Hager, D. N., Shehu, A., Prekker, M. E., Erickson, H. L., Gong, M. N., Mohamed, A., …, Self, W. H. (2022). Morbidity and Mortality Weekly Report, 71(4), 118-124. https://www.cdc.gov/mmwr/volumes/71/wr/mm7104a2.htm
Tigas, M., Jones, R. G., Ornstein, C., & Groeger, L. (2019, 17 de octubre). Dólares para los médicos. Cómo llegan los dólares de la industria a los médicos. ProPublica. https://projects.propublica.org/docdollars/
Wacholder, S. (1986). Regresión binomial en GLIM: estimación de cocientes de riesgo y diferencias de riesgo. American Journal of Epidemiology, 123(1), 174-184. https://doi.org/10.1093/oxfordjournals.aje.a114212
Whelan, R. (2020, 3 de agosto). 2020-08-03 – CNN COVID con entrevista a Harvey Risch, epidemiólogo de Yale [Vídeo]. YouTube. https://www.youtube.com/watch?v=gGO6Ke81bUQ
Worldometer. (2022, 15 de noviembre). Total de casos de coronavirus en Australia. Worldometer. https://www.worldometers.info/coronavirus/country/australia/
Autor
Harvey Risch
Harvey Risch
Harvey Risch, investigador principal del Instituto Brownstone, es médico y profesor emérito de Epidemiología en la Escuela de Salud Pública y la Escuela de Medicina de Yale. Sus principales intereses de investigación son la etiología, la prevención y el diagnóstico precoz del cáncer, y los métodos epidemiológicos.