Si bien son eficientes, los estadísticos de los NIH cuestionaron la eficacia de los ensayos de plataforma que se han hecho a nivel internacional para obtener resultados sólidos sobre COVID-19.
Este tipo de ensayo clínico aleatorizado (ECA) evita que se tengan que hacer ensayos separados, por lo que ahorran el tener que establecer ensayos clínicos separados, lo que representa una carga de trabajo importante. En su lugar, se comparan múltiples grupos de tratamiento experimental con un solo grupo de control, y los brazos experimentales pueden, en diferentes momentos, ir ingresando y saliendo del ensayo, a medida que se va acumulando información.
La mayoría de los éxitos en la búsqueda de tratamientos para COVID-19 provienen de los grandes ensayos pragmáticos de plataforma, incluyendo los ensayos RECOVERY y REMAP-CAP,
Sin embargo, esta característica que en el caso de una pandemia aporta resultados con una velocidad útil, también puede socavar el principio clave de los ECA: que la aleatorización genera poblaciones de pacientes equivalentes, de modo que las diferencias entre los grupos se pueden atribuir únicamente al tratamiento.
En un entorno clínico que cambia rápidamente como la pandemia por COVID-19, los grupos control no concurrentes pueden ser un problema, dijeron Lori E. Dodd, PhD, del Instituto Nacional de Alergias y Enfermedades Infecciosas, y Boris Freidlin, PhD y Edward L. Korn, PhD, ambos del Instituto Nacional del Cáncer, todos ubicados en Bethesda, Maryland.
“Considere la disminución de la mortalidad hospitalaria por Covid-19 que se produjo durante un período de dos meses en la primavera de 2020, y un ensayo hipotético que comparara un tratamiento control con un nuevo agente ineficaz que no se incluyó en la aleatorización hasta el segundo mes”, postularon en una carta al editor del New England Journal of Medicine (NEJM) [https://www.nejm.org/doi/full/10.1056/NEJMc2102446]
“Si se hicieran comparaciones entre los pacientes que recibieron el tratamiento control durante el período de dos meses (abril-mayo de 2020) y los pacientes que fueron asignados al azar para recibir el nuevo agente ineficaz durante el período de 1 mes (mayo de 2020), los resultados sugerirían erróneamente que la mortalidad a los 30 días sería un 37% menor entre los tratados con el nuevo agente ineficaz”, anotaron.
Los grupos control no concurrentes pueden generar sesgos, dijo el grupo de Dodd, cuando las proporciones de aleatorización entre los grupos del ensayo cambian a lo largo del tiempo, cuando los países o sitios con diferentes tasas de mortalidad restringen la aleatorización al grupo de control o a ciertos tratamientos del ensayo, o cuando los tratamientos concomitantes difieren entre los grupos tratados que participan en el ensayo.
En su carta, publicada junto con la publicación impresa de los resultados de los ensayos REMAP-CAP y COVACTA [1] sobre los inhibidores de la interleucina-6 para el COVID-19 grave (después de su publicación en línea en febrero), el trío criticó especialmente a a REMAP-CAP [2] por tal sesgo a favor de tocilizumab (Actemra) y sarilumab (Kevzara).
“En este ensayo internacional de plataforma, el grupo de control utilizado en el análisis no se limitó a pacientes que se habían sometido a una asignación al azar simultánea, y se informó que los tratamientos que se utilizaron en el ensayo mejoraron la supervivencia”, escribieron Dodd y sus colegas.
“No se puede decir con certeza que el modelo estadístico no haya eliminado el sesgo, especialmente en un ensayo de plataforma complejo y difícil de entender como REMAP-CAP”, concluyeron. “Se puede cuestionar el valor agregado de este ensayo en relación con los otros ensayos aleatorios con controles sencillos y comparables”.
Sin embargo, el estadístico senior de REMAP-CAP, Scott Berry, PhD, argumentó que este grupo de autores con un historial de rechazar las innovaciones estadísticas estaba cuestionando lo incuestionable.
“Hay que hacer este tipo de cuestionamientos”, dijo a MedPage Today. “Lo que me decepcionó fue que lo adjuntaran a los resultados del ensayo REMAP-CAP sobre tocilizumab y sarilumab, porque estos no tienen este problema”.
“Quizás no lo explicamos lo suficientemente bien, pero presentamos exactamente el análisis que querían, que solo incluía a controles concurrentes”, señaló, y agregó que “los resultados con los controles concurrentes fueron en realidad un poco mejores”.
De hecho, todos los artículos de REMAP-CAP que se publican hacen lo mismo, dijo Berry.
Berry ha participado en el diseño de otros ensayos de plataforma grandes, como ATTACC [3] y algunos brazos de la plataforma ACTIV [4], y argumentó que la carta de NEJM no debería socavar la confianza de los médicos en los resultados.
“Los ensayos de plataforma han aportado resultados increíblemente confiables”, dijo. “La mayor parte de lo que sabemos sobre cómo tratar a las personas [con COVID-19] proviene de los ensayos de plataforma. Es lo que el NIH Operation Warp Speed creó con su programa ACTIV, y realmente ha sido bastante efectivo”.
La comunicación es clave para mantener esa confianza, comentó Behnood Bikdeli, MD, del Centro de Investigación y Evaluación de Resultados de Yale, en New Haven, Connecticut, quien ha estado involucrado en el diseño de ensayos clínicos de COVID-19 como INSPIRATION.
“Los resultados finales y sus ventajas e inconvenientes en comparación con los ensayos tradicionales deben comunicarse de manera transparente y comprensible a la comunidad médica, muchos de los cuales pueden no tener un conocimiento detallado del diseño de ensayos clínicos”, dijo a MedPage Today. “Dicho esto, antes de que se publiquen todos los detalles, es difícil comprender completamente las fortalezas y limitaciones de los resultados. Sigo entusiasmado con ver los resultados completos de los ensayos de múltiples plataformas”.
Referencias