La inteligencia artificial (IA) ha arrasado en todo el mundo, y los organismos reguladores están prestándole atención. El Parlamento Europeo adoptó recientemente la Ley de Inteligencia Artificial (Ley de IA), lo que representa un importante paso regulatorio en la supervisión de las tecnologías basadas en la IA.
Esta importante legislación pretende crear un marco amplio para el desarrollo y la aplicación de la IA, garantizando el uso ético, la seguridad y la transparencia para los residentes en la Unión Europea (UE).
Las implicaciones de la Ley de IA de la UE se extienden a la investigación clínica, donde la IA se utiliza cada vez más en tareas como el análisis de imágenes médicas, el procesamiento de lenguaje natural para el análisis de criterios de valoración y la generación o el análisis de datos para grupos control sintéticos (es decir compuestos por datos existentes en lugar de reclutar individuos).
Este artículo explora el posible impacto de la Ley de IA en el software y en los sistemas utilizados en la investigación clínica, y cómo afecta a las entidades que no pertenecen a la UE. También resumimos la información clave que las empresas farmacéuticas y las organizaciones de investigación por contrato (CRO o contract research organizations) deben conocer para estar preparadas para cumplir con dicha ley.
Visión general de la Ley de IA
La nueva Ley clasifica las aplicaciones de IA en función de los siguientes niveles de riesgo: inaceptable, alto, limitado y mínimo.
Un ejemplo de sistemas de riesgo limitado y mínimo incluye el uso de la IA en aplicaciones benignas de juegos y generadores de lenguaje. Las aplicaciones de IA con estos niveles de riesgo se enfrentan a menos regulaciones, pero deben cumplir ciertas normas para garantizar un uso ético.
Los sistemas de IA de riesgo inaceptable se prohíben totalmente, mientras que los de riesgo alto deben cumplir requisitos estrictos, como transparencia, gobernanza de datos, registro ante las autoridades centrales competentes y supervisión por humanos.
Aunque algunas de las fechas de cumplimiento de la Ley de IA se fijaron para agosto de 2024, la Ley en su totalidad entrará en vigor en marzo de 2026.
Sistemas potenciados por la IA de alto riesgo: Requisitos clave
Es probable que, en virtud de la Ley de IA, muchos sistemas basados en IA que se utilizan actualmente en ensayos clínicos se consideren de “alto riesgo”. Esto incluye softwares para el descubrimiento de fármacos, soluciones de viabilidad de estudios, herramientas de reclutamiento de pacientes y otros.
A continuación, se exponen algunos requisitos clave para los sistemas de IA de “alto riesgo” en relación con los ensayos clínicos. (Esta no es una lista exhaustiva; para más detalles, consulte la Ley de IA) [1]:
Posible impacto en la investigación clínica
Los proveedores de software, los patrocinadores, las organizaciones de investigación por contrato y los centros clínicos están utilizando cada vez más componentes de IA en sus procedimientos, programas y sistemas. A continuación se exponen las tres áreas clave de la investigación clínica en las que la Ley de IA podría tener un impacto:
Análisis de imágenes e historias clínicas
Una de las aplicaciones más innovadoras de la IA en la investigación clínica es el análisis de imágenes e historias clínicas. Los algoritmos de IA pueden procesar grandes cantidades de datos de imágenes e historias clínicas para detectar anomalías, identificar marcadores de enfermedades y ayudar en el diagnóstico y la identificación de criterios de valoración con gran precisión y rapidez.
Es probable que los sistemas de análisis de imágenes e historias clínicas entren en la categoría de alto riesgo de la Ley de IA, debido al gran impacto que pueden tener sobre la salud y la seguridad en la prestación de atención clínica. Esta categorización también considera el impacto que representa la IA en el análisis de adjudicación de criterios de valoración, que en última instancia influye en las decisiones de aprobación regulatoria de fármacos y dispositivos.
Grupos control sintéticos
El uso de software potenciado por IA para generar datos para grupos control sintéticos en ensayos clínicos es otra posible área de “alto riesgo” que está posicionada para tener un impacto importante. Los grupos control sintéticos utilizan datos históricos de ensayos clínicos y evidencia de la práctica clínica para simular un grupo control, lo cual reduce la necesidad de grupos placebo y acelera el proceso del ensayo.
Las agencias reguladoras están presionando para que se utilice la Evidencia de la Práctica Clínica (RWE o real-world evidence) para acelerar las aprobaciones y reducir los gastos y la complejidad de los ensayos clínicos [2]. Sin embargo, ¿qué ocurre cuando la tecnología de IA procesa grandes bases de Datos de la Práctica Clínica (RWD o real-world data) y extrapola cómo sería un grupo de control hipotético de pacientes, también hipotéticos, a partir de conjuntos de datos masivos agregados (es decir, un grupo control sintético)?
Aunque el grupo control sintético que se ha descrito anteriormente se basa en datos reales, el reto reside en cómo confiar en las hipótesis que formula la IA. Los organismos reguladores deben considerar cómo verificar la procedencia de los datos, y lo que la IA determinó y supuso para generar los datos para el grupocontrol, así como las implicaciones que esas hipótesis tienen en el resultado final: la aprobación de un fármaco o dispositivo.
Identificación de pacientes
La IA también está revolucionando la identificación de pacientes para ensayos clínicos, un proceso difícil y crucial para que la investigación tenga éxito. Los algoritmos de IA pueden analizar grandes bases de datos, incluyendo historias clínicas electrónicas (HCE o electronic health records) y datos genómicos, para identificar candidatos adecuados para los ensayos clínicos, con mayor precisión y eficiencia. Esto puede ser especialmente valioso para el creciente número de ensayos que analizan biomarcadores, que pueden hacer que resulte más difícil encontrar participantes que cumplan con criterios estrictos y requieran una mayor recopilación de datos antes y durante el estudio.
Según la Ley de IA de la UE, los sistemas para la identificación de pacientes se pueden considerar de alto riesgo, debido a su posible impacto en la salud y la privacidad de los pacientes.
Impacto de la Ley de IA en las empresas que no pertenecen a la UE
Al igual que el Reglamento general de privacidad de datos (RGPD o General Data Privacy Regulation) de la UE [3], la Ley de IA se aplica fuera de la zona económica de la UE. Tiene implicaciones que pueden ser significativas para cualquier empresa que haga negocios dentro de la UE, especialmente aquellas que comercialicen productos y servicios de investigación clínica basados en IA, dentro de la región.
Las empresas que no forman parte de la UE deben cumplir con la Ley si sus sistemas de IA se utilizan en el mercado de la UE. Para aquellas organizaciones que no estén establecidas en la UE, y que estén llevando a cabo ensayos clínicos, hay que tener en cuenta lo siguiente:
Cómo se deben preparar las partes interesadas en ensayos clínicos que operans en la UE, para cumplir la Ley de IA
Los patrocinadores, las organizaciones de investigación por contrato y otros agentes del sector de la investigación deben tener en cuenta las siguientes medidas:
La aprobación de la Ley de Inteligencia Artificial por el Parlamento Europeo representa un momento crucial en la regulación de la tecnología basada en IA, sobre todo en campos de alto riesgo, como la investigación clínica.
Es probable que esto solo sea el principio de la regulación de la IA; incluso las empresas que no operan en la UE deberían tomar nota y considerar el impacto de la Ley, ya que podría predecir futuras políticas nacionales. El énfasis que pone la Ley en la transparencia, la gobernanza de los datos y la supervisión humana tiene como objetivo garantizar el uso seguro y ético de la IA, fomentando en última instancia una mayor confianza y fiabilidad en la investigación clínica basada en la IA.
Una versión de este artículo apareció originalmente en PharmaPhorum en julio de 2024 [4].
Referencias