Una organización internacional sin ánimo de lucro para fomentar el acceso y el uso adecuado de medicamentos entre la población hispano-parlante

Europa y el Reino Unido

El impacto de la nueva Ley de Inteligencia Artificial de la UE en la investigación clínica

(Understanding the Impact of the New EU Artificial Intelligence Act on Clinical Research)
James Riddle
Advarra, 8 de agosto de 2024
https://www.advarra.com/blog/understanding-the-impact-of-the-new-eu-artificial-intelligence-act-on-clinical-research/
Traducido por Salud y Fármacos, publicado en Boletín Fármacos: Ensayos Clínicos 2024; 27(4)

Tags: inteligencia artificial y ensayos clínicos, riesgos de usar IA, grupos control sintéticos

La inteligencia artificial (IA) ha arrasado en todo el mundo, y los organismos reguladores están prestándole atención. El Parlamento Europeo adoptó recientemente la Ley de Inteligencia Artificial (Ley de IA), lo que representa un importante paso regulatorio en la supervisión de las tecnologías basadas en la IA.

Esta importante legislación pretende establecer un marco amplio para el desarrollo y la aplicación de la IA, garantizando el uso ético, la seguridad y la transparencia para los residentes en la Unión Europea (UE).

Las implicaciones de la Ley de IA de la UE afectan a la investigación clínica, donde la IA se utiliza cada vez más para el análisis de imágenes médicas, el procesamiento de lenguaje natural para el análisis de criterios de valoración y para la generación de grupos control sintéticos (es decir compuestos por datos existentes en lugar de reclutar individuos) o para el análisis de datos.

Este artículo explora el posible impacto de la Ley de IA en el software y en los sistemas que se utilizan en la investigación clínica, y también discute cómo puede afectar a las entidades que no pertenecen a la UE. También resumimos la información clave que las empresas farmacéuticas y las organizaciones de investigación por contrato (CRO o contract research organizations) deben conocer para prepararse para cumplir con dicha ley.

Visión general de la Ley de IA
La nueva Ley clasifica las aplicaciones de la IA en función de los siguientes niveles de riesgo: inaceptable, alto, limitado y mínimo.

Un ejemplo de sistemas de riesgo limitado y mínimo incluye el uso de la IA en aplicaciones benignas de juegos y generadores de lenguaje. Las aplicaciones de IA con estos niveles de riesgo están menos reguladas, pero deben cumplir ciertas normas para garantizar un uso ético.

Los sistemas de IA de riesgo inaceptable se prohíben totalmente, mientras que los de riesgo alto deben cumplir requisitos estrictos, como transparencia, gobernanza de datos, registro ante las autoridades centrales competentes y supervisión por humanos.

Aunque algunas de las fechas de cumplimiento de la Ley de IA se fijaron para agosto de 2024, la Ley en su totalidad entrará en vigor en marzo de 2026.

Sistemas potenciados por IA de alto riesgo: Requisitos clave
Es probable que, en virtud de la Ley de IA, muchos sistemas basados en IA que se utilizan actualmente en ensayos clínicos se consideren de “alto riesgo”. Esto incluye softwares para el descubrimiento de fármacos, soluciones para determinar la viabilidad de estudios, herramientas de reclutamiento de pacientes y otros.

A continuación, se exponen algunos requisitos clave para los sistemas de IA de “alto riesgo” que se relacionan con los ensayos clínicos. (Esta no es una lista exhaustiva; para más detalles, consulte la Ley de IA) [1]:

  • Transparencia y que se pueda explicar de forma entendible: Los sistemas de IA deben ser transparentes, es decir, que sus procesos de toma de decisiones se deben poder explicar a los profesionales de salud y a los pacientes. La Ley de IA requiere que los profesionales de salud y los pacientes entiendan y confíen en las decisiones basadas en IA.
  • Gobernanza de datos: Los sistemas de IA de alto riesgo deben aplicar medidas sólidas de gobernanza de datos, incluyendo la gestión de la calidad de los datos, para garantizar que los datos utilizados en la formación y el funcionamiento de estos sistemas sean precisos, representativos y libres de sesgos.
  • Supervisión humana: La Ley de IA indica que la supervisión humana es esencial para utilizar sistemas de IA de alto riesgo. En los entornos clínicos, los profesionales de salud deben intervenir para garantizar que los expertos humanos hayan revisado y validado las recomendaciones de la IA.
  • Precisión y confiabilidad: La Ley exige procesos rigurosos de validación y documentación para verificar que los modelos de IA están simulando de forma precisa y coherente los resultados del grupo control, el análisis de los criterios de valoración, etc.
  • Consideraciones éticas: La IA debe tener en cuenta las implicaciones éticas, especialmente en lo relativo a la privacidad de datos y el consentimiento. Este requisito es especialmente relevante para el reclutamiento de participantes. La Ley hace hincapié en que los sistemas de IA se deben diseñar y utilizar de forma que se respeten los derechos y valores fundamentales.
  • Supervisión continua: Los sistemas de IA se deben supervisar continuamente para garantizar que sigan siendo precisos y eficaces. A medida que se disponga de nuevos datos, los investigadores deben realizar evaluaciones y recalibraciones continuas de los modelos de IA.

Posible impacto en la investigación clínica
Los proveedores de software, los patrocinadores, las organizaciones de investigación por contrato y los centros clínicos están utilizando cada vez más componentes de IA en sus procedimientos, programas y sistemas. A continuación, se exponen las tres áreas clave de la investigación clínica en las que la Ley de IA podría tener un impacto:

Análisis de imágenes e historias clínicas. Una de las aplicaciones más innovadoras de la IA en la investigación clínica es el análisis de imágenes e historias clínicas. Los algoritmos de IA pueden procesar grandes cantidades de datos de imágenes e historias clínicas para detectar anomalías, identificar marcadores de enfermedades y ayudar en el diagnóstico y la identificación de criterios de valoración con gran precisión y rapidez.

Es probable que los sistemas de análisis de imágenes e historias clínicas entren en la categoría de alto riesgo de la Ley de IA, debido al gran impacto que pueden tener sobre la salud y la seguridad en la prestación de servicios clínicos. Esta categorización también considera el impacto que representa la IA en el análisis de adjudicación de criterios de valoración, que en última instancia influye en las decisiones de aprobación regulatoria de fármacos y dispositivos.

Grupos control sintéticos. El uso de software potenciado por IA para generar datos para constituir grupos control sintéticos para los ensayos clínicos es otra posible área de “alto riesgo” que está posicionada para tener un impacto importante. Los grupos control sintéticos utilizan datos históricos de ensayos clínicos y evidencia de la práctica clínica para simular un grupo control, lo cual reduce la necesidad de grupos placebo y acelera la realización del ensayo.

Las agencias reguladoras están presionando para que se utilice la Evidencia de la Práctica Clínica (RWE o real-world evidence) para acelerar las aprobaciones y reducir los gastos y la complejidad de los ensayos clínicos [2]. Sin embargo, ¿qué ocurre cuando la tecnología de IA procesa grandes bases de Datos de la Práctica Clínica (RWD o real-world data) y extrapola cómo sería un grupo de control hipotético de pacientes, también hipotéticos, a partir de bases de datos masivas y agregadas (es decir, un grupo control sintético)?

Aunque el grupo control sintético que se ha descrito anteriormente se basa en datos reales, el reto reside en cómo confiar en las hipótesis que formula la IA. Los organismos reguladores deben considerar cómo verificar la procedencia de los datos, y lo que la IA determinó y supuso para generar los datos para el grupo control, así como las implicaciones que esas hipótesis tienen en el resultado final: la aprobación de un fármaco o dispositivo.

Identificación de pacientes. La IA también está revolucionando la identificación de pacientes para ensayos clínicos, un proceso difícil y crucial para que la investigación tenga éxito. Los algoritmos de IA pueden analizar grandes bases de datos, incluyendo historias clínicas electrónicas (HCE o electronic health records) y datos genómicos, para identificar candidatos adecuados para los ensayos clínicos, con mayor precisión y eficiencia. Esto puede ser especialmente valioso para el creciente número de ensayos que analizan biomarcadores, que pueden hacer que resulte más difícil encontrar participantes que cumplan con criterios estrictos y requieran una mayor recopilación de datos antes y durante el estudio.

Según la Ley de IA de la UE, los sistemas para la identificación de pacientes se pueden considerar de alto riesgo, debido a su posible impacto en su salud y privacidad.

Impacto de la Ley de IA en las empresas que no pertenecen a la UE
Al igual que el Reglamento general de privacidad de datos (RGPD o General Data Privacy Regulation) de la UE [3], la Ley de IA se aplica fuera de la zona económica de la UE. Tiene implicaciones que pueden ser significativas para cualquier empresa que haga negocios dentro de la UE, especialmente aquellas que comercialicen productos y servicios de investigación clínica basados en IA, dentro de la región.

Las empresas que no forman parte de la UE deben cumplir con la Ley si sus sistemas de IA se utilizan en el mercado de la UE. Para aquellas organizaciones que no estén establecidas en la UE, y que estén llevando a cabo ensayos clínicos, hay que tener en cuenta lo siguiente:

1. Entender el panorama regulatorio: Las empresas de fuera de la UE deben comprender a fondo los requisitos de la Ley de IA y su aplicación a productos, servicios y acciones. Esto incluye mantenerse informado sobre las actualizaciones regulatorias y cualquier orientación aclaratoria que las autoridades de la UE emitan.

2. Designar a un representante de la UE: Al igual que el Reglamento general de privacidad de datos, las empresas fuera de la UE pueden tener que designar a un representante con sede en la UE, para garantizar el cumplimiento de la Ley de IA y coordinarse con los organismos reguladores de la UE.

3. Adaptar los productos y servicios para garantizar su cumplimiento: Las empresas que no son de la UE se deben asegurar de que sus sistemas basados en IA cumplan la Ley, en materia de transparencia, gobernanza de datos, supervisión por humanos y otros requisitos. Esto puede requerir la modificación de las ofertas existentes y el posible desarrollo de otras nuevas, específicamente para el mercado de la UE.

Cómo se deben preparar las partes interesadas en ensayos clínicos que operan en la UE, para cumplir la Ley de IA
Los patrocinadores, las organizaciones de investigación por contrato y otros agentes del sector de la investigación deben tener en cuenta las siguientes medidas:

  1. Realizar un inventario y una evaluación del cumplimiento: Enumerar todos los sistemas actuales mejorados o compatibles con la IA y determinar la clasificación de riesgo de cada sistema, con arreglo a la Ley de IA. Posteriormente, identificar las áreas que requieren actualización o modificación para cumplir los nuevos requisitos regulatorios.
  2. Implementar protocolos de gobernanza de datos: Establecer o mejorar los marcos de gobernanza de datos para garantizar la calidad, representatividad y seguridad de los datos que utilizan los sistemas de IA, incluyendo los procesos para las auditorías y actualizaciones periódicas de datos.
  3. Mejorar la transparencia y el que se pueda explicar de forma que se entienda: Desarrollar mecanismos para garantizar que los sistemas de IA sean transparentes y que sus decisiones se puedan explicar, como, por ejemplo, interfaces fáciles de usar que permitan a los profesionales de salud entender e interpretar los resultados de la IA.
  4. Fortalecer la supervisión por humanos: Garantizar que los sistemas de IA se diseñen con mecanismos sólidos de supervisión humana, como la formación de profesionales de salud e investigadores sobre cómo supervisar y validar eficazmente las decisiones de la IA.
  5. Formación ética y jurídica: Formar al personal sobre las implicaciones éticas y legales del uso de la IA en la investigación clínica, para ayudar a garantizar que todos los miembros del equipo sean conscientes de sus responsabilidades en el cumplimiento de la Ley de IA.

La aprobación de la Ley de Inteligencia Artificial por el Parlamento Europeo representa un momento crucial en la regulación de la tecnología basada en IA, sobre todo en campos de alto riesgo, como la investigación clínica.

Es probable que esto solo sea el principio de la regulación de la IA; incluso las empresas que no operan en la UE deberían tomar nota y considerar el impacto de la Ley, ya que podría predecir futuras políticas nacionales. El énfasis que pone la Ley en la transparencia, la gobernanza de los datos y la supervisión humana tiene como objetivo garantizar el uso seguro y ético de la IA, fomentando en última instancia una mayor confianza y fiabilidad en la investigación clínica basada en la IA.

Una versión de este artículo apareció originalmente en PharmaPhorum en julio de 2024 [4].

Referencias

  1. EU AI Act: first regulation on artificial intelligence | Topics | European Parliament. Topics | European Parliament. August 6, 2023. https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence
  2. On-Demand webinar: Real-World Evidence: What Researchers must know. Advarra. (n.d.). https://info.advarra.com/rwe-reg-on-dem.html
  3. Advarra Regulatory Team. The GDPR and its impact on the clinical research community (Including Non-EU researchers). Advarra. May 24, 2018. https://www.advarra.com/blog/the-gdpr-and-its-impact-on-the-clinical-research-community-including-non-eu-researchers/
  4. Riddle, J. Coming soon: New EU Artificial Intelligence Act. (2024, July 12). Pharmaphorum. https://pharmaphorum.com/digital/coming-soon-new-eu-artificial-intelligence-act
creado el 3 de Diciembre de 2024