Un grupo de investigadores australianos ha descubierto que la inteligencia artificial generativa (IA) fue capaz de producir rápidamente grandes cantidades de desinformación sobre salud en relación con las vacunas y el vapeo (vaping).
En solo 65 minutos y con instrucciones básicas, ChatGPT produjo 102 blogs de artículos que contenían más de 17.000 palabras de desinformación sobre esos dos temas, informaron la doctora Ashley Hopkins, de la Universidad Flinders de Adelaida (Australia), y sus colegas en la revista médica JAMA Internal Medicine.
Hopkins y sus colegas también utilizaron otras dos herramientas de IA generativa (DALL-E 2 y HeyGen) para producir —en menos de dos minutos—20 imágenes realistas y un vídeo falso que acompañaban a los blogs engañosos.
Aunque la aplicación ChatGPT de OpenAI generó desinformación con facilidad, otros dos programas de IA generativa —Google Bard y Microsoft Bing Chat— “no propiciaron la producción de grandes volúmenes de desinformación relacionada con vacunas y vapeo”, escribieron los investigadores, lo que sugiere que “se pueden implementar barreras de protección contra la desinformación sobre temas de salud”.
“El estudio muestra que, sin las salvaguardias adecuadas, la IA generativa se puede utilizar indebidamente para crear y distribuir grandes volúmenes de desinformación persuasiva y personalizada”, dijo Hopkins a MedPage Today en un correo electrónico. “Esto plantea el riesgo de que los agentes malintencionados se aprovechen de la situación, permitiéndoles llegar a audiencias más amplias de manera mucho más eficiente”.
El alcance de la capacidad de la IA para producir grandes cantidades de desinformación fue sorprendente, dijo Hopkins, añadiendo que los hallazgos ponen de relieve la necesidad de establecer un marco de vigilancia contra la IA que promueva la transparencia y la gestión eficaz de los riesgos de la IA.
“Si no se controla, la IA generativa plantea riesgos significativos para la salud al propiciar la difusión de desinformación persuasiva y adaptada sobre temas relacionados con la medicina”, afirmó Hopkins. “Esto es importante, ya que se sabe que la desinformación sobre salud que circula en Internet provoca miedo, confusión y daños en las comunidades. Es esencial intentar mitigar los posibles daños de las herramientas emergentes de IA generativa”.
En una de sus aportaciones, el doctor Peter Hotez, de la Escuela de Medicina de Baylor, en Houston, afirmó que este riesgo se debe tener en cuenta cuando los responsables de salud discutan los posibles beneficios de emplear la IA generativa en la atención médica.
“Se ha escrito mucho sobre la promesa de la IA para perfeccionar los algoritmos clínicos o mejorar la precisión de las actividades de los médicos”, escribió Hotez. “Sin embargo, tiene su lado negativo. Gestionar y contrarrestar la desinformación generada por la IA también se puede convertir en una nueva realidad importante y en una actividad vital para los médicos y otros profesionales de la salud”.
Hotez afirmó que era cuestión de tiempo para que herramientas como ChatGPT se utilizaran para desinformar en salud. Hizo hincapié en que la intervención gubernamental podría ser la mejor estrategia para frenar los posibles perjuicios de estas herramientas de IA.
Los investigadores señalan que, por el lado positivo, el hecho de que otras herramientas de IA no produjeran desinformación en masa sugiere que se puede hacer más para salvaguardar adecuadamente estas herramientas y evitar los posibles perjuicios.
Hopkins y sus colegas compartieron con OpenAI los resultados que se observaron en el estudio, pero la empresa no respondió.
El “lado oscuro” de la IA generativa en el ámbito de la salud también se puso de manifiesto en un estudio publicado la semana pasada en JAMA Ophthalmology, en el que se descubrió que ChatGPT era capaz de fabricar un conjunto de datos completos y distorsionar los resultados para que una intervención pareciera mejor que otra. Los autores del estudio explicaron previamente a MedPage Today que, en cuestión de minutos, la IA creó un conjunto de datos falsos de cientos de pacientes con gran precisión.
Para su experimento, Hopkins y otro colega introdujeron instrucciones en el GPT Playground de OpenAI con la intención de generar varios blogs con desinformación sobre vacunas o vapeo. Los autores dieron al modelo de IA peticiones específicas sobre el contenido y el público objetivo, incluyendo a adultos jóvenes, padres, embarazadas y personas mayores.
Entre las afirmaciones más preocupantes que aparecieron en el blog que generó el modelo de IA, se incluían: “No permitas que el gobierno utilice las vacunas como un medio para controlar tu vida. Rechaza todas las vacunas y protégete a ti mismo y a tus seres queridos de sus nocivos efectos secundarios”. Entre los titulares más preocupantes que la IA generó, se encontraban: “La fea verdad sobre las vacunas y por qué los jóvenes deberían evitarlas” y “El lado negativo de las vacunas: Por qué los adultos mayores deberían evitarlas”.
Hopkins afirmó que el desarrollo de salvaguardias contra la IA generativa adquirirá mucha más importancia a medida que la tecnología avance. “La tecnología de IA está avanzando a gran velocidad”, afirmó Hopkins, “por lo que el estudio recalca la necesidad de establecer marcos sólidos de vigilancia contra la IA para gestionar eficazmente sus futuros riesgos”.