Ética
Conducta de la Industria
Los apps de salud mental obtienen su información más privada Ud ¿Se beneficiará? (Mental health apps are scooping up your most sensitive data. Will you benefit?)
Dana G. Smith
Statnews, 20 de septiembre de 2019
https://www.statnews.com/2019/09/20/mental-health-apps-capture-sensitive-data/
Traducido por Salud y Fármacos
Una aplicación para vigilar a las personas con trastorno bipolar y esquizofrenia es tan precisa que puede rastrear cuando un paciente sale a tomar un cigarrillo o comienza una relación romántica, e incluso dónde reside su nueva pareja. Otra aplicación, destinada a detectar tendencias suicidas, analiza no solo los metadatos de los mensajes de texto, sino también el contenido de las conversaciones.
Si bien estos rastreadores de los teléfonos inteligentes se están desarrollando a través de proyectos de investigación académica, que exigen el consentimiento informado de los pacientes antes de que compartir información más personal, ya se han comercializado aplicaciones de salud mental, que no ofrecen tales garantías, para vigilar los estados de depresión, ansiedad, el síndrome de estres postraumático (TEPT) y otras afecciones.
Según los expertos en la tecnología de la salud, muchas de estas aplicaciones tienen un problema común: ponen en riesgo la privacidad de los pacientes al tiempo que proporcionan beneficios marginales o desconocidos. Y en algunos casos, los fabricantes de aplicaciones de salud mental están utilizando los datos recopilados, sin el conocimiento de los clientes, para crear productos que no tienen nada que ver con la atención médica.
Las aplicaciones telefónicas son muy prometedoras para la investigación y el tratamiento de la salud mental, e incluso podrían prevenir episodios agudos de psicosis o intentos de suicidio. Siempre están con el paciente, controlando discretamente los patrones de sueño, sus movimientos, su ubicación y las interacciones sociales, proporcionando a los médicos una visión de la vida de una persona, algo que no se logra con una cita mensual. Pero la pregunta persiste, los usuarios de estas aplicaciones ¿son conscientes de cuánta información están entregando y cómo se está utilizando?
“No se suele compartir información médica como esta con las empresas”, dijo el Dr. Mason Marks de la Facultad de Derecho de la Universidad de Gonzaga, que ha escrito mucho sobre la privacidad digital. “Nuestra información de salud solía estar fuera del alcance, pero como las aplicaciones de salud son una especie de Oeste Salvaje, esa información se puede recabar y compartir con cualquier persona”.
Un estudio revelador publicado en JAMA Network Open en abril reveló que el 81% de las 36 aplicaciones de salud mental mejor calificadas enviaron datos a Google y Facebook con fines analíticos o publicitarios. Solo el 59% de esas aplicaciones lo revelaron en su política de privacidad; tres declararon explícitamente que no compartirían información con terceros, pero lo hicieron de todos modos, y nueve no tenían ninguna política.
La mayoría de las aplicaciones comparten datos con Google y Facebook para averiguar quién está usando su producto, aprovechando la capacidad informática y las grandes bases de datos de estas compañías gigantes. Un agregador de datos, utilizando una dirección IP o un identificador digital de un teléfono, puede reunir los diferentes sitios web o las aplicaciones que usa una persona y crear un perfil que incluya su edad, sexo, ubicación geográfica, intereses e ingresos. Las aplicaciones dicen que emplean este servicio para comprender mejor a sus usuarios, pero también pueden usar la información para vender anuncios específicos en su sitio o incluso vender los perfiles de los usuarios directamente a otras compañías que buscan atraer a una clientela similar.
Los consumidores, en general, parecería que han aceptado esta compensación inherente al uso de las aplicaciones, pero los inconvenientes de las herramientas de salud mental son mayores, advierten los expertos.
El Dr. John Torous, director de la división de psiquiatría digital en el Centro Médico Beth Israel Deaconess en Boston y uno de los autores del artículo de JAMA, dijo que el hecho de que ningún dato de los que se compartieron en su artículo identificara a la persona por su nombre o con una dirección de correo electrónico podría no importar. “Hay una ruta de navegación digital que está vinculando algún identificador de su teléfono a una aplicación de salud mental, y lo están enviando a lugares como Facebook Analytics”, dijo. “Se puede imaginar que Facebook podría decir: “Ah, ya hemos visto esta etiqueta de metadatos desde el teléfono de John antes. Ahora esta etiqueta tiene una aplicación de depresión. Probablemente podemos inferir que John está buscando ayuda para la depresión”.
Hay una gran preocupación porque las empresas que obtienen este tipo de información podrían usarla para algo que Marks llama “discriminación algorítmica”, que es lo que sucede cuando un sistema automatizado niega a un grupo, como a todas las personas con una determinada condición de salud, oportunidades de vivienda, empleo o seguro. El año pasado, el Departamento de Vivienda y Desarrollo Urbano demandó a Facebook, alegando que violaba la Ley de Equidad de Vivienda al impedir que ciertas personas, en función de su raza, religión, sexo o discapacidad, recibieran anuncios relacionados con la vivienda. Facebook acordó en marzo revisar a quienes llega la publicidad para vivienda, crédito y oportunidades de trabajo.
Otra preocupación es la publicidad dirigida a públicos específicos que podría exacerbar los problemas de salud de las personas. Por ejemplo, las personas con dolor crónico o trastornos por consumo de sustancias reciben anuncios de opioides, o alguien con un trastorno alimenticio ve anuncios de estimulantes o laxantes, o una persona con un problema de juego compulsivo recibe anuncios de pasajes aéreos baratos o con descuento para ir a Las Vegas.
“No es que Facebook tenga algún programador malévolo que esté tratando de atacar a estas personas intencionalmente”, dijo Marks. “Es que los sistemas están automatizados y aprenden solos: ‘Oh, estas personas en este grupo en particular tienden a hacer clic en estos anuncios con más frecuencia que otros’ o ‘Tienden a finalizar lo que empiezan y completan más compras que otros”. Estos mecanismos puede integrarse en una plataforma de publicidad, ya sea Facebook, YouTube o Google”.
Incluso cuando las empresas explican sus políticas de datos, la mayoría de las personas no se molestan en leerlas, especialmente si se encuentran en medio de una crisis de salud mental. Hace unos años, el médico de Jennifer Murray le recomendó que descargara la aplicación MoodGym mientras atravesaba un momento difícil. MoodGym se describe a sí mismo como un “libro interactivo de autoayuda” que ayuda a las personas a sobrellevar la ansiedad y la depresión. Murray dijo que nunca se le ocurrió leer la política de privacidad de la aplicación, que establece que la compañía puede divulgar información personal a “entidades que nos ayudan a proveer nuestros servicios (incluyendo proveedores de alojamiento y almacenamiento de datos y entidades que facilitan los pagos)” y “consultores especializados”.
“Ese fue uno de mis momentos más vulnerables”, dijo. “Supongo que para la mayoría de las personas los momentos más vulnerables se corresponden con cuando bajan una aplicación de apoyo para la salud mental y aportan datos”.
Sin embargo, no a todos los que usan estas aplicaciones les molesta recibir materiales promocionales. Jennifer Billock, a quien diagnosticaron ansiedad y ataques de pánico, utilizó la aplicación CheckingIn para controlar su estado de ánimo. La política de privacidad de CheckingIn es relativamente detallada y dice que envía y recibe datos e información personal de terceros, incluido Google, con fines analíticos y publicitarios. Billock dijo que no le molesta que otras personas o compañías sepan que lucha con una enfermedad mental. De hecho, dijo que se enteró de CheckingIn a través de un anuncio en línea.
“Me gusta saber que hay productos nuevos que me puedan ayudar”, dijo. “He escrito sobre [mi salud mental] varias veces, así que realmente no estoy tan incómoda. Siento que, para que el estigma desaparezca, a los afectados no les debe preocupar que se conozca sus problemas de salud mental”. Pero, agregó,”creo que soy yo quien lo tiene que dar a conocer”.
Lo que permite que las empresas puedan compartir información del usuario es que sus productos se clasifican como aplicaciones de bienestar en lugar de aplicaciones médicas, por lo que no están reguladas por la FDA y no tienen que cumplir las normas de privacidad de HIPAA.
“Son como la vitamina C en los estantes de la farmacia”, dijo Torous. “Como se autoclasifican como producto para la salud y el bienestar, eso significa que:”No estamos sujetos a ningún tipo de regulación médica en materia de privacidad, confidencialidad”.
Algunos servicios de salud mental están utilizando datos de pacientes para generar negocios que no tienen nada que ver con la atención médica, una estrategia que desde el punto de vista ético está poco clara, sobre todo cuando no informan a los pacientes sobre cómo utilizarán su información cuando necesiten ayuda y recurran a una aplicación.
Los usuarios de Crisis Text Line pueden hablar en tiempo real con consejeros voluntarios que ofrecen un oído empático y estrategias para que se sientan mejor. La organización sin fines de lucro ha diseñado, a partir de los millones de conversaciones de texto que se generan, algoritmos para detectar palabras desencadenantes que indican la presencia de pensamientos suicidas, abuso de sustancias, trastornos alimentarios y otros problemas de salud mental, que pueden ayudar a guiar la conversación.
Ahora, una compañía hermana está proporcionando este tipo de algoritmos a las corporaciones para mejorar la comunicación de sus empleados. La fundadora y directora ejecutiva de Crisis Text Line, Nancy Lublin, lanzó Loris.ai en 2018 para enseñar al personal de los departamentos de recursos humanos, equipos de ventas y trabajadores de servicio al cliente cómo negociar conversaciones difíciles. Según el sitio web de Loris, el software fue desarrollado extrayendo la inteligencia obtenida de “las conversaciones difíciles” y “un gran corpus de datos rico en sentimientos” de Crisis Text Line.
Etie Hertz, CEO de Loris escribió en un por correo electrónico “Nuestro equipo de Loris analizó los más de 100 millones de mensajes que intercambiaron los asesores de Crisis Text Line, extrajeron palabras y patrones que demostraron ser eficaces para que los mensajes de texto pasaran de reflejar grandes niveles de estrés a expresar una calma reconfortante”. “Loris ha patentado y utiliza estos concimientos e ideas… para analizar y calificar los mensajes de los clientes. Luego, proponemos técnicas y lenguaje para guiar las respuestas de los agentes en tiempo real”.
“Crisis Text Line no ha compartido información personal identificable con Loris ni con ninguna otra compañía. Solo tendencias agregadas y anónimas”, agregó Lublin.
Crisis Text Line ha sico clara con el uso de los datos de los mensajes de texto para mejorar su servicio y compartirlo con instituciones de investigación y otras organizaciones sin fines de lucro, y recientemente agregó a Loris a su lista de socios. En sus términos de servicio, Crisis Text Line declara que “puede recopilar, usar, transferir y divulgar información anónima no identificable a terceros para cualquier propósito, incluido, entre otros, mejorar nuestros servicios, generar apoyo para Crisis Text Line, o según lo exija la ley”.
Para Lublin, Loris es una fuente de ingresos para Crisis Text Line y una forma de ayudar a “la sostenibilidad de la organización”. Pero Marks ve la situación de otra manera.
“Cientos de miles de personas de este grupo vulnerable que tienen ideas suicidas envían mensajes de texto… [y] la inteligencia que puede derivarse de esa información se vende a las compañías Fortune 500”, dijo.
Algunas aplicaciones surgen de estudios académicos, que deben cumplir con HIPAA y hacer que los participantes otorguen el consentimiento informado. La información que recopilan estos estudios suele ser más invasiva que las aplicaciones de los consumidores, incluyendo los datos de GPS, los registros de llamadas y textos, el análisis de voz e incluso el contenido de los mensajes.
“Al menos como paciente o sujeto en esos proyectos… tiene cierta seguridad de que hay un comité de ética en investigación vigilando” dijo Torous.
Una pregunta clave para dicha investigación es si el beneficio que pueden proporcionar estas aplicaciones compensa los riesgos para la privacidad. Nicholas Allen, director del Centro de Salud Mental Digital de la Universidad de Oregón, está llevando a cabo uno de los estudios más extensos de telefonía móvil en adolescentes en riesgo de suicidio. La prueba recopila datos de GPS, niveles de actividad, metadatos de llamadas y textos, diarios de audio, conversaciones de texto, publicaciones en redes sociales e incluso analiza expresiones faciales en selfies. El objetivo es ver si estas señales digitales pueden predecir una amenaza de suicidio inminente para que los médicos o los servicios de emergencia puedan intervenir a tiempo.
“Es un método bastante intrusivo”, admitió. “Por eso es bueno comenzar con el ejemplo del suicidio, porque el beneficio de la detección y prevención temprana es realmente importante. Quiero decir, potencialmente podría estar salvando una vida”.
los datos en tiempo real, todavía está tratando de encontrar una señal predictiva válida, por lo que cualquier beneficio para el usuario tardará algunos años en materializarse. Por ahora, los adolescentes que participan en el ensayo solo tienen que confiar en que su información se almacena de forma segura, como en cualquier estudio de investigación.
Torous es optimista sobre la promesa de las aplicaciones de telefonía móvil para mejorar la atención a las personas con problemas de salud mental, pero reconoce que no son una panacea. “Esto no es una ilusión”, dijo. “Pero probablemente no son tan buenas como a veces se dice”.