Tecnología

Bigdata & Healthcare La información al servicio de la salud

En salud, big data es una de las tendencias tecnológicas más importantes de nuestros días, y tiene el potencial para cambiar de forma drástica la forma en que las instituciones y organismos utilizan información para mejorar la experiencia de sus pacientes, proporcionando mejores diagnósticos y mejores tratamientos, a partir de la información histórica almacenada.

Autor: RSalud 15 agosto, 2018

Las características principales de big data se resumen en lo que se denominan las “3 Vs”: Volumen (inmensa disponibilidad de datos), Velocidad (velocidad en que se reciben y procesan los datos) y Variedad (existencia de datos en múltiples fuentes y con distintas tecnologías).

En otras palabras, big data consiste en la recolección masiva de datos, en un repositorio común, a partir de múltiples fuentes con diferentes tecnologías, permitiendo su inmediato análisis e interpretación de la información allí almacenada. Esto se refiere a la búsqueda de patrones, tendencias, correlaciones, etc., que a simple vista no se destacan. El problema es que el conjunto de datos generalmente es tan grande que, si se pretende procesar con los métodos tradicionales, éstos fallan rotundamente. Los desafíos incluyen la recolección, búsqueda, análisis, captura, almacenado, visualización, transferencia, y una larga lista de etcéteras, de gigantescas cantidades de información, todo para obtener conocimiento en tiempo real. Este conocimiento es el que nutre de manera muy eficaz un sistema de toma de decisiones, permitiendo reducir la incertidumbre al mínimo posible.

Grandes volúmenes de datos requieren grandes datacenters

En salud, big data es una de las tendencias tecnológicas más importantes de nuestros días, y tiene el potencial para cambiar de forma drástica la forma en que las instituciones y organismos utilizan información para mejorar la experiencia de sus pacientes, proporcionando mejores diagnósticos y mejores tratamientos, a partir de la información histórica almacenada. Ahora bien, y ya enfocados en nuestra realidad, en la mayoría de los casos escuchamos que la expresión big data está haciendo mucho ruido. Necesitamos respuestas, intuimos que es algo importante y que deberíamos estar analizando y pensando. Pero la verdad es que nadie (o casi) sabe qué hacer con eso.

La intención de este artículo es clarificar un poco de qué se trata el término, entender cómo se relaciona con la medicina y cómo podemos sacar el máximo provecho, y mostrar casos de éxito sobre el uso de big data en medicina.

La realidad indica que en medicina existen múltiples y crecientes fuentes de datos. Cada computadora, servidor, dispositivo y equipo que tenga algo que ver con la salud de una persona genera y almacena información: desde equipos de alta complejidad como un tomógrafo o un resonador magnético, pasando por una historia clínica electrónica y un software de consumo de medicamentos, hasta dispositivos personales (wearables) como puede ser un smartwatch que detecta pasos y el pulso cardíaco. Para big data, lo ideal es que la información recolectada no sea procesada o limpiada. Y, si lo es, que sea en la menor cantidad posible. Algunos se refieren a este concepto como “el principio del sushi”, es decir, para big data la información es mejor cuando está “cruda”, sin manipulación de ningún tipo (lo que no hace sino incrementar la complejidad de su análisis).

Esta increíble multiplicidad de fuentes tiene un valor interno inmenso, y el desafío de big data es poder presentar la información de manera tal que ayude a los médicos para lograr que los pacientes sanos no se enfermen, o se enfermen poco, y a los pacientes enfermos a tener una recuperación más rápida, o a poder llevar su enfermedad con el menor impacto en su calidad de vida que sea posible.

No menor, además, es la creciente necesidad de bajar los costos e incrementar las ganancias. Big data se puede usar para prevención de pandemias, la cura de enfermedades, la mejora de la calidad de vida y el evitar a toda costa muertes por razones que pueden ser prevenidas. A partir de que la población mundial crece y la expectativa de vida también, los modelos de tratamiento están cambiando, y el factor principal del cambio son los datos a partir de los cuales se basan los sistemas de toma de decisiones. El factor clave es contar con la mayor cantidad de información de un paciente, lo más temprano posible en su vida, buscando detectar signos de alerta sobre enfermedades graves en un estado de forma tan prematura como se pueda, incrementando de esta forma sustancialmente las posibilidades de cura, simplificando su tratamiento, a un menor costo, dado que previniendo de forma efectiva se minimizan eventos graves que requieren tratamientos sustancialmente más costosos.

Inteligencia artificial

Un factor clave en el análisis de grandes volúmenes de información y generación de información para la toma de decisiones, es la inteligencia artificial. Se trata de sistemas muy complejos que son capaces de hacer interpretaciones muy efectivas a partir de datos aparentemente inocuos. El cruce de información de entorno, situación social, antecedentes familiares, ADN, hábitos, historial clínico, etc. permite a la inteligencia artificial generar modelos predictivos, siempre basados en evidencia real, de pacientes reales, y de múltiples fuentes. Los modelos predictivos de datos cambian a medida que el sistema se va nutriendo de nuevos datos e información. Con estas predicciones un médico podría determinar si un paciente tiene mayor riesgo que otro de sufrir algún evento adverso, actuando preventivamente en consecuencia.

Un caso muy resonante, en donde el gran protagonista fue big data, se conoció como “El caso Vioxx”: A fines del siglo pasado (año 1999), comenzó la comercia lización de Vioxx, (ROFECOXIB) el cual pertenecía a una nueva generación de antinflamatorios (AINE), conocido como inhibidores selectivos de la COX 2 (responsable del dolor y de la inflamación) respetando a la COX1 (protectora del estómago), desarrollado por la empresa Merck Sharp & dohme. Este medicamento surgió como el santo grial para el tratamiento de patologías reumáticas fundamentalmente crónicas, que a la fuerza requerían el uso intensivo y continuado de AINE, con principal foco en pacientes de más de 60 años, más propensos y sensibles a sufrir daños gastrointestinales.

MSD estaba en la gloria con la venta de este Vioxx (en total se prescribió, solo en los Estados Unidos, más de 90 millones de veces), hasta que Kaiser Permanente, un consorcio sanitario de EE.UU., junto con la FDA, la agencia del Gobierno estadounidense encargada de velar por la seguridad de los medicamentos, utilizando técnicas de análisis de big data (historias clínicas de más de un millón de pacientes consumidores de Vioxx), correlacionando datos de diferentes fuentes y tecnologías, detectaron que estos pacientes tenían tres veces más probabilidades de sufrir un evento cardiovascular que aquellos que no consumían el medicamento.

No hubo mucho más que negociar. Vioxx desapareció del mercado. Por su envergadura e importancia, al caso se lo conoce como el “envenenamiento” más grave de la historia de la humanidad y la retirada más importante de un medicamento a nivel mundial.

Big data impidió que mucha más gente falleciera por efectos negativos cardiovasculares del consumo. Anteriormente mencioné que big data puede ser efectiva para evitar pandemias, y me gustaría detenerme un poco en este tema. Un pequeño acertijo: ¿Qué es un dispositivo que usa la gran mayoría de la población, se conecta a Internet, que una persona tiene siempre consigo, y que en la mayoría de los casos detecta la ubicación geográfica de la persona? Exactamente, un es un smartphone. Ahora bien, imaginemos un escenario donde surge un brote de alguna enfermedad para la cual no existe una vacuna efectiva. Esto podría prevenirse simplemente procesando las búsquedas que hace la gente común en Google de, por ejemplo, síntomas.

Al detectarse que una gran mayoría de personas están buscando los mismos síntomas en una determinada zona, sería posible la generación de alarmas para los organismos responsables de controlar este tipo de brotes. Aún más, utilizando los datos georreferenciados de cada teléfono celular en las zonas afectadas, visualizaríamos los movimientos de personas, siendo hipotéticamente posible determinar aquellas áreas que podrían verse inmersas en la epidemia, aún antes de que efectivamente esto pase.

Está claro que la implementación masiva de big data en cualquier ámbito no es trivial. Los principales desafíos o barreras que se presentan tienen que ver con:

1 El conocimiento técnico: donde se destaca el término data scientist, la nueva profesión que se dedica exclusivamente al análisis de grandes volúmenes de información y a la generación de big data.

2 Seguridad de los datos: to dos los aspectos relacionados con la seguridad de la información, donde se debe garantizar la privacidad y seguridad de los datos de cada paciente involucrado, lo que puede ser muy complejo o extremadamente complejo, dependiendo de la naturaleza del proyecto.

El big data aplicado a la medicina puede predecir la evolución de pandemias y sacar del mercado medicamentos con efectos secundarios no detectados y letales. También ha simplificado los procesos de secuenciación del ADN de las personas, logrando los mismos resultados en una fracción del tiempo.

El big data puede ayudar a mejorar la gestión de un sistema de salud en general. Si el sistema de salud puede almacenar, analizar y procesar de forma inteligente toda la información que genera (incluyendo radiografías, recetas manuscritas de los médicos, historial de medicamentos, historial de tratamientos, etc.), los profesionales, con esta herramienta, van a ser capaces de generar diagnósticos personalizados mucho más correctos, obtener predicciones, y lograr soluciones para problemas de salud individuales y poblacionales. No estamos todavía ahí, pero vamos en camino, cada vez más rápido.

Suscribite al Newsletter de Rsalud para recibir todas las novedades