A233. Big data en la asistencia sanitaria (II)

Autor: Juan B. López-Messa
Complejo Universitario Hospitalario de Palencia.
© REMI, http://medicina-intensiva.com. Julio 2017.
 
FUENTES Y APLICACIONES DEL BIG DATA EN SALUD
  
Un sistema sanitario en continuo aprendizaje debe utilizar la tecnología de la información y la infraestructura de datos sanitarios para aplicar la evidencia científica a nivel asistencial, al mismo tiempo que registra información de dicha asistencia para promover la innovación en los cuidados sanitarios y alimentar nuevos descubrimientos científicos. En un círculo continuo los avances científicos alimentarían la evidencia, ésta a su vez alimentaría la asistencia sanitaria y finalmente ésta última y a través de los datos obtenidos de ella alimentaría la ciencia en sí misma. Se produce un cambio de concepto. La evidencia científica informa la práctica clínica, pero al mismo tiempo la propia práctica clínica alimenta la evidencia.
  
Los datos procedentes del sistema sanitario son necesarios para determinar si se cumplen los criterios de calidad de la asistencia y las fuentes de datos pueden tener diferentes orígenes:
  
1. Registros sanitarios electrónicos (RSE)
2. Registros clínicos
3. Registros de datos administrativos
  
Los RSE están disponibles en la gran mayoría de los hospitales y pueden ser utilizados a nivel local, regional, nacional o internacional. En general incluyen datos demográficos de los pacientes, historial médico, tratamientos y consumo de recursos, y pueden ser fuente de investigación.
  
Los registros clínicos, definidos como bases de datos observacionales de condiciones clínicas y tratamientos, proporcionan la mayor fuente de datos para generar evidencia e investigación. Por ejemplo encontraríamos el Registro de la AHA (Get with de Guidelines) de ictus, parada cardiaca o insuficiencia cardiaca.
  
Los registros de datos administrativos, como los del CMBD, pueden ser de gran utilidad para analizar incidencia de enfermedades, manejo de las mismas y resultados asistenciales. Tienen sus limitaciones, pues generalmente no están basados en codificación adecuada, no incluyen algunos aspectos de la asistencia como las preferencias de los pacientes o nivel socio-económico, no detectan eventos relativos a la calidad asistencial ni las indicaciones para la realización de muchos procedimientos [16, 17].
  
Existen otras fuentes suplementarias de datos, unos procedentes de los propios pacientes, como síntomas, estado funcional, calidad de vida, nivel socioeconómico, lugar de residencia o incluso variables fisiológicas como presión arterial, frecuencia cardiaca, peso, temperatura corporal o glucemia. Las primeras obtenidas a través de cuestionarios, y las segundas a través de modernos dispositivos de mediciones fisiológicas mediante dispositivos implantables internos o externos (dispositivos de prenda o “wearables”). Y otros tipo censales, relativos al entorno donde viven los pacientes, como tipo de vivienda, características de la ciudad donde habitan (polución, transporte, etc.), climatología, tipo de alimentación, situación económica y política, etc. [18].
  
Monitorizar de forma continua la situación de salud de los pacientes aportará una ingente cantidad de datos y podrá por una lado servir para prevenir o detectar situaciones de riesgo, y por otro para aportar la información que podría ser utilizada en el futuro por los profesionales para tratar y predecir la evolución de otros pacientes.
   
Entre los objetivos fundamentales de la utilización de los datos estarían el diseño de métodos de tratamiento y cuidados para pacientes y poblaciones, y el estudio y mejora de métodos de asistencia sanitaria, tratando de innovar y conducir la futura investigación clínica.
   
Y como aplicaciones finales podrían considerarse el análisis predictivo y apoyo a las decisiones clínicas, la mejora de la calidad e implementación de los avances científicos y la utilización de los RSE para seleccionar los pacientes para futuros estudios clínicos y apoyar la propia realización de nuevos ensayos clínicos.
  
Debemos destacar las aplicaciones de tipo predictivo, de gran interés para clínicos, pacientes y el propio sistema. Estas serían:
  
- De los pacientes con alto consumo de recursos
- De reingresos hospitalarios
- De riesgo de eventos adversos y complicaciones
- De descompensaciones clínicas
- De la trayectoria del proceso patológico
  
Entre otras experiencias desarrolladas podemos mencionar el Registro Electrónico de Anestesia (AIMS; Anesthesia Information Management System), que genera una gran base de datos de los pacientes, los tipos de cirugía y anestesia, así como las medicaciones utilizadas y los eventos aparecidos. Su explotación puede ayudar a predecir los posibles eventos que puedan aparecer y las respuestas a los diferentes tipos de anestesia ante distintos tipos de cirugía [19].
  
Por otro lado, muy recientemente se han presentado los resultados de una encuesta realizada entre profesionales, clínicos, líderes médicos y ejecutivos de áres relativas a la salud, sobre qué aspectos consideran más importantes como fuentes de datos dentro del sistema sanitario, así como su evolución en los próximos 5 años. Los datos clínicos son los considerados más relevantes para el 95% en la actualidad y el 82% en 5 años. Le siguen los datos relativos a costes con 56%. Los relativos a los datos proporcionados por los propios pacientes estarían en un 30% pero llegarian al 40% en 5 años. Las preferencias de los pacientes estarían en un 21%, y detacarían la importancia de los datos de la genómica que estarían en el 17% en la actualidad, pero creciendo hasta el 40% en 5 años.
  
Se incrementará por tanto la información generada por los propios pacientes y por los datos de genómica, en lo que denominaríamos medicina personalizada, reforzada por los datos, y que podría mejorar los resultados de la atención a los pacientes e incluso reducir los costes sanitarios.
  
Así mismo, los encuestados consideraron que en la actualidad el uso de los datos de los RSE solo es efectivo para el 36% y que su utilidad podría llegar a se de utilidad para el 81% en coordinación, el 79% en mejorar la toma de decisiones y el 68% en análisis de predicción. Finalmente, sobre la situación actual de los Big data en la asistencia sanitaria, el 32% consideraron que ya hoy en día tiene aplicaciones y un 44% que tendrá aplicaciones en años venideros [20].
  
Muy recientemente también se ha publicado en la revista Medicina Intensiva [21] un artículo de opinión sobre los sistemas de información clínica, de progresiva implantación en las unidades de cuidados intensivos (UCI) y que representan un claro modelo específico de RSE. Los autores concluyen que los datos son y serán el eje de la asistencia y la investigación, y resaltan la importancia de su desarrollo en las UCI por su valor como Big data, a partir de los cuales facilitar la toma de decisiones clínicas de los profesionales, la investigación y proporcionar a pacientes y profesionales valoraciones pronósticas incluso instantáneas, así como de predicción y prevención de posibles eventos [22, 23]. En clara concordancia con lo anterior, Cowie y col. [24] consideran que los RSE generalmente contienen datos demográficos, de estadísticas vitales, datos administrativos, elementos de información adicional o complementaria, información farmacológica, datos clínicos y finalmente datos de los propios pacientes, bien en relación a su situación de fragilidad o calidad de vida, o bien obtenidos a través de dispositivos que analizan su estado fisiológico de forma instantánea. Y por tanto son de gran utilidad para mejorar la eficiencia de los estudios clínicos, ofrecer nuevos campos de investigación, soportar análisis de efectividad comparada y diseños de nuevos ensayos clínicos.
  
UTILIDADES Y DESARROLLOS
   
Las áreas de investigación potenciales para el uso del Big data incluyen los estudios de efectividad comparativa, sobre resultados en salud y el desarrollo e innovación. Esta última es un área con un tremendo potencial de impacto en sanidad. Utilizando y analizando herramientas del Big data tales como sistemas de predicción y algoritmos con datos de estudios clínicos, patrón de enfermedades y datos genómicos, pueden aportar información a la denominada medicina personalizada que pueden llevar a una mayor eficiencia del sistema sanitario. 
   
Por otro lado, aumentar la transparencia de los datos a través de una disponibilidad pública de los mismos podrá tener un importante impacto en proveedores y pacientes. Esta disponibilidad pública servirá para que los pacientes estén mejor informados y los profesionales sanitarios realicen un mejor desempeño. 
  
La llegada del Big data a los cuidados sanitarios marca un punto de inflexión para los proveedores de cuidados sanitarios, y quienes valoren las oportunidades de su uso mejorarán el valor de su desempeño y les convertirá en líderes, dejando atrás a quienes no los utilicen [25].
  
Se han desarrollado y experimentado ya diversas experiencias en el uso del Big data. Na y col. han presentado un estudio en pacientes con insuficiencia cardiaca, sobre un RSE. Analizaron el funcionamiento del modelo de “aprendizaje automático” para pre-diagnosticar insuficiencia cardiaca usando un RSE longitudinal de atención primaria. Las fuentes de datos correspondían a los dominios de diagnóstico, medicaciones, datos de laboratorio, hospitalizaciones, datos demográficos y hábitos, imágenes médicas, signos vitales y signos y síntomas generalmente relacionados con la insuficiencia cardiaca (edema de pulmón, disnea, disnea paroxística nocturna, edemas de extremidades). El modelo se desarrolló en varios periodos o ventanas, uno inicial u observacional, tras el que se establece el riesgo de enfermedad, seguido de otro de predicción, que al finalizar determina un diagnóstico, para finalmente establecer un vector de proceso [26]. Otras experiencias han analizado el campo de la emergencia. Janke y col. han estudiado la utilidad de las grandes bases de datos de pacientes en medicina de emergencias y su valor predictivo, alejándose de los métodos de análisis tradicionales de búsqueda de asociación causal o de estratificación de riesgo. Resaltan las ventajas del análisis de datos en tiempo real para predecir evolución clínica, pero ponen de manifiesto las dificultades de su desarrollo en cuanto al adecuado diseño e infraestructura de las bases de datos, su operatividad para los usuarios y la autorización de los propios pacientes [27].
  
Otro ejemplo de utilización de datos fisiológicos de los pacientes y empleo de métodos analíticos distintos, es el estudio basado en información del proyecto “Telemonitoring to Improve Heart Failure Outcomes” que compara métodos de “aprendizaje automático” con regresión logística, aplicados sobre una extensa base de datos, para la predicción de reingresos de pacientes con insuficiencia cardiaca, demostrando mayor grado de predicción de estos nuevos métodos [15].
  
También, analizando bases de datos de pacientes con insuficiencia cardiaca, como el registro de la AHA de esta patología, mediante estos nuevos métodos, han logrado comparar la calidad de cuidados según distintos tipos de hospital [28]. 
  
Finalmente, utilizando métodos de “aprendizaje automático,” sobre una gran base de datos de 24 hospitales Spertus y col. encontraron los factores asociados a la evolución de los pacientes, con mayor fiabilidad que los análisis convencionales de modelos de regresión logística [29].
  
En resumen, existirían 4 maneras en que el Big data puede ayudar a avanzar en la misión de la prestación de servicios de salud mejorando la calidad y la eficiencia: 1) ampliando considerablemente la capacidad de generar nuevos conocimientos; 2) ayudando en la difusión más simple del mismo, compartiendo los análisis a través de la red; 3) trasladando iniciativas de medicina personalizada a la práctica clínica, integrando sistemas biológicos (genómica) con los RSE, y 4) transfiriendo la información de forma rápida y directa a los pacientes, por un lado asociando datos médicos a otros datos personales (hábitos, situación económica, educación, tipo de trabajo) y por otro facilitando su acceso a dicha información [2].
  
ALGUNOS MODELOS CERCANOS DE LA UTILIZACIÓN DEL BIG DATA EN EL CAMPO DE LA SALUD
  
Próximos a nuestro entorno al menos dos proyectos se están desarrollando en España. En Cataluña se está trabajando en un proceso participativo y deliberativo del programa público de analítica de datos en investigación e innovación en salud [30]. Y por otro lado el Proyecto Savana Médica [31]. Este último es una plataforma que se asienta sobre cualquier Historia Clínica Electrónica, combinando datos estructurados y no estructurados y a través de tecnología de inteligencia artificial da valor a la documentación clínica existente y ofrece diferentes productos relativos a consultas específicas; en estos momentos ya se utiliza en algunos centros sanitarios españoles.
  
Estos modelos, utilizando las grandes bases de datos junto con lo que aportarían los propios datos de los pacientes, en genómica o microbiótica, así como de información sobre su situación fisiológica a través de dispositivos de prenda o wearables, conducirían a lo que se denominaría Medicina de Precisión. Con sistemas como estos se podría evolucionar hacia la denominada Medicina Personalizada y sería un área de Medicina Generadora de Evidencia, a diferencia de la hasta ahora denominada Medicina Basada en la Evidencia
  
DESAFÍOS Y LIMITACIONES
  
Aunque la ciencia actual presenta ciertas limitaciones centradas fundamentalmente en un tamaño limitado de ensayos, no tener en cuenta objetivos primarios que cumplan con los deseos de los pacientes y otros objetivos, como calidad de vida, estado mental, etc., no medición o evaluación de interacciones de los fármacos o dispositivos ensayados, un elevado coste y la no publicación de resultados no convenientes para los patrocinadores, la utilización de la ciencia basada en el Big data también tienen grandes limitaciones, pues sirve para encontrar asociaciones y no causalidad, precisa métodos analíticos sofisticados y no por todos los actores considerados fiables, presenta datos incompletos en muchos registros y sobre todo y generalmente falta de datos importantes de los pacientes, como socioeconómicos, psicológicos y biológicos.
  
Por tanto, se sugiere que lo ideal sería una interacción entre la ciencia clásica actual y la ciencia del Big data, en lo que se denominaría Big Science, cuyas características serían aunar los ensayos clínicos con el Big data, analizar gran número de pacientes y de diferentes orígenes, culturales, geográficos, requiriendo una amplia colaboración internacional y una necesaria filosofía de colaboración en lugar de competitividad [32].
  
El progreso de la medicina se ha producido fundamentalmente en el paso de la creencia al conocimiento basado en la ciencia. Sin embargo, está limitada en su habilidad de aprendizaje de la práctica clínica incluso ante los procesos experimentales que ocurren en el día a día. Disponemos en la actualidad de la posibilidad de manejar bases de datos complejas de diversas dimensiones y de gran tamaño procedentes de ese día a día y de aplicaciones matemáticas capaces de reducir la complejidad de los datos. Esta disponibilidad de datos se debe a la transformación de información médica y documentación clínica en formato digital. El conocimiento adquirido de esta manera proporcionará la oportunidad de disponer de información relevante, segura y significativa. Pero para un adecuado progreso son necesarios elementos de correcto entrenamiento en el manejo de esas grandes bases de datos, el desarrollo de herramientas analíticas para su adecuada aplicación, la posibilidad de una replicación de resultados y fundamentalmente la transparencia y diseminación compartida de toda la información. Para ello serán necesarios dos elementos importantes, por un lado la adecuada inversión económica necesaria para el desarrollo tanto de las bases de datos como de los elementos de análisis, y la colaboración de diversas organizaciones para el desarrollo de la investigación y la necesidad de compartir dicha información [33].
   
Así mismo, no deberá desestimarse que en la utilización de grandes registros sanitarios existe la posibilidad de violaciones de la seguridad, bien por fallos involuntarios o intervenciones maliciosas, siendo imprescindibles adecuadas medidas de seguridad, en lo que se ha denominado “buena higiene de datos” [34]. A diferencia de otras industrias, en el ámbito de la salud, resulta difícil obtener valor de fuentes de datos heterogéneas para su integración y análisis. Las bases de datos de salud suelen estar protegidas por las instituciones que las controlan y aisladas con el fin de proteger la privacidad de los datos personales de los pacientes. Es necesario, por tanto, enlazar las diferentes bases de datos a fin de obtener resultados que influyan sobre los cuidados sanitarios tras su análisis, pero es necesaria también una legislación adecuada al respecto y avanzar incluso a la obtención sistemática de permisos o “consentimientos informados” de los propios pacientes, para facilitar compartir los datos, permitir un análisis global en beneficio de otros pacientes y del propio sistema sanitario [35].
  
Otro aspecto importante es prestar atención a la calidad de los datos que se incluyan en el Big data para su análisis. El valor derivado del análisis de datos debe ser el primer determinante de la calidad de los mismos. Las instituciones que se embarquen en el análisis del Big data deben disponer de un “mapa de ruta” para una aproximación sistemática a la calidad de los datos y deben generar sus propios sistemas de valoración, verificación y control de la calidad de la información [36, 37]. Este aspecto relativo a la calidad de los datos se pone de manifiesto claramente en el reciente estudio publicado por Ahsmad y col., en el que se demuestran importantes diferencias de exactitud entre un registro específico clásico y los registros electrónicos automatizados en enfermedades cardiovasculares, donde los primeros consiguen mayor exactitud [38].
  
Por otro lado, existen varias barreras importantes para la adopción generalizada de grandes datos en la atención de la salud. A primera vista, parece que no hay incentivos fuertes o patrocinadores que potencien su uso dentro en los grupos clínicos u hospitales; no parecen resueltos los problemas de seguridad; y además, las plataformas actuales de RES están fragmentadas y tienen una interoperabilidad limitada. Finalmente, habrá considerables problemas de privacidad, que requerirán soluciones similares y quizás incluso más extensas que aquellos necesarios para proteger los datos financieros confidenciales en otros sectores [2].
  
A pesar de todas las limitaciones del Big data, en la actualidad muchos procesos son difíciles de analizar a través de ensayos clínicos, como podría ser el caso de la parada cardiaca. La utilización de grandes registros o bases de datos y el empleo de herramientas analíticas, puede aportar información y evidencia para la práctica asistencial [39].
  
Un posible paso intermedio ya bastante extendido, es la aplicación de los análisis de propensión a grandes bases de datos intentando suplantar de alguna manera a los ensayos clínicos, comparando retrospectivamente grupos homogéneos de pacientes y su respuesta ante diferentes procedimientos o terapias [40-44].
   
BIG DATA Y BIOÉTICA
  
La innovación no debe olvidar los aspectos éticos y los derechos fundamentales de las personas. Hasta ahora la anonimización de los datos ha representado la garantía que permitía cumplir con las regulaciones de protección de datos personales. Pero actualmente está acreditado que dicha anonimización no garantiza la privacidad de los datos personales, puesto que mediante técnicas de ingeniería informática es posible volver a conectar los datos con la persona a quien pertenecen. Es necesario por tanto, encontrar una base que legitime el análisis de datos personales de salud a gran escala. Por todo ello, el Grupo de Opinión del Observatorio de Bioética y Derecho de la Universidad de Barcelona ha presentado algunas recomendaciones [45], de las que entre otras se podrían destacar. Exigir se solicite y se obtenga el consentimiento expreso de los usuarios para la utilización de datos de salud con fines diferentes para los que se obtuvieron, estableciendo excepciones a dicha exigencia en estudios de vigilancia epidemiológica, registros sanitarios oficiales y estudios observacionales de salud pública que cuenten con un dictamen favorable de un comité de ética en investigación. Establecer mecanismos de control en el tratamiento de los datos con responsabilidad de los organismos públicos. Promover un código ético para la reutilización de datos de salud. Reforzar la formación en deontología y ética profesional de los implicados en la custodia y manejo de los datos. Y contribuir al desarrollo de una cultura de respeto a la intimidad y la confidencialidad de los datos personales, dada la especial protección que requieren los datos sanitarios. 
   
CONCLUSIONES
   
La era digital ha provocado la confluencia de la medicina con la tecnología y la ciencia básica para desarrollar nuevas aplicaciones para mejorar la asistencia sanitaria, la medicina de precisión y la obtención automática de información médica para facilitar la toma de decisiones. El rápido progreso de la ciencia sanitaria se basaría en tres aspectos:
  
1- Big data, con la agregación de información de gran volumen y compleja procedente de RSE, redes sociales, bases de datos genómicas y datos fisiológicos proporcionados por dispositivos móviles. 
  
2- Iniciativas abiertas para facilitar la disponibilidad de datos clínicos, de investigación y de fuentes procedentes de los propios pacientes, que puedan ser compartidas.
  
3- Técnicas analíticas de los Big data, de inteligencia artificial, que pueden realizar análisis de información estructurada y no estructurada.
  
Pero el desarrollo de todo ello tiene importantes implicaciones, como la necesidad de formación en la ciencia de los datos, la creación de equipos de trabajo e investigación formados por investigadores básicos, bioinformáticos, ingenieros, clínicos, gestores sanitarios, empresas, etc, y la financiación, a través de inversiones de instituciones sanitarias, empresas, sociedades científicas y profesionales, etc. [46].
  
Los rendimientos finales, serán la elaboración de nuevos sistemas de medida basados en la innovación, la creación de nuevas revistas dedicadas en exclusiva a la ciencia de los datos como las ya existentes “Big Data Research” o “Journal of Big Data”, redes sociales del sector de salud, etc.
   
La implicación de los futuros profesionales en el conocimiento y manejo de las grandes bases de datos será imprescindible. Los clínicos implicados en la práctica diaria deberán participar en la elaboración de las bases de datos, para así ser de utilidad para el futuro desarrollo de dicha práctica.[47]. El Big data promete transformar la rápida colección de datos en salud y convertirlos en conocimiento de utilidad para aplicar una medicina personalizada. Los métodos tradicionales de investigación clínica no pueden manejar la gran cantidad de datos en volumen, variedad, velocidad y veracidad. Los estudios observacionales podrían complementar los ensayos clínicos en la generación de hipótesis, establecer preguntas para futuros estudios y definir las condiciones clínicas, aunque de ninguna manera cuestionar su valor como método para la experimentación científica [48, 49].
  
Los ejemplos de utilización del Big data en sanidad son todavía escasos y plantean problemas no resueltos sobre si se producirá una transformación del modelo asistencial o simplemente supondrá un incremento de información sin utilidad práctica [50].
  
Aunque el Big data promete transformar el cuidado de la salud, en el ciclo de las tecnologías emergentes, probablemente “el aprendizaje automático y otras herramientas informáticas cabalgan por encima del pico de expectativas infladas" y es necesario apreciar mejor las capacidades y limitaciones de la tecnología [51].
  
La gran cantidad de datos que se pueden conseguir precisa de un claro y definido sistema de gobierno, regulación de su utilización, protección de privacidad y seguridad en su administración y almacenaje.
  
Finalmente, dos grandes incógnitas se plantean por tanto. ¿Sustituirá el Big data los clásicos sistemas de recogida de datos y su análisis? ¿podrá la tecnología substituir el pensamiento médico?

Autor: Juan B. López-Messa
Complejo Universitario Hospitalario de Palencia.
© REMI, http://medicina-intensiva.com. Julio 2017.
   
BIBLIOGRAFÍA
  1. Viktor Mayer-Schönberger y Kenneth Cukier. Big data, la revolución de los datos masivos. Noema, 2015.
  2. Murdoch TB, Detsky AS. The inevitable application of Big data to health care. JAMA 2013; 309: 1351-1352.
  3. José María Alvarez-Pallete, presidente de Telefónica. El Pais 19/06/2017.
  4. Pallarés G. Big data. Cómo usar los datos para que nadie se quede atrás. El País 18/01/2017.
  5. Poterack KA, Ramakrishna H. Converting data into information and knowledge: The promise and the reality of electronic medical records. Ann Card Anaesth 2015; 18: 290-292.
  6. Weil AR. Big Data In Health: A New Era For Research And Patient Care. Health Aff 2014; 33: 1110.
  7. Kesselheim AS, Avorn J. New "21st Century Cures" Legislation: Speed and Ease vs science. JAMA 2017; 317: 1481-1482.
  8. Sherman RE, Anderson SA, Dal Pan GJ eta l. Real-world evidence-what can it tell us? N Engl J Med 2016; 375: 2293-2297.
  9. Kim J. Big data, health informatics, and the future of cardiovascular medicine. J Am Coll Cardiology 2017; 69: 899-901.
  10. Wang L, Alexander CA. Big data in medical applications and health care. Am Med J 2015; 6: 1-8.
  11. Herland M, Khoshgoftaar TM, Wald R. A review of data mining using big data in health informatics. Journal of Big data 2014; 1: 2.
  12. Sakr S, Elgamma A. Towards a comprehensive data analytics framework for smart healthcare services. Big Data Research 2016; 4: 44-58.
  13. Groenevld PW, Rumsfeld JS. Can Big data fulfill his promise? Circ Cardiovasc Qual Outcomes 2016; 9: 679-682. 
  14. Simpao AF, Ahumada LM, Rehman MA. Big data and visual analytics in anaesthesia and health care. Br J Anaesthesia 2015; 115: 350-356.
  15. Mortazavi BJ, Downing NS, Bucholz EM, et al. Analysis of machine learning techniques for heart failure readmissions. Circ Cardiovasc Qual Outcomes 2016; 9: 629-640.
  16. Maddox TM, Albert NM, Borden WB, et al. The learning healthcare system and cardiovascular care. Circulation 2017; DOI:10.1161/CIR.0000000000000480.
  17. Smith MD, Institute of Medicine (US). Committee on the Learning Health Care System in America. Best Care at Lower Cost:The Path to Continuously Learning Health Care in America. Washington, DC: National Academies Press; 2013. https://www.nap.edu/catalog/13444/best-care-at-lower-cost-the-pathto-continuously-learning.
  18. Ser protagonista de tu salud. Diario El Pais 18/04/2017.
  19. Poterack KA, Ramakrishna. Converting data into information and knowledge: the promise and the reality of electronic medical records. Ann Card Anaesth 2015; 18: 290-292.
  20. Compton-Philips A. Care redesign. What data can really do for health care. NEJM Catalyst March 2017.
  21. Bodí M, Blanch Ll, Maspons R. Los sistemas de información clínica: una oportunidad para medir valor, investigar e innovar a partir del mundo real. Med Intensiva 2017; 41: 316-318.
  22. Ghassemi M, Celi LA, Stone DJ. State of the art review: The data revolution in critical care. Crit Care 2015; 19: 118.
  23. Cooke CR, Iwashyna TJ. Using existing data to address important clinical questions in critical care. Crit Care Med 2013; 41: 886-896.
  24. Cowie MR, Blomster JI, Curtis LH, et al. Electronic health records to facilitate clinical research. Clin Res Cardiol 2017; 106: 1-9.
  25. Cisami RJ, Zigrang TA, Sharamitaro AP. Application of big data in today’s healthcare environment. Health Capital Topics 2013; 6: 8.
  26. K, Steinhubl SR, de Filippi C, Dey S, Stewart WF. Early detection of heart failure using electronic health records. Practical implications for time before diagnosis, data diversity, data quantity, and data density. Circ Cardiovasc Qual Outcomes 2016; 9: 649-658.
  27. Janke AT, Overbeek DL, Kocher KE, Levy PD. Exploring the potential of predictive analytics and big data in emergency care. Ann Emerg Med 2016; 67: 227-236.
  28. Patel DB, Shah RM, Bhatt DL, et al. Guideline-appropiate care and in-hospital outcomes in patients with heart failure in teaching and non-teaching hospitals. Findings from get with the guidelines-Heart Failure. Circ Cardiovasc Qual Outcomes 2016; 9: 757-766.
  29. Spertus JV, Normand S-L, Wolf RMS, et al. Assessing hospital performance after percutaneous coronary intervention using big data. Circ Cardiovasc Qual Outcomes 2016;9:659-669 Murdoch TB, Detsky AS. The inevitable application of Big data to health care. JAMA 2013; 309: 1351-1352.
  30. Proyecto VISC+ Disponible en: http://aquas.gencat.cat/ca/projectes/analitica.dades.
  31. Savana Médica. https://www.savanamed.com.
  32. Montori VM. Big Science. Research collaboration for evidence-based care. Circ Caviovasc Qual Outcomes 2016; 9: 688-692.
  33. Krumholz HM. The promise of bib data. Opportunities and challenges. Circ Cardiovasc Qual Outcomes 2016; 9: 616-617.
  34. Bai G, Jiang J, Flasher R. Hospital risk of data breaches. JAMA Intern Med 2017; 273: 1-9.
  35. Weber GM, Mandl KD, Kohane IS. Finding the missing link for big biomedical data. JAMA 2014; 311: 2479-2480.
  36. Sukumar SR, Natarajan R, Ferrell RK. Quality of big data in health care. Int J Health Care Qual Assur 2015; 28: 621-634.
  37. Cresswell KM, Bates DW, Sheikh A. Why Every Health Care Organization Needs a Data Science Strategy? N Engl J Med Catalyst March 22, 2017.
  38. Ahmad FS, Chan C, Rosenman MB, et al. Validity of cardiovascular data from electronic sources: The Multi-Ethnic study of aterosclerosis and HealthLNK. Circulation 2017; DOI: 10.1161/CIRCULATIONAHA.117.027436.
  39. Angus DC. Wheter to intubate during cardiopulmonary resuscitation. Conventional wisdom vs Big data. JAMA 2017; 317: 477-478.
  40. Perman S, Stanton E, Soar J, et al. Location of in-hospital cardiac arrest in the United States-Variability in event rate and outcomes. J Am Heart Assoc 2016; 1: 37-45.
  41. Andersen L, Raymond TT, Berg RA, et al. Association between tracheal intubation during pediatric in-hospital cardiac arrest and survival. JAMA 2016; 316: 1786-1797.
  42. Sutton RM, French B, Meaney PA, et al. Physiologic monitoring of CPR quality during adult cardiac arrest: A propensity-matched cohort study. Resuscitation 2016; 106: 76-82.
  43. Haukoos JS, Lewis RJ. The propensity score. JAMA 2015; 314: 1637-1638.
  44. Bosch-Gaya, L. Matute-Blanco, D. Fernández-Rodríguez. Análisis estadísticos comparativos en los estudios epidemiológicos observacionales. Med Intensiva 2017. http://dx.doi.org/10.1016/j.medin.2017.02.005.
  45. Llàcer MR, Casado M, Buisán L (coordinadores). Grupo de Opinión del Observatori de Bioètica i Dret de la Universitat de Barcelona. Observatori de Bioètica i Dret. Documento sobre Bioética y Big data de salud: explotación y comercialización de los datos de los usuarios de la sanidad. Barcelona 2015.
  46. Bhavnani SP, Muñoz D, Bagai A. Data science in healthcare. Implicactions for early career investigators. Circ Cardiovasc Qual Outcomes 2016; 9: 683-687.
  47. Moskowitz A, McSparron J, Stone DJ, Celi LA. Preparing a New Generation of Clinicians for the era of Big Data. Harv Med Stud Rev 2015; 2: 24-27. 
  48. Nallamothu BK. Moving from big data to vital insights. Circ Cardiovasc Qual Outcomes 2016; 9: 615.
  49. Roski J, Bo-Linn GW, Andrews TA. Creating Value In Health Care Through Big Data: Opportunities and Policy Implications. Health Aff 2014; 33: 1115-1122.
  50. Van Poucke S, Thomeer M, Heath J, Vukicevic M. Are randomized controlled trials the gold standard? From clinical intelligence to prescriptive analytics. J Med Internet Res 2016; 18: e185.
  51. Chen JH, Asch SM. Machine Learning and Prediction in Medicine - Beyond the Peak of Inflated Expectations. N Engl J Med 2017; 376: 2507-2509.
 
(primera parte: A232)

A232. Big Data en la asistencia sanitaria (I)

Sin datos solamente eres una persona con una opinión
W. Edwards Deming
(Científico de los datos)

Autor: Juan B. López-Messa
Complejo Universitario Hospitalario de Palencia.
© REMI, http://medicina-intensiva.com. Julio 2017.
  
DEFINICIÓN
   
El término Big data, macrodatos o datos masivos, se refiere al almacenamiento de grandes volúmenes de datos y su procesamiento y tratamiento mediante algoritmos matemáticos con el fin de establecer correlaciones entre ellos, predecir tendencias y ayudar en la toma de decisiones. El término Big data es un término vago sobre el que no existe un acuerdo universal. Una definición podría ser cualquier cantidad de información de alrededor de un petabyte o más.
  
La disciplina dedicada al Big data o datos masivos se enmarca en el sector de las tecnologías de la información y la comunicación, y se ocupa de todas las actividades relacionadas con los sistemas que manipulan grandes conjuntos de datos. Su desarrollo ha venido propiciado por el progreso en la ingeniería informática y la inteligencia artificial. 
  
De una forma simple el Big data se puede considerar como el océano de datos digitales que las personas generan en su vida cotidiana, cuando utilizan teléfonos móviles, realizan búsquedas por internet o transferencias bancarias, se conectan a redes sociales o realizan compras a través de tarjetas de crédito o comercio electrónico.
  
TIPOS DE BIG DATA
  
Los datos que se contienen dentro de un Big data pueden ser:

  • Datos estructurados: datos que tienen bien definidos su longitud y su formato, como las fechas, los números o las cadenas de caracteres. Se almacenan en tablas. Un ejemplo son las bases de datos relacionales y las hojas de cálculo.
  • Datos no estructurados: datos en el formato tal y como fueron recolectados, carecen de un formato específico. No se pueden almacenar dentro de una tabla ya que no se puede desgranar su información a tipos básicos de datos. Algunos ejemplos son los ficheros PDF, documentos multimedia, e-mails o documentos de texto.
  • Datos semiestructurados: datos que no se limitan a campos determinados, pero que contienen marcadores para separar los diferentes elementos. Es una información poco regular como para ser gestionada de una forma estándar. Estos datos poseen sus propios metadatos semiestructurados que describen los objetos y las relaciones entre ellos, y pueden acabar siendo aceptados por convención. Un ejemplo es la información en HTML, el XML o el JSON.
¿DE DÓNDE PROVIENEN TODOS ESTOS DATOS?
  
· Generados por las personas: el hecho de enviar correos electrónicos o mensajes por WhatsApp, publicar un estado en Facebook, twitear contenidos o responder a una encuesta por la calle son cosas que hacemos a diario y que crean nuevos datos y metadatos que pueden ser analizados. Se estima que cada minuto del día se envían más de 200 millones de e-mails, se comparten más de 700.000 piezas de contenido en Facebook, se realizan dos millones de búsquedas en Google o se editan 48 horas de vídeo en YouTube. Por otro lado, la labor clásica de introducir registros en una base de datos o información en una hoja de cálculo son otras formas de generar estos datos.
  
· Transacciones de datos: la facturación, las llamadas o las transacciones entre cuentas generan información que tratada adecuadamente genera datos relevantes. El ejemplo más claro lo encontraremos en las transacciones bancarias; lo que un usuario conoce como un ingreso monetario, la computación lo interpretará como una acción llevada a cabo en una fecha y momento determinado, en un lugar concreto, entre unos usuarios registrados.
  
· E-marketing y web: generamos una gran cantidad de datos cuando navegamos por internet. Con la web 2.0 los mismos usuarios se convierten en generadores de contenidos gracias a su interacción con el sitio. Existen muchas herramientas de rastreo utilizadas en su mayoría con fines de marketing y análisis de negocio. Incluso los movimientos de ratón quedan grabados en mapas de calor y queda registro de cuánto pasamos en cada página y cuándo las visitamos.
  
· Machine to Machine (M2M): son las tecnologías que comparten datos con dispositivos: medidores, sensores de temperatura, de luz, de altura, de presión, de sonido, etc, que transforman las magnitudes físicas o químicas y las convierten en datos. Existen desde hace décadas, pero la llegada de las comunicaciones inalámbricas ha revolucionado el mundo de los sensores. Algunos ejemplos son los GPS en la automoción o los sensores de signos vitales en la medicina.
  
· Biométrica: son el conjunto de datos que provienen de la seguridad, defensa y servicios de inteligencia. Son cantidades de datos generados por lectores biométricos como escáneres de retina, escáneres de huellas digitales, o incluso lectores de cadenas de ADN. El propósito de estos datos es proporcionar mecanismos de seguridad y suelen estar custodiadas por los ministerios de defensa y departamentos de inteligencia. Un ejemplo de aplicación es el cruce de ADN entre una muestra de un crimen y una muestra en una base de datos.
   
UTILIDAD
  
Este conjunto de tecnologías se pueden utilizar en una gran variedad de ámbitos, como los siguientes, que se exponen solo a modo de ejemplo:
  
1. Empresarial
  
Marketing: a través de las búsquedas por internet o visitas a páginas web, se generan datos de los usuarios que se emplean por empresas de marketing para ofrecer distintos productos según el perfil de los usuarios cuyos datos se han registrado.
  
Redes Sociales: Facebook, Twitter y LinkedIn, disponen de imponentes bases de datos de sus usuarios.
   
Consumo: Amazon es líder en ventas cruzadas. Su éxito se basa en la masiva obtención de datos basando los patrones de compra de un usuario cruzados con los datos de compra de otro. Netflix sigue un sistema similar en base a las preferencias de sus clientes.
  
Big Data e intimidad: empresas de seguridad, cuerpos policiales o de defensa nacional, utilizan sistemas de almacenamiento de datos masivos de diversas características.
  
2. Deportes
  
Tanto a nivel profesional como aficionado y para diversos deportes o actividades físicas, se han desarrollado distintas aplicaciones como Runtastic, Garmin o Nike+, que facilitan datos de actividad física, movimiento y localización, que pueden ser almacenados.
  
3. Investigación
  
Defensa y seguridad: para generar entornos de defensa ante ciberataques o de información de inteligencia militar o civil.
  
Sostenibilidad: a través de sensores ambientales en diversas localizaciones que monitorizan situaciones medioambientales diversas, frío, calor, humedad, prevención de incendios forestales, etc.
  
Salud y medicina: aspecto en el que pretendemos profundizar en esta revisión.
  
Los datos masivos están presentes cada vez más en nuestras vidas, y su forma de utilizarlos implica cambiar nuestra mentalidad, aunque apenas nos damos cuenta de sus aplicaciones. Big data ilustra lo que algunos ya consideran el comienzo de una era, la de los datos masivos. La recolección de datos comienza a ser tan barata que ya no necesitaremos establecer una muestra para estudiar un hecho como forma de encontrar conocimiento, sino que podremos analizar el conjunto total de datos, lo que nos permitirá establecer resultados mucho más precisos, más baratos y también más inesperados. Pero una correlación no es una causalidad y estamos acostumbrados a buscar causas en todo, por lo que esta nueva era implica una adaptación de mentalidad. Deberemos estar dispuestos a aceptar resultados basados en la correlación sin entender completamente el por qué, la causa [1].
  
Por otro lado, la teoría económica clásica describe la conversión cuantitativa de 3 tipos de elementos primarios de la producción (el capital, la mano de obra y las materias primas) en productos (bienes y servicios). Esta relación técnica se conoce como función de producción. Pero a medida que avanza la tecnología, esta relación cuantitativa cambia, por lo general requiere menos entradas para producir la misma o más salida. La revolución actual en la gestión de datos deja claro que un cuarto tipo de elemento primario, la información, será tan importante como los otros en el futuro de muchas industrias [2]. Incluso se ha llegado a afirmar que los datos van a desplazar al petróleo como la materia prima más preciosa [3].
  
BIG DATA E INFORMÁTICA DE LA ASISTENCIA SANITARIA
  
1. Conceptos generales
  
Los datos son la base de cualquier toma de decisiones. Los Big data son necesarios para el desarrollo y la acción humanitaria. El simple registro de nacimientos y muertes son necesarios para conocer realidades y mejorar la calidad de vida de las personas. Incluso la ONU ya se plantea dentro de sus objetivos de desarrollo sostenible, la necesidad de que todos los países dispongan de diferentes bases de datos como las referidas [4].
  
Actualmente se almacenan grandes cantidades de datos e información en los registros médicos electrónicos, pero no se está utilizando todavía dicha información en todo su potencial para generar conocimiento, y los clínicos no son conscientes de dicha potencialidad en el cuidado de los pacientes [5]. En los últimos años se ha generado una masiva cantidad de datos digitalizados en el entorno sanitario. La integración de estos datos en el denominado Big data ofrece el potencial de mejorar la atención sanitaria, con acceso de los profesionales a un conocimiento que facilite su toma de decisiones y proporciona la posibilidad de realizar estudios observacionales en una escala y a una velocidad a la que no se pueden aproximar los ensayos clínicos [6]. De hecho incluso la FDA americana considera que la evidencia obtenida a través de información del mundo real y no solo de los ensayos clínicos, debe emplearse para tomar decisiones regulatorias de aprobación de productos sanitarios [7].
  
Sin embargo, aun con la esperanza de que el Big data podría suplantar al ensayo clínico, recientemente éste ha sido defendido también por la FDA como todavía el único camino para generar evidencia definitiva cuando el análisis de grandes bases de datos genere hallazgos en desacuerdo con la sabiduría convencional [8].
  
La medicina se está convirtiendo en una ciencia de la información. En pocos años dispondremos de billones de datos de cada individuo, y el desafío será desarrollar la tecnología de la información que pueda conducir dichos datos a hipótesis reales sobre los propios individuos [9].
  
No existe una definición uniforme en lo que se refiere a Big Data en sanidad y cuidados en salud, pero se caracteriza por las 5 V: volumen, velocidad, variedad, veracidad y valor. El volumen se refiere a grandes cantidades de datos, la velocidad a la cual se generan nuevos datos, la variedad en relación a la complejidad de los mismos, la veracidad a la autenticidad de los datos y el valor a la calidad de los mismos [10].
  
Las fuentes de datos se han desarrollado vertiginosamente, como dispositivos implantables o de prenda (“wearables”), teléfonos inteligentes, sensores en tiempo real, y sobre todo los registros sanitarios electrónicos (RSE) y sistemas de información clínica. Este concepto ha hecho preciso el desarrollo de diferentes herramientas analíticas para su gestión y obtención de resultados.
  
Aunque existe un especial entusiasmo hacia los Big data, todavía existen grandes desafíos en su utilización y su incorporación de resultados al conocimiento científico médico. Esto se debe a que su uso es complejo y la mayoría de los clínicos no están todavía familiarizados con su empleo y sus posibles aplicaciones. Es necesaria la implicación y colaboración de diferentes actores y el desarrollo de auténticos especialistas en informática de la salud.
  
2. Procedencia de datos para generar Big data de salud
  
La informática de la salud se está introduciendo en una nueva era tecnológica en el manejo de datos masivos, ofreciendo un ilimitado potencial de información. La extracción de datos y los análisis de los datos masivos pueden ayudar a obtener los objetivos para el diagnóstico, el tratamiento y la curación de muchos pacientes, con el objetivo final de mejorar el sistema y la calidad de los cuidados que se proporcionan. La informática de la salud es una combinación de ciencia de la información y ciencia de la computación dentro del sistema sanitario. Existen actualmente varias áreas de investigación dentro de la informática de la salud, que incluyen la bioinformática, la informática de la imagen (generalmente neuroinformática), la informática clínica, la informática de salud pública y la bioinformática translacional [11].
  
Atendiendo a la definición basada en las 5 V, los datos obtenidos en la informática de la salud exhiben generalmente un gran volumen, pues proceden de largas cantidades de registros obtenidos de los pacientes, como imágenes de resonancia magnética o estudios genéticos, o bien datos a nivel poblacional. La gran velocidad se produce cuando se obtienen rápidamente dichos datos, como por ejemplo cuando se monitorizan en tiempo real condiciones de los pacientes a través de sensores médicos o bien obteniendo datos en episodios epidémicos a través de entradas en redes sociales de Internet. Esa información no debería ser incompleta o incluso errónea, y tener auténtica veracidad. La gran variedad se corresponde con una cantidad de diversos tipos de información con distintos atributos que son obtenidos de diferentes fuentes. El alto valor de los datos es el aspecto más importante de la informática de la salud, en relación al objetivo de mejorar los cuidados sanitarios.
  
Muchos de los estudios que más adelante se van a presentar no cumplen los cinco criterios referidos en relación al Big data, y las únicas condiciones de velocidad o volumen no deberían considerarse suficientes para asegurar la calidad de las bases de datos.
  
Las organizaciones sanitarias han generado en los últimos años cantidades ingentes de información, almacenada en RSE y que pueden ser de gran utilidad. En la actualidad se está haciendo más popular integrar y combinar diferentes fuentes de datos, incluso de diferentes características, en lo que sería la bioinformática translacional.
  
Niveles de datos informáticos en salud
  
Como se ha referido anteriormente existen varios subgrupos de información:
  
- Bioinformática. Se refiere fundamentalmente a bases de datos a nivel molecular, usando microniveles de información. Los datos de bioinformática como son los referidos a la expresión genética están en continuo crecimiento y son capaces de generar datos de información molecular a nivel individual.
  
- Neuroinformática, que utiliza datos de imágenes a nivel de tejidos, como puede ser a nivel de sistema nervioso. Es un área de investigación reciente, que se refiere fundamentalmente a la obtención de datos de resonancia magnética. A este nivel la investigación se concentra en el análisis de imágenes cerebrales, con el objetivo de conocer mejor como trabaja el cerebro y encontrar correlaciones entre la información obtenida de las imágenes con los eventos clínicos.
  
- Informática clínica. Utiliza datos de pacientes, bien referidos a sus condiciones fisiológicas o a sus características patológicas. Las cuestiones clínicas son las más importantes en la informática de la salud, pues tienen que ver directamente con el paciente. En el momento actual existe un retraso de casi 15 años entre la investigación clínica y la práctica clínica. Las decisiones clínicas que se toman hoy día se basan en información general que se ha utilizado previamente o está basada en la que expertos han encontrado en su trabajo en el pasado. A través de la investigación mediante informática clínica el sistema sanitario puede obtener nuevas vías que sean más seguras, realizables y eficientes.
  
- Informática de salud pública. Utiliza información poblacional recogida a través de sistemas estandarizados o bien a través de información obtenida de redes sociales. Los datos se pueden obtener mediante métodos tradicionales o través de las redes sociales que utilizan las poblaciones. Los datos proporcionados a nivel poblacional pueden tener un gran volumen, obtenerse a una gran velocidad y tener una gran variedad. Los datos obtenidos a través de las redes sociales pueden tener menor veracidad y por tanto tener un menor valor, pero existen técnicas para obtener información de utilidad a través de las redes sociales que pueden obtener y dar más valor.
  
Los datos a nivel molecular como los referidos a la expresión genética pueden ayudar a los médicos a conocer si los pacientes podrán presentar recaídas de un tumor o incluso qué subtipo de tumor pueden tener.
  
Los datos obtenidos a nivel de imágenes pueden facilitar la creación de un mapa de conectividad del cerebro y predecir cual será la evolución clínica de algunos pacientes con enfermedades neurológicas o neurodegenerativas. 
  
Los datos que utiliza la información dada por los pacientes a nivel clínico ya de tiempo atrás se viene utilizando para predecir readmisiones hospitalarias o en unidades de cuidados críticos, para predecir la mortalidad al alta hospitalaria o a los 5 años, etc. La utilización de estos datos por transmisión en tiempo real (streaming) puede facilitar información de la situación de los enfermos y evaluada con las grandes bases de datos predecir cuál será su evolución. Las predicciones sobre mortalidad en UCI o readmisión tras el alta han sido ampliamente presentadas utilizando grandes bases de datos sobre diferentes índices de gravedad fisiológica. Los nuevos métodos de análisis tienen la potencialidad de mejorar el desempeño en el proceso de atención de los pacientes tratados en unidades de cuidados intensivos y cuales deben recibir un tratamiento particular dependiendo de su características. Así mismo, se han definido diferentes estudios basados en grandes datos de información de pacientes críticos que han intentado predecir la mortalidad a los 5 años. 
  
Se han desarrollado estudios para predecir la evolución de los pacientes en tiempo real en base a datos fisiológicos obtenidos al instante y teniendo en cuenta también las características de los pacientes. Ello se ha realizado mediante sistemas de redes neuronales o de redes bayesianas definiendo los denominados árboles de decisión muy rápida (Very Fast Decision Tree). Este sistema maneja datos dinámicos y no estáticos y proporciona predicción según el estado actual y en cada momento de los pacientes. Ofrece a los médicos la habilidad de ofrecer el mejor tratamiento a los pacientes con características fisiológicas actuales basados en las situaciones previas similares de otros pacientes. 
  
Los datos en informática de la salud se obtienen tradicionalmente de los propios profesionales o de los centros sanitarios, pero recientemente cualquier persona puede generar información sanitaria a través de distintas aplicaciones de internet. La generación de datos se puede obtener desde twitter, o cuestiones realizadas de Google, mensajería o cualquier otra información solicitada o introducida en internet por cualquier persona. Esta forma de aportar Big data, a pesar de la posibilidad de ser inadecuada, puede posibilitar nuevos avances en el ámbito de la medicina. El inconveniente por tanto sería la baja veracidad de la información. La información de brotes de enfermedades, la relativa a enfermedades infecciosas, el aporte de conocimiento de la distribución global de diversas enfermedades, y el hecho de crear una vía muy accesible para cualquier persona a la información respecto a cuestiones médicas es una parte de gran importancia a este respecto. 
  
Existen diversas plataformas independientes de redes sociales que con diversos algoritmos recogen la información aportada por pacientes en foros o blogs, que la analizan o depuran para proporcionar información. Son las llamadas plataformas con programas informáticos de salud inteligente. Otras plataformas se basan en un nuevo sistema que utiliza foros sociales de salud para ayudar a los pacientes en condiciones en las que otros habían aportado información en base a situaciones similares. 
  
Utilización de consultas de búsquedas para trazar epidemias
  
Las consultas de búsqueda a través generalmente de dos sistemas de plataformas como Google o Baidu pueden predecir en tiempo real la ocurrencia y el movimiento de epidemias en una población dada. Por ejemplo en los brotes de influenza el CDC ofrece información generalmente con una o dos semanas de retraso en relación a los brotes epidérmicos, mientras que basados en las cuestiones planteadas en estas plataformas la información y la investigación puede ser en tiempo real. Ello puede ayudar a los médicos y a los centros hospitalarios para saber cuando y donde se está produciendo un brote epidémico pudiendo actuar con mayor celeridad e incluso establecer medidas para reducir la extensión de la enfermedad.
  
Utilización de posts en Twitter para seguir un brote epidémico
   
Una ventaja de Twitter sobre el sistema anterior de consultas en plataformas como Google es que los posts se acompañan de un contexto. Ya hay estudios que han empleado esta red social para investigar y analizar niveles de cuadros de influenza con una predicción semanal y con niveles a distintas regiones. Estos estudios requieren una definición de qué términos o palabras clave deben introducirse en los posts para ser tenidos en cuenta, como por ejemplo H1N1, catarro, gripe, etc. Se han creado incluso sistemas de análisis continuo de las tendencias de la gripe, a través de información de las redes sociales que monitorizan esta enfermedad con el objetivo de detectar los periodos epidémicos. 
  
Bioinformática translacional
  
Es probablemente el futuro de la informática de la salud. Es un sistema interdisciplinario que trabaja con un gran volumen de datos biomédicos y genómicos, en donde las áreas actuales de investigación incluyen el desarrollo de nuevas técnicas que integren datos biológicos y clínicos. La bioinformática translacional desarrolla herramientas que aúnan la información a nivel molecular con la clínica, con la que se pueda de forma eficiente y segura analizar datos conjuntamente para mejorar los resultados en salud. 
  
Hasta ahora el Big data en el sector sanitario se ha venido entendiendo solamente como un subproducto de la actividad sanitaria (pasivo), más que como un activo que sirva para mejorar su calidad y eficiencia. Otras industrias sin embargo, se han revolucionado pasando del rechazo a la utilización sistemática de las bases de datos. Los avances en los sistemas computacionales de análisis de información han sido el mayor catalizador de esta evolución. Estas técnicas analíticas contrastan con los métodos analíticos tradicionales, derivados de las ciencias físicas y sociales, que no son de utilidad para los análisis de datos no estructurados, como los derivados de documentos de texto, imposibles de conjugar en tablas relacionales. En general, a nivel de entornos de negocios el 80% de los datos están en formatos no estructurados. Y por otro lado, y también en contraste a la mayoría de las industrias de servicios al consumidor, la práctica médica ha adoptado para su desarrollo una generación de evidencias, basada en análisis experimentales (ensayos clínicos) o cuasi-experimentales, para aportar información a pacientes y profesionales [2].
  
El entorno sanitario no ha desarrollado hasta ahora la utilización de la gran cantidad de datos contenidos en los RSE. Sin embargo, existen cuatro vías a través de las cuales la utilización de los Big data contenidos en ellos pueden hacer avanzar el sector en sus misiones de calidad y eficiencia:

  1. Su análisis, genera conocimiento a una bajo coste, observando lo que ocurre en el “mundo real”.
  2. Ayuda a una sencilla diseminación del conocimiento. Análisis de grandes bases de datos, que se pueden compartir a través de la red.
  3. Sirve para trasladar iniciativas de medicina personalizada a la práctica clínica, integrando sistemas biológicos (genómica) con los RSE.
  4. Trasladar la información de forma rápida y directa a los pacientes, por un lado asociando datos médicos a otros datos personales (hábitos, situación económica, educación, tipo de trabajo), y facilitando su acceso a dicha información. 
La utilización del Big data en este sector tiene el potencial de transformar la práctica médica utilizando la información generada cada día para mejorar la calidad y la eficiencia del sistema.
  
3. Elementos para el análisis del Big data
  
Con el volumen creciente de información obtenida a través de los sistemas de monitorización de pacientes o de los RSE, los profesionales se han visto abocados a utilizar elementos analíticos sofisticados para la toma de decisiones a través de dicha diversidad de datos. A nivel médico se están desarrollando tecnologías a nivel de sensores fisiológicos, sistemas computacionales en la nube, internet de las cosas y sistemas analíticos de grandes bases de datos, como tecnologías emergentes que se están haciendo posible gracias al importante progreso en aspectos como la velocidad de comunicación en las redes, las capacidades informáticas y las de almacenamiento de datos, que pueden contribuir hacia la mejora de la eficiencia y efectividad de los servicios sanitarios, en el denominado Smart Health o Salud Inteligente [12]. El Big data implica la aplicación de sistemas analíticos estadísticos avanzados, como los llamados aprendizaje automático, redes bayesianas, analítica visual, inteligencia artificial o computación cognitiva, a fuentes de datos, que generalmente exceden el tamaño y la complejidad de las tradicionales bases usadas en análisis de salud. Estos nuevos y futuros sistemas de análisis del Big data se van a incorporar en la práctica diaria de los clínicos, con ya su impacto rutinario en las experiencias diarias de millones de usuarios de Google, Amazon, y otras compañías tecnológicas. 
  
Aunque el término Big data es relativamente reciente muchas de las técnicas analíticas referidas se han desarrollado hace décadas en el campo de la informática biomédica. La medicina cardiovascular y la medicina crítica han sido líderes en el uso clínico de diversos modelos empleando las mismas. Entre ellos podríamos referir los sistemas de valoración de riesgo cardiaco preoperatorio, los sistemas de puntuación TIMI de pronóstico en el síndrome coronario agudo, la puntuación CHADS para la predicción del ictus en la fibrilación auricular, las puntuaciones APACHE o SAPS, etc. Sin embargo, estos sistemas se han desarrollado basados en un pequeño número de variables preseleccionadas como predictoras. Contrariamente los sistemas analíticos del Big data pueden utilizar miles de variables con múltiples permutaciones, produciendo modelos predictivos dinámicos que pueden informar de forma continua a través de nueva información, y de forma totalmente diferente a los modelos estáticos generados por sistemas estándar a través de métodos de regresión multivariante. 
  
Las ventajas del análisis de grandes bases de datos se basan fundamentalmente en dos premisas:
  
1. No es posible presentar de forma preespecífica todas las posibles vías causales y de asociación en un entorno de miles de variables.
  
2. Para maximizar la utilidad operacional los modelos de predicción clínica deben adaptarse a los cambios en los datos a través del espacio y del tiempo. Por ejemplo los sistemas CHADS, APACHE, TIMI o SAPS 3, aportan la misma predicción de riesgo en base a sus variables y sin tener en cuenta por ejemplo la situación económica de los pacientes, el lugar de residencia, etc. Por contra, el análisis del Big data puede ajustar predictores en variables distintas y diferentes según el momento y el lugar en el que los datos son generados, obteniendo valores de predicción más seguros. Son sistemas de predicción dinámicos y no estáticos. 
  
Lógicamente los RSE pueden presentar deficiencias de calidad, lo cual es un desafío para poder obtener a través de ellos predicciones precisas. Otro aspecto importante es la necesidad de la reproducibilidad de los resultados obtenidos por distintos grupos y que a través de la utilización de complejos algoritmos computacionales faciliten el análisis de los datos. Es por tanto necesario asegurar procesos científicos adecuadamente contrastados y será necesario desarrollar nuevos métodos de evaluación de los sistemas analíticos del Big data. Así mismo, será necesario comparar los sistemas de predicción del Big data con los sistemas previamente desarrollados. 
  
Se requiere por tanto rigurosos sistemas científicos para testar los modelos analíticos y no dejarnos cegar por el entusiasmo de su gran potencial. El análisis del Big data es una herramienta que requiere, como en otra intervención médica una integración clínica, para mejorar la calidad de las actividades y que tenga un impacto positivo en la salud y en los cuidados sanitarios.
  
Aunque escasos, ya se han realizado estudios al respecto, como el “Telemonitoring to Improve Heart Failure Outcomes” que utilizando datos fisiológicos de los pacientes, compara métodos analíticos de “aprendizaje automático” con regresión logística, para la predicción de reingresos de pacientes con insuficiencia cardiaca, demostrando mayor grado de predicción de los primeros [13-15].

Autor: Juan B. López-Messa
Complejo Universitario Hospitalario de Palencia.
© REMI, http://medicina-intensiva.com. Julio 2017.
   
BIBLIOGRAFÍA
  1. Viktor Mayer-Schönberger y Kenneth Cukier. Big data, la revolución de los datos masivos. Noema, 2015.
  2. Murdoch TB, Detsky AS. The inevitable application of Big data to health care. JAMA 2013; 309: 1351-1352.
  3. José María Alvarez-Pallete, presidente de Telefónica. El Pais 19/06/2017.
  4. Pallarés G. Big data. Cómo usar los datos para que nadie se quede atrás. El País 18/01/2017.
  5. Poterack KA, Ramakrishna H. Converting data into information and knowledge: The promise and the reality of electronic medical records. Ann Card Anaesth 2015; 18: 290-292.
  6. Weil AR. Big Data In Health: A New Era For Research And Patient Care. Health Aff 2014; 33: 1110.
  7. Kesselheim AS, Avorn J. New "21st Century Cures" Legislation: Speed and Ease vs science. JAMA 2017; 317: 1481-1482.
  8. Sherman RE, Anderson SA, Dal Pan GJ eta l. Real-world evidence-what can it tell us? N Engl J Med 2016; 375: 2293-2297.
  9. Kim J. Big data, health informatics, and the future of cardiovascular medicine. J Am Coll Cardiology 2017; 69: 899-901.
  10. Wang L, Alexander CA. Big data in medical applications and health care. Am Med J 2015; 6: 1-8.
  11. Herland M, Khoshgoftaar TM, Wald R. A review of data mining using big data in health informatics. Journal of Big data 2014; 1: 2.
  12. Sakr S, Elgamma A. Towards a comprehensive data analytics framework for smart healthcare services. Big Data Research 2016; 4: 44-58.
  13. Groenevld PW, Rumsfeld JS. Can Big data fulfill his promise? Circ Cardiovasc Qual Outcomes 2016; 9: 679-682. 
  14. Simpao AF, Ahumada LM, Rehman MA. Big data and visual analytics in anaesthesia and health care. Br J Anaesthesia 2015; 115: 350-356.
  15. Mortazavi BJ, Downing NS, Bucholz EM, et al. Analysis of machine learning techniques for heart failure readmissions. Circ Cardiovasc Qual Outcomes 2016; 9: 629-640.
(continúa en la segunda parte: A233)
   
  

REMI 2354. Factores pronósticos de la parada cardiaca recuperada

ARTÍCULO ORIGINAL: Predictores de mortalidad y función neurológica en pacientes de UCI que se recuperan de una parada cardíaca: estudio pros...