Actualidad
Big Data en Medicina: La inteligencia artificial que viene

Big Data en Medicina: La inteligencia artificial que viene

Fecha de publicación: 16 de julio de 2018
Big Data es el más reciente paradigma de datos que significa no solo una información que es mucho más voluminosa que cualquier otra forma de almacenaje estructurado de datos, sino también el cruce de esta masiva cantidad de información con análisis de datos sofisticados al objeto de adquirir nuevos conocimientos o visiones. Este fenómeno ha tenido lugar en sectores tales como los negocios, las finanzas, o los deportes. En las últimas elecciones presidenciales en los EEUU, el científico de datos Nate Silver demostró que su metodología analítica de datos era superior a las opiniones de muchos expertos políticos para predecir el resultado de la elección. Big Data es, por lo tanto, un movimiento de datos dominante y una revolución del conocimiento que enfatiza que “la información de los datos es más confiable que la intuición de los expertos” y se encontraría ya en el pico descendente “de expectativas infladas” del ciclo de Gartner para las tecnologías emergentes con una estimación 5 años su maduración y adopción (los interesados pueden ver esto en : (http://www.mediabuzz.com.sg/asian-emarketing-latest-issue/210-asian-e-marketing/digital-marketing-trends-a-predictionsweek-1/2504-gartner-hype-in-2015-around-the-internet-of-things-iot-and-wearables)

El big data tiene importantes dimensiones y todas ellas comienzan convenientemente con la letra “v”

( http://www.datasciencecentral.com/forum/topics/the-3vs-that-define-big-data ):

1) Volumen – se calcula que los volúmenes de datos recientes están en petabytes (1015) y exabytes (1018) y estarán en zettabytes (1021) en un futuro cercano (la unidad más alta es el yottabyte que es 1024) ( http://www.theopenstrategist.com/2012/10/big-data-growthchart.html ). Estos datos incluyen registros médicos electrónicos, dispositivos de monitorización del hogar, datos genómicos, reclamaciones a seguros, información sobre medicamentos, y datos de imágenes (de ecocardiogramas, angiogramas y RMN/TAC)

2) Variedad – la consideración de los datos estructurados y no estructurados en numerosas formas y combinaciones; y

3) Velocidad – la transferencia de datos y el análisis ahora deben estar en fracciones de segundos e incluso en tiempo real, especialmente con transferencia de estudios de imágenes en telemedicina Unas “v” adicionales incluyen también:

4) Veracidad: la precisión y confiabilidad de big data y sus análisis acompañantes y finalmente

5) Valor – determinación de cuánto vale esta información para la institución y el usuario.

 

El Big Data biomédico

El big data biomédico actual, acumulado por registros médicos electrónicos y el archivo de imágenes digitales (alrededor de 20 megabytes o MB por imagen), alcanza la asombrosa cifra de 100-250 exabytes con una tasa de crecimiento anual de 1.2 a 2.4 exabytes. Este big data biomédico, sin embargo, está aún muy fragmentado y desorganizado. Nuestros datos tradicionales con un enfoque de “arriba hacia abajo” hasta ahora implica o bien 1) unas bases de datos sobre salud o registros (eso implica el ingreso manual de datos con sus limitaciones inherentes de precisión e integridad, seguido de análisis de datos con herramientas estadísticas básicas) o bien 2) una investigación convencional impulsada por hipótesis y ensayos controlados aleatorios (ECA) que se han vuelto costosamente prohibitivos, de un alcance limitado y, a menudo, sin respuestas definitivas a las preguntas clínicas planteadas.

Recientemente, este nuevo paradigma de big data se ha aplicado con éxito a la ciencia biomédica principalmente en forma de medicina genómica y su escalada de big data en la transcripción genética [7]. La gran magnitud y la adquisición rápida de este big data genético es increiblemente vertiginosa, como ejemplifica Michael Snyder, un genetista de Stanford que ha generado 30 terabytes de datos con solo sus propios datos biológicos. A pesar de este desalentador desafío, algunos se han enfrentado al mismo con éxito, avanzando en el impacto positivo en la atención del paciente [8] [9]. La piedra angular de todo este esfuerzo de transformación de datos en Medicina genómica es el ENCyclopedia Of DNA Elements (proyecto ENCODE), un proyecto internacional de colaboración entre grupos de investigación financiados por el Genome Research Institute con el objetivo de delinear la totalidad de elementos funcionales codificados en el genoma humano...

 

 

Lee el artículo completo en DocTUtor