La inteligencia artificial como motor de la medicina de precisión: predecir y explicar para simular

Descargar PDF

La curiosidad científica anhela entender cómo funcionan las cosas. La pura predicción, si no somos capaces de entender los mecanismos subyacentes, nos suele dejar insatisfechos. En biomedicina, entender cómo funcionan los organismos es la base para poder proponer nuevas dianas terapéuticas y mejorar los tratamientos, la base para poder prevenir y curar. Los últimos avances en Inteligencia artificial (IA) demuestran cómo precisamente esta metodología puede ser clave para explicar los procesos que subyacen a la transición de la salud a la enfermedad a partir de las grandes cantidades de datos que se están generando, acelerando el conocimiento biomédico hasta cotas antes impensables.

La IA se utilizó inicialmente en biomedicina como elemento técnico para procesar desde imágenes hasta datos de electrocardiogramas. En este año, el premio Nobel a Hassabis y a Jumper (DeepMind) y a Baker ha demostrado que la aplicación de la IA a la biomedicina trasciende a la de ser una mera técnica. Además, el uso de técnicas de IA como agentes inteligentes que ayuden en la toma de decisiones en la práctica clínica es ya una realidad, aunque sigue siendo tomado con cautela, dada la suspicacia que generan las predicciones que no podemos explicar.

En este artículo mostraremos algunos de los últimos avances que demuestran cómo la IA, y en concreto la IA explicativa, se está convirtiendo en uno de los principales motores de la investigación biomédica, haciendo que la medicina de precisión pase de promesa a realidad.

Comenzamos un poco tarde…

Aunque la Inteligencia artificial lleva años utilizándose en banca, marketing o logística, su uso generalizado en biomedicina se retrasó hasta comienzos del siglo XXI. Las razones de este retraso han sido varias:

  • En primer lugar, la disponibilidad de las grandes cantidades de datos cuantitativos y exhaustivos a nivel molecular, celular y de organismo en grandes poblaciones, necesarios para entrenar estos sistemas, era una quimera hasta hace poco más de una década. El abaratamiento de las técnicas ómicas, unido a la filosofía de compartición de datos potenciada por las agencias financiadoras, con el fin de maximizar los recursos, ha sido esencial en este cambio. Iniciativas pioneras como The Cancer Genome Atlas (TCGA), the Gene Expression Omnibus (GEO) o el UK Biobank, por nombrar sólo algunas, han sentado las bases para poder utilizar millones de datos estandarizados en el entrenamiento de algoritmos de aprendizaje máquina en biomedicina.
  • La dificultad de acceso a sistemas de computación de alto rendimiento en el entorno de la investigación pública, así como el coste inasumible del personal de administración de estos sistemas, normalmente muy escasos por su alta demanda en otros sectores que ofrecen más estabilidad y mejores condiciones económicas. En este sentido, la gran mayoría de los países ofrecen redes públicas de computación científica, como es el caso de la RES (Red Española de Supercomputación) en nuestro país. Sin embargo, el monopolio y la altísima demanda de los componentes necesarios en supercomputación, como por ejemplo las graphical processing units (GPU), genera una gran incertidumbre acerca de cómo de realista será el uso de la supercomputación basada en recursos propios en la investigación biomédica pública, con las grandes corporaciones intentando copar este mercado.
  • Finalmente, ha existido tradicionalmente una gran desconfianza hacia estas técnicas por parte de la comunidad científica biomédica, tachándolas de “caja-negra” o de “moda”. Esta desconfianza es algo normal, e incluso positiva para garantizar el rigor y la validez de los hallazgos que propicia. Descubrimientos que a menudo son difíciles de evaluar utilizando los controles tradicionales de revisión científica, debido al grado de abstracción que representan y la imposibilidad de revisar todos los desarrollos en los que se basa de manera exhaustiva y su complejidad técnica. Y a la falta de personal formado en la materia trabajando en investigación biomédica, sobre todo en el sector público. Como en otros ámbitos, su aplicación generalizada tiene que ir de la mano de la definición de un marco ético y legal que está comenzando a clarificarse.

Pese a todos estos problemas iniciales, el uso generalizado de la IA en Biomedicina es ya una realidad. Y el futuro es aún más prometedor.

Modelos predictivos para la medicina de precisión: De Mammaprint© a los scores poligénicos

Estratificar a los pacientes y a la población sana en función de su riesgo para mejorar su tratamiento, es uno de los objetivos de la medicina personalizada. La inferencia estadística clásica ha sido la herramienta utilizada para resolver este problema durante casi un siglo, utilizando distintos tipos de regresión tanto univariante como multivariante. Estos métodos, sin embargo, tienen dificultades en la selección de predictores si existe un gran número de ellos a considerar, sobre todo en situaciones de interdependencia. La «maldición de la dimensionalidad» es un término a menudo utilizado para los modelos predictivos con datos ómicos, en los que el número de predictores (expresión génica o proteica, variantes genéticas, etc.) excede con mucho al número de individuos sobre los que realizar la inferencia. En este contexto, Laura Van´t Veer definió en 2003 en un artículo seminal en el campo la primera firma predictiva de recaída en 117 pacientes con cáncer de mama utilizando datos de expresión génica medida por microarrays. El tamaño muestral, que hoy parece ridículo, fue un hito en aquel momento. La firma estaba compuesta por 70 genes. Poco después, diversos bioinformáticos criticaron la metodología utilizada, dado que era posible encontrar muchos otros conjuntos de 70 genes diferentes con el mismo poder predictivo. Pese a ello, el estudio de Van´t Veer se validó en numerosos contextos clínicos y con un número de pacientes mucho mayor, llegando a convertirse en uno de los primeros casos de diagnóstico genético aprobados por la FDA. Hubo otros trabajos similares en aquella época, como la definición del Immunoscore© para la estratificación de los pacientes con cáncer de colón en base al tipo, la densidad y la localización de los linfocitos T infiltrados en los tumores.

El reducido número de participantes utilizado en estos y otros estudios similares a principios del siglo XX, cuando técnica y económicamente realizar test moleculares a gran escala resultaba muy costoso, demostraron el poder predictivo de estas herramientas, aunque se necesitaron muchos estudios más para validarlos. Hoy en día, la disponibilidad de grandes cantidades de datos moleculares para grandes cohortes de individuos hace posible definir scores de riesgo de forma mucho más precisa, utilizando metodologías de aprendizaje máquina más robustas. Frente a la estadística clásica, los métodos de aprendizaje máquina como las redes elásticas, las redes neuronales, el gradient boosting o los random forest, ofrecen un marco conceptual más adecuado para la selección automática de los mejores predictores en situaciones de colinealidad. Pese a su potencia, es importante recalcar que estos métodos no pueden aplicarse a cualquier conjunto de datos, y que el “optimismo” en sus predicciones debido al sobreajuste, depende del número de predictores disponibles por cada caso a predecir. En un gran artículo de recomendada lectura, van der Ploeg y colegas utilizaron datos simulados para cuantificar el grado de optimismo en las predicciones de los diferentes algoritmos en base al número de casos por predictor.

Actualmente, el uso de los algoritmos de aprendizaje automático utilizando los datos moleculares generados en grandes cohortes potenciados por los gobiernos de todo el mundo (UK Biobank, All of Us, IMPACT, entre otros) está permitiendo mejorar nuestra comprensión de enfermedades complejas, del cáncer a las enfermedades cardiovasculares y neurodegenerativas, siendo una pieza esencial en la medicina de precisión. Como ejemplo, los scores poligénicos (PGS) utilizan modelos de aprendizaje máquina para resumir el fondo genético heredado que contribuye a distintas condiciones fisiológicas y patológicas complejas. El catálogo de PGS recoge más de 5.000 PGS asociados con 655 rasgos. Utilizando metodologías similares, el grupo de Mike Inouye en la Universidad de Cambridge ha desarrollado modelos que predicen la expresión de cualquier gen o proteína en base a los SNPs de un individuo (https://www.omicspred.org/). Estos modelos han sido controvertidos, al dejar fuera la componente ambiental. Son, sin embargo, un esfuerzo valiente y en muchos casos útil, que abre la puerta a ser capaces de cuantificar el multi-oma de los individuos mediante modelos in silico, lo que permitiría abaratar los costes.

En la misma línea se están desarrollando relojes epigenéticos mediante la aplicación de algoritmos de aprendizaje máquina que predicen la edad cronológica o la supervivencia (dependiendo de los modelos) a partir de los datos de metilación de una persona. Una vez más, al escepticismo general con los primeros relojes inferidos por Horvath le siguió una ola de curiosidad. Es cierto que aún no se ha demostrado por qué las CpGs que constituyen los relojes son las predictivas de la supervivencia y no otras, o por qué cada reloj contiene unas distintas. Más trabajo es necesario en esta línea para convencer realmente a la comunidad acerca de su validez.       

Inferencia Causal e IA generativa: De la predicción a la explicación

La causalidad y la predicción se perciben a menudo como términos opuestos. Sin embargo, ambos se ocupan de la estimación de la misma probabilidad P(Y|X), con una diferencia que parece sutil pero que tiene grandes implicaciones a nivel técnico y de generalización: Los modelos predictivos predicen un resultado en base a observaciones, mientras que en inferencia causal el escenario en el que se realiza la predicción puede ser hipotético y no haber sido observado.  Por esa razón, la inferencia causal está ganando cada vez más atención y ayuda a la IA con la generalización de sus resultados. A su vez, algunos de los algoritmos computacionales desarrollados para resolver el problema de predicción pueden adaptarse para aproximar la probabilidad posterior de los datos a problemas complejos en los que los enfoques tradicionales no son capaces de encontrar una forma analíticamente cerrada.

Los modelos generativos profundos (Deep Generative Models, DGM) son marcos estadísticos que simulan nuevas observaciones de una variable de interés X, utilizando su función de verosimilitud Pθ(X), cuyo conjunto de parámetros θ se infiere de los datos observados. En problemas complejos, con gran cantidad de variables de confusión y de alta dimensionalidad, esto se vuelve cada vez más difícil, siendo la inferencia un problema computacional «duro», denominado NP-hard. Los modelos generativos, inspirados en la estadística bayesiana, obtienen muestras de una distribución latente Z ∼ Pθ(z) más sencilla y de menor dimensionalidad que X, y relacionan ambas variables mediante la distribución condicional Pθ(X|Z). Utilizando este marco, la probabilidad de los valores particulares de X se pueden estimar como Pθ(x) =∫ Pθ(x|z)Pθ(z)dz. Inferir esas distribuciones con técnicas de estadística tradicional como Expectation Maximitation (EM) es sumamente complicado e incluso imposible en el contexto biomédico, en el que hay un altísimo número de variables inter-relacionadas, algunas de ellas no conocidas y con una jerarquía predefinida, lo que da lugar a relaciones no lineales entre los predictores y las variables a predecir. Las redes neuronales se han utilizado tradicionalmente como aproximadores naturales de funciones complejas, como las funciones de probabilidad que nos ocupan.

Los codificadores automáticos variacionales (VAE) y las redes generativas adversarias (GAN) se han vuelto cada vez más importantes en la inferencia variacional como habilitadores de la inferencia causal. Estos modelos están siendo muy utilizados para el análisis de datos a nivel de célula única, con aplicaciones desde el clustering automático de las células a la inferencia de redes de regulación. Un resumen de los principales algoritmos basados en DGMs para datos de scRNA-Seq se puede consultar en: https://bioinfo.cnic.es/scDGMs/. La Figura 1 resume la arquitectura de las redes neuronales generales y de los modelos generativos más utilizados actualmente.

Figura 1. Esquema de la arquitectura de las redes neuronales generales y de los modelos generativos más utilizados actualmente
Y de la predicción a la simulación

El uso de los DGM como forma de aproximar las complejas distribuciones posteriores que modelan las redes de causalidad subyacentes a la transición de la salud a la enfermedad, abre la puerta realmente a la comprensión global y no sesgada de los sistemas biológicos a través del análisis integrativo de datos multi-modales de alta dimensionalidad, no solo de datos moleculares (ómicos). En un trabajo seminal, BIMMER trata de inferir las redes causales entre 405 fenotipos utilizando datos de los participantes del UK Biobank. Aunque la algorítmica utilizada se basa en Randomización Mendeliana, la aproximación a las funciones y la computación requeridas hacen necesaria la inferencia mediante técnicas de IA. Sólo así es resoluble un problema tan complejo como relevante.

Herramientas como BIMMER aplicadas sobre datos de grandes cohortes de población sana o de pacientes de distintas enfermedades, abren la puerta a la posibilidad de modelar los sistemas biológicos a gran escala, incluso a nivel de organismo completo. Con estas redes subyacentes modeladas gracias a la potencia de las nuevas metodologías de IA para resolver problemas de Inferencia Causal, se plantea un marco formal muy prometedor para simular el efecto de intervenciones en salud, mediante perturbaciones concretas del sistema por medio de gemelos digitales de cada individuo (Figura 2). Estos marcos in silico, si están suficientemente validados, permitirán a medio plazo optimizar la experimentación animal, así como reducir los tiempos en los ensayos clínicos.

Figura 2
Los retos que vienen

Con un panorama tan prometedor, parece que nada puede detener el imparable impacto de la IA en biomedicina. Sin embargo, las razones que impidieron un despliegue más rápido de estas metodologías a principios de siglo siguen estando ahí, algunas de ellas incluso más acentuadas. En primer lugar, la computación que se requiere para ejecutar estos algoritmos depende de tecnología copada por grandes empresas tecnológicas. La demanda es desproporcionada y corremos el riesgo de no poder hacernos con esta computación, no por falta de recursos económicos, sino por decisiones estratégicas de las empresas productoras. En este sentido, es esencial seguir apoyando las redes de colaboración computacionales para compartir los recursos. Por otro lado, los recursos humanos especializados son cada vez más escasos. Los programas de financiación tanto nacional como internacional para captar talento están en marcha, pero sigue siendo complicado atraer al sector de la investigación pública a los especialistas. Es necesario que la sociedad perciba la ciencia como algo prioritario a lo que tenemos que contribuir entre todos. Además, tenemos que seguir avanzando en las políticas de compartición de datos que mantengan la integridad y privacidad de los mismos. Distintas infraestructuras europeas como ELIXIR, GDI, EHDEN o EUCAIM están contribuyendo a realizar de manera ordenada ese proceso esencial para el avance de la IA en biomedicina, que tantos frutos está dando. Finalmente, es esencial trabajar en formas de validar estos sistemas automáticos, una tarea que a menudo es mas compleja que la definición del propio modelo, pero que es esencial para mejorar la confianza en el uso de la IA en biomedicina y su posterior traslación a la práctica clínica.

Para saber más

Referencia del artículo
Sánchez García L, Rivero I, Sánchez-Cabo F. 2024. La inteligencia artificial como motor de la medicina de precisión: predecir y explicar para simular. SEBBM 222
https://doi.org/10.18567/sebbmrev_222.202412.dc1