¿Quo Vadis, Proteómica?

La Proteómica moderna, también llamada en inglés "shotgun Proteomics" o "peptide centric Proteomics", se basa en un enfoque tecnológico de espectrometría de masas para la identificación de alto rendimiento y cuantificación de proteínas en sistemas biológicos. Avances muy recientes han demostrado que la tecnología existente ya permite la cuantificación del proteoma completo de las líneas celulares humanas, además de sugerir que, en un futuro cercano, podrán estudiarse de manera rutinaria y global todas las proteínas.

De todos es sabido que las proteínas constituyen la maquinaria fundamental de la célula y que prácticamente todas las funciones biológicas están llevadas a cabo por estas moléculas. La capacidad de analizarlas en su totalidad, en su entorno natural, a gran escala y de forma sistemática abriría, pues, el camino al estudio generalizado de los mecanismos moleculares de cualquier proceso fisiológico o patológico, y a la detección de bio-marcadores de diagnóstico o pronóstico de cualquier enfermedad. Pero, ¿hasta qué punto tiene la proteómica actual esta capacidad? Esta pregunta no es trivial, y hace sólo unos pocos años se consideraba un objetivo imposible de conseguir.

Muchos investigadores asocian la proteómica con la electroforesis bidimensional, que todavía constituye la técnica más poderosa para separar las proteínas de una muestra biológica y que permite obtener un «mapa» donde es posible situar gráficamente cada una de ellas. Las proteínas así separadas pueden identificarse mediante digestión tríptica y posterior análisis de los péptidos obtenidos por espectrometría de masas del tipo MALDI-TOF/TOF. Pero esta estrategia, que despertó en su momento mucho entusiasmo en la comunidad científica, no permite visualizar mucho más allá del millar de proteínas, y su capacidad de identificación efectiva no supera algunos centenares. Por ello la visión que se obtiene del proteoma es muy limitada. Para hacernos una idea, se calcula que una célula humana expresa alrededor de 10.000 productos génicos diferentes, de los cuales los más relevantes suelen ser precisamente los menos abundantes.

Afortunadamente, las técnicas de proteómica de segunda generación han revolucionado este panorama. Estas técnicas sortean el escollo de trabajar con proteínas aisladas y en su lugar se concentran en el análisis masivo de los péptidos trípticos producidos a partir del proteoma completo, que son considerablemente más fáciles de manejar. De ahí su calificativo de «shotgun» o «peptide-centric proteomics». Dichos péptidos se identifican mediante cromatografía líquida acoplada a espectrometría de masas en tándem, con o sin fraccionamiento previo mediante otras técnicas ortogonales, como el intercambio iónico o el isoelectroenfoque. Estas técnicas hacen un uso intensivo de la espectrometría de masas, y el desarrollo de instrumentos híbridos de nueva generación (que combinan equipos convencionales muy robustos como cuadrupolos o trampas lineales con analizadores del tipo TOF u orbitrap de alta resolución) ha multiplicado espectacularmente el número de proteínas que se pueden identificar en un único análisis. Los equipos actuales son capaces de fragmentar cerca de 100.000 especies peptídicas en una única carrera cromatográfica, de las cuales, con un poco de habilidad, es posible identificar varias decenas de miles de péptidos, que suponen varios miles de proteínas. En el 2011 se publicó la identificación del proteoma completo de levadura (unas 4.000 proteínas) en una única carrera cromatográfica(1). Y poco después se ha conseguido la cobertura completa de dos líneas celulares humanas (>10.000 proteínas)(2,3). Estos resultados demuestran, por primera vez, que el proteoma entero de células humanas está al alcance de la tecnología actual. Además, la combinación de estas técnicas con estrategias de marcaje con isótopos estables, ya sea metabólicas, químicas o enzimáticas(4-6), permiten una cuantificación relativa extremadamente precisa de la concentración de las proteínas, abriendo el camino al estudio a gran escala de las alteraciones dinámicas que tienen lugar en el proteoma en respuesta a procesos fisiopatológicos.

Es cierto que hablamos de una tecnología sofisticada y que pocos grupos consiguen acercarse a estos récords de identificación. Pero la estrategia masiva no es el único camino. De hecho, los resultados proteómicos más relevantes de los últimos años se han conseguido concentrando los estudios en sistemas menos complejos, los llamados «proteomas ricos en información», donde sin necesidad de alcanzar tamaña excelencia tecnológica se pueden conseguir coberturas muy completas. Estos subproteomas pueden obtenerse mediante una interminable lista de estrategias, que incluyen el fraccionamiento subcelular (proteoma mitocondrial, exosoma, secretoma7, «sheddoma») y la cromatografía de afinidad (fosfoproteoma), o utilizando las propiedades de unión específica de proteínas o anticuerpos (interactomas, quinomas). Otras aproximaciones ingeniosas combinan modificaciones químicas o enzimáticas con estrategias de marcaje y purificación selectivos que permiten enriquecer subpoblaciones de péptidos modifi-cados o procesados de forma muy específica (nitrosiloma, degradoma, proteoma posicional, proteoma redox)(8).

Y las ideas no acaban ahí. Los modernos equipos son tan rápidos y tienen tanta resolución que comienza a resultar factible hacerlos funcionar de forma «ciega», programándolos para que fragmenten todas las especies peptídicas imaginables. Se obtiene así un compendio completo de todos los fragmentos, de donde, en teoría, sería posible reconstruir la traza de cualquier péptido y por tanto cuantificar cualquier proteína. La idea no es realmente tan descabellada y ya se han conseguido resultados prometedores (9). Y el ritmo actual con el que están evolucionando los espectrómetros de masas nos hace pensar que en un futuro más próximo de lo que parece será posible cuantificar y caracterizar absolutamente todos los componentes del proteoma humano, en cuestión de minutos. Claro que determinar la función biológica de estos componentes y de sus modificaciones es otra historia. Que merece un capítulo aparte.

GELSILOX. Una nueva tecnología para Proteómica Redox.
Referencias:
  1. Nagaraj, N. et al. Systems-wide perturbation analysis with near complete coverage of the yeast proteome by single-shot UHPLC runs on a bench-top Orbitrap. Mol Cell Proteomics, (2012) 11, M111.013722.
  2. Beck, M. et al. The quantitative proteome of a human cell line. Mol Syst Biol 7, 549, doi:10.1038/msb.2011.82 (2011).
  3. Nagaraj, N. et al. Deep proteome and transcriptome mapping of a human cancer cell line. Mol Syst Biol (2011) 7, 548, doi:10.1038/msb.2011.81.
  4. Bonzon-Kulichenko, E. et al. A robust method for quantitative high-throughput analysis of proteomes by 18O labeling. Mol. Cell Proteomics (2011) 10, M110 003335.
  5. Jorge, I. et al. Statistical model to analyze quantitative proteo-mics data obtained by 18O/16O labeling and linear ion trap mass spectrometry: application to the study of vascular endo-thelial growth factor-induced angiogenesis in endothelial cells. Mol. Cell Proteomics (2009) 8, 1130-1149.
  6. Ramos-Fernandez, A., et al. Improved method for differential expression proteomics using trypsin-catalyzed 18O labeling with a correction for labeling efficiency. Mol Cell Proteomics (2007) 6, 1274-1286.
  7. Bonzon-Kulichenko, E. et al. Quantitative in-depth analysis of the dynamic secretome of activated Jurkat T-cells. J. Proteomics (2011) 75, 561-571.
  8. Martinez-Acedo, P. et al. A novel strategy for global analysis of the dynamic thiol redox proteome. Mol. Cell. Proteomics (2012) 11, 800-813.
  9. Gillet, L. C. et al. Targeted data extraction of the MS/MS spec-tra generated by data-independent acquisition: a new concept for consistent and accurate proteome ana-lysis. Mol Cell Proteomics (2012) 11, O111.016717.

Entrevista a Jesús Vázquez

P.- ¿Cuándo surgió su vocación científica?

R.- Desde el colegio he tenido predilección por las asignaturas de contenido científico y la verdad es que me gustaban todas, las matemáticas, la física, la química, las ciencias naturales… En aquellos momentos dudaba entre elegir la carrera de científico (en general) o de arquitecto, pero recuerdo que fue la lectura de un libro de divulgación sobre el ADN, los ribosomas, la transcripción de la información genética y la estructura de las proteínas la que me llenó de curiosidad y me metió el gusanillo por indagar en los mecanismos moleculares de la vida. Por ello decidí comenzar la carrera de Ciencias Químicas con la idea de hacer la especialidad de Bioquímica, ya que por aquél entonces no existía la licenciatura como tal. Sin embargo, al llegar al ecuador de la carrera tomé la decisión de optar por la rama de Química-Física porque consideraba incompleto mi conocimiento de la estructura fundamental de los átomos y moléculas; sólo después realicé el doctorado en Bioquímica. Nunca me he arrepentido de esta decisión, que me ha dado una base teórica que me ha resultado muy útil durante mi carrera investigadora. 

P.- ¿Cuáles son desde su punto de vista las características que definen a un buen investigador?

R.- Ser un buen investigador es realmente difícil, y no basta con tener un conocimiento muy sólido, dominar la materia y la tecnología, trabajar mucho y estar a la última. Hace falta algo más. Los investigadores de hoy tienen que ser todoterrenos. Hace falta capacidad de persuasión y de dialéctica para preparar los proyectos de investigación o para publicar en una buena revista. Hace falta tener un punto de liderazgo y de psicología para llevar un grupo de investigación, motivar y sacar lo mejor de cada persona. Hace falta un toque de marketing y un espíritu de negociante para vender las ideas y rentabilizarlas… Y sobre todo hay que tener muchísima intuición para aprovechar las oportunidades, que en este terreno surgen en el momento más inesperado. Y supongo que también hace falta mucha suerte, por ejemplo, que no te pille el comienzo de tu carrera científica en plena crisis económica.

P.- ¿Qué consejo daría a los que ahora inician su carrera científica?

R.- La investigación es una carrera que requiere mucho esfuerzo y dedicación y por ello lo más importante es elegir bien la temática, hacer lo que a uno le gusta. También es muy importante tener una actitud constructiva, humilde y autocrítica, hay que ser muy consciente de lo que se hace mal y lo que se puede mejorar y aprender, y escuchar, escuchar mucho. Creo que es muy importante estar muy bien informado del tema científico en el que se trabaje, y no contentarse con aprender una sola técnica. Por ello es importante no tener miedo a los cambios, cambiar de tema o de proyecto o cambiar de laboratorio. Y, por supuesto, es imprescindible irse al extranjero durante unos años y relacionarse con otros científicos.

P.- ¿Cuál es el avance científico que más le ha impresionado?

R.- En general, siempre me fascinaron las teorías modernas que describen las fuerzas y las estructuras fundamentales, como la relatividad, la mecánica cuántica y las que vinieron después (dentro de lo que he sido capaz de entenderlas, que es muy poco). Porque me parecen una hazaña en la capacidad de abstracción y de razonamiento del ser humano. En un terreno más experimental, tampoco ha dejado de impresionarme la tremenda complejidad que muy poco a poco, hito a hito, se ha ido descubriendo detrás de las biomoléculas; su funcionamiento se revela cada vez más complejo e intrincado, parece una historia que no vamos a comprender nunca en su totalidad. Y, en mi propio terreno, siguen siendo una sorpresa y un estímulo el desarrollo de las técnicas de espectrometría de masas y la manera como pueden aplicarse al estudio de las proteínas.  

P.- ¿Podría describirnos brevemente en qué consiste su línea de investigación actual y cuál es su trascendencia?

R.- En nuestro laboratorio usamos técnicas de proteómica de última generación para el estudio de los mecanismos moleculares de procesos biológicos y enfermedades relacionadas con la fisiopatología cardiovascular. Estas técnicas nos permiten estudiar el comportamiento de los miles de proteínas que componen un sistema biológico desde una perspectiva global y no sesgada, que no requiere de hipótesis previas de trabajo. En nuestro laboratorio estamos, por un lado, trabajando en la propia tecnología, cuyo potencial es enorme pero todavía no está apenas explotado, y por otro estamos aplicando activamente la tecnología en una serie de proyectos de investigación con la idea de caracterizar mecanismos moleculares y descubrir nuevas dianas que pudieran usarse con fines terapéuticos o diagnósticos. Entre otros proyectos, estamos analizando cómo se activa la respuesta del músculo liso vascular y qué factores son secretados por estas células en situaciones de hipertrofia. También estamos estudiando el mecanismo molecular del precondicionamiento, que es un proceso protector que previene al corazón contra los daños producidos por isquemia-reperfusión, así como los determinantes moleculares asociados al envejecimiento y a modelos animales de hipertrofia cardiaca. Finalmente, estamos estudiando los mecanismos que regulan el funcionamiento de los exosomas, que son unas microvesículas secretadas por muchos tipos celulares y que sirven de vehículos de comunicación y señalización intercelular, incluyendo el análisis de mecanismo de transporte de miRNAs y la regulación del repertorio de proteínas que los componen.  

P.- ¿Qué camino queda por recorrer en Ciencia e Innovación en nuestro país?

R.- En España tenemos un buen sistema de evaluación científica, en líneas muy generales, y estamos consiguiendo, poco a poco, implementar un modelo basado en el fomento de la excelencia. Las nuevas generaciones vienen con una mentalidad muy abierta y con mucho conocimiento de lo que se cuece en los países científicamente más avanzados del mundo. Por eso, y aunque todavía queda mucho camino por recorrer, yo creo que el sistema científico español, como tal, va bien encaminado, no se está articulando mal desde dentro. Yo creo que el problema de la ciencia está fuera de ella, y ese problema es muy grave. Simplificando mucho, me imagino el sistema científico como un motor que hay que poner en marcha. Este motor se construye con una sólida estructura de investigación básica, que aporta fundamento tecnológico y conocimiento. Sin ella la ciencia no puede ser útil ni rentable, porque la ciencia no se puede aplicar si no hay conocimiento. Sin embargo, cuando se alcanza un punto de conocimiento y de capacidad tecnológica, llega un momento en que las aplicaciones prácticas surgen de forma espontánea y hacen rentable el sistema, atrayendo la entrada de capital privado. Pero para poner en marcha la máquina hace falta un mínimo de inversión y mucho, mucho más tiempo del que disponen nuestros políticos. En España no hay manera de alcanzar este punto, pues la política científica es errática y no hace más que dar bandazos. Haría falta establecer un pacto de consenso entre todas las fuerzas políticas, establecer una hoja de ruta «científica» y una inversión mínima (un porcentaje ínfimo del PIB)… y seguirla estrictamente durante mucho tiempo, incluso en épocas de vacas muy flacas como la de ahora. Los recortes actuales en ciencia y tecnología pueden ser fatales, porque a este paso vamos a parar todo lo que se ha puesto en marcha y tendríamos que arrancar la máquina de nuevo, lo que supondría tirar por la borda todo lo que se ha avanzado durante muchos años. Otro problema relacionado es el poco peso que tiene la ciencia española en la opinión pública, que a su vez condiciona las decisiones políticas.

Perfil de Jesús Vázquez

Jesús Vázquez es licenciado en Química-Física (UCM, 1982) y doctor en Bioquímica (UAM, 1986), consiguiendo el Premio Extraordinario de licenciatura y el de doctorado. Durante su estancia posdoctoral en USA y en el CBMSO (Madrid) se especializó en la química de proteínas y el estudio de biomembranas en el campo de la neurobiología. Desde entonces ha sido pionero en el desarrollo de técnicas de química de proteínas, espectrometría de masas y proteómica en España. Ha trabajado sobre los mecanismos de fragmentación de péptidos, la secuenciación de novo de péptidos y el análisis de modificaciones postraduccionales. En los últimos años ha concentrado sus esfuerzos en el desarrollo de técnicas cuantitativas de segunda generación, en algoritmos avanzados para la integración de datos cuantitativos y para biología de sistemas y en el análisis masivo de modificaciones inducidas por estrés oxidativo. Estas técnicas se han aplicado al estudio del mecanismo molecular de la angiogénesis y el estrés nitroxidativo en endotelio, de la isquemia-reperfusión y precondicionamiento en cardiomiocitos y del interactoma en la sinapsis inmunológica. Es Profesor de Investigación del CSIC y actualmente trabaja como Full Professor en el CNIC, donde dirige el laboratorio de Proteómica Cardiovascular y la Unidad de Proteómica.