El genoma constituye el conjunto de la información genética de un organismo, imprescindible para construir su estructura y configurar todas y cada una de sus funciones. Todos los seres vivos, por simples que sean, tienen lo que podríamos llamar su genoma personal y, en general, intransferible. Los ácidos nucleicos, principalmente el ADN, constituyen la base molecular de cualquier genoma. En el ADN son las bases nitrogenadas A (adenina), G (guanina), C (citosina) y T (timina) las que se organizan secuencialmente y de forma complementaria en las dos hebras antiparalelas de la doble hélice, y son los procesos de transcripción y traducción los que descodifican esta información, transformando la secuencia nucleotídica en secuencias de aminoácidos constitutivos de las proteínas (1, 2, 3).
A finales de los años 70 comenzaron a desarrollarse los métodos para la secuenciación de fragmentos de ADN. Tanto el método químico desarrollado por Allan Maxam y Walter Gilbert, como el método enzimático o de los «dideoxi», desarrollado por Fred Sanger compartían un principio común: la generación de cadenas sencillas de ADN, marcadas radiactivamente, cuyo tamaño se diferenciaba del de la siguiente cadena en una única base, y que podían separarse por su diferente movilidad electroforética en geles desnaturalizantes donde los diferentes fragmentos capaces de impresionar una placa de autorradiografía aparecían como una escalera de bandas. La productividad anual de la técnica era de aproximadamente 1500 bases/persona (1, 2, 3).
Gracias al desarrollo de la técnica de secuenciación, Sanger recibió junto con Gilbert y Berg, en 1980, su segundo Premio Nobel (en 1958 había recibido el primero por su trabajo sobre estructura de proteínas, especialmente la estructura de la insulina). Sólo como curiosidad, en la historia de los Premios Nobel sólo otros tres científicos más han sido doblemente laureados: John Barden, Marie Curie y Linus Pauling.
El método de Sanger sigue empleándose en la actualidad, pues ha resultado el más sencillo de automatizar (secuenciadores capilares semi-automáticos basados en detección de emisión de fluorescencia) y el que ha permitido obtener secuencias más largas en una «carrera» (800-1000 nucleótidos). Hoy en día, las cadenas de diferente longitud se generan cíclicamente mediante PCR (Reacción en Cadena de la Polimerasa), al incorporarse de forma aleatoria durante la copia de la cadena molde de ADN dideoxinucleótidos (ddNTPs) marcados fluorescentemente que impiden la elongación posterior de la cadena y la dejan marcada en su extremo 3´ para su detección posterior. Cada fluorocromo en 3´ va asociado inequívocamente a un nucleótido (A, G, C o T). La emisión de fluorescencia detectada tras la excitación mediante un láser de cada fragmento separado electroforéticamente en el capilar es transformada por el software del equipo en una secuencia de ADN. Los equipos más productivos trabajan de forma continua con 96 o 384 capilares independientes, cada uno de los cuales puede «leer» en 1 hora aproximadamente 1000 pares de bases (1Kb-kilobase) con una fiabilidad del 99,999% (1, 2, 3).
El desarrollo de las técnicas de secuenciación de ADN permitió que a partir de los años 90 empezarán a conocerse las secuencias de genomas modelo como Sacharomyces cerevisiae (12.1 Mb; 1 Megabase equivale a un millón de pares de bases) (1996); Escherichia coli (4.6 Mb) (1997); Caenorhabditis elegans (100 Mb) (1998), Drosophila melanogaster (140 Mb) (2000), Arabidopsis thaliana (125 Mb) (2001)….y de otros muchos organismos más (4). Pero quizás el hito más divulgado fue la publicación simultánea en 2001 por parte del Consorcio Público (5) y de una empresa privada (Celera Genomics) (6) de la secuencia del Genoma Humano (3.300 Mb). La lista a fecha de hoy sigue creciendo (7, 8, 9, 10).
El desarrollo reciente de los llamados «Secuenciadores de Nueva Generación» basados en nanotecnología han significado en este campo no sólo un salto cuantitativo muy importante gracias a su extraordinaria productividad (cientos y miles de Mb en pocas horas), sino también un gran salto cualitativo debido a las numerosas y diversas aplicaciones que permiten abordar: resecuenciación y secuenciación de novo de genomas y metagenomas – conjunto de genomas presentes en un medio determinado (flora intestinal, microorganismos de fondos marinos…); análisis completos de transcriptomas – conjunto de todos los mRNAs que se expresan en un momento determinado en una célula o un organismo-; análisis de modificaciones epigenéticas -modificaciones como la metilación en las bases del ADN que afectan a la expresión génica- en secuencias genómicas…
Pero, ¿resulta realmente interesante conocer la información «estática» contenida en tantos genomas? Es desde todo punto de vista imposible hacer aquí una enumeración completa de todas las aplicaciones que se pueden derivar del conocimiento de la secuencia genómica de organismos, pero no es difícil imaginar su impacto inmediato en campos como la salud humana (diagnóstico, tratamiento y prevención de enfermedades, terapia génica, farmacogenética…); la mejora genética animal y vegetal; los estudios filogenéticos, evolutivos y poblacionales; la genética forense; la detección de especies y patógenos; la genética medioambiental … Nada detendrá esta carrera por desentrañar lo que los genomas esconden.
REFERENCIAS
- ¿Hablamos de gen…o…mas? G. Rodríguez-Tarduchy. 2007. Editorial Hélice
- Genes IX. B. Lewin. 2008. Editorial Jones and Bartlett
- Genomes 3. T. A. Brown. 2006. Editorial Garland Science
- http://www.genomenewsnetwork.org
- «A physical map of the human genome». Nature. 409, 934-41 (2001)
- » The sequence of the human genome.» Science 291,1304-51 (2001)
- Sanger Center: http://www.sanger.ac.uk/
- National Center for Biotechnology Information: http://www.ncbi.nlm.nih.gov/Genomes/
- European Bioinformatics Institute: http://www.ebi.ac.uk/Databases/genomes.html
- J Craig Venter Institute: http://www.jcvi.org/cms/home/