El modelo de investigación en el futuro de la unión europea

En los últimos 20 ó 30 años, la capacidad innovadora de la UE ha ido decayendo. Actualmente, en las tecnologías económicamente más importantes, las diferencias con EEUU y China empiezan a ser abrumadoras y amenazan a la UE con una lenta agonía económica.

La Unión Europea (UE) ha tenido un éxito incuestionable. Frente a nuestros más directos competidores, EEUU y China, la UE presenta notables ventajas en bienestar social. Pero para financiar nuestro modelo social, la UE tiene que incrementar mucho su productividad, y esto no va a ocurrir si la UE no introduce cambios que mejoren su capacidad innovadora, especialmente en las tecnologías con mayor impacto económico.

En los últimos 20 ó 30 años, la capacidad innovadora de la UE ha ido decayendo. Actualmente, en las tecnologías económicamente más importantes, las diferencias con EEUU y China empiezan a ser abrumadoras y amenazan a la UE con una lenta agonía económica. En esta decadencia, aunque multifactorial, una investigación científica deficiente ha jugado un papel central, por una causa que describió Peter Drucker para los negocios: “You can’t manage what you can’t measure”. Aunque en el caso que nos ocupa habría que cambiar la condición de “no puede medir” por “no sabe medir” o “no quiere medir correctamente”.

Este artículo describe la historia de este proceso y explica las causas principales que lo han originado. También explica cómo España se adhirió a él, con escasas razones para hacerlo.

El informe Draghi

En septiembre de 2024 se publicó un importante informe del economista y político Mario Draghi: “The future of European competitiveness”. Este informe, así como otros del Fondo Monetario Internacional en su blog (IMF BLOG) y en su Regional Economic Outlook, dejan claro el déficit de innovación en la UE. Para corregir esta situación, el Informe Draghi propone medidas que conllevan inversiones mil millonarias. Pero estas inversiones y otras medidas podrían incumplir los objetivos si no se mejora la investigación. De hecho, el informe hace una advertencia crucial sobre la investigación en la UE: “insufficiently focused on disruptive innovation”.

En julio de 2012 Mario Draghi, presidente del BCE en aquel momento, salvó al euro con tres palabras que describían lo que haría el BCE para salvarlo: “whatever it takes”, seguidas de una reflexión: “and believe me, it will be sufficient”. En esta ocasión, la solución no puede ser tan inmediata, pero sería prudente considerar el informe de Mario Draghi, que es tan certero como fue su intervención en 2012, especialmente en lo relativo a las innovaciones disruptivas.

La falsa paradoja europea y su adopción en España

Algunos aspectos de la política científica en la UE han sido un total desacierto, y el más notable ha sido la falsa Paradoja Europea, basada en una ilusoria excelencia científica. El déficit en innovación que ahora es evidente la Comisión Europea (CE) ya lo intuía en un “White Paper” sobre “Growth, Competitiveness, Employment” de 1994. En el mismo año, “The First European Report on Science and Technology Indicators” observa la emergencia de una “research paradox”, debida a una insuficiente transferencia de los resultados de la investigación al sector productivo. Al año siguiente, un “Green Paper on Innovation” bautiza esa conjetura como “European paradox” y la incorpora como base de la política científica en la UE que, de acuerdo con ella, hay que centrar en mejorar la transferencia de los resultados de una investigación que es excelente. Lamentablemente, la paradoja se sustenta en comparaciones de los números de publicaciones científicas y patentes, ignorando que el número de publicaciones no determina la excelencia científica.

En la misma línea de éxito científico, en 2017, un supuesto High Level Group, nombrado por la CE, inicia su informe, “LAB – FAB – APP. Investing in the European future we want”, redefiniendo la paradoja: “the contrast is striking between Europe’s comparative advantage in producing knowledge and its comparative disadvantage in turning that knowledge into innovation and growth”. A continuación crea el eslogan “Europe is a global scientific powerhouse”, y desde entonces, eslóganes de este tipo han sustituido a la Paradoja Europea en la política científica de la UE. Por ejemplo, un documento del Parlamento Europeo de 2019 denominado “The EU strategy for international cooperation in research and innovation” comienza con la frase: “The EU is a global leader in research, development and innovation”.

En este clima de suficiencia sin base empírica, hay que esperar hasta un documento de la CE de septiembre de 2024: “Align, Act, Accelerate. Research, Technology and Innovation to boost European Competitiveness”, para que la idea de “Europe’s comparative advantage in producing knowledge” aparezca cuestionada. Algo increíblemente tardío, ya que las publicaciones académicas que dejan sin soporte a la Paradoja Europea y a la idea del éxito científico empiezan mucho antes. En 2006 y 2007 aparecen las primeras publicaciones de investigadores italianos, unos años después son seguidas por otras de investigadores españoles, y actualmente ya son muchas.

Siguiendo la idea de la UE, alrededor de 2008, España incorpora la idea de la excelencia investigadora sin soporte empírico, y la idea crece como una bola de nieve. Dos ejemplos son la creación de los Campus de Excelencia Internacional y la intervención del Presidente del Gobierno en la Cumbre Iberoamericana de México de 2014. El último capítulo ha sido la Ley de la Ciencia, la Tecnología y la Innovación de 2022, que se redacta a partir de la idea de que nuestra investigación “ha alcanzado estándares de excelencia investigadora perfectamente homologables a su posición económica y geopolítica en el panorama internacional”.

Como explico más adelante, las medidas rigurosas de la ciencia tienen cierta complejidad matemática y estadística, pero hay publicaciones que usan métodos sencillos para demostrar el desacierto de las manifestaciones de éxito descritas. El más sencillo es contar el número de avances científicos que merecen un premio Nobel y compararlo con el número de publicaciones. Haciendo esto se encuentra que en la UE por cada premio Nobel en Física, Química o Fisiología/Medicina el número de publicaciones es cuatro veces más alto que en EEUU. Incluso en un país tan avanzado como Alemania, la ratio es 2,5 veces mayor que en EEUU.

En España es aún peor. Atendiendo al número de publicaciones, si España fuera homologable a EEUU habría tenido seis o siete premios Nobel en el siglo XXI y habrían sido tres si fuera homologable con el Reino Unido, Alemania o Francia.

La medida de la ciencia

Medir el éxito de la investigación científica no es fácil porque lo que se produce, el avance del conocimiento, es intangible. Pero hay que superar las dificultades, porque, como ya se ha dicho: “no se puede gestionar lo que no se puede medir”. Pero a las dificultades a veces se añaden errores evitables, como ilustran dos ejemplos con España y Japón.

La Figura 1 reproduce un detalle de un documento del Gobierno de España con motivo de la Semana de la Ciencia y la Innovación en 2021. El documento induce a pensar que como el 2% de nuestras publicaciones está en la élite del 1% mundial más citado, nuestra ciencia es excelente, lo que no es cierto. En cualquiera de los informes bisanuales sobre investigación de la CE, el valor de ese mismo dato estadístico está por debajo del 0,8%, como también muestra la Figura 1. No me corresponde a mi explicar el origen de ese 2% que publica el Gobierno de España y su errónea asociación con la excelencia científica, pero es fácil suponer que se trata de un error al contabilizar los trabajos de colaboraciones internacionales, haciéndose un lío con los indicadores fraccionario y multiplicativo. Algo así como utilizar un termostato con escala Fahrenheit creyendo que es Celsius, poner el climatizador de casa a 20 grados para estar confortable y ver que el agua del vaso se congela.

El caso de Japón tiene más relevancia bibliométrica. En cualquiera de las evaluaciones de la CE referidas antes (como en el panel de la derecha en la Figura 1), la evaluación de Japón es mucho peor que la de España y correspondería a un país en vías de desarrollo. Este error proviene de idear un parámetro estadístico y convertirlo en indicador científico sin validarlo. Porque Japón ha tenido 17 premios Nobel y globalmente es el país con mayor número de familias de patentes triádicas en relación al PIB. Evidentemente eso es un éxito y las malas evaluaciones se deben a que una parte importante de la investigación en Japón se dirige a las innovaciones incrementales, y, en estos casos, la investigación no puede evaluarse con un solo parámetro.

Figura 1
Alabanza de la ciencia en España. A la izquierda, reproducción parcial de un documento del Gobierno de España; a la derecha, reproducción parcial de la Figura 3.1-22 (publicaciones en el 1% más citado) del informe de la CE: Science, Research and Innovation Performance of the EU, 2024.
El progreso en la frontera del conocimieto

Los resultados de la investigación dirigida a las innovaciones incrementales son más tangibles y fáciles de evaluar que los resultados de la investigación que persigue innovaciones disruptivas, que hay que juzgarlos en función del progreso en la frontera del conocimiento. Aunque explicar los métodos de evaluación queda fuera de los objetivos de este artículo, hay un aspecto relativamente fácil de explicar que permite juzgar el papel de la UE y España en la investigación dirigida a empujar la frontera del conocimiento. Esta facilidad aparece porque los sistemas de investigación, países o instituciones, se comportan como sistemas complejos, más fáciles de evaluar que la simple suma de investigadores.

Un ejemplo ilustra la diferencia. Supongamos una carrera ciclista donde se premia a los equipos y no a los corredores aislados. Terminada la carrera, para determinar el equipo vencedor, se puede utilizar un método paramétrico, sumando o haciendo alguna otra operación con los tiempos de los ciclistas, o se puede utilizar un método no paramétrico, basado en el número de orden de los ciclistas de cada equipo en la clasificación general. Con este procedimiento, los números de orden en la clasificación general de los ciclistas de un mismo equipo serán series aleatorias de números en orden creciente entre los del mejor y peor clasificado. Esto es así porque un equipo puede tener cualquier tipo de proporción de ciclistas fuertes y débiles. Como los ciclistas de cada equipo colaboran entre ellos, el equipo de ciclistas es, sin duda, un sistema algo más que los ciclistas individuales, pero solo algo más, y las clasificaciones de los ciclistas por equipos no se pueden caracterizar con ecuaciones matemáticas.

La investigación que persigue empujar la frontera del conocimiento es completamente distinta. Si ordenamos las publicaciones globales en una disciplina por el número de citas y buscamos las publicaciones de un país, sus números de orden en la clasificación general no son números aleatorios, se ajustan a la siguiente ley de potencias:

Número de orden en la lista global = A x (Número de orden en la lista local)α
(1)

donde A y α son unas constantes. Obviamente, con escalas logarítmicas, la representación de esta función es una línea recta. No obstante, esta es una ley ideal, como la de los gases perfectos, que en la práctica tiene desviaciones que no son objeto de este artículo, pero están estudiadas. Todo esto lleva a una conclusión crucial para la política científica, el éxito de la investigación depende del país (sistema científico) y se puede evaluar.

La Figura 2 es la representación gráfica de varios casos de evaluación basados en la Ecuación (1). En esta figura, los ejes tienen escalas logarítmicas y las variables están intercambiadas con respecto a la Ecuación (1), como se indica en los títulos de los ejes. Las dos tecnologías presentadas, células solares y grafeno, se han seleccionado por ser objeto de investigación intensa en la mayor parte de los países y porque los resultados para la UE y España son representativos de muchos otros temas de investigación, incluyendo los biomédicos. Los países que se comparan parten de números de publicaciones similares, y esto simplifica la comparación, pero aunque no fuera así, la pendiente de las rectas de regresión que se pueden trazar en cada país pone de manifiesto la eficiencia de su investigación. Cuanto menor es la pendiente, la eficiencia es mayor, porque implica que con el mismo número de trabajos se está más próximo al éxito que representa estar en los primeros lugares.

En la comparación de EEUU y la UE, tanto en células solares como en grafeno, EEUU tiene las pendientes menores, lo que indica la superioridad de EEUU. El caso de grafeno es interesante por la atención prestada en la UE a este material en el programa “Graphene Flagship”. En los años de estudio, en el mundo hubo 82.758 publicaciones, y las domésticas de EEUU y la UE fueron 5.874 y 7.555. Como consecuencia de la diferencia en la pendiente de las rectas de regresión en la Figura 2, las tres primeras publicaciones de EEUU tienen las posiciones 3, 5 y 9, mientras que las de la UE tienen las posiciones 18, 25 y 24. La desviación que se observa en los puntos más bajos de la gráfica de la UE, aproximadamente las 100 primeras publicaciones, probablemente indica que algunos países pequeños son más eficientes que el conjunto de la UE. En el caso de España, también es evidente que está lejos del Reino Unido en células solares y de Singapur en grafeno.

Figura 2
Competitividad de la investigación. Posición en el mundo y en el país de las publicaciones ordenadas por el número de citas, de mayor a menor. Publicaciones domésticas en 2014−2017, citas en 2019−2022.
La política científica como única causa

Los casos presentados en la Figura 2 para la UE y para España son una muestra que es representativa de otras tecnologías y de las colaboraciones internacionales. Como era esperable, la ventaja de EEUU sobre la UE que se observa con estas comparaciones es muy parecida a la realizada más arriba contando los Premios Nobel.

Por ello, la pregunta que emerge es por qué EEUU tiene mejor investigación que la UE. Aunque hay notables diferencias en PIB, el nivel de ambas economías es lo suficientemente alto como para pensar que las diferencias en investigación no se deben a las diferencias en el PIB total o per cápita. La clave está en que el número de publicaciones en relación al PIB es más del doble en la UE que en EEUU y a la vez, la pendiente de las rectas de regresión en la Figura 2 son más altas en la UE que en EEUU: son dos sistemas radicalmente distintos. Evidentemente, solo una política dirigida al número de publicaciones y no a los descubrimientos puede explicar las diferencias. En otras palabras, es una política que dirige a publicar desarrollos y no a buscar avances disruptivos, como señala Draghi.

Conclusión

La brecha en innovación entre la UE y EEUU existe desde hace muchos años y a ella se ha sumado China más recientemente. El Informe Draghi propone inversiones mil millonarias para cerrar esta brecha, pero ese esfuerzo inversor se verá comprometido si no se mejora la investigación. Los 30 años de la falsa Paradoja Europea y juicios similares han marcado el camino de la UE a la situación actual. Sería un logro que la advertencia del Informe Draghi sobre una investigación “insufficiently focused on disruptive innovation” tuviera más éxito que lo aportado en 18 años por la investigación académica, que ha sido radicalmente ignorado.

En España la situación es similar porque la excelencia científica que asume la Ley de la Ciencia, la Tecnología y la Innovación de 2022 se aprobó sin votos en contra y sin reparos de la COSCE, ignorando la investigación académica sobre la materia. Corregir esta situación es urgente para España y para la UE.

Para leer más
  • Rodríguez-Navarro A. Sound research, unimportant discoveries. Research, universities, and formal evaluation of research in Spain. Journal of the American Society for Information Science and Technology 60 (2009) 1845–1858.
  • Rodríguez-Navarro A, Narin F. European paradox or delusion—Are European Science and economy outdated? Science and Public Policy 45 (2018) 14–23.
  • Rodríguez Navarro A. Cómo medir el éxito científico. Los errores de España. McGrow Hill – Aula Magna. España (2022)
  • Rodríguez-Navarro A. Citation distributions and research evaluations: The impossibility of formulating a universal indicator. Journal of Data and Information Science 9 (2024) 24-48.