Contra la posverdad

La física estadística, las matemáticas y los algoritmos de aprendizaje automático son fundamentales para, por un lado, describir las nuevas dinámicas de la información en las redes sociales y, por otro lado, para ayudar a corregir sus problemas, como la propagación masiva de desinformación y noticias falsas.

La cultura de masas se canaliza ya fundamentalmente a través de Internet y las redes sociales. En un principio, este fenómeno fue recibido con júbilo casi unánimemente por su potencial en la democratización del conocimiento, pero no ha tardado en mostrar también graves problemas. La degradación de la calidad de la información es quizá el más importante de ellos, hasta el punto de que en los últimos años venimos discutiendo sobre la era de la «posverdad», concepto que alude a la creación de climas generales en los que los hechos son menos importantes que las emociones y las creencias a la hora de formar opiniones. En este contexto, y recordando a Umberto Eco, no es difícil reconocer a nuevos apocalípticos, que se oponen a los avances tecnológicos y las nuevas formas de comunicación, y a nuevos integrados, que las celebran acríticamente. Es preciso recordar también las soluciones que proponía Eco: intentar entender los nuevos aspectos de la cultura, para aprovecharnos de las nuevas posibilidades y proponer cómo mejorarla. Esto requiere de mecanismos que ya no atañen sólo a las ciencias sociales, sino también a las matemáticas, la física estadística, la informática y la inteligencia artificial.

En realidad, el problema lleva ya varios años sobre la mesa de muchos científicos, en relación con el fenómeno de las “cámaras de eco”: comunidades de usuarios con fuerte polarización ideológica y sentimental que apenas entran en contacto con el «mundo exterior» a ellas, lo cual refuerza la mencionada polarización y aumenta la exposición a la desinformación. Un grupo de científicos altamente interdisciplinar (físicos, matemáticos, estadísticos e informáticos) dirigido por Walter Quattrociocchi en la Escuela de Estudios Avanzados sobre Instituciones, Mercados y Tecnología de Lucca, en Italia, ha venido obteniendo resultados muy interesantes en los últimos años sobre las dinámicas del contagio social en diversas redes sociales, como Facebook, Twitter y YouTube. Por ejemplo, tras analizar sistemáticamente con algoritmos de aprendizaje automático (machine learning) cientos de miles de entradas de medios ingleses en Facebook relacionadas con el Brexit (en los meses previos al referéndum), los investigadores italianos detectaron dos comunidades perfectamente diferenciadas, constituidas por el 40 y el 60 por ciento de los individuos, respectivamente, que apenas interaccionan o comentan lo que ocurre en la otra comunidad. Estas comunidades constituyen “universos paralelos” en los que un mismo concepto provoca sentimientos completamente distintos (1).

En otro estudio, realizado por el grupo de Quattrociocchi para Il corriere della sera antes del referéndum realizado en Italia en 2016, los investigadores volvieron a confirmar la aparición de dos comunidades diferentes en Facebook, sin apenas contacto entre sí, repartidas aproximadamente entre un 70-80 % para una y 20-30 % para la otra. El estudio muestra que el 20 % de las interacciones con noticias sobre el referéndum, eran interacciones con noticias falsas, que se relacionaban sobre todo con la comunidad minoritaria. Teniendo en cuenta que Facebook es la fuente principal de información para un número creciente de personas (el 35 % de los italianos, por ejemplo), los resultados son especialmente preocupantes, ya que sugieren que una cantidad nada despreciable de la población se informa casi exclusivamente con noticias falsas.

Los modelos matemáticos para la dinámica de las opiniones en la sociedad tenían casi siempre como objetivo la explicación de la aparición del consenso, es decir, un estado del sistema en el que todas las personas tendrían una opinión parecida. Pero ante el fenómeno de las cámaras de eco, hay que buscar modelos matemáticos que sirvan para describir la nueva realidad. Y eso es precisamente lo que hace este mismo grupo de investigadores (2). En estos nuevos modelos, no sólo hay «sesgo de confirmación» (confirmation bias), es decir, atracción por aquellas opiniones suficientemente parecidas, sino también «polarización», esto es, repulsión por las opiniones discordantes. Los modelos basados en estas características son capaces de predecir la aparición de cámaras de eco. Esto es particularmente importante, ya que la manera en la que funcionan en la actualidad las redes sociales está basada precisamente en la polarización y el sesgo de confirmación, favoreciendo la interacción entre individuos con opiniones y sentimientos parecidos.

Además de la caracterización del fenómeno, las herramientas científicas también nos pueden enseñar cómo combatirlo. Por ejemplo, usando algoritmos de aprendizaje automático que extraen y analizan el contenido semántico y estructural de una entrada de Twitter, el porcentaje de acierto en la detección de noticias falsas llega a ser tan alto como un 91 % (3) . Mientras se desarrollan completamente estas herramientas, sin duda lo más eficaz sería la responsabilidad individual: no compartir información cuya veracidad no está garantizada. Sin embargo, esto es quizás lo más difícil de todo: la mentira se propaga más y mejor que la verdad, como demostró un estudio publicado en Science en el año 2018.

La polarización (repulsión frente a opiniones distintas) y el sesgo de confirmación (atracción por opiniones parecidas) dividen a la sociedad en cámaras de eco, sin apenas interacción entre ellas.
REFERENCIAS
  1. Mapping social dynamics on Facebook: the Brexit debate M. Del Vicario,F. Zollo, G. Caldarelli,A. Scala,W. Quattrociocchi, Social Networks 50 6 (2017). Versión en acceso abierto: arXiv: 1610. 06809.
  2. Modeling confirmation bias and polarization M. Del Vicario, A. Scala, G. Caldarelli, H. Eugene Stanley, W. QuattrociocchiScientific Reports 7, 40391 (2017).
  3. Polarization and Fake News: Early Warning of Potential Misinformation Targets M. Del Vicario, W. Quattrociocchi, A. Scala, F. Zollo TWEB 13, 10 (2019). Versión en acceso abierto: arXiv: 1802. 01400.