Los usuarios se aíslan a sí mismos en las cámaras de eco de las redes sociales, incluso los que empiezan leyendo una gran diversidad de mensajes.
KELLOGG INSIGHT. Burbujas de sesgo. Filtros de creencias. Cámaras de eco. Llámese como se llame a esos silos ideológicos que fomentan las redes sociales, todo el mundo, desde Quartz hasta The Guardian, culpan de exacerbar las profundas divisiones que muestra el clima político de EE.UU..
Está claro que los algoritmos que utilizan las redes sociales para brindar un contenido personalizado contribuyen enormemente a asegurar que los usuarios se topen solo con información que concuerde con sus convicciones. Pero, ¿qué papel desempeña en la formación de las cámaras de eco en línea el propio comportamiento del usuario? Después de todo, un algoritmo puede asegurar que uno vea mensajes con los que está de acuerdo, pero es el propio usuario el que decide otorgar un "me gusta" al comentario que publicó su tía Carmen o compartir el video que mandó su primo Juan.
Tal vez 12 millones de usuarios de los medios sociales nos ayuden a encontrar la respuesta.
Con la ayuda de un conjunto de datos masivo, el profesor de gestión y organizaciones de la Kellogg Brian Uzzi y un equipo de colegas en Italia se propusieron recientemente explorar el comportamiento humano en los entornos polarizados por la política en la internet. Él y sus colegas constataron que los usuarios rara vez permanecen neutrales y que la gran mayoría se deja absorber por el contenido polarizado con asombrosa rapidez.
Uzzi espera que estos hallazgos nos ayuden a entender y poner fin al efecto de la cámara de eco.
"Las redes sociales tienen un enorme efecto en la mente de las masas y la enorme responsabilidad de ayudar a informarnos", dice. "Los medios de comunicación sociales hacen verdaderas las noticias falsas y nos han empujado directamente hacia una era donde la veracidad falta y abundan los 'hechos alternativos'".
La lucha entre la ciencia y la "conspiración"
Uzzi formó un equipo de investigación con colegas afiliados a la IMT School for Advanced Studies Lucca (Alessandro Bessi, Fabiana Zollo, Michela Del Vicario, Michelangelo Puliga, Antonio Scala, Guido Caldarelli y Walter Quattrociocchi) con el fin de examinar el comportamiento de 12 millones de usuarios de Facebook y YouTube.
En concreto, el equipo examinó los comentarios y los "me gusta" que recibieron, y las veces que fueron compartidos, ciertos videos alojados en Youtube, pero también insertados en 413 páginas de Facebook.
Primero los investigadores dividieron los videos en dos categorías en función de un análisis de las páginas de Facebook en las que estaban insertados.
Los que aparecían en páginas de Facebook tales como Illuminati Mind Control, Exposing Satanic World Government y Doctors Are Dangerous —que publican información controvertida sin pruebas para fundamentarla— fueron colocados en una categoría denominada "conspiraciones". Los que aparecían en páginas tales como las de Scientific American Magazine, la National Science Foundation o la NASA —que divulgan el conocimiento científico y promueven el pensamiento racional— fueron puestos en una categoría denominada "ciencia".
A continuación, los investigadores compararon los patrones de consumo de estos videos en Facebook y YouTube, y examinaron los comentarios y las interacciones que suscitaron entre enero de 2010 y diciembre de 2014. De esa manera pudieron rastrear —utilizando solo información pública— la interacción de los usuarios con los dos tipos de contenido y su evolución a lo largo del tiempo.
Observaron que en las dos plataformas algunos usuarios interactuaban solamente con el contenido conspirativo y otros solo con el científico. Sin embargo, había usuarios que comenzaban interactuando con ambos, pero rápidamente pasaban a interactuar solo con uno de los dos contenidos.
Independientemente de lo que hicieran al principio, casi todos los usuarios terminaban intensamente polarizados. Según la definición de los investigadores, se daban por polarizados cuando más del 95 % de las veces que publicaban un comentario, otorgaban un "me gusta" o compartían un contenido, este pertenecía exclusivamente a una de las dos categorías. De hecho, el 93,6 % de los usuarios de Facebook y el 87,8 % de los de YouTube mostraban este tipo de comportamiento.
Con sorprendente rapidez
Sin embargo, lo que más asombró a Uzzi fue la velocidad a la que se polarizaban los usuarios.
Con respecto a los usuarios que en un principio interactuaban con ambas categorías de videos, conspirativos y científicos, "pensamos que seguirían interesados en una amplia variedad de contenido. Pero resultó que rápidamente se volvían muy selectivos", dice Uzzi. ¿Con qué rapidez? Cuando era alrededor de la quincuagésima vez que comentaban, compartían o le adjudicaban un "me gusta" a un video.
"Incluso los usuarios que empiezan manteniendo dos puntos de vista al mismo tiempo pueden caer muy rápidamente en una cámara de eco", dice.
Eso significa, señala, que los cambios en el contenido mediático que consumen las personas pueden transformar sus convicciones con sorprendente rapidez. Y las plataformas como Facebook y YouTube están constantemente ajustando lo que ven los usuarios sobre la base del contenido en el que han cliqueado en el pasado. "Los horizontes temporales pueden ser sumamente cortos", dice. "Los ajustes de contenido en un sentido determinado pueden inducir a formar una opinión a la ligera y luego aferrarse a ella, incluso cuando hay información alternativa ahí afuera".
Una vez inmersos en una cámara de eco, los usuarios suelen quedarse en ella. Esta observación es válida en relación con todas las plataformas y todos los usuarios polarizados, tanto hacia la ciencia como hacia las conspiraciones. "En términos de información y creencias, nos convertimos muy rápidamente en esos loros viejos que, por viejos, ya no aprenden a hablar", dice Uzzi.
Además, señala Uzzi, otras investigaciones demuestran que, una vez polarizados, los usuarios tienden a polarizarse cada vez más. "En el interior de una cámara de eco, lo que hace que el pensamiento de las personas evolucione es el punto de vista aún más extremo", dice. "Así que se vuelven aún más izquierdistas o más derechistas, porque la voz más fuerte es la que arrastra a la gente en una dirección determinada".
El descrédito no funciona
Dado que las cámaras de eco ideológicas existen, y que la gente tiende a caer en ellas rápidamente y a permanecer allí, ¿cómo persuadirlos para que salgan? Sobre todo a aquellos cuyas cámaras perpetúan información engañosa y falsa.
La solución parece sencilla: desacreditar la información falsa. Pero los usuarios polarizados en los medios sociales no se muestran particularmente interesados en prestar atención a los contenidos que contradicen sus creencias. Y cuando sí ven algo que las desacredita, esto a veces tiene el efecto contrario y los induce a aferrarse a sus posturas con más fuerza aún.
Por ejemplo, en un estudio anterior, varios de los mismos investigadores italianos examinaron el comportamiento de más de 9 millones de usuarios de Facebook polarizados hacia el modo de pensar conspirativo y descubrieron que solo unos 100.000 habían publicado alguna vez un comentario sobre un artículo en que se demostraba que no era cierto lo que creían. Y su reacción fue más bien aumentar su actividad en las páginas de índole conspirativa de Facebook.
Los esfuerzos por desmantelar las cámaras de eco
Han salido últimamente varias herramientas para ayudar a los usuarios de los medios sociales a escapar de sus cámaras de eco. Entre ellas cabe citar FlipFeed, un plug-in que permite a los usuarios reemplazar sus propios canales de conversación de Twitter con los de extraños de distinta ideología escogidos al azar, y Escape Your Bubble, otro plug-in que intercala opiniones políticas opuestas en los canales de noticias de los usuarios de Facebook.
Aunque aún no se ha comprobado la eficacia de esas herramientas, es pintoresco imaginar aquellos tiempos pasados en que la gente esperaba que la Internet desalentara la creación de cámaras de eco, en lugar de fomentarla.
"Cuando llegó la Internet, muchos observadores y científicos pensaron que toda esta nueva información, que de pronto estaba al alcance de la mano con solo hacer un clic, iba a hacer que todo el mundo fuese más inteligente", dice Uzzi. "La idea era que, como la gente no tendría que ir a una biblioteca o rebuscar entre revistas viejas para obtener información, explorarían la validez de los puntos de vista de los demás. Verificarían los datos, escucharían los argumentos de ambos bandos, y así podrían desentrañar la verdad de los hechos con mayor velocidad".
Pero esa esperanza, como dice Uzzi, "quedó en agua de borrajas".
*Previamente publicado en Kellogg Insight. Reproducido con la autorización de Kellogg School of Management*