Algunos estudios aseguran que estas plataformas hacen que los usuarios se comporten como niños necesitados e hiperactivos. No obstante, no todos los expertos están de acuerdo con respecto a estos efectos.
Cromo - El Observador. Cada nueva tecnología viene acompañada de miedos acerca de cómo su uso "cambiará" (léase: dañará) nuestros cerebros. Pero ninguna red social ha sido tan ridiculizada, demonizada o generadora de miedo como Twitter.
El tiempo lo denominó " la grieta" de la adicción a internet apenas un año después de su lanzamiento en marzo de 2006. Susan Greenfield, la controversial neurocientífica y política británica, ha afirmado en repetidas ocasiones que la red tiene un efecto de "infantilización", haciendo que los adultos piensen -y, por tanto, se comporten- más como niños necesitados e hiperactivos. Twitter, según el rumor popular, también ha recortado nuestros lapsos de atención, torpedeado nuestra capacidad de leer mucho o pensar profundamente, nos ha hechizado con falsas señales sobre nuestra propia importancia social y "reconectó" nuestro ya evolucionado proceso cognitivo.
Contrario a la percepción popular, sin embargo, ninguno de esos "daños" ha sido probado ser conclusivamente verdadero. De hecho, virtualmente todo lo que piensa que sabe acerca de cómo las redes sociales afectan al cerebro está basado en conjeturas.
"No ha habido un solo estudio que analizara los efectos de las redes sociales en el cerebro", dijo Dar Mehsi, un neurocientífico cognitivo en la Freie Universität Berlin. "No sabemos nada (acerca de cómo el cerebro cambia con las redes sociales)".
Lo que sí sabemos acerca del cerebro, en esta coyuntura, no agrega a la visión de terror que las personas como Greenfield han descrito. Entre las cosas que sí sabemos: el cerebro está literalmente siempre cambiando a medida que se encuentra con nueva información (en otras palabras, "reconectarse" no es inherentemente malo). También, cada cerebro es diferente y por ende responde distinto a ciertos tipos de estímulos.
En diciembre, Mehsi, junto con dos colegas, publicó una revisión bien recibida en la publicación Trends in Cognitive Sciences que evaluaba las investigaciones actuales (menos de 10 estudios) sobre las redes sociales y el cerebro. Hallaron que, si bien podemos estar más estimulados que nunca, ningún estudio ha demostrado que las redes sociales están "reconectando" nuestros cerebros de forma diferente o peor que, por ejemplo, tener una conversación o leer un artículo como este. Y en los casos en los cuales las redes sociales sí demuestran causar efectos de comportamiento negativos, no está claro si el medio es el que se debe llevar la culpa o si es por una razón secundaria.
Investigaciones pasadas han hallado, por ejemplo, que los mayores cambios en el cerebro adolescente aparecen más que nada por genética. Y el trabajo pasado de Mehsi ha hallado que las personas con alta sensibilidad en la parte del cerebro encargada de las recompensas, están más atentas a Facebook. No es que Facebook haya cambiado sus cerebros, solo es un impulso natural más visible.
Lo opuesto es verdad, también, dijo Mehsi. Dependiendo del tipo de procesos mentales que provoca, Twitter también puede teóricamente provocar todo tipo de beneficios cognitivos.
Al ser consultado acerca de si hay algo diferente sucediendo en su cerebro cuando lee La Odisea y cuando lee un tweet o un mensaje, respondió que si el texto o el tweet está dirigido a uno, probablemente active las regiones del cerebro que tratan con el conocimiento autoreferencial. Pero, de otra manera, dijo, "es un proceso neural muy similar".
"No depende del medio, depende del tipo de conocimiento que se haya generado por el tweet o el libro", dijo Meshi. En otras palabras, cuando se trata de mecánicas del cerebro, el medio decididamente no es el mensaje.
Desafortumadamente, hasta que más neurocientíficos se interesen en este campo específico probablemente no se oiga que Twitter sea nada más que un patio para adolescentes. Esperemos que la conversación haya progresado un poco más en el aniversario número 20 de Twitter, en 2026.
*Fuente: Caitlin Dewey / The Washignton Post