World Economic Forum
En el período previo a las elecciones italianas de 2013, un posteo de medios sociales exponiendo la corrupción del parlamento se volvió viral. Los políticos italianos estaban en silencio la certeza de que, se ganara o se perdiera, serían financieramente seguro quedarse con el dinero de los contribuyentes. El parlamento había pasado en silencio un proyecto de ley especial de bienestar especialmente diseñadas para proteger a los responsables políticos de que se aseguraran que un paquete increíble de seguro de desempleo en caso de que perdiesen su escaño en las próximas elecciones. El proyecto de ley, propuesto por el senador Cirenga, asignaba unas increíbles 134 mil millones € al desempleo político. El Senado italiano votó 257 a favor y 165 en abstención.
El mensaje causó un gran revuelo considerable y comprensible. Estaba cubierto en varios periódicos principales y ha sido citado por las principales organizaciones políticas. Pero había un problema: toda la historia era falsa. Ni siquiera una buena falsificación en este caso. Para los interesados en la política italiana, había una serie de problemas obvios con la historia. En primer lugar, no había ningún Senatore Cirenga. El número de votos no estaba bien tampoco, ya que Italia no tiene ni siquiera que muchos senadores. Y la suma increíble habría representaron aproximadamente el 10% del PIB de Italia.
¿Entonces qué pasó? ¿Cómo una falsa tan obvia engañar a tanta gente?
Walter Quattrociocchi, jefe del Laboratorio de Ciencias de la Computación Social al IMT Lucca, en Italia, ha estado estudiando el fenómeno de la falta de información en línea. Su trabajo ayudó a informar a última Riesgos Globales Informe del Foro Económico Mundial. Hablamos con él para obtener más información.
¿Por qué está pasando esto?
Antes de la web, que recibió su información de revistas, la televisión y los periódicos. Ahora cualquiera puede crear un blog, tener una página de Tumblr o publicar sus opiniones en línea. A partir de ahí, se puede distribuir esa información rápidamente a través de Twitter, Facebook y toda una mezcla heterogénea de otras plataformas de medios sociales.El problema es que mientras que los medios tradicionales tenían editores, productores y otros filtros antes de la información se hizo pública, publicación individuo no tiene filtro. Sólo tiene que decir lo que quiere y lo puso ahí.
El resultado es que todo el mundo puede producir o encontrar información coherente con su propio sistema de creencias. Un entorno lleno de información sin control maximiza la tendencia a seleccionar el contenido por el sesgo de confirmación.
Estudios recientes que se centran en la desinformación en línea señalaron que la exposición selectiva a contenidos específicos conduce a "cámaras de eco" en el que los usuarios tienden a formar y reforzar sus creencias.
¿Qué es una caja de resonancia?
Una caja de resonancia es un espacio aislado en la web, en donde las ideas se intercambian esencialmente sólo confirmar el uno al otro. Puede ser un espacio de personas con ideas afines compartir puntos de vista políticos similares, o una página sobre una teoría de la conspiración específica. Una vez dentro de uno de estos espacios, los usuarios están compartiendo información que es muy similares, básicamente "eco" entre sí.Hemos estudiado la dinámica dentro de una única cámara de eco. Lo que encontramos es que el contenido más discutido se refiere a cuatro temas específicos: el medio ambiente, la alimentación, la salud y la geopolítica.
Contenido perteneciente a los diferentes temas que se consumen de una manera muy similar por los usuarios. Gustos y las acciones siguen siendo más o menos los mismos temas de todo.
Si nos centramos en la sección de comentarios, sin embargo, notamos una diferencia notable en los temas. Usuarios polarizadas en la geopolítica son los más persistentes al comentar, mientras que los que se centran en la dieta son menos persistentes.
Asimismo, se encontró que los usuarios de "saltar" de un tema a otro. Una vez que comienzan a "como" algo, lo hacen cada vez más, como un efecto de bola de nieve. Una vez involucrado en un corpus conspiración, un usuario tiende a unirse a la conversación global, y comienza a "saltar" de un tema a otro. Los aumentos de probabilidad con participación de los usuarios (número de gustos en un solo tema específico). Cada nuevo como sobre el mismo tema conspiración aumenta la probabilidad de pasar a uno nuevo en un 12%.
¿Qué tipo de rumores se están extendiendo?
Páginas sobre conspiraciones globales, chem-senderos, ovnis, reptilianos. Una de las conspiraciones más publicitados es el vínculo entre las vacunas y el autismo.Estas narrativas alternativas, a menudo en contraste con la corriente principal uno, proliferan en Facebook. La peculiaridad de teorías de la conspiración es que tienden a reducir la complejidad de la realidad. Teorías de la conspiración creen (o reflejan) un clima de desconexión de la sociedad y de las prácticas recomendadas oficialmente - por ejemplo, vacunas, dieta, etc.
Entre los más fascinantes dinámicas sociales observados es el trolling. Antes, los trolls eran principalmente personas que sólo querían despertar a una multitud, pero la práctica ha evolucionado. Trolls hoy actúan para burlarse de la cultura "creer cualquier cosa" de estos eco cámaras. Básicamente atacan contradicciones a través de la parodia.
Actividades Trolls 'van de contenido controversial y satírica a la fabricación de declaraciones puramente ficticios, muy poco realistas y sarcásticos. Por ejemplo, los trolls conspiracionistas agregan en grupos y construir páginas de Facebook como una caricatura de noticias conspiración. Un ejemplo reciente fue una publicación falsa de "hallazgos" que mostró chemtrails tenían rastros de viagra en ellos.
Lo que hace que su actividad tan interesante es que, muy a menudo, estas bromas van viral y terminan utilizado como evidencia en los debates en línea de activistas políticos.
¿Cómo has estado estudiando este fenómeno?
En Facebook, gustos, acciones, y los comentarios nos permiten entender la dinámica social desde una perspectiva totalmente nueva. Con estos datos, podemos estudiar las fuerzas impulsoras detrás de la difusión y el consumo de información y rumores.En nuestro estudio de 2,3 millones de individuos, nos fijamos en cómo los usuarios de Facebook se consumen información diferente en el borde de la discusión política y de prensa durante las 2013 elecciones italianas. Páginas fueron clasificados, de acuerdo con el tipo de contenido de informar.
1. Los principales medios
2. activismo político en línea
3. Fuentes de Información Alternativa (temas que son abandonados por la ciencia y medios de comunicación)
Seguimos 50 páginas públicas y las interacciones de sus usuarios (como, comentarios y acciones) durante seis meses.
Cada acción tiene un significado particular. A igual que da la retroalimentación positiva; una parte expresa la voluntad de aumentar la visibilidad; y los comentarios de ampliar el debate.
Lo que encontramos fue que ni el tema de un puesto ni su calidad de la información tuvieron ningún efecto sobre el resultado. Mensajes contiene afirmaciones sin fundamento, o alrededor de activismo político, así como noticias regular, todos tenían patrones de compromiso muy similares.
Así que la gente está reaccionando a los puestos en función de sus creencias, sin importar donde esos puestos se originó a partir?
Exactamente. No es que la gente está reaccionando de la misma manera a todo el contenido, pero que todo el mundo está de acuerdo en su comunidad específica.
La gente está buscando información que confirme sus creencias existentes. Si hoy un artículo sale de la OMS apoyar sus reclamos, que les guste y compartirlo. Si mañana uno nuevo sale contradiciendo sus afirmaciones, criticas a él, cuestionarlo.
Los resultados muestran que estamos de vuelta a la "cámaras de eco", hay una exposición selectiva seguida por el sesgo de confirmación.
Para comprobar esto, se realizó otro estudio, esta vez con una muestra de 1,2 millones de usuarios. Queríamos ver cómo la información relacionada con las narrativas muy distintas - es decir, la corriente principal de noticias científicas y conspiración - se consumen y se conforma por las comunidades en Facebook.
Lo que encontramos es que las comunidades polarizadas emergen tipos distintos de todo el contenido y los consumidores de noticias de la conspiración tienden a ser muy centrado en el contenido específico.
Los usuarios que les gusta mensajes hacen en las páginas de una específica categoría de 95% de las veces. También nos fijamos en comentarios, y encontramos que los usuarios polarizadas de noticias de la conspiración se centran más en los mensajes de su comunidad. Ellos son más propensos a recibir y compartir mensajes de páginas de conspiración.
Por otro lado, las personas que consumen cuota de noticias científicas y les gusta menos, pero comentan más en las páginas de la conspiración.
Nuestros resultados indican que existe una relación entre las creencias y la necesidad de cierre cognitivo. Se trata de los factores que impulsan a los incendios forestales digitales.
¿Eso quiere decir que sabemos lo que va a ir la próxima viral?
Fenómenos virales son generalmente difíciles de predecir. Esta visión hace que nos permita al menos a entender los usuarios que son más propensos a interactuar con afirmaciones falsas.Queríamos entender si una polarización como en el consumo de contenido afecta a la estructura de las redes de amistad del usuario. En otro estudio, Viral Desinformación: El papel de la homofilia y la polarización que se encontró que la participación de un usuario en una narrativa específica va de la mano con el número de amigos que tienen un perfil similar.
Eso proporciona una visión importante sobre la difusión de rumores no verificados. Esto significa que a través de la polarización, podemos detectar donde están más probable que se propague rumores engañosos.
Pero no podríamos combatir tal mediante la difusión de una mejor información?
No. De hecho, hay evidencia de que esto sólo empeora las cosas.
En otro estudio, se encontró que las personas interesadas en una teoría de la conspiración son propensos a involucrarse más en la conversación cuando se expone a "desacreditar". En otras palabras, cuanto más la exposición al contraste de información a una persona se le da, más se refuerza su patrón de consumo. Desenmascarando dentro de una caja de resonancia puede ser contraproducente, y reforzar el sesgo de las personas.
De hecho, la desconfianza en las instituciones es tan alta y el sesgo de confirmación tan fuerte, que el Washington Post ha suspendido recientemente su columna semanal de descrédito.
¿Qué se puede hacer para luchar contra la desinformación?
La desinformación en línea es muy difícil de corregir. El sesgo de confirmación es muy potente. Una vez que la gente ha encontrado "pruebas" de sus puntos de vista, las versiones externas y contradictorias son simplemente ignorados.Una de las propuestas para contrarrestar esta tendencia es soluciones algorítmicas impulsada. Por ejemplo, Google está desarrollando un puntaje de confiabilidad para clasificar los resultados de las consultas. Del mismo modo, Facebook se ha propuesto un enfoque impulsado por la comunidad donde los usuarios pueden bandera contenidos falsos para corregir el algoritmo de suministro de noticias.
Este tema es controvertido, sin embargo, ya que aumenta los temores de que la libre circulación de contenidos puede ser amenazada y los algoritmos propuestos podría no ser precisa o efectiva. A menudo los usuarios denuncian intentos de desacreditar la información falsa, como el vínculo entre la vacuna y el autismo, como actos de desinformación.
No hay comentarios:
Publicar un comentario