Una metodología de aprendizaje automático para la predicción en tiempo real del brote COVID-19 2019-2020 mediante búsquedas en Internet, alertas de noticias y estimaciones de modelos mecanicistas
Presentamos una metodología oportuna y novedosa que combina estimaciones de enfermedades a partir de modelos mecanicistas con trazas digitales, a través de metodologías de aprendizaje automático interpretables, para pronosticar de manera confiable la actividad COVID-19 en las provincias chinas en tiempo real. Específicamente, nuestro método es capaz de producir pronósticos estables y precisos 2 días antes de la hora actual, y se utiliza como insumos (a) informes oficiales de salud del Centro Chino para el Control y la Prevención de Enfermedades (CDC de China), (b) relacionados con COVID-19 actividad de búsqueda en Internet de Baidu, (c) actividad de medios informativos informada por Media Cloud, y (d) pronósticos diarios de actividad COVID-19 de GLEAM, un modelo mecanicista basado en agentes. Nuestra metodología de aprendizaje automático utiliza una técnica de agrupamiento que permite la explotación de sincronías geoespaciales de la actividad COVID-19 en las provincias chinas, y una técnica de aumento de datos para tratar el pequeño número de observaciones históricas de actividad de la enfermedad, característica de brotes emergentes. El poder predictivo de nuestro modelo supera a una colección de modelos de referencia en 27 de las 32 provincias chinas, y podría extenderse fácilmente a otras geografías actualmente afectadas por el brote de COVID-19 para ayudar a los tomadores de decisiones.
Los hashtags conectan a las personas. ¿También se dividen?
Si eres conservador o liberal, lo más probable es que hayas encontrado un hashtag político en un artículo, un tweet o una historia personal compartida en Facebook.
Un hashtag es una etiqueta funcional ampliamente utilizada en motores de búsqueda y servicios de redes sociales que permiten a las personas buscar contenido que se encuentra bajo la palabra o frase, seguido del signo #.
Primero popularizado por Twitter en 2009, el uso de hashtags se ha generalizado. Casi todo lo político con la intención de atraer a una gran audiencia ahora está marcado con un hashtag pegadizo. Tomemos, por ejemplo, campañas electorales (#MAGA), movimientos sociales (#FreeHongKong), o llamados a leyes de apoyo u oposición (#LoveWins).
Junto con activistas y políticos, las compañías de noticias también están usando hashtags políticos para aumentar el número de lectores y contextualizar los informes en publicaciones breves y digeribles en las redes sociales. De acuerdo con Columbia Journalism Review, dicha práctica es una "buena forma de introducir una historia o perspectiva en el ciclo de noticias" y "una forma de descubrir qué quiere discutir el público y aprender más".
Probamos si las personas respondían de manera diferente a la presencia o ausencia de hashtags políticos, particularmente los #MeToo y # BlackLivesMatter más utilizados, en artículos de noticias publicados en Facebook por los principales medios de comunicación, como The New York Times y NPR.
Le mostramos al azar a cada persona una publicación de noticias que contenía o excluía el hashtag político. Luego les pedimos que comentaran el artículo y respondieran algunas preguntas al respecto.
La publicación de noticias original era idéntica a la de la derecha, excepto por el #MeToo en negrita seguido de la descripción del texto. Para la condición de control (izquierda), excluimos el hashtag en el texto de la publicación, así como la frase "#MeToo Prompts" en el título.
Descubrimos que los hashtags políticos no son una buena manera para que los medios de comunicación involucren a los lectores.
De hecho, cuando la historia incluía un hashtag, las personas percibían que el tema de las noticias era menos importante y estaban menos motivados para saber más sobre temas relacionados.
Algunos lectores también se inclinaron a ver las noticias con hashtags como más sesgadas políticamente. Esto fue especialmente cierto para los lectores más conservadores, que tenían más probabilidades de decir que una publicación de noticias era extremadamente partidaria cuando incluía un hashtag.
Del mismo modo, los hashtags también afectaron negativamente a los lectores liberales. Sin embargo, los lectores que se identificaron a sí mismos como "extremadamente liberales" no percibieron el contenido de las noticias de las redes sociales sobre cuestiones de género y raciales como partidistas, independientemente de la presencia del hashtag.
La publicación de noticias de la derecha es idéntica a la publicación de
noticias original publicada en Facebook, excepto por el hashtag #MeToo
en negrita en el texto de la publicación, que no se incluyó en la
versión original.
Moderados politicos
Lo que realmente me interesó fue la reacción de la gente en el medio. Las personas que se identificaron como publicaciones políticamente moderadas percibieron que las publicaciones eran significativamente más partidistas cuando las publicaciones incluían hashtags.
De hecho, en sus comentarios, los encuestados políticamente moderados que vieron publicaciones de noticias con hashtags tenían más sospechas sobre la credibilidad de las noticias y se centraron más en la política del hashtag.
Tabla: La conversación, CC-BY-ND
Por ejemplo, en el grupo de hashtag, las personas políticamente moderadas mencionan repetidamente el hashtag sin comprometerse sustancialmente con cuestiones sociales relevantes:
“El tema #MeToo se está convirtiendo en algo así como los Kardashians. No puedes mirar las noticias sin que ambos encabecen las cosas. Es un tema importante, pero me estoy cansando de verlo una y otra vez ”.
Por el contrario, cuando los hashtags estaban ausentes, era más probable que los lectores discutieran las ideas y los valores centrales que el hashtag debía representar originalmente.
"Dar una plataforma y una voz a las víctimas a través de las redes sociales es una excelente manera de compartir la experiencia de uno cuando es incómodo hacerlo públicamente. Algunas personas tienen demasiado miedo de denunciar cualquier acoso o asalto debido a ser etiquetados como mentirosos, por lo que me alegro de que haya una manera de hacer un seguimiento de estas instancias sin que pasen desapercibidas ".
El lenguaje utilizado por los participantes del grupo hashtag en sus comentarios fue más emocionalmente extremo. Incluso aquellos que parecían estar a favor del movimiento hashtag usaron un lenguaje agresivo para transmitir apoyo al movimiento y se refirieron a aquellos en contra de él como "ustedes idiotas", alegando, "hay una razón por la cual [#MeToo] f **** - ¡¡¡ing existe, imbéciles !! ”
Fomentar un mejor discurso en línea
Estos hallazgos muestran que los políticos, activistas, organizaciones de noticias y compañías tecnológicas no pueden dar por sentado las prácticas comunes de las redes sociales.
Incluso una práctica simple, como marcar un tema social con un hashtag pegadizo, puede dar la impresión al público de que el contenido etiquetado, incluso el contenido de noticias publicado por las principales compañías de noticias, es hiperpartidista o falso.
Si queremos construir y mantener debates saludables en línea, entonces debemos comenzar a cuestionarnos cómo tales prácticas influyen en la salud democrática de Internet.
El uso de un hashtag puede atraer rápidamente la atención de la audiencia hacia problemas sociales apremiantes. Sin embargo, como muestra nuestro estudio, tal impulso viral puede ser perjudicial para la discusión en línea sobre temas sociales urgentes a largo plazo.
Guerras de información: una ventana al ecosistema de medios alternativos
Teorías de conspiración, pensamiento abarrotado y desinformación política
Por Kate Starbird
Asst. Professor of Human Centered Design & Engineering at UW. Researcher of crisis informatics and online rumors. Aging athlete. Army brat.
Antecedentes: examen de "narrativas alternativas" de eventos de crisis
Durante más de tres años, mi laboratorio en la Universidad de Washington ha realizado investigaciones sobre cómo las personas difunden los rumores en línea durante los eventos de crisis. Hemos analizado los desastres naturales como los terremotos y los huracanes, así como los hechos por el hombre, como los tiroteos masivos y los ataques terroristas. Debido a la disponibilidad pública de datos, nos enfocamos principalmente en Twitter, pero también utilizamos los datos recopilados allí (tweets) para exponer una actividad más amplia en el ecosistema de medios circundante.
Con el tiempo, notamos que un tipo similar de rumor seguía apareciendo, una y otra vez, después de cada uno de los eventos de crisis provocados por el hombre: una teoría de conspiración o "narrativa alternativa" del evento que afirmaba que o no había sucedido o que fue perpetrado por alguien más que los sospechosos actuales.
Encontramos este tipo de rumor al estudiar los atentados del Boston Marathon en 2013. Notamos una gran cantidad de tweets (> 4000) que afirmaban que los bombardeos eran una "bandera falsa" perpetrada por los Navy Seals de los EE. UU. La difusión inicial de este rumor implicó una "cascada" de tweets que enlazan a un artículo en el sitio web de InfoWars. En ese momento, nuestros investigadores no sabían qué era InfoWars, pero la importancia de esa conexión se hizo evidente con el tiempo.
En eventos de crisis posteriores, aparecieron rumores similares. Después del tiroteo en Umpqua Community College, se rumoreaba que el evento fue organizado por "actores de crisis" por razones políticas, específicamente para justificar restricciones legales a los derechos de armas. Y después de los tiroteos en el club nocturno Orlando Pulse, un rumor sugirió que fueron cometidos por alguien más que el pistolero acusado, con el propósito de culpar falsamente al ataque contra los musulmanes. Para cada evento de crisis creado por el hombre que estudiamos, encontramos evidencia de narraciones alternativas, a menudo compartidas por algunas de las mismas cuentas y conectadas a algunos de los mismos sitios en línea.
Estos rumores tenían diferentes "firmas" de otros tipos de rumores. En términos de volumen (medido en tweets por minuto), la mayoría de los rumores relacionados con la crisis se disparan rápidamente y luego se desvanecen con relativa rapidez, típicamente "decayendo" a un ritmo exponencial. Pero estos rumores narrativos alternativos aumentaron más lentamente, y luego se demoraron, disminuyendo y fluyendo a lo largo de días o semanas (o años). También tuvieron una participación sostenida de un grupo de usuarios de Twitter (es decir, muchos tweets por usuario durante un período de tiempo prolongado), en lugar de la participación finita de un gran número de usuarios (uno o dos tweets por usuario, todos al mismo tiempo). ) como lo hacen los rumores típicos. Además, los rumores narrativos alternativos a menudo tenían una gran "diversidad de dominio", en los tweets que hacen referencia a los rumores vinculados a un gran número de dominios distintos (diferentes sitios web), incluidos sitios alternativos como InfoWars, BeforeItsNews y RT (también conocido como Russia Today). Varios de estos rumores también tenían una fuerte presencia de "botnet"; en otras palabras, muchas cuentas de Twitter participantes no eran personas "reales", sino que eran operadas por un programa de computadora que controlaba una gran cantidad de cuentas.
En nuestro primer estudio (sobre los atentados con maratón de Boston en 2013) notamos que los rumores narrativos alternativos se cruzaban con el contenido politizado. El análisis de hashtags concurrentes mostró que #falseflag a menudo aparecía en los mismos tweets como #obama, #nra, #teaparty, #tcot, #tlot, # p2. Como investigador de informática de crisis, he observado a menudo cómo las crisis se politizan en espacios en línea (y en otros lugares), pero esto fue diferente, ya que el rumor de falsa bandera parecía estar profundamente conectado a temas políticos y se propagaba con un propósito claramente político.
Extrañas similitudes y conexiones: por qué cambiamos de enfoque
Inicialmente, decidimos no insistir en este tipo de rumores, pensando que tenían poco impacto en nuestras preguntas centrales de investigación: cómo responden las personas a los eventos de crisis y cómo podemos hacer que el espacio de información sea más útil para las personas afectadas por la crisis detectando rumores falsos . Estos rumores narrativos alternativos rara vez resonaron dentro de las poblaciones afectadas por la crisis. Y así, aunque a menudo los comentamos cuando salieron a la luz en nuestros datos, mantuvimos nuestro enfoque de investigación en otra parte.
Sin embargo, a principios de 2016, a raíz de los tiroteos del Umpqua Community College y los ataques terroristas coordinados en París, algunos de mis alumnos decidieron examinar más de cerca lo que percibían como elementos comunes en las narrativas alternativas que se difunden en Twitter sobre el dos eventos diferentes, además de lo que ellos pensaban que era una botnet que manejaba una gran parte de ese contenido.
[Ambas corazonadas resultaron ser ciertas. La botnet estaba conectada a "The Real Strategy" o TheRealStrategy.com. Coordinaron cientos de cuentas que tuiteaban contenido relacionado con varias narrativas alternativas diferentes de estos eventos y otros. Aunque algunas de esas cuentas se han eliminado, otras aún están operativas, se han creado otras nuevas y continúan publicando y publicando en Twitter contenido relacionado con numerosas teorías de conspiración.]
Usando datos de Twitter recopilados durante estos eventos, los estudiantes construyeron grafos de red que revelaron las conexiones entre diferentes cuentas de Twitter, y entre diferentes "comunidades" de cuentas, participando en estas narrativas alternativas. Cuando fuimos a examinar los datos en el invierno de 2016, estábamos muy confundidos por algunas de las intersecciones. ¿Por qué un puñado de cuentas "Anónimas" y GamerGaters estaban conectados con cuentas pro-palestinas de un lado y nacionalistas blancos europeos con otro? ¿Por qué los partidarios aparentemente izquierdistas de Wikileaks se conectaban con partidarios aparentemente derechistas de Donald Trump? ¿Y por qué estos grupos se unieron para hablar sobre narrativas alternativas de los eventos de tiroteo en masa? No tiene sentido. Todavía.
Una exploración sistemática del ecosistema de medios alternativos a través de la lente de narrativas alternativas de eventos de rodaje masivo
Casi un año después, motivados por las interrupciones políticas de 2016, la retórica en torno a las "noticias falsas" y los medios alternativos, y la persistente sensación de que había algo en nuestros datos de rumores en línea que podía darnos una idea de estos problemas, completamos un estudio sistemático de narrativas alternativas de los eventos de tiroteo masivo, mirando específicamente al ecosistema de medios alternativos que los genera y apoya su propagación. Un primer documento resultante de este trabajo fue revisado recientemente y aceptado en la conferencia ICWSM 2017. He subido una versión preimpresa de este documento a mi sitio web.
En el resto de este blog, voy a describir parte de esa investigación, incluidos los métodos y los principales hallazgos. Estos hallazgos tocan la naturaleza de los medios alternativos, incluida la presencia de (y las conexiones entre) teorías de conspiración, propaganda política y desinformación.
Métodos de recopilación y análisis de datos
El 1 de enero de 2016, nuestro laboratorio lanzó una colección de Twitter centrada específicamente en los eventos de rodaje. Mantuvimos esta colección durante más de nueve meses, hasta el 6 de octubre, haciendo un seguimiento de términos (en inglés) que incluyen disparos, disparos, pistoleros y pistoleros. A partir de esta recopilación, identificamos tweets que hacen referencia a narraciones alternativas, es decir, tweets que también contenían términos como "bandera falsa", "engaño" y "agente de crisis".
A continuación, creamos un mapa de red de los dominios de Internet a los que se hace referencia en estos tweets. En otras palabras, queríamos ver qué sitios web citaban las personas mientras hablaban y construíamos estas narrativas alternativas, así como también cómo se conectaban esos diferentes sitios web. Para hacer eso, generamos un grafo donde los nodos eran dominios de Internet (extraídos de enlaces URL en los tweets). En este grafo, los nodos se clasifican por el número total de tweets que se vinculan a ese dominio y existe una ventaja entre dos nodos si la misma cuenta de Twitter publicó un tweet que cita un dominio y otro tweet que cita al otro. Después de algunos recortes (eliminar dominios como sitios de redes sociales y acortadores de URL que están conectados a todo), terminamos con el grafo que ves en la Figura 1. Luego usamos el grafo para explorar el ecosistema de medios a través del cual se producen narrativas alternativas toma lugar.
Figura 1. Grafo de red de dominio, coloreado por tipo de medio Púrpura = medios dominantes; Color agua = medios alternativos; Rojo = medios controlados por el gobierno
Después de generar el grafo, realizamos un análisis cualitativo exhaustivo de todos los dominios en el grafo, leyendo sus páginas de inicio y Acerca de, identificando los temas destacados en su sitio web actual, buscando temas específicos dentro de su contenido histórico, examinando otra información disponible (en línea) sobre sus propietarios y escritores, etc. A continuación, analizo lo que aprendimos sobre este ecosistema de medios alternativos a través de este análisis.
Se citaron medios alternativos para respaldar narrativas alternativas; Los principales medios de comunicación fueron citados para desafiarlos
El grafo de red representa una subsección del ecosistema de medios más grande: es una instantánea de la "estructura" de la conversación sobre narrativas alternativas. Después de recortar en dominios citados varias veces (y por varias personas), el grafo contiene 117 dominios en total. Determinamos que 80 de ellos pertenecían a "medios alternativos" (Figura 1, color agua) y 27 pertenecían a medios convencionales (Figura 1, color púrpura). Otros dominios incluyen tres pertenecientes a ONG y dos pertenecientes a medios de comunicación financiados por el gobierno ruso (RT.com y SputnikNews.com). Es importante tener en cuenta que no todos estos dominios contienen contenido que promueve narrativas alternativas de los eventos de disparo. En las conversaciones de Twitter sobre estas narrativas alternativas, los dominios fueron citados de diferentes maneras para diferentes tipos de contenido.
Más de la mitad de los dominios en el grafo (y más del 80% de los dominios de medios alternativos) fueron citados por contenido que apoya explícitamente las narrativas alternativas. Sin embargo, otros (especialmente los principales medios de comunicación) fueron citados por relatos de los hechos, y luego fueron utilizados como evidencia por los teóricos de la conspiración a medida que construían estas teorías. Y algunos fueron mencionados por sus negaciones de estas teorías. A continuación hay ejemplos de cada uno, para darle una idea de cómo los tweets hacen referencia a dominios externos.
Soporte: El siguiente tweet se vincula a un artículo en el dominio WorldTruth.tv que afirma que los testimonios de varios pistoleros (que entran en conflicto con la cuenta oficial) sugieren que el tiroteo en el club nocturno Orlando Pulse es una especie de bandera falsa. La información contradictoria y dinámica, típica de las situaciones del tipo de niebla de guerra que ocurren después de los eventos de crisis, a menudo se usa como "evidencia" para apoyar narrativas alternativas de estos eventos.
Como evidencia: el siguiente tuit afirma que uno de los testigos del tiroteo en Orlando es un actor y que los disparos fueron una falsa bandera. Esto hace eco de un tema común, que aparece en muchas narrativas alternativas en nuestra investigación, que los "actores de crisis" se utilizan para organizar eventos. El tweet se vincula a un artículo en el dominio Toronto Star que contiene una cuenta objetiva neutral del evento.
Negación: este tweet se vincula al dominio del New York Times, a un artículo que refuta varias narrativas alternativas diferentes de los disparos en Orlando. Sin embargo, en lugar de alinearse con los argumentos en ese artículo, este tweet está acusando al New York Times de ser un participante en la bandera de conspiración / engaño / falsa.
[Siguiendo las reglas de Twitter, solo proporciono ejemplos aquí de tweets que todavía están disponibles públicamente en Twitter. También he intentado elegir las cuentas para estos ejemplos que parecen propagar intencionalmente narrativas alternativas; en otras palabras, estoy tratando de evitar llamar individuos / cuentas que podrían ser incómodas al estar asociadas con estas ideas.]
La mayoría de los dominios citados en la producción de narrativas alternativas eran dominios de "medios alternativos", y la mayoría de estos (68 de 80) fueron citados (vinculados) en los tweets que recopilamos para contenido que explícitamente apoyaba narrativas alternativas. Como puede ver en el grafo (Figura 1), el ecosistema de medios alternativos está estrechamente conectado, es decir, los usuarios de Twitter que producen narraciones alternativas suelen citar varios dominios de medios alternativos diferentes en sus tweets de teoría de la conspiración. Los tres centros principales en esta red en particular son VeteransToday.com, BeforeItsNews.com y NoDisinfo.com, pero hay muchos otros dominios de medios alternativos que juegan un papel importante en la producción de narrativas alternativas. Este ecosistema de medios alternativos (un subconjunto del grafo más grande) es el foco del resto de este blog.
Sin embargo, quiero señalar explícitamente y aclarar un aspecto del grafo: aunque los principales dominios de los medios como el Washington Post, el New York Times y Fox News aparecen en el grafo, ninguna cuenta de los medios principales en este grafo alojó ningún contenido que promoviera la alternativa. narrativas que estábamos estudiando. En cambio, en general se citaron en nuestros datos de Twitter para el contenido general sobre el evento que luego se usó como "evidencia" de una conspiración. Los medios convencionales también fueron citados para las correcciones de las narraciones alternativas (a veces en tweets que respaldan esas correcciones, a veces en tweets que los impugnan). En el caso del New York Times, el periódico publicó un artículo que negaba explícitamente las narrativas alternativas del tiroteo en Orlando. Esta negación fue citada varias veces por aquellos que promueven esas narraciones, como incluso más evidencia de su teoría. [Esto demuestra un aspecto irritante de corrección de rumor en este contexto - que las correcciones a menudo son contraproducentes].
El grafo de red revela algunos sitios de medios principales para estar más integrados en el ecosistema de medios alternativos. Por ejemplo, varias personas que twittean enlaces a VeteransToday.com también twittean enlaces a FoxNews.com, acercándolo a esa parte del grafo.
El papel de las botnets en la amplificación de narrativas alternativas
Estos datos también proporcionan información sobre el efecto de las cuentas automatizadas (botnets) en los datos. Por ejemplo, el dominio más tuiteado en nuestros datos fue TheRealStrategy.com. Se tuiteó tantas veces (7436) y se conectó a tantos dominios (en relación con los demás dominios) que tuvimos que eliminarlo del grafo. [Fue el único dominio de medios altamente citado y altamente conectado que eliminamos]. El examen de los patrones temporales (tweets a lo largo del tiempo) sugiere que casi todos los tweets que se vinculó a este dominio fueron generados por un programa de computadora. Ese programa operó cientos de cuentas diferentes, ordenándoles que tuiteen en ráfagas regulares (docenas al mismo tiempo). En la mayoría de los casos, estos tweets están vinculados a TheRealStrategy, pero el programa también está salpicado de tweets que enlazan con otros dominios de medios alternativos. Un análisis más detallado reveló que muchas de estas cuentas de Twitter tienen descripciones de perfil similares y que usan fotos robadas de otras personas en línea. Esta es una botnet muy sofisticada que parece estar trayendo efectivamente cuentas "reales" a sus redes de amigos / seguidores, y principalmente propagando teorías de conspiración y contenido politizado.
El sitio de InfoWars fue el segundo más twitteado en nuestro conjunto de datos (1742 veces). Casi todas las actividades de tweet que citan a InfoWars provenían de un conjunto coordinado de cuentas; todas tenían un nombre similar y cada una enviaba un tweet único que enlazaba a uno de los dos artículos de InfoWars sobre diferentes narrativas alternativas de diferentes eventos de disparos. Todas estas cuentas ahora están suspendidas. Aunque no es tan sofisticado como TheRealStrategy, este botnet amplificó el contenido de InfoWars, que ocasionalmente fue retomado y retuiteado por otros.
Propaganda política: nacionalismo vs. globalismo
Una de las primeras cosas que nos llamó la atención cuando realizamos análisis de contenido cualitativo en los dominios de medios alternativos fue la cantidad de contenido político en los sitios web. Intentamos caracterizar este contenido, pasando por varias rondas de iteración para tratar de reconocer patrones en los sitios y distinguir entre diferentes orientaciones políticas.
Rápidamente quedó claro que el espectro político izquierdo (liberal) frente a derecho (conservador) de los EE. UU. No era apropiado para gran parte de este contenido. En cambio, la principal orientación política fue hacia la antiglobalización. Casi siempre, esta orientación se hizo explícita en el contenido.
El significado del globalismo varió en todos los sitios. Para algunos sitios web enfocados en la audiencia de los EE. UU., El globalismo implicaba una postura pro inmigrante. Para sitios más centrados en el ámbito internacional, se utilizó el globalismo para caracterizar (y criticar) la influencia del gobierno de los EE. UU. En otras partes del mundo. En algunos de los sitios más conspirativos, el término se usaba para sugerir conexiones a una conspiración global por parte de personas ricas y poderosas que manipulaban el mundo para su beneficio. El globalismo también estaba ligado al corporativismo; en otras palabras, las formas en que las grandes compañías multinacionales ejercen poder sobre el mundo. Y el término también estaba conectado, implícita y explícitamente, a los medios convencionales.
De esta manera, ser antiglobalista podría incluir ser medios anti-mainstream, anti-inmigración, anti-corporación, anti-Estados Unidos. gobierno y anti-Unión Europea. Debido a la variedad de significados empleados, el sentimiento de antiglobalización juntó a individuos (e ideologías) tanto del lado derecho como del izquierdo del espectro político de los EE. UU. Es inquietante que gran parte del contenido antiglobalista en estos dominios de medios alternativos fuera también antisemita, haciéndose eco de las teorías conspirativas de larga data sobre poderosos judíos que controlan los acontecimientos mundiales.
Tantas teorías de conspiración: epistemologías paralizadas, pensamiento abarrotado y las huellas dactilares de una campaña de desinformación
Otra cosa que notamos fue la proliferación y la convergencia de diferentes temas conspirativos. Cada dominio que albergaba un artículo que promovía una narrativa alternativa de un evento de tiroteo también contenía contenido que hacía referencia a otras teorías de conspiración, a veces cientos de ellas. No eran todos de naturaleza política. También encontramos teorías de pseudociencias sobre vacunas, transgénicos y "chemtrails". Algunos dominios trataban sobre teorías de conspiración, pero otros presentaban noticias aparentemente normales con teorías de conspiración salpicadas. A través del análisis cualitativo, determinamos que 24 dominios de medios alternativos se enfocaban principalmente en la distribución de teorías de conspiración y se centraban principalmente en comunicar una agenda política.
Aunque hubo muchas teorías diferentes que se extendieron a través de este ecosistema de información, también vimos una convergencia de temas: algunas de las mismas historias aparecieron en varios dominios diferentes. Ocasionalmente, las historias parecían en gran medida independientes (es decir, diferentes perspectivas, diferentes pruebas), pero a menudo se copiaban esencialmente de un sitio a otro, o una historia posterior simplemente sintetizaba un artículo en otro sitio, incluidos extractos largos del original. Además, algunos autores parecían contribuir historias a múltiples dominios en la red.
Por lo tanto, una persona que busca información dentro de este ecosistema puede encontrar un artículo de un sitio web que sintetizó un artículo de un segundo sitio web que se publicó originalmente y se copió de un tercer sitio web. Un efecto de esto es que las personas que buscan información dentro de este espacio pueden pensar que están obteniendo información de muchas fuentes diferentes cuando en realidad están obteniendo información de las mismas o muy similares fuentes, lavadas a través de muchos sitios web diferentes. Sunstein y Vermeule (2009) sostienen que el pensamiento conspirativo se relaciona con una "epistemología paralizada" y que un componente significativo de esto es una dieta de información limitada y / o sesgada (por ejemplo, una conformada por un grupo social). Nuestra investigación sugiere que la dinámica de la información de este ecosistema de medios alternativos, cómo la misma información existe en diferentes formas en diferentes lugares, puede crear una percepción falsa de diversidad de información o triangulación, complicando aún más esta cuestión de las epistemologías paralizadas.
Desde otra perspectiva, estas propiedades del ecosistema de noticias alternativas -la proliferación de muchas e incluso conflictivas teorías de conspiración y la apariencia engañosa de la diversidad de fuentes- pueden reflejar el uso intencional de tácticas de desinformación. Aunque a menudo pensamos que la desinformación se emplea para convencernos de una ideología específica, en un artículo de 2014 titulado "La amenaza de la irrealidad", Pomerantsev y Weiss describen cómo las estrategias de desinformación rusas (que remontan a Lenin) están diseñadas para no convencer pero confundir, crear un "pensamiento confuso" dentro de la sociedad. Su argumento estratégico es que una sociedad que aprende que no puede confiar en la información puede controlarse fácilmente. Es posible que el ecosistema de medios actual, incluidos los dominios de medios alternativos y las plataformas de redes sociales que ayudan a extender los enlaces a estos dominios, esté contribuyendo al pensamiento confuso (un pariente o efecto tal vez de una epistemología paralizada). Aún no está claro si estos efectos están relacionados con campañas de desinformación decididas o son solo efectos emergentes de nuestro espacio de información actual. Parece que los investigadores tienen algo que hacer para aclarar lo que está sucediendo aquí y quizás pensar en diseñar sistemas que sean más resistentes a la desinformación.
Los medios alternativos se copian el pensamiento crítico, los hechos y la verdad
Quizás el hallazgo más desconcertante que surgió de este análisis, especialmente cuando intentamos pensar cómo ayudar a las personas a convertirse en mejores consumidores de información en línea, fue lo que percibimos como una estrategia intencional de muchos sitios web de medios alternativos para aprovechar la retórica sobre noticias falsas y pensamiento crítico para confundir aún más y engañar a los lectores.
Nuestra investigación muestra que el rechazo de las noticias principales es un tema común en todos los dominios de medios alternativos. Tal vez es una perogrullada decir que existen medios alternativos en yuxtaposición con los medios convencionales, pero lo interesante aquí es que muchos sitios de medios alternativos se han establecido explícitamente como oposición a los medios "corporativos" convencionales. También se han aprovechado de los reclamos de parcialidad política en los medios convencionales (hacia ideologías liberales o prooccidentales) y los han aprovechado para apoyar su propia legitimidad.
Además, parece que han cooptado argumentos sobre alfabetización mediática (boyd hace este mismo argumento) y pensamiento crítico. La conversación sobre "noticias falsas" a menudo termina con declaraciones sobre enseñar a las personas a ser mejores consumidores de información, a ser escépticos mientras se educan a sí mismos a través de encuentros con los medios en línea. Sitios de noticias alternativos se han apropiado de estos argumentos y los están usando para apoyar la propagación de narrativas alternativas y otras teorías conspirativas.
Considere el siguiente texto, un extracto de la página Acerca del dominio 21stCenturyWire.com:
21stCenturyWire.com es un dominio típico en nuestro grafo de red, ubicado en la esquina superior izquierda (de la Figura 1) y fuertemente conectado a NoDisinfo y VeteransToday (que difunden un fuerte contenido antisemita). 59 tweets en nuestra colección vinculados a este dominio, haciendo referencia a varios artículos que explícitamente apoyan narrativas alternativas sobre varios tiroteos masivos, incluyendo afirmaciones de que tanto los disparos de la policía de Dallas como los tiroteos en los clubes nocturnos de Orlando fueron eventos escenificados. Sin embargo, el enfoque conspirativo de este dominio se extendió mucho más allá de las narraciones alternativas de los tiroteos. El contenido del dominio apoyó una amplia gama de temas conspirativos, con artículos que promocionan afirmaciones sobre vacunas que causan autismo, eventos meteorológicos diseñados por el gobierno, protestas contra Trump respaldadas por George Soros y anillos de pedófilos operados por personas poderosas. A través de nuestro análisis del contenido del dominio, también determinamos que 21stCenturyWire apoye firmemente los intereses políticos rusos (otro tema prominente en nuestros datos).
El dominio pertenece y es operado por Patrick Henningsen, un periodista que ha trabajado para RT news, Guardian.co.uk, GlobalResearch.ca, e Infowars.com. Quizás no sea sorprendente que todos estos dominios sean nodos en nuestro grafo.
Al examinar la página Acerca de 21stCenturyWire, puede ver cómo el sitio aprovecha la retórica (algo tecno-utópica) de la libertad de información y el periodismo ciudadano, alentando explícitamente a los lectores a usar sus propias habilidades de "pensamiento crítico" e implícitamente felicitándolas por esas habilidades y tal vez activando un sentido de confianza en sus habilidades. Usted puede manejar esto. ¡Le daremos los hechos y usted puede decidir por usted mismo! El sitio también afirma estar fuera del control corporativo y gubernamental. La primera afirmación representa un contraposicionamiento algo natural, es decir, medios alternativos contra los medios dominantes controlados por la empresa. Pero la segunda afirmación es poco sincera, ya que el dominio a menudo alberga contenido que se publica de manera cruzada en RT, anteriormente Russia Today, un medio de comunicación financiado y controlado en gran parte por el gobierno ruso.
Este tipo de posicionamiento de medios alternativos era típico para los dominios que examinamos. A continuación se muestra otro ejemplo, este de la página Propósito y objetivos del dominio NoDisinfo.com:
Observe el lenguaje que enfatiza cómo este sitio web proporciona "hechos". Permite a las personas "tomar sus propias decisiones". Su propósito es desentrañar el "engaño y la desinformación". Es probable que este encuadre sea muy intencional, afirmando que presenta una "verdad" no adulterada y faculta a los usuarios para quizás sentir que están descubriendo esa verdad dentro de este dominio. Y los usuarios pueden encontrar todo tipo de verdad (en forma de teorías de conspiración) aquí: del trinchero 9-11 a las afirmaciones sobre posibles efectos apocalípticos del desastre nuclear de Fukishima que los medios de comunicación dominantes ocultaron intencionadamente.
Resumen y conclusión
Esta investigación intentó tomar un enfoque sistemático para desempacar el ecosistema de medios alternativos. Nos enfocamos en "narrativas alternativas" de eventos de crisis y utilizamos datos de Twitter para mapear la estructura del ecosistema de medios alternativos que impulsa estas narrativas. A través del análisis de contenido, encontramos que estos dominios albergan colectivamente muchos tipos diferentes de teorías de conspiración, desde narrativas políticamente temáticas sobre el "Nuevo Orden Mundial" hasta argumentos anti-vacunas. En este mundo "virtual", los tiroteos de Sandy Hook School fueron organizados por actores de crisis y la tierra en realidad es plana después de todo.
Determinamos que gran parte del contenido de esta red era propaganda política. En su mayor parte, esta propaganda política se centró en torno a "antiglobalización". Este término se usó para designar diferentes cosas en diferentes dominios (e incluso en diferentes artículos dentro de los mismos dominios) - p. anti-inmigración, imperialismo anti-occidental, anti-corporación, anti-medios. Curiosamente, también hubo fuertes corrientes de antisemitismo (a veces explícito, a veces menos) a través de una subsección de este ecosistema. Tomados en conjunto, estas posiciones parecen estar alineadas y utilizadas en apoyo del surgimiento de ideologías nacionalistas en los EE. UU. Y en otros lugares.
También notamos cómo la estructura del ecosistema de medios alternativos y el contenido alojado y difundido allí sugieren el uso de tácticas de desinformación intencional, destinadas a crear un "pensamiento confuso" y una desconfianza general en la información.
Debido a que los datos subyacentes en este análisis son limitados (a los tweets sobre eventos de rodaje), será necesario un trabajo futuro para A) evaluar el ecosistema de medios alternativos más amplio (nuestros datos nos limitan a una visión muy específica); y B) determinen qué tan influyentes son estos medios y sus mensajes en las perspectivas estadounidenses y mundiales de los eventos mundiales y la ciencia. Sin embargo, está claro que la información compartida dentro de este ecosistema de información aparentemente marginal está entrando a la esfera pública en general.
Cuando realizamos este análisis en diciembre, muchos de estos dominios de noticias alternativos comenzaron a apropiarse del término "noticias falsas" para desviar los ataques a los principales medios de comunicación. Semanas más tarde, el recién inaugurado presidente de Estados Unidos, Trump, se hizo eco de este refrán, declarando públicamente (incluso twitteando) que varios medios de comunicación e historias particulares eran "noticias falsas". Se han identificado otras trayectorias de información de sitios web de medios alternativos a declaraciones públicas de la administración Trump (por ejemplo, las recientes escuchas telefónicas), y aunque esto no implica causalidad, sí indica una conexión entre el ecosistema de medios alternativos y el presidente de los EE. UU. La incorporación de Steve Bannon al círculo interno de Trump también subraya esta conexión. Antes de su nombramiento para la campaña de Trump, Bannon publicó las noticias de Breitbart, un sitio web de medios alternativo que aparece en nuestros datos, y que decidimos tener una fuerte perspectiva antiglobalista. De hecho, los recientes comentarios de Bannon en la reunión republicana del CPAC hacen explícita esta orientación ideológica.
Mientras criticaba a los principales medios de comunicación, Bannon dijo esto: "Son medios corporativos y globalistas que se oponen firmemente a una agenda nacionalista económica como la que tiene Donald Trump".
Este comentario resume una gran parte de la investigación que hicimos, demostrando cómo la crítica de los medios dominantes (prácticamente grabada en el ADN de los medios alternativos) se alinea con una agenda política de antiglobalización en favor del nacionalismo, y cómo esa agenda está conectada a las orientaciones políticas y los objetivos de la administración Trump. Quizás la principal contribución de nuestra investigación es simplemente señalar que estas ideologías se extienden dentro de un ecosistema de medios alternativos que utiliza teorías de conspiración como los reclamos de Hook de Sandy Hook y antiguas narrativas antisemitas para atraer lectores y apoyar esta propagación. Y que estos sitios web de medios alternativos no se centran únicamente en el contenido ultraderechista o altísimo de EE. UU., Sino que también usan contenido de alt-left para atraer a los lectores a este ecosistema de información y las ideologías que se extienden allí.
Lo más importante, este trabajo sugiere que Alex Jones es de hecho un profeta. En serio, mientras leía a través de docenas de estos sitios web de medios alternativos y cavaba DEEP en su contenido, me di cuenta de que realmente se está librando una guerra de información. Hace tres años, nuestro laboratorio decidió que estas teorías de conspiración eran demasiado marginales y salaces para ser el centro de nuestra investigación. Casi que estaba por debajo de nuestra dignidad prestar atención y promover este tipo de contenido. Qué terrible error fue ese. Me parece que no fuimos los únicos que lo hicimos. Es (pasado) el momento en que atendemos a esto (como investigadores y diseñadores de los sistemas que conducen este contenido). Espero que no sea demasiado tarde.
[Aquí hay una lista de los dominios que aparecen en nuestro grafo de red. Tenga en cuenta que la codificación cualitativa se realizó a través de un análisis de contenido iterativo e interpretativo. Es posible que otros perciban que una determinación diferente (o un conjunto de categorías) sería mejor para algunos de estos dominios. Por favor avíseme si siente que hay un error de codificación sistemático o un patrón no reconocido en los datos, ya que este trabajo está en curso y me gustaría poder incorporar sus ideas. Gracias.]
Un estudio de caso sobre cómo funciona la máquina de propaganda de Rusia
@DFRLab
@AtlanticCouncil's Digital Forensic Research Lab. Catalyzing a global network of digital forensic researchers, following conflicts in real time.
Las operaciones de propaganda e influencia del gobierno ruso utilizan un modelo de espectro completo que abarca los medios sociales y tradicionales.
Algunos de los canales que usa son abiertos y oficiales; otros son encubiertos y dicen ser independientes. Todos trabajan juntos para crear la apariencia de múltiples voces y puntos de vista, enmascarando un enfoque coordinado.
Esta publicación examina un caso de espectro completo para ilustrar el método. @DFRLab examinó este caso en una publicación anterior; desde entonces, surgieron nuevas pruebas que cambiaron y mejoraron nuestra comprensión de la técnica.
Diagrama de la propagación de la campaña anti-Morgan Freeman probablemente de la fábrica de trolls de San Petersburgo informada anteriormente, a través de bots, trolls, cuentas diplomáticas verificadas y RT. (Fuente: @DFRLab)
De la fábrica de trolls, con amor
El incidente en cuestión se refería al actor estadounidense Morgan Freeman. El 18 de septiembre de 2017, Freeman presentó un video advirtiendo que Rusia lanzó una guerra de información contra los Estados Unidos. El tono fue dramático, pero basado en hechos; la comunidad de inteligencia de EE. UU. y muchos investigadores de código abierto, incluido @DFRLab, han mostrado cómo las fuentes rusas propagaron propaganda atacando a Hillary Clinton durante las elecciones estadounidenses de 2016.
La intervención de alto perfil de Freeman rápidamente produjo una respuesta en Rusia. El 20 de septiembre de 2017, un grupo en línea llamado "AgitPolk" lanzó un hashtag llamado #StopMorganLie, acusando a Freeman de "manipular los hechos de la historia rusa moderna y difamar abiertamente a nuestro país".
Traducido del ruso: "Morgan Freeman, ¡estás equivocado! Lanzamos la campaña #StopMorganLie."(Fuente: agitpolk.ru)
El sitio web de Agitpolk se describe a sí mismo como "un grupo de personas afines unidos por nuestro amor compartido por nuestro país", e insiste en que es independiente del gobierno.
El propósito declarado del grupo es oponerse a la "histeria anti-rusa", un término usado a menudo por los funcionarios rusos para describir las críticas a las acciones de Rusia, especialmente sus ataques contra Ucrania y su interferencia en los procesos democráticos occidentales.
Número de menciones de la frase "histeria anti-rusa" por el Ministerio de Relaciones Exteriores de Rusia, 2001-2017, a partir de una búsqueda en el sitio web del Ministerio. Tenga en cuenta el aumento en y después de 2014, cuando Rusia invadió Ucrania y anexó Crimea. (Fuente: DFRLab)
Agitpolk enfoca sus operaciones en Twitter, llamándolo "una de las formas más rápidas de conectarse con actores públicos, políticos y medios". Usó dos cuentas principales, la @agitpolk corporativa y el @ComradZampolit personal. Este último era efectivamente anónimo, su foto de perfil tomada de una película soviética. La palabra "Zampolit" se traduce como "comisario político", que también es una referencia a los tiempos soviéticos.
Izquierda: información de perfil e imagen para @ComradZampolit, desde un escaneo de máquina. Derecha: Imagen de Maxim Sukhanov en "The Role". (Fuente: stuki-druki.com)
Agitpolk también ejecutó la campaña en la red rusa VKontakte (ВКонтакте o VK).
(Fuente: Agitpolk / VK)
@DFRLab analizó la influencia y el tráfico de Agitpolk en octubre de 2017. La campaña de Twitter #StopMorganLie reunió menos de 10.000 tweets, incluidos los retweets. La publicación de VK fue vista 14,000 veces, pero solo como 124 veces. Este es un impacto a pequeña escala. Sobre esta base, llegamos a la conclusión de que Agitpolk era muy probablemente un movimiento voluntario.
Sin embargo, posteriormente, Twitter compartió con el Congreso de EE. UU. Una lista de 2.752 cuentas que había rastreado hasta la fábrica rusa de trolls en San Petersburgo, y suspendió. Tanto @agitpolk como @ComradZampolit estaban en la lista.
Extractos, incluidas cuentas de Twitter, de la lista de la fábrica de trolls. (Fuente: democrats-intelligence.house.gov)
Esto confirmó que #StopMorganLie era, de hecho, una campaña de fábrica de trolls, y sugirió que el sitio web agitpolk.ru era una creación de fábrica de trolls.
(@DFRLab reconoce que identificamos erróneamente estas cuentas originalmente, al concluir que no estaban vinculadas a la fábrica de trolls. En casos poco claros, preferimos pecar de cautelosos).
Viendo la propagación
Sabiendo que #StopMorganLie comenzó en https://medium.com/dfrlab/how-a-russian-troll-fooled-america-80452a4806d1, estudiamos su extensión para ver cómo las diferentes partes del sistema de propaganda rusa trabajan juntas en la práctica. Los primeros amplificadores en Twitter eran aparentes bots, publicando el hashtag repetidamente sin comentarios adicionales. Trolls, bots y cuentas "cyborg" semiautomáticas suelen trabajar juntas como pastores, perros pastores y ovejas eléctricas; mira nuestro análisis aquí.
Publicaciones de @ SV78900, desde escaneo de máquina. El 15 de octubre de 2017 se archivó una búsqueda en Twitter de publicaciones de esta cuenta mediante #StopMorganLie.
El hashtag fue luego amplificado por varias cuentas oficiales y verificadas del gobierno ruso, que utilizaron sus propios memes para atacar a Freeman como un usuario de drogas histérico e inconsciente, un ejemplo clásico de la estrategia de despedir a los críticos sin evaluar su evidencia.
Izquierda: "Portavoz del presidente ruso Dmitry Peskov: El Kremlin no toma en serio el videoclip de Morgan Freeman. #StopMorganLie. "El meme cita a Peskov diciendo:" Muchas personas creativas caen presas fáciles de las sobrecargas emocionales, sin tener información real sobre el estado real de las cosas. Se convierten en víctimas de tal exaltación emocional, una continuación del macartismo, diría yo. Pasará a tiempo. "Archivado el 15 de octubre de 2017. Derecha:" La histeria antirrusa tiene a los EE. UU. Bajo control, el famoso actor Morgan Freeman repartió otra porción de fantasías sin fundamento ". El meme dice:" El famoso El actor de Hollywood Morgan Freeman habla alegremente sobre la "interferencia" rusa en las elecciones presidenciales de Estados Unidos. También a menudo habla de su predilección por la marihuana. "¡Estoy listo para comer, beber, fumar e inhalar!" ¿Vale la pena escucharlo? "Archivado el 15 de octubre de 2017. (Fuente: Twitter / RusConsulGen andEmbassyofRussia)
Estos mensajes llegaron rápidamente. Los partidarios de Agitpolk lanzaron el hashtag poco antes de las 09:00 UTC. El consulado ejecutó su publicación a las 11:49; la embajada hizo lo mismo a las 13:05 (la marca de tiempo en la captura de pantalla es UTC + 1). El consulado también retwitteó el llamado de @ ComradZampolit a sus "camaradas" para que se unan a la campaña, ya que esta foto del escaneo de la máquina muestra:
Publicaciones del Consulado General de Rusia en Ginebra, a través de una máquina escaneada. Tenga en cuenta los horarios del primer tweet y retweet. (Fuente: Twitter)
Esto indudablemente indicó que las misiones diplomáticas rusas no solo siguen las cuentas de la fábrica de trol, sino que las amplifican. Al menos una evidencia sugiere que también coordinan campañas por adelantado.
A principios del mismo año, Agitpolk publicó una campaña de hashtag destinada a honrar a los diplomáticos rusos, y afirmó que lo hizo "con el apoyo de representaciones extranjeras del Ministerio de Asuntos Exteriores de Rusia". Cuentas como el Ministerio de Relaciones Exteriores, el Consulado General en Ginebra y la Embajada en Sudáfrica efectivamente usó el hashtag, confirmando el reclamo.
El anuncio de Agitpolk de su campaña; el texto subrayado dice "con el apoyo de representaciones extranjeras del Ministerio de Asuntos Exteriores de Rusia". Archivado el 22 de enero de 2018. (Fuente: Agitpolk.ru)
La rápida amplificación de las misiones del ataque a Morgan Freeman sugirió una cooperación similar.
Pequeño, pero suficiente para RT
A pesar de estos seguidores de alto perfil, la campaña de Twitter no fue particularmente efectiva, especialmente en inglés. De acuerdo con una exploración de máquina @DFRLab realizada en ese momento, generó 9,842 tweets, de los cuales solo 300 se compusieron en inglés (otros 713 mensajes retuiteados en inglés). Estos vinieron de 4,003 usuarios, incluidos los bots. Resultados del escaneo de máquina, que muestra la cantidad de usuarios y publicaciones.
De los originales en inglés, muchos provienen principalmente de cuentas en ruso.
Tweets de @lite_irina y @Onlinevzlet, que son principalmente en ruso, que muestran los mensajes de Morgan Freeman en inglés entre los rusos. Todos los tweets en inglés y todos los perfiles de cuenta archivados el 15 de octubre de 2017.
La difusión del hashtag de la fábrica de trol entre los usuarios de lengua inglesa era, por lo tanto, mínima. Incluso su propagación en ruso fue limitada.
No obstante, el siguiente paso en la cadena de propaganda fue que el "arma de información" de RT del estado ruso publicara un extenso artículo (ocho párrafos y 27 tuits incorporados) afirmando que "Twitterati" estaba "decepcionado" con los comentarios de Freeman, encabezando el hashtag.
El títular y el título de RT aparecieron en el artículo el 20 de septiembre de 2017, solo unas horas después de que AgitPolk lanzara su campaña. Archivado el mismo día. (Fuente: RT)
El título y el título de RT aparecieron en el artículo el 20 de septiembre de 2017, solo unas horas después de que AgitPolk lanzara su campaña. Archivado el mismo día. (Fuente: RT)
El artículo evitó hábilmente decir qué tan poco alcanzó la campaña de la fábrica de trol en inglés, usando términos indeterminados como "algunos usuarios han llegado a decir que han perdido el respeto por la estrella de Hollywood", "La gente dijo que la declaración de 'democracia' es pura hipocresía ", y" la gente de las redes sociales dijo que el video de Freeman es en sí mismo una propaganda vergonzosa ". También se refirió al tráfico como una" protesta ", y se relacionó con un artículo que califica los comentarios de Freeman de" histeria anti Moscú ".
Es revelador que, aunque el artículo y el tweet que lo acompaña encabezaban el hashtag de la fábrica de trol, solo seis de los tweets que citó lo mencionaron, todos ellos de cuentas principalmente en ruso. Solo dos tuits de los veintisiete defendidos por Freeman; estaban en los párrafos finales.
Por lo tanto, el artículo parece haber servido para dos propósitos: amplificar los ataques a Freeman en general, y aumentar el hashtag de la fábrica de trol en particular.
Desde RT a la franja
RT fue el amplificador principal del hashtag, extendiendo la campaña de Twitter de la fábrica de trol a nuevas plataformas. Su publicación en Facebook del artículo fue compartida 67 veces, y obtuvo 662 reacciones, no todas positivas.
Parte de RT de Facebook de su propio artículo. (Fuente: RT / Facebook)
Una acción separada, reproduciendo el video de Freeman, pero agregando el título "Anti-Rusia Rant" y el enlace al artículo de RT sobre #StopMorganLie, fue visto más de medio millón de veces y compartido más de 3.700 veces.
La parte anotada de RT del video de Freeman; tenga en cuenta el número de vistas al pie de la imagen. (Fuente: RT / Facebook)
El artículo de RT fue recogido por varias fuentes dispares. Incluyeron una página de Pinterest centrada en el socialismo y la política; un sitio de agregación llamado pressaspect.com; un sitio ostensiblemente centrado en viajes con sede en Hawaii; y un sitio dedicado a los rusos en Florida.
(Fuente: floridarussian.com.)
El artículo de RT no se extendió a otros medios convencionales, y, como indicó nuestro escaneo, el hashtag tenía un alcance limitado en las plataformas sociales. Sin embargo, logró un mayor alcance en los sitios de franja y clickbait.
Conclusión
La importancia de la campaña #StopMorganLie estaba en lo que nos mostró sobre la máquina de propaganda rusa.
El hashtag fue lanzado por un sitio web que parece ejecutarse desde la fábrica de trolls. Inicialmente, fue amplificado por cuentas de Twitter y VK, humanas y automatizadas, administradas por la misma organización.
La campaña fue luego amplificada por las cuentas verificadas de las misiones diplomáticas rusas, que agregaron sus propios memes a la mezcla. Fue impulsado adicionalmente por RT, que utilizó una redacción cuidadosamente vaga y tweets selectivos para que pareciera más significativo de lo que realmente era.
Cada uno de estos puntos de venta afirma ser una institución separada; en una democracia genuina y pluralista en la que los medios son editorialmente independientes del estado, lo serían. Sin embargo, su independencia es una fachada: en esta evidencia, trabajan juntos para promover una narrativa común.
La fábrica de troll, RT y las misiones diplomáticas de Rusia son parte de un esfuerzo de comunicaciones estatales de espectro completo. Para comprender las operaciones de información e influencia de Rusia, es importante entender ese enfoque.
Yochai Benkler: El ecosistema mediático de la derecha Shorenstein Center.
Yochai Benkler, profesor de la Facultad de Derecho de Harvard y co-director del Centro Berkman Klein para Internet y Sociedad en Harvard, habló de su reciente estudio sobre los medios conservadores y la elección de 2016, que analizó más de 1,25 millones de artículos publicados en línea Entre el 1 de abril de 2015 y el Día de la Elección, 2016. A continuación se presentan algunos aspectos destacados de la conversación, así como la grabación de audio.
"Breitbart no estaba solo, sino que estaba enredado en una red de sitios [tales como Infowars y The Daily Caller] ... estos son los nodos centrales en la red de propaganda que fue la base de la subida de Donald Trump. Fue dirigido no sólo para capturar la Casa Blanca, sino ante todo para capturar al Partido Republicano ".
"Esto no es sólo de interés histórico, esta red está ahora lista y salta para apoyar el mensaje del Presidente ... todos están trabajando juntos y luego son amplificados y replicados por Fox News, que es la salida que en última instancia captura, como Sabemos por el estudio de Pew, el 40 por ciento de los votantes de Trump ".
Los nuevos medios derechistas
"Aparte de Rush Limbaugh ... casi no existía nada antes de que Fox se creara en 1996. Nada de esto existía cuando Ronald Reagan fue elegido, nada de esto existía cuando Bill Clinton fue elegido, es todo nuevo. Comienza con AM talk radio después de que la Doctrina de Equidad fue derogada en 1985, se mueve en el 96 cuando el cable llega a suficientes hogares que la estrategia de mercado de apuntar estrechamente a un público políticamente comprometido se hace viable. Entonces la mayor parte de lo que estamos viendo aquí, aparte de Breitbart, que es en 2007, surge después de Obama como la fundación de la Tea Party ".
Polarización asimétrica
La asimetría sugiere fuertemente que no estamos mirando a un fenómeno tecnológicamente determinado, sino más bien a un fenómeno político, cultural, socialmente impulsado ...
"Hay un espejo izquierdo, por así decirlo, pero en gran parte se creó en 2002 hasta el 2008. Netroots es la fuente de gran parte de la emoción sobre la posibilidad de la organización progresiva en línea, y está mucho más estrechamente vinculada y esta es la Punto crítico- a las fuentes convencionales tradicionales que estaban allí en 1980 cuando Walter Cronkite seguía firmando ".
"Lo que ves es un modelo claramente asimétrico de polarización. En los debates sobre la polarización en el Congreso y sobre la polarización mediática, y la idea de burbujas de filtro, hay un sentido de un fenómeno general simétrico, tecnológicamente impulsado, particularmente en el lado de los medios de comunicación. La asimetría sugiere fuertemente que no estamos mirando un fenómeno tecnológicamente determinado, sino más bien un fenómeno político, cultural y socialmente impulsado, que utiliza las ventajas de la tecnología para saltar sobre los guardianes tradicionales y crear su propio ecosistema de medios ".
Cómo los medios derechistas formaron narrativas más amplias de los medios de comunicación
"Un factor crítico aquí es la capacidad de dar forma al discurso en los medios tradicionales ... un resultado muy claro que usted ve es que la cobertura de Clinton estaba sobre todo en escándalos, y muy poco en sustancia, mientras que Trump consiguió sus ediciones mucho más que escándalos . En concreto, se centró en los correos electrónicos de Clinton, en segundo lugar en la Fundación Clinton ... mientras que para Trump, es la inmigración, los empleos y hasta el comercio, más que cualquier otro tema de escándalo ... La inmigración es el tema de Breitbart, no Fox News. Breitbart forzó la inmigración en el GOP, ellos no la quitaron. "
Los retos futuros y el papel del periodismo
Nada hace que la gente se preocupe por una institución más que por el claro sentido de que están a punto de perderla ...
"Si pensamos que las noticias falsas son el problema, hacemos preguntas como, ¿cómo pueden Facebook y Google cambiar sus algoritmos de publicidad para disuadir a la gente que intenta ganar dinero? O, ¿cómo creamos una bandera de Facebook para que los usuarios adviertan de noticias falsas? Esto puede no ser totalmente irrelevante, pero fundamentalmente, cuando entendemos que estamos en un universo de desinformación y propaganda, nos enfrentamos a la pregunta básica de: ¿Cómo mantener una democracia en presencia de esfuerzos intencionales para negar la validez de la base Métodos de definición de la gama de desacuerdo razonable? ¿Cómo podemos mantener la democracia cuando todas las profesiones que afirman tener una base prepolítica para el conocimiento compartido, sobre la cual los ciudadanos pueden unirse para entender su destino compartido, son desafiadas? Son los periodistas, los científicos, los jueces, cada uno de estos mecanismos de juicio independiente son cuestionados. ¿Cómo podemos responsabilizar a los gobiernos cuando se pierde el conocimiento compartido de ciertos hechos? "
"Enfatizaré un hecho optimista de todo esto. Los medios tradicionales siguen manteniendo un papel, no quizás entre las élites de la derecha radical, sino en la amplia población. Y hay una oportunidad para una edad de oro del periodismo ahora, porque nada hace que la gente se preocupe por una institución más que la clara sensación de que están a punto de perderla, y las consecuencias de perderla. Especialmente para los periodistas ... entender su papel profesional no sólo como contar una buena historia, no sólo como ganar dinero para su organización, sino fundamentalmente, sobre ser una fuente importante de verdad independiente sobre la cual una democracia puede ser construida, nunca, o al menos No durante mucho tiempo, tan palpable en los Estados Unidos ".
Artículo y foto de Nilagia McCoy del Centro Shorenstein.
Primera evidencia de que los robots sociales desempeñan un papel importante en la difusión de noticias falsas
Las cuentas automatizadas están siendo programadas para difundir noticias falsas, de acuerdo con el primer estudio sistemático de la forma en que se despliega la desinformación en línea
Las noticias falsas y la forma en que se extiende en las redes sociales está emergiendo como una de las grandes amenazas para la sociedad moderna. En los últimos tiempos, las noticias falsas se han utilizado para manipular los mercados de valores, hacer que la gente elija opciones de salud peligrosas, y manipular las elecciones, incluyendo las elecciones presidenciales del año pasado en los EE.UU.
Claramente, existe una necesidad urgente de una manera de limitar la difusión de noticias falsas. Y eso plantea una pregunta importante: ¿cómo se difunde la falsa noticia en primer lugar?
Hoy recibimos una respuesta de las clases gracias al trabajo de Chengcheng Shao y amigos en la Universidad de Indiana en Bloomington. Por primera vez, estos chicos han estudiado sistemáticamente cómo una falsa noticia se extiende en Twitter y proporcionan una ventana única en este mundo turbio. Su trabajo sugiere estrategias claras para controlar esta epidemia.
Red de difusión para el artículo titulado "Spirit cooking: Clinton campaign chairman practices bizarre occult ritual,", publicado por el sitio de conspiración Infowars.com cuatro días antes de las elecciones estadounidenses de 2016.
Se trata de la publicación de noticias falsas o engañosas. Tan generalizado se ha convertido en que un número de organizaciones independientes de verificación de hechos han surgido para establecer la veracidad de la información en línea. Estos incluyen snopes.com, politifact.com, y factcheck.org.
Estos sitios enumeran 122 Web site que rutinariamente publican noticias falsas. Estos falsos sitios de noticias incluyen infowars.com, breitbart.com, politicususa.com, y theonion.com. "No excluimos la sátira porque muchas fuentes de noticias falsas etiquetan su contenido como satírico, haciendo la distinción problemática", dicen Shao y coautores.
Shao y coautores supervisaron cerca de 400.000 reclamaciones hechas por estos sitios web y estudiaron la forma en que se propagan a través de Twitter. Lo hicieron recolectando unos 14 millones de publicaciones en Twitter que mencionaban estas afirmaciones.
Al mismo tiempo, el equipo supervisó unas 15.000 historias escritas por las organizaciones de verificación de hechos y más de un millón de publicaciones de Twitter que las mencionan.
Después, Shao y sus coautores miraron las cuentas de Twitter que difundieron esta noticia, recogiendo hasta 200 de los tweets más recientes de cada cuenta. De esta manera, el equipo podría estudiar el comportamiento de Twitter y averiguar si las cuentas eran más probablemente ejecutadas por seres humanos o por bots.
Habiendo hecho un juicio sobre la propiedad de cada cuenta, el equipo finalmente miró la forma en que los humanos y los bots difunden falsas noticias y noticias comprobadas.
Para hacer todo esto, el equipo desarrolló dos plataformas en línea. El primero, llamado Hoaxy, rastrea afirmaciones de falsas noticias, y el segundo, Bolometer, determina si un conteo de Twitter es más probable que sea ejecutado por un humano o un bot.
Los resultados de este trabajo hacen interesante la lectura. "Las cuentas que propagan activamente la desinformación son significativamente más propensas a ser bots", dicen Shao y coautores. "Los bots sociales juegan un papel clave en la difusión de noticias falsas".
Shad y co dicen que los bots juegan un papel particularmente significativo en la difusión de noticias falsas poco después de su publicación. Es más, estos robots están programados para dirigir sus tweets a usuarios influyentes. "Las cuentas automatizadas son particularmente activas en las primeras fases de propagación de las reclamaciones virales, y tienden a dirigirse a los usuarios influyentes", dicen Shao y coautores.
Es una estrategia inteligente. Es mucho más probable que la información se vuelva viral cuando pasa a través de nodos altamente conectados en una red social. Así que la orientación de estos usuarios influyentes es clave. Los seres humanos pueden ser fácilmente engañados por cuentas automatizadas y sin querer pueden sembrar la difusión de noticias falsas (algunos humanos lo hacen con acierto, por supuesto).
"Estos resultados sugieren que la contención de los bots sociales puede ser una estrategia eficaz para mitigar la propagación de la desinformación en línea", dicen Shao y coautores.
Esa es una conclusión interesante, pero la forma en que se puede hacer no está clara.
Una forma sería prohibir ciertos tipos de bots sociales. Pero esta es una ruta llena de dificultades. Hay muchos bots sociales que desempeñan un papel importante en la difusión de información legítima.
Y la legislación no supera las fronteras internacionales. Dada la forma en que las potencias extranjeras han manipulado la difusión de noticias falsas, es difícil ver cómo funcionaría.
Sin embargo, la difusión de noticias falsas es una fuente legítima e importante de preocupación pública. Comprender cómo se propaga es la primera etapa para abordarlo.