Mostrando entradas con la etiqueta Rusia. Mostrar todas las entradas
Mostrando entradas con la etiqueta Rusia. Mostrar todas las entradas

viernes, 1 de febrero de 2019

Facebook y Twitter eliminan miles de cuentas rusas, venezolanas e iraníes

Facebook y Twitter eliminaron miles de cuentas falsas vinculadas a Rusia, Venezuela e Irán

Las cuentas mostraban un comportamiento falso y coordinado en Facebook e Instagram y estaban dirigidas desde Irán; Twitter identificó a Rusia como el origen de otras

Infobae



  Twitter y Facebook anunciaron al mismo tiempo que dieron de baja cuentas falsas vinculadas a Rusia, Venezuela, Irán y Bangladesh.

El último día de enero por la tarde Facebook y Twitter hicieron anuncios simultáneos sobre el mismo problema: ambas plataformas cerraron cuentas falsas vinculadas a Rusia, Venezuela, Irán y Bangladesh.

La empresa de Mark Zuckerberg anunció la suspensión de una red de cuentas que —explicó— mostraban "un comportamiento falso y coordinado en Facebook e Instagram" y estaban "dirigidas desde Irán".

Casi a la vez, Twitter anunció que había suspendido lo que calificó de redes de cuentas "de operaciones extranjeras de información" potencialmente conectadas con Irán, Venezuela y Rusia. En su sitio, la empresa dijo que confirmó que las cuentas vinculadas a Rusia se habían originado en ese país pero que no tenía certeza de que fueran administradas por Internet Research Agency, el grupo vinculado al Kremlin.

 

Más de 1.000 cuentas ubicadas en Venezuela participaron de "una campaña de influencia apoyada por el estado" que apuntó a públicos locales, agregó. También señaló que "identificó y suspendió" 2.617 cuentas maliciosas adicionales en Irán.

Facebook, por su parte, anunció en su sitio que cerró "783 páginas, grupos y cuentas por participar en comportamientos falsos y coordinados vinculados con Irán". En algunos casos, ilustró, "reutilizaban contenidos de los medios estatales iraníes" y se dirigían a "gente en todo el mundo, aunque más especialmente en Medio Oriente y el sudeste asiático".

Se trató de "operaciones relacionadas entre sí y localizadas, que utilizaron tácticas similares al crear redes de cuentas para confundir a otros sobre quiénes eran y qué hacían", describió la denuncia.

Los cientos de cuentas de origen ruso suspendidas en Twitter enviaron en conjunto casi un millón de mensajes, en su mayoría sobre política estadounidense. Se especula que trataron de intervenir en la opinión de los votantes durante las elecciones parlamentarias de noviembre de 2018, sobre las cuales tuitearon más de 73.000 veces, según la red social, con hashtags como #MAGA e #IslamIsTheProblem.

sábado, 10 de noviembre de 2018

Usando Twitter para desinformar

Guerra de información: Twitter trae la dezinformatsiya al mundo

Strategy Page




Twitter, la popular aplicación de mensajería, comenzó en 2006 y pronto se convirtió en una herramienta favorita para las operaciones de dezinformatsiya (deinformación) de Rusia. Eso fue porque era más fácil ocultar la participación rusa. Los mensajes se limitaron a 140 caracteres, lo que significa que los operativos dezinformatsiya rusos podrían ser convincentes, incluso si su inglés escrito no era fluido. Este aspecto de Twitter y su relación con las operaciones dezinformatsiya rusas recibieron poca atención en Occidente hasta 2016, e incluso entonces se describió de forma incorrecta. Pero a menudo eso se debía a la política local y al uso de la desinformación. Mientras tanto, Twitter se ha convertido en una potencia de los medios. Seis años después de que Twitter comenzara, tenían más de 100 millones de usuarios que publicaban más de 340 millones de tweets por día. En ese momento, las operaciones de desinformación de Rusia utilizaban cada vez más Twitter como su principal plataforma de mensajería internacional. Era barato, anónimo y los rusos con conocimientos básicos podían usarlo convincentemente.

Cómo surgió esta dependencia rusa de la dezinformatsiya fue algo como esto. Durante la Guerra Fría, los gobernantes comunistas de la Unión Soviética inventaron o expandieron todo tipo de técnicas de propaganda, engaño y adoctrinamiento que todavía son ampliamente copiadas (y con frecuencia condenadas) porque funcionan. Al menos a veces. Al final, todo lo que dezinformatsiya no impidió que el imperio soviético colapsara y se desintegrara. Algunas de esas técnicas se han actualizado y continúan sirviendo a los gobernantes actuales de Rusia. Uno de ellos está relacionado con Internet y se cree que es particularmente útil (o al menos se cree que lo es) en Rusia y en todo el mundo.

La forma en que funcionó la dezinformatsiya rusa en los Estados Unidos se hizo más fácil de entender en octubre de 2018, cuando Twitter lanzó un archivo de 350 GB con más de 10 millones de tweets de 3,800 cuentas pertenecientes a organizaciones rusas que participan en la manipulación de los medios. También hubo un millón de tweets de trolls iraníes que buscaban influir en la opinión pública. Estos tweets datan de 2013. En realidad, Rusia ha estado utilizando técnicas de guerra de información como esta durante más de una década e Irán siguió el ejemplo ruso.

Desde el principio, el término para los carteles de desinformación pagados de Rusia (comúnmente llamados "trolls") era el ejército de "50 rublos" o "50 centavos" y eran un problema conocido en los grupos de noticias y tableros de mensajes de Internet desde la década de los noventa.

Después de 2001, el uso ruso de la desinformación en línea creció, especialmente con la aparición de sitios de redes sociales como Twitter y Facebook. Los medios de comunicación en los Estados Unidos solo descubrieron la existencia de este ejército troll ruso en 2016. Para 2017, los medios estadounidenses descubrieron que los chinos e iraníes también estaban haciendo este tipo de cosas, pero no tan eficazmente como los rusos. Eso se debió a que China ha prohibido durante mucho tiempo Twitter (y ha sustituido a un clon local, muy monitoreado y censurado), mientras que los rusos siguen usando Twitter, principalmente en ruso. Pero hay un número mayor de rusos que hablan (o escriben) en inglés y que están desempleados y que conocen bien el Twitter que en el caso de China.

Twitter lanzó este archivo para investigadores civiles. Facebook también publica datos de cuentas de trolls extranjeros pero para una audiencia más restringida. Las agencias de inteligencia y el veterano BBS (sistema de tablón de anuncios) Usenet y los carteles de Internet han sabido de este trolling altamente organizado desde la década de 1980, pero nunca fue una gran noticia como lo es ahora. Eso es porque desde fines de 2016 ha habido frecuentes acusaciones de que Rusia interfiere en las elecciones estadounidenses. Esto se logró mediante el uso de mensajes dirigidos por el gobierno para ser publicados, en una escala masiva, en las redes sociales y otros sitios en línea. Un aspecto de esto que no atrajo mucha atención de los medios fue que esta técnica, y su uso por gobiernos extranjeros en los Estados Unidos, no era nada nuevo. Este tipo de cosas se han utilizado ampliamente en Internet durante más de una década y durante generaciones antes hubo "astroturfing" (creando un apoyo falso de "base" con una variedad de técnicas pre-Internet) y esfuerzos soviéticos más financiados llamados operaciones dezinformatsiya.

Aunque técnicamente una democracia, la Rusia moderna se ha convertido en otra dictadura. Esto se debe a que de las cenizas de la Unión Soviética surgió una oligarquía con suficiente dinero y habilidades de propaganda, sin mencionar el control de la mayoría de los medios de comunicación, para ser elegida y hacer que la mayoría de los rusos apoyen lo que quiere el nuevo gobierno. Una herramienta clave en esto fue el uso de paneles de mensajes basados ​​en Internet para moldear y manipular la opinión pública. Este tipo de cosas ha existido desde que Internet comenzó su crecimiento explosivo en 2001, ya que pasó de 500 millones de usuarios a cuatro mil millones ahora.

No pasó mucho tiempo antes de que muchos usuarios de Internet se dieran cuenta de que los mensajes publicados por propagandistas (o especialistas en relaciones públicas) aparecían en las redes sociales y en las áreas de mensajería a través de Internet. Esto fue especialmente cierto en China. Ahí es donde empezó todo; la idea de pagarles a los usuarios de Internet de manera discreta una pequeña tarifa para publicar las respuestas pro gubernamentales (o de la compañía) en los foros donde se critica o difama a alguna empresa o gobierno. Para algunos miembros del "50 Cent Party" original chino, se trataba de un trabajo de tiempo completo, que recibía hasta 50 centavos (dos yuanes) cada uno por hasta cien mensajes pro gubernamentales publicados al día, usando varias docenas de cuentas diferentes. Pero la mayoría de los carteles eran voluntarios o simplemente lo hicieron para ganar un poco de dinero extra. Si pudieras publicar en idiomas extranjeros, especialmente inglés coloquial, hiciste más. Muy pocos miembros del "Ejército de los 50 centavos" (como también se conocían los carteles de mercenarios) ganaban mucho dinero y la mayoría de ellos eran criticados por sus compañeros en línea como un grupo de trolls repugnantes (aquellos que dejan mensajes para molestar en lugar de informar o divertir) .



Para 2015, Rusia había convertido el trolling en Internet en una profesión en la que los trabajadores de tiempo completo cobraban entre $ 700 y $ 1,000 al mes (más los bonos por esfuerzos especialmente efectivos) y trabajaban en entornos de oficina en lugar de hacerlo desde casa. Estos trolls profesionales escriben principalmente en ruso, para alentar opiniones pro gubernamentales entre los usuarios de Internet rusos. El gobierno también tiene un programa internacional que paga mucho más debido a la necesidad de tener buenos conocimientos de idiomas extranjeros. Eso significa la capacidad de "escribir como un nativo" no solo en términos de gramática sino en términos de los idiomas de Internet únicos para cada idioma o país. La clave aquí es no ser un troll ruso sino un local. Eso fue mucho más fácil de hacer en Twitter.

Incluso antes de que Rusia convirtiera el trolling de Internet en una profesión, Israel inició este proceso en 2013 al establecer un programa especial de asistencia a la matrícula para estudiantes universitarios que accedieron a publicar regularmente mensajes en Internet para combatir el antisemitismo y la propaganda antiisraelí. Si bien Israel es el único en ser uno de los pocos países que admite hacer esto, muchos otros se han visto atrapados y continúan negando cualquier participación oficial. Un ejemplo es Corea del Norte, que Corea del Sur cree que ha tenido (al menos desde 2014) varios cientos de operativos que son básicamente "Simios de Internet" a tiempo completo, cuya única tarea es combatir los sentimientos contra Corea del Norte en las áreas de mensajes de Internet de Corea del Sur y Presiona la idea de que Corea del Norte es un lugar mejor para vivir de lo que realmente es.

En este momento, muchos usuarios de Internet reconocen e ignoran automáticamente los mensajes de pago y se desvían de su camino para enseñar a otros qué deben buscar. En Occidente, muchos moderadores de foros tienen herramientas que les permiten eliminar instantáneamente las cuentas de Internet Apes (carteles pagados) y todas sus publicaciones pagadas. En China puedes ser arrestado por hacer eso, pero no solo por ignorar la propaganda pagada. Israel deja que los "operadores" revelen que son semioficiales o que se quedan callados al respecto. Al utilizar estudiantes universitarios cuidadosamente seleccionados, los israelíes pueden evitar la detección y entregar mensajes más efectivos. Esto podría ser una ventaja clave de este programa.

Los chinos comenzaron a usar esta práctica en 2005 cuando los funcionarios de propaganda buscaron formas de lidiar con la creciente actividad antigubernamental en los foros de Internet. Una idea fue organizar los carteles pro-gubernamentales ya disponibles. La burocracia de propaganda (que es enorme en China) lo hizo y consiguió tantos voluntarios que pronto desarrollaron una prueba para seleccionar los carteles más capaces y también organizaron clases de capacitación para mejorar las habilidades de estos voluntarios. Se ofrecieron bonos en efectivo por el trabajo más efectivo. En un momento dado, el gobierno tenía casi 100,000 voluntarios y pósters pagados operando. Esto evolucionó rápidamente en el ejército de 50 centavos. Para 2010, el gobierno ruso adoptó la práctica y en poco tiempo existió el Ejército de 50 Rublos en Rusia.

Los chinos finalmente se dieron cuenta de que la calidad era mejor que la cantidad porque los pósters menos articulados eran fáciles de detectar y ridiculizar, como miembros del "50 Cent Army", "Internet Apes" o "Water" (debido a las cuentas zombie utilizadas para la publicación ) Ejército ". Este fue especialmente el caso fuera de China. Dentro de China la gente acaba de aprender a ignorar los carteles del gobierno. Pero los simios de Internet más hábiles a menudo parecen ser convincentes para muchas personas que siguen las discusiones basadas en Internet. El 50 Cent Army era a menudo una inversión que valía la pena, especialmente cuando se usaban afiches experimentados y expertos. En esta área, la cantidad realmente no coincide con la calidad.

En los Estados Unidos, se adoptaron las mismas técnicas para impulsar a los candidatos políticos o productos comerciales. Allí se llamaba "marketing viral". La CIA ha utilizado una técnica similar para contrarrestar la actividad antiamericana o pro terrorista en Internet. Esta actividad también hizo más fácil detectar posibles terroristas o informantes potenciales.

Rusia adoptó la técnica china de aprovechar el entusiasmo de los voluntarios progubernamentales. Como sucedió en otros lugares, los blogueros y los carteles con muchos seguidores también fueron tentados a ser pro gubernamentales, por una tarifa (o quizás debido a algunas amenazas).

Esta práctica de comprar atención favorable en los medios no es nada nuevo y tiene siglos de antigüedad. Los EE. UU. son únicos en que, durante aproximadamente un siglo, los medios de comunicación estadounidenses estuvieron en gran parte libres de este soborno flagrante. Pero en la mayor parte del mundo, un periodista inteligente atrae rápidamente la atención de las personas que pagarán algunos comentarios favorables. No es ningún secreto, aunque muchos periodistas insisten en que no son comprados.

sábado, 20 de octubre de 2018

Operaciones de desinformación rusas en Twitter en 2016

Los Trolls internos: Cómo las operaciones de información rusas se infiltraron en las comunidades en línea en 2016



 Kate Starbird - Medium 

Para los investigadores en operaciones de desinformación e información en línea, ha sido una semana interesante. El miércoles, Twitter lanzó un archivo de tweets compartidos por cuentas de Internet Research Agency (IRA), una organización en San Petersburgo, Rusia, con supuestos vínculos con el aparato de inteligencia del gobierno ruso. Este archivo de datos proporciona una nueva ventana a las operaciones de información recientes de Rusia. El viernes, el Departamento de Justicia de los Estados Unidos presentó cargos contra una ciudadana rusa por su papel en las operaciones en curso y proporcionó nuevos detalles sobre sus estrategias y objetivos.

Las operaciones de información explotan los sistemas de información (como las plataformas de medios sociales) para manipular las audiencias con fines políticos y estratégicos; en este caso, uno de los objetivos era influir en la elección de los EE. UU. en 2016.

En nuestro laboratorio en la Universidad de Washington (UW), hemos estado estudiando accidentalmente estas operaciones de información desde principios de 2016. Estos desarrollos recientes ofrecen un nuevo contexto para nuestra investigación, y confirman de muchas maneras lo que pensábamos que estábamos viendo, en la intersección de las operaciones de información y el discurso político en los Estados Unidos, desde una perspectiva muy diferente.

Hace unos años, el estudiante de pregrado de la Universidad de Washington (y ahora doctorado) Leo Stewart inició un proyecto para estudiar conversaciones en línea sobre el movimiento #BlackLivesMatter. Esta investigación creció hasta convertirse en un proyecto de colaboración, conmigo, el estudiante de doctorado Ahmer Arif y la profesora asistente de iSchool Emma Spiro. A medida que la investigación evolucionó, comenzamos a centrarnos en "enmarcar concursos" dentro de lo que resultó ser una conversación en línea muy politizada.

El concepto de encuadre o marco tiene raíces interesantes y definiciones que compiten entre sí (ver Goffman, Entman, Benford y Snow). En términos simples, un marco es una forma de ver y comprender el mundo que nos ayuda a interpretar nueva información. Cada uno de nosotros tiene un conjunto de marcos que utilizamos para dar sentido a lo que vemos, oímos y experimentamos. Los marcos existen dentro de los individuos, pero también pueden ser compartidos. Enmarcar es el proceso de dar forma a los marcos de otras personas; en otras palabras, guiar cómo otras personas interpretan la información nueva. Podemos hablar sobre la actividad de enmarcar, ya que se lleva a cabo dentro de las aulas o mediante transmisiones de noticias, anuncios políticos o una conversación con un amigo que lo ayuda a comprender por qué es tan importante votar. Como probablemente pueda suponer, el encuadre puede ser una poderosa herramienta política.

Los concursos de engaños se producen cuando dos (o más) grupos intentan promover marcos o puntos de vista diferentes, por ejemplo, en relación con un evento histórico específico o un problema social emergente. Piense en las imágenes recientes del grupo de migrantes centroamericanos que intentan cruzar la frontera hacia México. Un marco para estas imágenes ve a estas personas como refugiados que intentan escapar de la pobreza y la violencia, y describe su movimiento coordinado (en la "caravana") como un método para garantizar su seguridad mientras viajan cientos de kilómetros con la esperanza de una vida mejor. Un marco de la competencia ve a esta caravana como un grupo caótico de invasores extranjeros, "incluidos muchos criminales", que marcha hacia los Estados Unidos (debido a las débiles leyes de inmigración creadas por los demócratas), donde causarán daños económicos y perpetrarán violencia. Estos son dos marcos distintos y podemos ver cómo las personas con motivos políticos están trabajando para refinar, resaltar y expandir su marco, y para socavar o ahogar el otro marco.

En 2017, publicamos un artículo que examina los concursos de marcos en Twitter relacionados con un subconjunto de conversaciones de #BlackLivesMatter que tuvieron lugar alrededor de los eventos de filmación en 2016. Consulte nuestro documento para ver los detalles metodológicos y la amplitud de los hallazgos. En ese trabajo, primero tomamos una vista de nivel meta de más de 66,000 tweets y 8,500 cuentas que eran altamente activas en esa conversación, creando un grafo de red (a continuación) basado en una métrica de "audiencia compartida" que nos permitió agrupar cuentas Basado en tener conjuntos similares de seguidores.

Figura 1. Grafo de cuentas de la “audiencia compartida” en las conversaciones de Twitter sobre los eventos #BlackLivesMatter y Shooting en 2016

Ese grafo reveló que, estructuralmente, la conversación de #BlackLivesMatter en Twitter tenía dos grupos o comunidades de cuentas distintas: una sobre la "izquierda" política que apoyaba a #BlackLivesMatter y otra sobre la "derecha" política que criticaba a #BlackLivesMatter. (Para obtener más información sobre los colores dentro del grupo a la derecha, lea el documento).

A continuación, realizamos un análisis cualitativo de los diferentes contenidos que compartían las cuentas en los dos lados diferentes de la conversación. Contenido, por ejemplo, como estos tweets (desde el lado izquierdo del grafo):


Tweet: Cops called elderly Black man the n-word before shooting him to death #KillerCops #BlackLivesMatter

Tweet: WHERE’S ALL THE #BlueLivesMatter PEOPLE?? 2 POLICE OFFICERS SHOT BY 2 WHITE MEN, BOTH SHOOTERS IN CUSTODY NOT DEAD.

Y estos tweets (desde el lado derecho del grafo):

Tweet: Nothing Says #BlackLivesMatter like mass looting convenience stores & shooting ppl over the death of an armed thug.

Tweet: What is this world coming to when you can’t aim a gun at some cops without them shooting you? #BlackLivesMatter.

En estos tweets, puedes ver los tipos de "concursos de engaños" que se llevaban a cabo. A la izquierda, el contenido se unió alrededor de los marcos que destacaban los casos en los que los afroamericanos eran víctimas de violencia policial, caracterizando esto como una forma de racismo sistémico e injusticia en curso. A la derecha, el contenido apoyaba marcos que destacaban la violencia dentro de la comunidad afroamericana, argumentando implícitamente que la policía actuaba razonablemente en el uso de la violencia. También puede ver cómo el contenido de la derecha intenta contrarrestar y socavar explícitamente el movimiento #BlackLivesMatter y sus marcos y, a su vez, cómo reacciona el contenido de la izquierda e intenta impugnar los contramarcos de la derecha.

Nuestra investigación reveló varios datos interesantes acerca de la estructura de los dos grupos distintos y la naturaleza del activismo "de base" que conforma ambos lados de la conversación. Una vez más, tendrás que leer el documento para obtener más información (ver abajo de este párrafo). Pero a un alto nivel, dos de nuestros principales puntos de partida fueron 1) cuán divididas estaban esas dos comunidades; y 2) cuán tóxico era gran parte del contenido.



Ese primer artículo fue aceptado para su publicación en otoño de 2017; terminamos la versión final a principios de octubre. Y entonces las cosas se pusieron interesantes.

Unas semanas más tarde, en noviembre de 2017, el Comité de Inteligencia de la Cámara de Representantes publicó una lista de cuentas que Twitter les dio, que se encontraron asociadas con la Agencia de Investigación de Internet (IRA) de Rusia y su campaña de influencia dirigida a la elección de los EE. UU. Las actividades de estas cuentas, las operaciones de información de las que formaban parte, se habían producido al mismo tiempo que las conversaciones politizadas que habíamos estado estudiando tan de cerca.

Al revisar la lista, notamos que reconocimos varios nombres de cuenta. Por lo tanto, decidimos realizar una verificación cruzada de la lista de cuentas con las cuentas en nuestro conjunto de datos #BlackLivesMatter. De hecho, docenas de cuentas en la lista aparecieron en nuestros datos. Algunas, como @ Crystal1Johnson y @TEN_GOP, estaban entre las cuentas más retwiteadas en nuestro análisis. Y algunos de los ejemplos de tweets que habíamos presentado en nuestro artículo anterior, incluidos algunos de los tweets más problemáticos, no fueron publicados por activistas "reales" de #BlackLivesMatter o #BlueLivesMatter, sino por cuentas de IRA.

Para obtener una mejor visión de cómo las cuentas IRA participaron en la conversación de Twitter #BlackLivesMatter, creamos otro grafo de red (a continuación) utilizando los patrones de retweet de las cuentas. Al igual que en el grafo anterior, vimos dos grupos diferentes de cuentas que tendían a retuitear otras cuentas en su grupo, pero no las cuentas en el otro grupo. Nuevamente, había un grupo de cuentas (a la izquierda, en magenta) que era pro-BlackLivesMatter y liberal / demócrata, y un grupo (a la derecha, en verde) que era anti-BlackLivesMatter y conservador / republicano.



Figura 2. Grafo de la red de retweets de cuentas en las conversaciones de Twitter sobre los eventos #BlackLivesMatter y Shooting en 2016

A continuación, identificamos y destacamos las cuentas que se identificaron como parte de las operaciones de información de la IRA. El grafo, en toda su espeluznante gloria, está abajo, con las cuentas IRA en Orange y otras cuentas en azul.


Figura 3. Grafo de la red retweets más cuentas IRA Troll (en naranja)

Como puede ver, las cuentas IRA habían personificado a activistas en ambos lados de la conversación. A la izquierda estaban las cuentas de IRA como @ Crystal1Johnson, @gloed_up y @BleepThePolice que representaron a las personas de activistas afroamericanos que apoyaron el movimiento #BlackLivesMatter. A la derecha estaban cuentas de IRA como @TEN_GOP, @USA_Gunslinger y @SouthLoneStar que pretendían ser ciudadanos o grupos políticos conservadores de los Estados Unidos que criticaban el movimiento #BlackLivesMatter.

El estudiante de doctorado Ahmer Arif realizó un profundo análisis cualitativo de las cuentas de IRA activas en esta conversación: estudió sus perfiles y tweets para comprender cómo elaboraron y mantuvieron cuidadosamente a sus personas. Le recomiendo que lea ese documento (especialmente los Resultados y la Discusión; el trabajo se reproduce al final de este párrafo). Entre otras observaciones, Ahmer describió cómo (como persona de inclinación izquierda que apoyaba #BlackLivesMatter) fue muy fácil problematizar gran parte del contenido de las cuentas en el lado "derecho" del grafo, parte de ese contenido, que incluía Las declaraciones e imágenes racistas y explícitamente antiinmigrantes fueron profundamente perturbadoras. Pero de alguna manera estaba más preocupado por su reacción al contenido IRA del lado izquierdo del grafo, contenido que a menudo se alineaba con sus propios marcos. A veces, este contenido lo dejó dudoso sobre si realmente se trataba de propaganda.



Esto subraya el poder y el matiz de estas estrategias. Estos agentes del IRA estaban representando caricaturas de ciudadanos políticamente activos de los Estados Unidos. En algunos casos, estas fueron caricaturas burdas de los peores tipos de actores en línea, utilizando la retórica más tóxica. Pero en otros casos, estas cuentas parecían personas comunes a nosotros, personas que se preocupan por las cosas que nos importan, personas que quieren las cosas que queremos, personas que comparten nuestros valores y marcos. Estos sugieren dos aspectos diferentes de estas operaciones de información.

Primero, estas operaciones de información nos apuntan dentro de nuestras comunidades en línea: los lugares a los que vamos para escuchar nuestras voces, hacer conexiones sociales y organizar acciones políticas. Se están infiltrando en estas comunidades actuando como otros miembros de la comunidad, desarrollando confianza, reuniendo audiencias. En segundo lugar, estas operaciones comienzan a aprovechar esa confianza para diferentes objetivos, para orientar a esas comunidades hacia los objetivos estratégicos de los operadores (en este caso, el gobierno ruso).
Uno de estos objetivos es "sembrar división" - para poner presión en las fallas en nuestra sociedad. Una sociedad dividida que se vuelve contra sí misma, que no puede unirse y encontrar un terreno común, es una que se manipula fácilmente. Observe cómo las cuentas de color naranja en el grafo (Figura 3) se encuentran en el exterior de los grupos: tal vez pueda imaginarlos literalmente separando a las dos comunidades. Los agentes rusos no crearon una división política en los Estados Unidos, pero estaban trabajando para alentarla.

El segundo objetivo es formar a estas comunidades hacia sus otros objetivos estratégicos. No es sorprendente que, considerando lo que ahora sabemos sobre su estrategia 2016, las cuentas IRA a la derecha en este grafo convergieron en apoyo de Donald Trump. Su actividad a la izquierda es más interesante. Como habíamos discutido en nuestro artículo anterior (escrito antes de conocer las actividades de IRA), las cuentas en el grupo pro # BlackLivesMatter de la izquierda estaban muy divididas en el sentimiento acerca de Hillary Clinton y la elección de 2016. Cuando nos fijamos específicamente en las cuentas IRA de la izquierda, encontramos que criticaban constantemente a Hillary Clinton, destacando las declaraciones anteriores que percibían como racistas y alentando a las personas de izquierda que no votaban por ella. Por lo tanto, podemos ver las cuentas IRA utilizando dos estrategias diferentes en los diferentes lados de la gráfica, pero con el mismo objetivo (de elegir a Donald Trump).

La conversación #BlackLivesMatter no es la única conversación política a la que se dirige el IRA. Con los nuevos datos proporcionados por Twitter a principios de esta semana, podemos ver que hubo varias comunidades de conversación en las que participaron, desde derechos de armas hasta temas de inmigración y debates sobre vacunas. Dando un paso atrás y teniendo en cuenta estos puntos de vista de los datos, debemos tener cuidado, tanto en el caso de #BlackLivesMatter como en estos otros públicos de problemas, para resistir la tentación de decir eso, porque estos movimientos o comunidades fueron atacados por las operaciones de información rusas. , que por lo tanto son ilegítimos. El hecho de que las cuentas IRA enviaran mensajes que apoyen a #BlackLivesMatter no significa que A) que la eliminación de la injusticia racial en los Estados Unidos esté alineada con los objetivos estratégicos de Rusia; o B) que #BlackLivesMatter es un brazo del gobierno ruso. (Los agentes de la IRA también enviaron mensajes diciendo exactamente lo contrario, por lo que podemos suponer que son como máximo ambivalentes). Si acepta esto, también debería poder pensar de manera similar sobre las actividades de la IRA que respaldan los derechos de las armas y terminan con la inmigración ilegal en los Estados Unidos. Es probable que Rusia no se preocupe por la mayoría de los problemas domésticos en los Estados Unidos. Su participación en estas conversaciones tiene un conjunto diferente de objetivos: socavar a los Estados Unidos dividiéndonos, erosionar nuestra confianza en la democracia (y otras instituciones) y apoyar resultados políticos específicos Eso debilita nuestras posiciones estratégicas y fortalece las suyas. Esos son los objetivos de sus operaciones de información.

Una de las cosas más sorprendentes de la era de Internet es la forma en que nos permite unirnos, junto con las personas de al lado, en todo el país y en todo el mundo, y trabajar juntos para lograr causas compartidas. Hemos visto los aspectos positivos de esto con el voluntariado digital durante eventos de desastre y activismo político en línea durante eventos como la Primavera Árabe. Pero algunos de los mismos mecanismos que hacen que la organización en línea sea tan poderosa también nos hacen particularmente vulnerables, en estos espacios, a tácticas como las que usa el IRA. Transmitir las recomendaciones de Ahmer Arif, si pudiéramos dejar a los lectores con un solo objetivo, es ser más reflexivos acerca de cómo interactuamos con la información en línea (y en otros lugares), para sintonizar con cómo esta información nos afecta (emocionalmente) y para considerarla. cómo las personas que buscan manipularnos (por ejemplo, moldeando nuestros marcos) no nos están simplemente gritando desde el "otro lado" de estas divisiones políticas, sino que cada vez más intentan cultivarnos y darnos forma desde nuestras propias comunidades.

miércoles, 21 de marzo de 2018

Los rusos usaron cuentas chavistas durante la crisis catalana

La trama rusa empleó redes chavistas para agravar la crisis catalana

Un análisis de más de cinco millones de mensajes de la Universidad George Washington revela que RT y Sputnik usaron miles de cuentas para propagar una imagen negativa de España antes y después del 1-O

La trama rusa empleó redes chavistas para agravar la crisis catalana

David Alandete || El País




Dos medios del Kremlin, RT y Sputnik, se valieron de un elevadísimo número de cuentas en redes sociales en el entorno del chavismo y Venezuela para propagar una imagen negativa de España en las jornadas anteriores y posteriores al referéndum del 1 de octubre, según un pormenorizado análisis de más de cinco millones de mensajes de la universidad George Washington, en EE UU. El informe advierte de la “grave crisis de reputación, política y económica en España y en la UE”.

La principal conclusión del estudio es que los líderes políticos y las instituciones tradicionales han perdido peso a la hora de influir en la opinión pública. Su lugar lo han ocupado otros actores, mucho más difíciles de seguir y controlar, y que ya no se circunscriben al ámbito político y mediático de un solo país. En el caso del pulso soberanista catalán, la narrativa de los partidos constitucionalistas en el Gobierno y en la oposición quedó reducida por una compleja red de mensajes originados en medios prorrusos y amplificados en parte por el chavismo.



Para el estudio se ha utilizado un software avanzado de medición y análisis de big data que utiliza tecnología española. Su autor, Javier Lesaca, es investigador visitante en la Escuela de Medios y Asuntos Públicos de la George Washington University. Ha analizado en total 5.029.877 mensajes en Twitter, Facebook y otras redes sociales que emplearon los términos Cataluña, Catalunya y Catalonia entre el 29 de septiembre y el 5 de octubre.

“Lo más sorprendente de la investigación ha sido descubrir todo un ejército de cuentas zombis perfectamente coordinadas que se dedican a compartir contenidos generados por RT y Sputnik en diversas conversaciones digitales, que van desde Siria y Estados Unidos hasta Cataluña”, asegura Lesaca. “Hay indicios para pensar que el patrón de disrupción digital que se ha detectado en debates digitales sobre las elecciones de Estados Unidos o el Brexit se ha producido también en Cataluña y que los actores de esta disrupción son los mismos”.

La trama rusa empleó redes chavistas para agravar la crisis catalana La red de injerencia rusa sitúa Cataluña entre sus prioridades para debilitar Europa
Desde la mesa del Consejo de Ministros se reconoció este viernes que el Gobierno tiene información contrastada de que en la crisis catalana ha habido mensajes disruptivos procedentes de “territorio ruso” y se añadió que había “de otros lugares”, informa Anabel Díez. Fuentes gubernamentales reconocieron posteriormente que con esos “otros lugares” se referían a Venezuela.

Un claro ejemplo: RT publicó múltiples noticias sobre Cataluña. Estas se difundieron luego en redes sociales, provocando una conversación con mensajes y respuestas en las que uno de los términos más empleados fue #VenezuelaSaludaACataluña, por encima de menciones a la OTAN, la UE o Julian Assange. En lo que respecta a Sputnik, la segunda noticia más compartida fue: “Maduro: Rajoy debe responder al mundo por lo que ha hecho en Cataluña”.

La mitad de las noticias compartidas por RT en las jornadas inmediatamente anteriores y posteriores al referéndum del 1 de octubre fueron sobre la supuesta violencia policial, con titulares como: “Fuertes vídeos: la brutal represión de la policía contra los votantes del referéndum catalán” o “Cataluña elige su destino entre porras y balas de goma”.

El análisis de los mensajes en redes sobre la crisis catalana revela que los dos medios rusos, financiados ambos por el Kremlin, lograron que sus enlaces se compartieran más que los de los medios públicos españoles EFE y RTVE, o que cabeceras privadas internacionales como The Guardian o CNN. Según concluye el informe, “los conglomerados mediáticos rusos RT y Sputnik han participado en una estrategia deliberada de disrupción en la conversación digital global sobre Cataluña”.


Es significativa la plataforma que emplearon para propagar y viralizar esos mensajes, según el análisis de Lesaca: la mayoría, un 32%, fueron cuentas chavistas o de Venezuela, seguidas por perfiles falsos o automatizados (25%), cuentas anónimas con coberturas reales que sólo se dedican a difundir contenido de RT y Sputnik (30%) y canales oficiales de estos dos medios (10%). Solo un 3% de la conversación obedeció a perfiles reales fuera de esos grupos de interés. Una de las cuentas más activas fue @MarinoEscalante en Twitter, que ha compartido enlaces de RT con mensajes como “Rajoy y el Rey franquista de #España ven la paja en el ojo de Maduro, pero no en #Cataluña”.

Esta procedencia queda confirmada por el análisis de las cuentas que a la hora de publicar mensajes en Twitter, Facebook y otras redes sociales hacen pública su geolocalización. Venezuela es su ubicación más común por detrás de España. De entre los que compartieron el contenido de RT sobre la crisis catalana, un 13,18% están en Venezuela.En el caso de Sputnik, son un 10,46%.

Como afirma el informe, la mayoría de perfiles digitales anónimos analizados “están asociados a cuentas o nodos que se originan en Venezuela y que claramente muestran su simpatía hacia el régimen de Nicolás Maduro, el Partido Socialista Unido de Venezuela o su líder [difunto] Hugo Chávez”. El estudio añade que “en algunos casos, se detecta que esas cuentas publican el mismo contenido al mismo tiempo, reforzando la hipótesis del empleo de robots”.

El empleo de los bots es crucial en este tipo de estrategias de disrupción: se crean noticias inventadas o con enfoques partidistas o manipulados. Luego se publican en algún foro, por oscuro que sea. Después, se difunden los mensajes en redes sociales y una verdadera legión de cuentas falsas procede a compartirlos de forma automática, haciendo que los algoritmos digitales les dediquen un lugar destacado.

Según Lesaca, “los sistemas democráticos tienen la obligación de investigar estos indicios e implementar métodos sistemáticos de monitoreo y respuesta frente a presuntas disrupciones de agentes extranjeros. Las guerras y conflictos internacionales se están librando ya en la opinión pública”.

UNA RED EN CUYO CENTRO ESTÁ VENEZUELA
El gran entramado de cuentas en redes sociales que controlan tanto Rusia como el chavismo logró que una determinada interpretación de la crisis catalana dominara la conversación global en foros como Twitter. Lo demuestra el gráfico que encabeza esta información, que identifica visualmente las cuentas más activas y las conexiones entre estas.
Esas informaciones, que habitualmente describen una supuesta brutalidad policial en el referéndum del 1 de octubre y que en ocasiones restaban importancia a que el referéndum hubiera sido ilegalizado por la justicia, fueron compartidas con mayor intensidad —los puntos rojos— por cuentas chavistas, que ocuparon el lugar central de la conversación social sobre la crisis en Cataluña.
Los vídeos más compartidos en esas redes, por ejemplo, fueron los que mostraban cargas policiales durante el referéndum, con mensajes alarmistas y en ocasiones con opiniones que referían a una supuesta carencia democrática del Estado español en esta crisis.
Es decir: hubo un esfuerzo consciente y coordinado por parte de esas cuentas en la órbita venezolana por amplificar al máximo las informaciones procedentes de los medios estatales rusos RT y Sputnik, algo que también hicieron activistas en la órbita rusa como Edward Snowden.
El estudio apunta la conclusión clara de esta estrategia: “La narrativa que generaron los grupos pro-independentistas, contraria al Gobierno de España, dominó la conversación de forma hegemónica en inglés, español y catalán”.

jueves, 15 de marzo de 2018

Los medios rusos RT y Sputnik participaron activamente en la crisis de Catalunya

RT y Sputnik fueron los mayores difusores de noticias sobre Cataluña por redes

Dos investigadores confirman las informaciones de EL PAÍS en el Massachusetts Institute of Technology



Alejandro Romero, de Alto Data Analytics, este lunes durante su charla en el MIT.

Amanda Mars | El País


RT y Sputnik, dos medios de comunicación rusos dependientes del Kremlin, multiplicaron la difusión de los contenidos relacionados con el movimiento independentista catalán durante los días previos y posteriores al referendo ilegal hasta convertirse en el cuarto difusor en redes y comunidades digitales, pese a no figurar ni entre los 25 primeros que más contenidos generaron al respecto, según una investigación llevada a cabo por Alejandro Romero, fundador de Alto Data Analytics, y Javier Lesaca, consultor de comunicación e investigador en la George Washington University.

Romero hizo esta presentación en el marco de la primera Conferencia sobre Ecosistemas de Medios, organizada por el Centro por los Medios Cívicos del Massachusetts Institute of Technology (MIT) y el Berkman Klein Center en Harvard. “El 2 de octubre [día posterior a la consulta] RT y Sputnik llegaron tener 1,7 veces más distribución que El País, que es el primer periódico en España”, explicó el fundador de Alto Data Analytics. EL PAÍS ha publicado desde septiembre diversas informaciones sobre la injerencia de los medios de la órbita rusa sobre la crisis catalana.

El estudio, que abarca el periodo del 29 de septiembre al 9 de octubre, refleja que las informaciones de dichos medios se movieron sobre todo entre usuarios partidarios de la independencia. En los contenidos primaban los relacionados con la violencia y los favorables a la secesión. De los 100 perfiles en Twitter más activos difundiendo sus publicaciones, el 84% correspondían a cuentas anónimas cuyo patrón de comportamiento no corresponder al de individuos particulares, ya que, o bien están dedicadas en un 100% a difundir piezas de RT o Sputnik, o publican toneladas de tuits 24 horas diarias y siete días a la semana o solo retuitean y no tienen actividad propia, según los investigadores. Algunos autores, como de @rick888, @bobbit2266 o @ivan226622 llegaban a publicar mensajes idénticos con minutos de diferencia. Este último, tras una actividad frenética sobre Cataluña, se dedicó tiempo después a tuitear compulsivamente sobre Siria y luego sobre Filipinas. Su cuenta ha sido suspendida recientemente.

La presentación de los datos, bajo el título “Desestabilizar la Unión Europea”, se enmarcó en una jornada centrada en la desinformación, las noticias falsas y el efecto en la democracia. El asunto lleva en el centro del debate en Estados Unidos desde que los servicios de inteligencia determinaron que Moscú había orquestado una campaña de ciberataques e intoxicación para influir en las elecciones presidenciales de 2016 y de favorecer la llegada de Donald Trump al poder. El pasado noviembre RT fue obligada a registrarse como agencia del Kremlin en Estados Unidos. El mes anterior, Twitter prohibió los anuncios de esta cadena y de Sputnik.

En la jornada, la profesora de la Universidad de Washington Kate Starbird, que lleva desde 2013 realizado estudios sobre el efecto de la desinformación y los rumores en situaciones de crisis, advirtió de que el propósito de esas intoxicaciones “no es convencer, sino confundir” de forma que se erosiona la confianza sobre algún asunto. Por ejemplo, en uno de sus últimos trabajos la académica y su equipo reunieron 58 millones de tuits sobre tiroteos masivos en Estados Unidos entre enero y octubre de 2016. De estos, cerca de 100.000 hablaban de que se trataba de montajes o que participaban actores, en definitiva, impulsaban una narrativa alternativa a la oficial. El objetivo de esos mensajes en Twitter no era tanto hacer creer lo que estos decían, sino generar escepticismo general sobre la información sobre matanzas.

“Aunque no consigan convencerte, consiguen paralizarte, que dejes de pensar lo que antes pensabas sobre un asunto”, señaló en la misma línea el director del Centro de Medios Cívicos, Ethan Zuckernam, organizador de la conferencia.

El escritor Peter Pomerantsev, nacido en Kiev en el 77 y profesor visitante de la London School of Economics, abordó el fenómeno de la propaganda exterior desde la Guerra Fría y señaló que la “disinformatzya” es una técnica para destruir la credibilidad en instituciones y citó el viejo bulo de que la CIA creó el virus del VIH como ejemplo. “No son espías los que hacen esto hoy en día, son agencias de relaciones públicas, esa es la diferencia con la Guerra Fría”, señaló. Uno de los objetivos de la propaganda, dijo, era señalar los problemas ajenos para mejorar la imagen de los propios. "Es la idea de 'nosotros somos corruptos' pero ellos también, 'nosotros tenemos desigualdad, pero ellos también".

sábado, 3 de marzo de 2018

Trolls rusos apoyan la ultraderecha italiana

Las redes rusas se activaron para impulsar a la ultraderecha en Italia


Un análisis de redes sociales revela cómo medios del Kremlin han fomentado los discursos xenófobos


David Alandete y Daniel Verdú
El País

La maquinaria de injerencias rusa ha centrado sus esfuerzos en los pasados meses en una campaña de desinformación sobre la situación migratoria en Italia con el objetivo de impulsar a partidos radicales ante las elecciones generales del domingo. Según un análisis de 1.055.774 mensajes de 98.191 usuarios en redes sociales al que ha tenido acceso EL PAÍS, un entramado de perfiles de activistas contra la inmigración y las ONG emplearon sobre todo enlaces publicados por Sputnik, un medio propiedad del Gobierno ruso que opera entre otros idiomas en italiano, para propagar la falsa imagen de una Italia invadida por unos refugiados responsables del desempleo y de la inflación, en una crisis agravada por la pasividad de los políticos europeístas y en última instancia por la Unión Europea.

Algunos ejemplos de las informaciones publicadas por Sputnik son “En 2065 la cuota de inmigrantes en Italia podría superar el 40% de la población total” o “El caos de los inmigrantes es el inicio de una guerra social”. Alto Data Analytics, una compañía internacional centrada en la aplicación de big data e inteligencia artificial para el análisis de opinión pública en medios y redes sociales, ha facilitado a este diario un estudio de 3.164 fuentes de contenido como noticias, entradas de blogs y vídeos con publicaciones entre el 1 de febrero y el 31 de julio de 2017. La conclusión es que Sputnik ha sido muy influyente a la hora de radicalizar el debate sobre la crisis migratoria. De todos los medios internacionales que operan en Italia, ese medio ruso es el segundo más influyente, tras la versión italiana del Huffington Post, según las mediciones de Alto, cuyos algoritmos consideran el número de usuarios y la intensidad con la que se comparten los enlaces de los distintos medios en redes sociales de forma similar a como lo harían los algoritmos de Google.

El debate sobre la migración ha impregnado completamente la campaña política italiana dejando apenas espacio para otros temas. Según las encuestas, la formación que no tenga una posición clara al respecto no saldrá en la foto del próximo domingo. Un reflejo evidente de los episodios es la tensión en la calle y en las redes sociales, donde desde hace meses han dejado de existir los matices y triunfan cada vez más las posiciones radicalizadas. El auge de La liga, el partido de tintes xenófobos que preside Matteo Salvini y que forma parte de la potente coalición de centroderecha que lidera Silvio Berlusconi, o Casa Pound, una formación declarada abiertamente fascista que aspira a entrar en el Parlamento, son dos ejemplos.

Sputnik fue una parte central pero no la única en esa estrategia de desestabilización de Italia. A ese medio ruso se le sumó un entramado de pequeños sitios web centrados de forma casi exclusiva en mensajes contra la inmigración como ‘Todos los crímenes de los inmigrantes’, ‘El populista’ o ‘Italia patria mía’. Un indicio de la actividad de cuentas automatizadas o bots, utilizadas para viralizar contenido, es que con el doble de integrantes, la comunidad a favor de la inmigración publicó menos de la mitad del contenido que la que se opone a la entrada de refugiados a Italia. En Twitter, una de las redes sociales analizadas, los mensajes contra la inmigración supusieron un 68% del total.

viernes, 26 de enero de 2018

Espectro completo del aparato de propaganda ruso

Propaganda de espectro completo de Rusia

Un estudio de caso sobre cómo funciona la máquina de propaganda de Rusia

@DFRLab
@AtlanticCouncil's Digital Forensic Research Lab. Catalyzing a global network of digital forensic researchers, following conflicts in real time.



Las operaciones de propaganda e influencia del gobierno ruso utilizan un modelo de espectro completo que abarca los medios sociales y tradicionales.

Algunos de los canales que usa son abiertos y oficiales; otros son encubiertos y dicen ser independientes. Todos trabajan juntos para crear la apariencia de múltiples voces y puntos de vista, enmascarando un enfoque coordinado.

Esta publicación examina un caso de espectro completo para ilustrar el método. @DFRLab examinó este caso en una publicación anterior; desde entonces, surgieron nuevas pruebas que cambiaron y mejoraron nuestra comprensión de la técnica.


Diagrama de la propagación de la campaña anti-Morgan Freeman probablemente de la fábrica de trolls de San Petersburgo informada anteriormente, a través de bots, trolls, cuentas diplomáticas verificadas y RT. (Fuente: @DFRLab)

De la fábrica de trolls, con amor

El incidente en cuestión se refería al actor estadounidense Morgan Freeman. El 18 de septiembre de 2017, Freeman presentó un video advirtiendo que Rusia lanzó una guerra de información contra los Estados Unidos. El tono fue dramático, pero basado en hechos; la comunidad de inteligencia de EE. UU. y muchos investigadores de código abierto, incluido @DFRLab, han mostrado cómo las fuentes rusas propagaron propaganda atacando a Hillary Clinton durante las elecciones estadounidenses de 2016.

La intervención de alto perfil de Freeman rápidamente produjo una respuesta en Rusia. El 20 de septiembre de 2017, un grupo en línea llamado "AgitPolk" lanzó un hashtag llamado #StopMorganLie, acusando a Freeman de "manipular los hechos de la historia rusa moderna y difamar abiertamente a nuestro país".


Traducido del ruso: "Morgan Freeman, ¡estás equivocado! Lanzamos la campaña #StopMorganLie."(Fuente: agitpolk.ru)

El sitio web de Agitpolk se describe a sí mismo como "un grupo de personas afines unidos por nuestro amor compartido por nuestro país", e insiste en que es independiente del gobierno.

El propósito declarado del grupo es oponerse a la "histeria anti-rusa", un término usado a menudo por los funcionarios rusos para describir las críticas a las acciones de Rusia, especialmente sus ataques contra Ucrania y su interferencia en los procesos democráticos occidentales.



Número de menciones de la frase "histeria anti-rusa" por el Ministerio de Relaciones Exteriores de Rusia, 2001-2017, a partir de una búsqueda en el sitio web del Ministerio. Tenga en cuenta el aumento en y después de 2014, cuando Rusia invadió Ucrania y anexó Crimea. (Fuente: DFRLab)

Agitpolk enfoca sus operaciones en Twitter, llamándolo "una de las formas más rápidas de conectarse con actores públicos, políticos y medios". Usó dos cuentas principales, la @agitpolk corporativa y el @ComradZampolit personal. Este último era efectivamente anónimo, su foto de perfil tomada de una película soviética. La palabra "Zampolit" se traduce como "comisario político", que también es una referencia a los tiempos soviéticos.



Izquierda: información de perfil e imagen para @ComradZampolit, desde un escaneo de máquina. Derecha: Imagen de Maxim Sukhanov en "The Role". (Fuente: stuki-druki.com)

Agitpolk también ejecutó la campaña en la red rusa VKontakte (ВКонтакте o VK).


(Fuente: Agitpolk / VK)

@DFRLab analizó la influencia y el tráfico de Agitpolk en octubre de 2017. La campaña de Twitter #StopMorganLie reunió menos de 10.000 tweets, incluidos los retweets. La publicación de VK fue vista 14,000 veces, pero solo como 124 veces. Este es un impacto a pequeña escala. Sobre esta base, llegamos a la conclusión de que Agitpolk era muy probablemente un movimiento voluntario.

Sin embargo, posteriormente, Twitter compartió con el Congreso de EE. UU. Una lista de 2.752 cuentas que había rastreado hasta la fábrica rusa de trolls en San Petersburgo, y suspendió. Tanto @agitpolk como @ComradZampolit estaban en la lista.


Extractos, incluidas cuentas de Twitter, de la lista de la fábrica de trolls. (Fuente: democrats-intelligence.house.gov)

Esto confirmó que #StopMorganLie era, de hecho, una campaña de fábrica de trolls, y sugirió que el sitio web agitpolk.ru era una creación de fábrica de trolls.

(@DFRLab reconoce que identificamos erróneamente estas cuentas originalmente, al concluir que no estaban vinculadas a la fábrica de trolls. En casos poco claros, preferimos pecar de cautelosos).


Viendo la propagación

Sabiendo que #StopMorganLie comenzó en https://medium.com/dfrlab/how-a-russian-troll-fooled-america-80452a4806d1, estudiamos su extensión para ver cómo las diferentes partes del sistema de propaganda rusa trabajan juntas en la práctica. Los primeros amplificadores en Twitter eran aparentes bots, publicando el hashtag repetidamente sin comentarios adicionales. Trolls, bots y cuentas "cyborg" semiautomáticas suelen trabajar juntas como pastores, perros pastores y ovejas eléctricas; mira nuestro análisis aquí.


Publicaciones de @ SV78900, desde escaneo de máquina. El 15 de octubre de 2017 se archivó una búsqueda en Twitter de publicaciones de esta cuenta mediante #StopMorganLie.

El hashtag fue luego amplificado por varias cuentas oficiales y verificadas del gobierno ruso, que utilizaron sus propios memes para atacar a Freeman como un usuario de drogas histérico e inconsciente, un ejemplo clásico de la estrategia de despedir a los críticos sin evaluar su evidencia.


Izquierda: "Portavoz del presidente ruso Dmitry Peskov: El Kremlin no toma en serio el videoclip de Morgan Freeman. #StopMorganLie. "El meme cita a Peskov diciendo:" Muchas personas creativas caen presas fáciles de las sobrecargas emocionales, sin tener información real sobre el estado real de las cosas. Se convierten en víctimas de tal exaltación emocional, una continuación del macartismo, diría yo. Pasará a tiempo. "Archivado el 15 de octubre de 2017. Derecha:" La histeria antirrusa tiene a los EE. UU. Bajo control, el famoso actor Morgan Freeman repartió otra porción de fantasías sin fundamento ". El meme dice:" El famoso El actor de Hollywood Morgan Freeman habla alegremente sobre la "interferencia" rusa en las elecciones presidenciales de Estados Unidos. También a menudo habla de su predilección por la marihuana. "¡Estoy listo para comer, beber, fumar e inhalar!" ¿Vale la pena escucharlo? "Archivado el 15 de octubre de 2017. (Fuente: Twitter / RusConsulGen andEmbassyofRussia)

Estos mensajes llegaron rápidamente. Los partidarios de Agitpolk lanzaron el hashtag poco antes de las 09:00 UTC. El consulado ejecutó su publicación a las 11:49; la embajada hizo lo mismo a las 13:05 (la marca de tiempo en la captura de pantalla es UTC + 1). El consulado también retwitteó el llamado de @ ComradZampolit a sus "camaradas" para que se unan a la campaña, ya que esta foto del escaneo de la máquina muestra:


Publicaciones del Consulado General de Rusia en Ginebra, a través de una máquina escaneada. Tenga en cuenta los horarios del primer tweet y retweet. (Fuente: Twitter)

Esto indudablemente indicó que las misiones diplomáticas rusas no solo siguen las cuentas de la fábrica de trol, sino que las amplifican. Al menos una evidencia sugiere que también coordinan campañas por adelantado.

A principios del mismo año, Agitpolk publicó una campaña de hashtag destinada a honrar a los diplomáticos rusos, y afirmó que lo hizo "con el apoyo de representaciones extranjeras del Ministerio de Asuntos Exteriores de Rusia". Cuentas como el Ministerio de Relaciones Exteriores, el Consulado General en Ginebra y la Embajada en Sudáfrica efectivamente usó el hashtag, confirmando el reclamo.



El anuncio de Agitpolk de su campaña; el texto subrayado dice "con el apoyo de representaciones extranjeras del Ministerio de Asuntos Exteriores de Rusia". Archivado el 22 de enero de 2018. (Fuente: Agitpolk.ru)

La rápida amplificación de las misiones del ataque a Morgan Freeman sugirió una cooperación similar.


Pequeño, pero suficiente para RT

A pesar de estos seguidores de alto perfil, la campaña de Twitter no fue particularmente efectiva, especialmente en inglés. De acuerdo con una exploración de máquina @DFRLab realizada en ese momento, generó 9,842 tweets, de los cuales solo 300 se compusieron en inglés (otros 713 mensajes retuiteados en inglés). Estos vinieron de 4,003 usuarios, incluidos los bots.


Resultados del escaneo de máquina, que muestra la cantidad de usuarios y publicaciones.

De los originales en inglés, muchos provienen principalmente de cuentas en ruso.


Tweets de @lite_irina y @Onlinevzlet, que son principalmente en ruso, que muestran los mensajes de Morgan Freeman en inglés entre los rusos. Todos los tweets en inglés y todos los perfiles de cuenta archivados el 15 de octubre de 2017.

La difusión del hashtag de la fábrica de trol entre los usuarios de lengua inglesa era, por lo tanto, mínima. Incluso su propagación en ruso fue limitada.

No obstante, el siguiente paso en la cadena de propaganda fue que el "arma de información" de RT del estado ruso publicara un extenso artículo (ocho párrafos y 27 tuits incorporados) afirmando que "Twitterati" estaba "decepcionado" con los comentarios de Freeman, encabezando el hashtag.


El títular y el título de RT aparecieron en el artículo el 20 de septiembre de 2017, solo unas horas después de que AgitPolk lanzara su campaña. Archivado el mismo día. (Fuente: RT)

El título y el título de RT aparecieron en el artículo el 20 de septiembre de 2017, solo unas horas después de que AgitPolk lanzara su campaña. Archivado el mismo día. (Fuente: RT)
El artículo evitó hábilmente decir qué tan poco alcanzó la campaña de la fábrica de trol en inglés, usando términos indeterminados como "algunos usuarios han llegado a decir que han perdido el respeto por la estrella de Hollywood", "La gente dijo que la declaración de 'democracia' es pura hipocresía ", y" la gente de las redes sociales dijo que el video de Freeman es en sí mismo una propaganda vergonzosa ". También se refirió al tráfico como una" protesta ", y se relacionó con un artículo que califica los comentarios de Freeman de" histeria anti Moscú ".

Es revelador que, aunque el artículo y el tweet que lo acompaña encabezaban el hashtag de la fábrica de trol, solo seis de los tweets que citó lo mencionaron, todos ellos de cuentas principalmente en ruso. Solo dos tuits de los veintisiete defendidos por Freeman; estaban en los párrafos finales.

Por lo tanto, el artículo parece haber servido para dos propósitos: amplificar los ataques a Freeman en general, y aumentar el hashtag de la fábrica de trol en particular.

Desde RT a la franja

RT fue el amplificador principal del hashtag, extendiendo la campaña de Twitter de la fábrica de trol a nuevas plataformas. Su publicación en Facebook del artículo fue compartida 67 veces, y obtuvo 662 reacciones, no todas positivas.



Parte de RT de Facebook de su propio artículo. (Fuente: RT / Facebook)

Una acción separada, reproduciendo el video de Freeman, pero agregando el título "Anti-Rusia Rant" y el enlace al artículo de RT sobre #StopMorganLie, fue visto más de medio millón de veces y compartido más de 3.700 veces.



La parte anotada de RT del video de Freeman; tenga en cuenta el número de vistas al pie de la imagen. (Fuente: RT / Facebook)

El artículo de RT fue recogido por varias fuentes dispares. Incluyeron una página de Pinterest centrada en el socialismo y la política; un sitio de agregación llamado pressaspect.com; un sitio ostensiblemente centrado en viajes con sede en Hawaii; y un sitio dedicado a los rusos en Florida.


(Fuente: floridarussian.com.)

El artículo de RT no se extendió a otros medios convencionales, y, como indicó nuestro escaneo, el hashtag tenía un alcance limitado en las plataformas sociales. Sin embargo, logró un mayor alcance en los sitios de franja y clickbait.

Conclusión

La importancia de la campaña #StopMorganLie estaba en lo que nos mostró sobre la máquina de propaganda rusa.

El hashtag fue lanzado por un sitio web que parece ejecutarse desde la fábrica de trolls. Inicialmente, fue amplificado por cuentas de Twitter y VK, humanas y automatizadas, administradas por la misma organización.

La campaña fue luego amplificada por las cuentas verificadas de las misiones diplomáticas rusas, que agregaron sus propios memes a la mezcla. Fue impulsado adicionalmente por RT, que utilizó una redacción cuidadosamente vaga y tweets selectivos para que pareciera más significativo de lo que realmente era.

Cada uno de estos puntos de venta afirma ser una institución separada; en una democracia genuina y pluralista en la que los medios son editorialmente independientes del estado, lo serían. Sin embargo, su independencia es una fachada: en esta evidencia, trabajan juntos para promover una narrativa común.

La fábrica de troll, RT y las misiones diplomáticas de Rusia son parte de un esfuerzo de comunicaciones estatales de espectro completo. Para comprender las operaciones de información e influencia de Rusia, es importante entender ese enfoque.

sábado, 22 de abril de 2017

Análisis semántico expone falsedades en informaciones rusas sobre incidentes internacionales

Grandes Datos Expone Grandes Falsedades

El análisis de Semantic Visions revela diferencias intrigantes entre los comentarios rusos y occidentales sobre el derribo de un avión en 2014.

De John Pollock | MIT Technology Review 


Cuando Vladimir Putin tomó el poder "unos segundos antes de 2000", la atención del mundo estaba en otra parte. Introduciéndose a sí mismo con un breve comunicado que rezaba: "La libertad de expresión, la libertad de conciencia, la libertad de los medios de comunicación, la libertad de los derechos de propiedad, estos principios básicos de la sociedad civilizada, estarán bajo la protección segura del Estado". Desde entonces, el Kremlin ha estrechado firmemente su ligadura alrededor de los medios rusos. En 2000, Putin firmó la Doctrina de Seguridad de la Información de Rusia. Actualizado en diciembre pasado, ahora es un tercio de la longitud de su predecesor.

"Los dos tercios que faltan son todas las tareas que Rusia emprendió para evitar la influencia externa", dice Keir Giles, un investigador del Centro de Investigación de Estudios sobre Conflictos en el Reino Unido. "Han tenido un par de décadas para poner esto en marcha, y ha habido Una verdadera aceleración en los últimos cuatro años ". Un análisis original realizado para MIT Technology Review por Semantic Visions, una startup checa que genera" inteligencias complejas de código abierto "evaluaciones de riesgo, confirma la iniciativa del Kremlin.

Utilizando la "base de datos semántica más grande del mundo", Semantic Visions exploró el derribo del MH17 en 2014 junto con otras historias importantes en la guerra de Rusia contra Ucrania (ver "Russian Disinformation Technology"). Ellos compararon 328,614,220 artículos de lengua inglesa y 58,207,194 artículos en ruso, con una longitud promedio de 3.000 caracteres, entre enero de 2014 y abril de 2016. Estos son recogidos de más de 25 millones de fuentes que los analistas de Semantic Visions han descubierto y clasificado, de los cuales analizan Alrededor de medio millón diario. Los resultados iluminan los intereses nacionales y extranjeros de la propaganda del Kremlin, y arrojan una luz poco halagüeña sobre aspectos de la cobertura mediática occidental.



Frantisek Vrabel, CEO de Semantic Visions, explica: "Elegimos los Juegos Olímpicos de Sochi políticamente más neutrales como un" control "para mostrar la proporción normal de artículos de idioma ruso (rojo) a inglés (azul) para un evento internacional. El interés ruso en Crimea es sostenido, contrastando con el interés de los medios occidentales. La invasión en el este de Ucrania sigue un patrón similar.




Sin embargo, los datos para el derribo de MH17 son inusuales. "La historia rusa inicial fue que MH17 fue derribado por un caza a reacción de Ucrania, por lo que pensaría que lo usarían para apoyar su versión", dice Vrabel. Pero sabían que habían hecho algo mal. Es casi como si estuvieran intentando minimizarlo ".



Semantic Visions realizó un análisis más detallado hora por hora, trazando la cobertura en las 90 horas siguientes a la tragedia. La diferencia se vuelve aún más marcada en comparación con el vuelo 9268 de Metrojet, que explotó el 31 de octubre de 2015, sobre la Península del Sinaí, con la pérdida de 219 rusos, cuatro ucranianos y un bielorruso. (Aunque la explosión todavía está bajo investigación, tanto Rusia como Egipto sospechan una bomba, reclamada por ISIS).




Aquí los datos en ruso durante las 90 horas siguientes siguen de cerca los resultados globales en inglés, a pesar de que el interés doméstico representa una proporción mayor que en el "control" de Sochi.

Un mes después del derribo del MH17, Rusia llevó a cabo una exitosa operación de información dirigida a los medios occidentales. Afirmando que estaban manejando un convoy humanitario, atrajeron la atención global con cientos de camiones que pretendían ofrecer "asistencia humanitaria". (El Instituto de Análisis de Propaganda llamó a ese "sentirse bien" el lenguaje "generalidades brillantes".) Que los rusos no permitieran Reporteros para ver dentro de la mayoría de los camiones, y que estaban acompañados por helicópteros de ataque, era menos importante que la proximidad de las palabras "ruso", "ayuda" y "humanitaria" en los titulares. Esta charada "no estaba destinada al público ruso, sino a una audiencia global en su guerra informativa", dice Vrabel.



Los datos grandes también tienen otros usos. En enero de 2016, una investigación británica nombró a varios autores del envenenamiento por polonio 210 de Alexander Litvinenko. Los investigadores dijeron que Putin probablemente había aprobado este acto de lo que los servicios de seguridad rusos llaman "wet business" (mokorye delo). Visiones semánticas también rastrearon esta historia, analizando quién la cubrió o la compartió. Vrabel dice que la base de datos resultante de las fuentes les permite identificar "quién está infectado con la propaganda rusa".

lunes, 22 de febrero de 2016

Detectando los bots del Kremlin con NodeXL y Gephi

Análisis de redes sociales revela escala completa de la campaña de los bots twitteros del Kremlin

Global Voices

 
Fotos de los perfiles de una gran red de cuentas pro-Kremlin de Twitter. Imagen de Lawrence Alexander.

Con la ayuda de herramientas de código abierto, el investigador de Internet Lawrence Alexander reunió y visualizó los datos de casi 20.500 cuentas pro-Kremlin de Twitter, revelando la escala masiva de intentos de manipulación de la información sobre RuNet. En lo que es la primera parte de un análisis en dos partes, explica cómo lo hizo y lo que encontró.

RuNet Echo ha escrito anteriormente sobre los esfuerzos del "Ejército Troll" de la Federación de Rusia para inyectar las redes sociales y sitios web de medios de comunicación en línea con la retórica pro Kremlin. Twitter no es una excepción, y varios usuarios han observado cuentas de Twitter twitteando declaraciones similares durante y alrededor noticias de última hora y los eventos clave. Cada vez más activo a lo largo intervenciones de Rusia en Ucrania, estos "bots" se han diseñado para parecerse a los usuarios reales de Twitter, completas con los avatares.

Pero la evidencia en esta serie de dos puntos de análisis a su papel en un amplio programa de desinformación.

Alec Luhn, un periodista estadounidense presentación de informes sobre los asuntos rusos, observó cómo pocas horas después del tiroteo de Boris Nemtsov el 27 de febrero, un grupo de cuentas de Twitter que ya estaban tratando de influir en la narrativa:


Bots spread stories about Nemtsov's death like "Ukrainians killed him...he was stealing one of their girlfriends"


Con la herramienta NodeXL de código abierto, recogí e importado una lista completa de las cuentas piar la frase exacta en una hoja de cálculo. De esa lista, también se reunieron y se importa una extensa comunidad de usuarios de Twitter, compuesto por los amigos y seguidores de cada cuenta. Que iba a ser una prueba interesante: si los insultos contra Nemtsov eran sólo un caso menor de difusión de rumores, que probablemente no provenir de más de unas pocas docenas de usuarios.

Pero una vez que el software había terminado el juntado de datos, la escala completa de la red fue revelada: la asombrosa cifra de 2.900 cuentas. Esta cifra es tal vez comprensible: para una falsa cuenta en Twitter sea creíble, que necesita un montón de seguidores-que a su vez requiere más robots de apoyo.

Luego utiliza Gephi, otra herramienta de análisis de datos de forma gratuita, para visualizar los datos como un gráfico de entidad-relación. Los círculos de colores-llamados nodos representan las cuentas de Twitter, y las líneas de intersección conocida como Bordes-se refieren a conexiones Siga / Seguidor entre cuentas. Las cuentas se agrupan en grupos de comunidades con código de color basado en el algoritmo de modularidad, que detecta grupos estrechamente interconectadas. El tamaño de cada nodo se basa en el número de conexiones que cuenta tiene con otros en la red.


La red extendida de 2.900 robots de Twitter tomadas de la muestra del thread Nemtsov. Imagen de Lawrence Alexander.

Es claro a partir de la forma densa y cerca uno del otro los nodos están en el gráfico que se trata de una red grande y muy conectado. La mayoría de los robots de seguir muchos otros, dándoles a cada uno una alta seguidor / recuento seguido. En la periferia, hay algunos anillos de cuentas conectadas menor, quizás, lo que indica que la red "bot" se sigue siendo "grande" en el momento de su captura; usted podría pensar en él como un árbol, con ramas extendidas hacia el exterior.

Pero había una cuestión crucial en este análisis: ¿cómo era posible para asegurarse de que la red consistía principalmente en los robots y no los seres humanos reales?

NodeXL no se limita a recoger información sobre quién sigue a quién. También adquiere metadatos los datos disponibles al público de cada cuenta de Twitter y su comportamiento. Esto demuestra que fuera de la red de 2.900 efectivos, 87% de los perfiles no tenía información zona horaria y el 92% no tiene favoritos de Twitter. Pero en una muestra aleatoria de 11.282 usuarios de Twitter promedio (basados ​​en las cuentas que había twitteado la palabra "y") sólo el 51% no tenía ninguna zona horaria y revelador, sólo el 15% no tenía favoritos (ambos rasgos de lo que podría ser clasificado como "humano" comportamiento).

Para la comparación añadido, un gráfico de relaciones entre entidades de la red de control de usuario de Twitter aleatorizado se muestra a continuación. En contraste con la visualización robots, esta red tiene varios grupos inconexos y aislados: los grupos de usuarios de Twitter que no están vinculados entre sí, un acontecimiento perfectamente normal en un grupo aleatorio de usuarios.


Uso compartido de la palabra "y" resultados en grupos inconexos, aisladas en un grupo de usuarios al azar Twitter. Imagen de Lawrence Alexander.

Después de haber descubierto una red de este tipo a gran escala a partir de una única fuente, decidí tomar la cacería de bots más en profundidad. La búsqueda de Twitter para frases tales como "bots Kremlin", "trolls pro-rusos" y "sockpuppets Putin," me encontré con varios usuarios que comparten imágenes de una supuesta actividad bot. Algunos también utilizan los hashtag #Kremlinbots (# Кремлеботы) reportar avistamientos.

Usando el mismo método que con los tweets anti-Nemtsov, reuní las redes de cuentas basadas en el uso de algunas de las frases más importantes comunicados que reveló las comunidades más grandes -o, en algunos casos, sólo una lista de usuarios que aparecen en la pantalla. Estos fueron divididos en grupos etiquetados como A, B, C y D. (I se extenderá sobre la razón de esta agrupación en la segunda parte del análisis.)

@PressRuissa Es una cuenta de la parodia (actualmente suspendida) por suplantación de un medio de comunicación pro-ruso, una mezcla de sátira y el comentario de la desinformación y los prejuicios. Uno de sus tuits fue la fuente a partir de la red del Grupo:
El Grupo B vino de diferentes fuentes de cuentas bot sospechosos cuyo comportamiento parecía coincidir con las muestras anteriores. Algunos fueron identificados por su tendencia a cambiar de idioma ruso al Inglés con el mensaje solo error "RSS en modo fuera de línea", presumiblemente causada por una falla en su software de control.

RSS in offline mode
— Леонид Верхратский (@GCL2BUugsq4n5JL) April 1, 2015

Para las fuentes restantes, un tweet por Devin Ackles, analista de laboratorio de ideas CASO Ucrania sirvió de base para el Grupo C.
Y, por último, Vitaliy Moroz de Internews Ucrania compartió una screencap de cuentas bot que se formó la muestra para el Grupo D.



Los cuatro grupos se fusionaron en un solo conjunto de datos, lo que resulta en un total de 17.590 cuentas de Twitter. Al igual que con los que producen los tweets anti-Nemtsov, los metadatos confirmó que la gran mayoría eran de hecho los robots. 93% no mostró ninguna localización en su perfil, el 96% no tenía ninguna información de zona horaria y el 97% no tenía favoritos de Twitter se guardan.

Además, a pesar de haber producido una media de 2.830 tweets, las cuentas casi nunca interactuaron con otros usuarios de Twitter a través de @replies ó @mentions.




Los robots de los tweets de difusión, pero no interactúan. Imagen de Lawrence Alexander.
Curiosamente, muchos de los robots se les había dado nombres que suenan occidentales como barnardgrant, terancebarnaby, terencecoward y duncanstarks.

Pero un resultado aún más sorprendente vino cuando visualicé relaciones seguimiento de los grupos de bots. A pesar de que las muestras habían sido tomadas de cuatro fuentes separadas, se encontró que la red combinada de ser intensamente interconectado.


Todas las 17.590 cuentas de las cuatro fuentes. Tenga en cuenta las interconexiones apretados y la falta de grupos aislados. Imagen de Lawrence Alexander.

Esto contrasta fuertemente con la muestra de control aleatorio: el último conjunto de datos no mostró grupos aislados o atípicos en absoluto. Esto apoya firmemente la idea de que los robots fueron creados por una agencia común- y el peso de la evidencia apunta firmemente hacia Moscú.

En mi próximo post voy a mirar en la línea de tiempo de la creación de los robots, y ver cómo se correlaciona con acontecimientos políticos en Rusia y Ucrania.