Mostrando entradas con la etiqueta fake news. Mostrar todas las entradas
Mostrando entradas con la etiqueta fake news. Mostrar todas las entradas

sábado, 7 de septiembre de 2019

Plan de 4 pasos para evitar la manipulación de las redes en las elecciones


Un plan de 4 pasos para combatir la manipulación de las redes sociales en las elecciones

Por Meredith Somers || MIT Management Sloan School

Por qué es importante
La manipulación de los votantes en las redes sociales no muestra signos de disminuir. Dos profesores proponen una nueva agenda de investigación para defenderse.

Desde las elecciones presidenciales de 2016, no ha habido escasez de informes sobre noticias falsas que se comparten en plataformas de redes sociales como Facebook y Twitter, y con la votación de 2020 a solo un año de distancia, la pregunta no es cuándo atacará la información errónea, sino cómo podemos protegerse contra eso?

Sinan Aral, profesor de informática y marketing del MIT, y Dean Eckles, profesor asociado de marketing, proponen un proceso de cuatro pasos para que los investigadores midan y analicen la manipulación de las redes sociales y conviertan esos datos en una defensa contra la manipulación futura. "Sin una agenda de investigación organizada que informa las políticas, las democracias seguirán siendo vulnerables a los ataques extranjeros y domésticos ", escriben los profesores en un artículo para la edición del 30 de agosto de la revista Science.

Aquí está la agenda de investigación de cuatro pasos que la pareja propone:

Catálogo de exposiciones a la manipulación


Para defenderse contra la manipulación, escriben Aral y Eckles, los investigadores necesitan indexar una variedad de información de redes sociales:
  • ¿Qué mensajes de texto, imágenes y video se anunciaron?
  • ¿Qué tipo de anuncio se utilizó (publicado orgánicamente, anunciado o "impulsado" a través de la promoción paga)?
  • ¿En qué plataformas sociales aparecían estos mensajes de texto, imágenes y video?
  • ¿Cuándo y cómo fueron compartidos y compartidos por los usuarios (en este caso, los votantes)?
El contenido de estos mensajes, imágenes y textos también necesita ser analizado para medir la efectividad, escriben los investigadores.

Combinar conjuntos de datos de exposición y comportamiento de votación

En el pasado, los registros públicos de votación y las cuentas de redes sociales se compararon utilizando datos como información de perfil autoinformada. Pero este tipo de comparación se puede mejorar mediante el uso de datos de ubicación que ya están siendo recopilados por las empresas de redes sociales, escriben los investigadores.

Esto podría ser algo así como hacer coincidir el registro de votantes con las direcciones de los hogares en función de la información de ubicación móvil: los mismos datos utilizados con fines de marketing por las empresas de redes sociales.

Evaluar la efectividad de los mensajes manipulativos.

Un desafío de estudiar el comportamiento de los votantes, escriben Aral y Eckles, es que los resultados no siempre son lo suficientemente precisos para responder preguntas.

Las compañías de redes sociales ya ejecutan pruebas A / B y algoritmos, escriben Aral y Eckles. Las mismas pruebas podrían usarse para medir los efectos de la exposición.

Calcular las consecuencias de los cambios en el comportamiento de votación.

Aral y Eckles escriben que medidas como el comportamiento predicho de los votantes, con o sin exposición a información errónea, deben combinarse con datos como características geográficas y demográficas para una elección en particular. Esto ayudaría con las estimaciones totales de votos en un área particular.

Las implicaciones de privacidad

Aral y Eckles escriben que no admiten el uso de ninguno de los datos existentes, sino que fomentan la colaboración con plataformas de redes sociales, así como "métodos de preservación de la privacidad para el enlace de registros y el análisis de contenido", para satisfacer las necesidades de privacidad y protección.

"Lograr una comprensión científica de los efectos de la manipulación de las redes sociales en las elecciones es un deber cívico importante", escriben Aral y Eckles. "Cuanto antes comencemos una discusión pública sobre las compensaciones entre la privacidad, la libertad de expresión y la democracia que surgen de la búsqueda de esta ciencia, antes podremos realizar un camino a seguir".

martes, 16 de julio de 2019

Contaminación de información vía bot sociales: Puede ser muy fácil

Contaminación de la información por bots sociales.

Xiaodan Lou, Alessandro Flammini, Filippo Menczer
ArXiv




Las redes sociales son vulnerables a los robots sociales engañosos, que pueden hacerse pasar por humanos para amplificar la información errónea y manipular las opiniones. Poco se sabe acerca de las consecuencias a gran escala de tales operaciones de contaminación. Aquí presentamos un modelo de información basado en agentes con preferencia de calidad y atención individual limitada para evaluar el impacto de diferentes estrategias que los robots pueden explotar para contaminar la red y degradar la calidad general del ecosistema de información. Descubrimos que penetrar en una fracción crítica de la red es más importante que generar contenido que llame la atención y que apuntar a usuarios aleatorios es más dañino que apuntar a nodos centrales. El modelo es capaz de reproducir patrones empíricos sobre la amplificación de la exposición y la viralidad de la información de baja calidad. Discutimos las ideas proporcionadas por nuestro análisis, con un enfoque en el desarrollo de contramedidas para aumentar la resistencia de los usuarios de las redes sociales a la manipulación.




viernes, 1 de febrero de 2019

Facebook y Twitter eliminan miles de cuentas rusas, venezolanas e iraníes

Facebook y Twitter eliminaron miles de cuentas falsas vinculadas a Rusia, Venezuela e Irán

Las cuentas mostraban un comportamiento falso y coordinado en Facebook e Instagram y estaban dirigidas desde Irán; Twitter identificó a Rusia como el origen de otras

Infobae



  Twitter y Facebook anunciaron al mismo tiempo que dieron de baja cuentas falsas vinculadas a Rusia, Venezuela, Irán y Bangladesh.

El último día de enero por la tarde Facebook y Twitter hicieron anuncios simultáneos sobre el mismo problema: ambas plataformas cerraron cuentas falsas vinculadas a Rusia, Venezuela, Irán y Bangladesh.

La empresa de Mark Zuckerberg anunció la suspensión de una red de cuentas que —explicó— mostraban "un comportamiento falso y coordinado en Facebook e Instagram" y estaban "dirigidas desde Irán".

Casi a la vez, Twitter anunció que había suspendido lo que calificó de redes de cuentas "de operaciones extranjeras de información" potencialmente conectadas con Irán, Venezuela y Rusia. En su sitio, la empresa dijo que confirmó que las cuentas vinculadas a Rusia se habían originado en ese país pero que no tenía certeza de que fueran administradas por Internet Research Agency, el grupo vinculado al Kremlin.

 

Más de 1.000 cuentas ubicadas en Venezuela participaron de "una campaña de influencia apoyada por el estado" que apuntó a públicos locales, agregó. También señaló que "identificó y suspendió" 2.617 cuentas maliciosas adicionales en Irán.

Facebook, por su parte, anunció en su sitio que cerró "783 páginas, grupos y cuentas por participar en comportamientos falsos y coordinados vinculados con Irán". En algunos casos, ilustró, "reutilizaban contenidos de los medios estatales iraníes" y se dirigían a "gente en todo el mundo, aunque más especialmente en Medio Oriente y el sudeste asiático".

Se trató de "operaciones relacionadas entre sí y localizadas, que utilizaron tácticas similares al crear redes de cuentas para confundir a otros sobre quiénes eran y qué hacían", describió la denuncia.

Los cientos de cuentas de origen ruso suspendidas en Twitter enviaron en conjunto casi un millón de mensajes, en su mayoría sobre política estadounidense. Se especula que trataron de intervenir en la opinión de los votantes durante las elecciones parlamentarias de noviembre de 2018, sobre las cuales tuitearon más de 73.000 veces, según la red social, con hashtags como #MAGA e #IslamIsTheProblem.

jueves, 22 de noviembre de 2018

Bots difunden noticias falsas pero pueden ser combatidos

Los bots difundieron muchas falsificaciones durante las elecciones de 2016. Pero también pueden desacreditarlo.

Por Daniel Funke · Poynter





Desde las elecciones estadounidenses de 2016, ha habido mucha especulación sobre el papel que desempeñaron los robots en la difusión de información errónea en línea. Y ahora, ese papel ha sido cuantificado.

Según un estudio publicado hoy en la revista Nature Communications, las cuentas automáticas de Twitter amplían de manera desproporcionada la información errónea durante las últimas elecciones en los Estados Unidos. Descubrió que, si bien los bots solo representaban alrededor del 6 por ciento de los usuarios de Twitter en el estudio, eran responsables del 34 por ciento de todas las acciones de artículos de fuentes de "baja credibilidad" en la plataforma.

"Este estudio encuentra que los bots contribuyen significativamente a la diseminación de información errónea en línea, y también muestra la rapidez con la que se pueden propagar estos mensajes", dijo Filippo Menczer, profesor de informática y ciencias de la computación en la Universidad de Indiana, y el director del estudio, en un comunicado de prensa. enviado a Poynter.

Los investigadores analizaron 14 millones de tweets y 400,000 artículos compartidos en Twitter entre mayo de 2016 y marzo de 2017. Para determinar si algo era una fuente de baja credibilidad, se basaron en recursos de sitios como PolitiFact (propiedad de Poynter), que ha compilado una lista de sitios web conocidos por difundir información falsa o engañosa en línea.

Esas fuentes abarcan desde sitios satíricos como The Onion hasta sitios de noticias falsas como USAToday.com.co. Esa es una gran brecha, pero en las plataformas sociales como Twitter, la línea entre la desinformación y la sátira es notoriamente borrosa, y los usuarios se dividen cuando uno se convierte en el otro.

Para rastrear cómo los bots amplificaban la información errónea de estas fuentes, los autores del estudio utilizaron dos herramientas de IU: Hoaxy y Botometer. La primera es una plataforma que rastrea la propagación de reclamaciones en línea, mientras que la segunda es un algoritmo de aprendizaje automático que detecta bots en las redes sociales.

El estudio compara principalmente las distribuciones de puntajes de bot de Botometer, que identifican bots basados ​​en miles de otros ejemplos. Los autores mitigaron los falsos positivos y negativos al establecer un umbral de 2.5 / 5, una puntuación que, según Menczer, tenía el mayor grado de precisión en su algoritmo.

Aparte de su papel en la amplificación del alcance de la desinformación, los bots también desempeñan un papel crítico en su despegue en primer lugar. Según el estudio, es probable que los bots amplifiquen los tweets falsos justo después de su publicación, antes de que se vuelvan virales. Luego los usuarios los compartieron porque parecía que mucha gente ya los tenía.

"Las personas tienden a confiar más en los mensajes que parecen provenir de muchas personas", dijo el coautor Giovanni Luca Ciampaglia, profesor asistente de ciencias de la computación en la Universidad del Sur de la Florida, en el comunicado de prensa. "Los bots se aprovechan de esta confianza al hacer que los mensajes parezcan tan populares que se engaña a personas reales para que difundan sus mensajes por ellos".

El estudio sugiere que Twitter reduzca el número de cuentas automatizadas en las redes sociales para reducir la amplificación de la desinformación. La compañía ha logrado algunos avances hacia este fin, suspendiendo más de 70 millones de cuentas solo en mayo y junio. Más recientemente, la compañía derribó una red de bots que impulsó puntos de vista pro saudíes sobre la desaparición de Jamal Khashoggi y comenzó a permitir que los usuarios informen sobre posibles cuentas falsas.

No obstante, los bots siguen causando estragos en Twitter, y algunos no se utilizan para difundir información errónea en absoluto. Entonces, ¿qué deberían hacer los verificadores de datos para combatir su papel en la difusión de información errónea?

Tai Nalon ha pasado la mayor parte del año pasado tratando de responder esa pregunta, y su respuesta es vencer a los robots en su propio juego.

"Creo que la inteligencia artificial es la única forma de abordar la desinformación, y tenemos que crear bots para abordar la desinformación", dijo el director de Aos Fatos, un proyecto brasileño de verificación de hechos. “(Los periodistas) tienen que llegar a las personas donde están leyendo las noticias. Ahora en Brasil, están leyendo en las redes sociales y en WhatsApp. Entonces, ¿por qué no estar allí y automatizar los procesos utilizando las mismas herramientas que usan los malos? "

En el período previo a las elecciones del mes pasado en Brasil, Aos Fatos creó un bot de Twitter que corrige automáticamente a las personas que comparten noticias falsas. Llamada Fátima, la cuenta automatizada aprovecha AI para escanear Twitter en busca de URL que coincidan con las comprobaciones de hechos en la base de datos de artículos de Aos Fatos. Luego, el bot responde al usuario de Twitter con un enlace a la verificación de hechos. (Divulgación: Fátima ganó la donación instantánea de International Fact Checking Network para Brasil).



Desde el lanzamiento de Fátima durante el verano, Nalon le dijo a Poynter que el bot ha escaneado más de 12,000 enlaces y tuiteado casi 2,500 respuestas a una variedad de usuarios. Nalon dijo que eso es importante porque no todos los tweeters que comparten información errónea van a seguir a los verificadores de datos o incluso a las organizaciones de medios verificadas. Bots como Fátima aseguran que todos los usuarios tengan acceso a la información verificada, independientemente de sus propios silos de información.

“Creo que la tecnología puede escalar nuestro trabajo. Nuestro mayor desafío es llegar a las personas que no tienen acceso a la verificación de datos ", dijo Nalon. "Con Fátima, por ejemplo ... cada vez que tuitea un enlace con una respuesta a alguien, mucha gente va allí y le gusta y le dice cosas a las personas que compartieron la información errónea".

Aos Fatos es uno de los pocos medios de verificación de datos para construir un bot de Twitter que corrige automáticamente la información errónea. Y Nalon dijo que uno de sus objetivos para 2019 es extender la herramienta a más verificadores de hechos, comenzando con Chequeado en Argentina.

“Lo que los periodistas necesitan es construir formas de meditar, y no estaremos mediando solo usando las herramientas que Facebook y Twitter nos dan. Tenemos que construir herramientas dentro de Facebook, Twitter y WhatsApp ”, dijo Nalon. "Creo que, si estamos creando conciencia, también podemos aumentar la confiabilidad - y en realidad hackear la forma en que la gente ve a los robots".


sábado, 10 de noviembre de 2018

Usando Twitter para desinformar

Guerra de información: Twitter trae la dezinformatsiya al mundo

Strategy Page




Twitter, la popular aplicación de mensajería, comenzó en 2006 y pronto se convirtió en una herramienta favorita para las operaciones de dezinformatsiya (deinformación) de Rusia. Eso fue porque era más fácil ocultar la participación rusa. Los mensajes se limitaron a 140 caracteres, lo que significa que los operativos dezinformatsiya rusos podrían ser convincentes, incluso si su inglés escrito no era fluido. Este aspecto de Twitter y su relación con las operaciones dezinformatsiya rusas recibieron poca atención en Occidente hasta 2016, e incluso entonces se describió de forma incorrecta. Pero a menudo eso se debía a la política local y al uso de la desinformación. Mientras tanto, Twitter se ha convertido en una potencia de los medios. Seis años después de que Twitter comenzara, tenían más de 100 millones de usuarios que publicaban más de 340 millones de tweets por día. En ese momento, las operaciones de desinformación de Rusia utilizaban cada vez más Twitter como su principal plataforma de mensajería internacional. Era barato, anónimo y los rusos con conocimientos básicos podían usarlo convincentemente.

Cómo surgió esta dependencia rusa de la dezinformatsiya fue algo como esto. Durante la Guerra Fría, los gobernantes comunistas de la Unión Soviética inventaron o expandieron todo tipo de técnicas de propaganda, engaño y adoctrinamiento que todavía son ampliamente copiadas (y con frecuencia condenadas) porque funcionan. Al menos a veces. Al final, todo lo que dezinformatsiya no impidió que el imperio soviético colapsara y se desintegrara. Algunas de esas técnicas se han actualizado y continúan sirviendo a los gobernantes actuales de Rusia. Uno de ellos está relacionado con Internet y se cree que es particularmente útil (o al menos se cree que lo es) en Rusia y en todo el mundo.

La forma en que funcionó la dezinformatsiya rusa en los Estados Unidos se hizo más fácil de entender en octubre de 2018, cuando Twitter lanzó un archivo de 350 GB con más de 10 millones de tweets de 3,800 cuentas pertenecientes a organizaciones rusas que participan en la manipulación de los medios. También hubo un millón de tweets de trolls iraníes que buscaban influir en la opinión pública. Estos tweets datan de 2013. En realidad, Rusia ha estado utilizando técnicas de guerra de información como esta durante más de una década e Irán siguió el ejemplo ruso.

Desde el principio, el término para los carteles de desinformación pagados de Rusia (comúnmente llamados "trolls") era el ejército de "50 rublos" o "50 centavos" y eran un problema conocido en los grupos de noticias y tableros de mensajes de Internet desde la década de los noventa.

Después de 2001, el uso ruso de la desinformación en línea creció, especialmente con la aparición de sitios de redes sociales como Twitter y Facebook. Los medios de comunicación en los Estados Unidos solo descubrieron la existencia de este ejército troll ruso en 2016. Para 2017, los medios estadounidenses descubrieron que los chinos e iraníes también estaban haciendo este tipo de cosas, pero no tan eficazmente como los rusos. Eso se debió a que China ha prohibido durante mucho tiempo Twitter (y ha sustituido a un clon local, muy monitoreado y censurado), mientras que los rusos siguen usando Twitter, principalmente en ruso. Pero hay un número mayor de rusos que hablan (o escriben) en inglés y que están desempleados y que conocen bien el Twitter que en el caso de China.

Twitter lanzó este archivo para investigadores civiles. Facebook también publica datos de cuentas de trolls extranjeros pero para una audiencia más restringida. Las agencias de inteligencia y el veterano BBS (sistema de tablón de anuncios) Usenet y los carteles de Internet han sabido de este trolling altamente organizado desde la década de 1980, pero nunca fue una gran noticia como lo es ahora. Eso es porque desde fines de 2016 ha habido frecuentes acusaciones de que Rusia interfiere en las elecciones estadounidenses. Esto se logró mediante el uso de mensajes dirigidos por el gobierno para ser publicados, en una escala masiva, en las redes sociales y otros sitios en línea. Un aspecto de esto que no atrajo mucha atención de los medios fue que esta técnica, y su uso por gobiernos extranjeros en los Estados Unidos, no era nada nuevo. Este tipo de cosas se han utilizado ampliamente en Internet durante más de una década y durante generaciones antes hubo "astroturfing" (creando un apoyo falso de "base" con una variedad de técnicas pre-Internet) y esfuerzos soviéticos más financiados llamados operaciones dezinformatsiya.

Aunque técnicamente una democracia, la Rusia moderna se ha convertido en otra dictadura. Esto se debe a que de las cenizas de la Unión Soviética surgió una oligarquía con suficiente dinero y habilidades de propaganda, sin mencionar el control de la mayoría de los medios de comunicación, para ser elegida y hacer que la mayoría de los rusos apoyen lo que quiere el nuevo gobierno. Una herramienta clave en esto fue el uso de paneles de mensajes basados ​​en Internet para moldear y manipular la opinión pública. Este tipo de cosas ha existido desde que Internet comenzó su crecimiento explosivo en 2001, ya que pasó de 500 millones de usuarios a cuatro mil millones ahora.

No pasó mucho tiempo antes de que muchos usuarios de Internet se dieran cuenta de que los mensajes publicados por propagandistas (o especialistas en relaciones públicas) aparecían en las redes sociales y en las áreas de mensajería a través de Internet. Esto fue especialmente cierto en China. Ahí es donde empezó todo; la idea de pagarles a los usuarios de Internet de manera discreta una pequeña tarifa para publicar las respuestas pro gubernamentales (o de la compañía) en los foros donde se critica o difama a alguna empresa o gobierno. Para algunos miembros del "50 Cent Party" original chino, se trataba de un trabajo de tiempo completo, que recibía hasta 50 centavos (dos yuanes) cada uno por hasta cien mensajes pro gubernamentales publicados al día, usando varias docenas de cuentas diferentes. Pero la mayoría de los carteles eran voluntarios o simplemente lo hicieron para ganar un poco de dinero extra. Si pudieras publicar en idiomas extranjeros, especialmente inglés coloquial, hiciste más. Muy pocos miembros del "Ejército de los 50 centavos" (como también se conocían los carteles de mercenarios) ganaban mucho dinero y la mayoría de ellos eran criticados por sus compañeros en línea como un grupo de trolls repugnantes (aquellos que dejan mensajes para molestar en lugar de informar o divertir) .



Para 2015, Rusia había convertido el trolling en Internet en una profesión en la que los trabajadores de tiempo completo cobraban entre $ 700 y $ 1,000 al mes (más los bonos por esfuerzos especialmente efectivos) y trabajaban en entornos de oficina en lugar de hacerlo desde casa. Estos trolls profesionales escriben principalmente en ruso, para alentar opiniones pro gubernamentales entre los usuarios de Internet rusos. El gobierno también tiene un programa internacional que paga mucho más debido a la necesidad de tener buenos conocimientos de idiomas extranjeros. Eso significa la capacidad de "escribir como un nativo" no solo en términos de gramática sino en términos de los idiomas de Internet únicos para cada idioma o país. La clave aquí es no ser un troll ruso sino un local. Eso fue mucho más fácil de hacer en Twitter.

Incluso antes de que Rusia convirtiera el trolling de Internet en una profesión, Israel inició este proceso en 2013 al establecer un programa especial de asistencia a la matrícula para estudiantes universitarios que accedieron a publicar regularmente mensajes en Internet para combatir el antisemitismo y la propaganda antiisraelí. Si bien Israel es el único en ser uno de los pocos países que admite hacer esto, muchos otros se han visto atrapados y continúan negando cualquier participación oficial. Un ejemplo es Corea del Norte, que Corea del Sur cree que ha tenido (al menos desde 2014) varios cientos de operativos que son básicamente "Simios de Internet" a tiempo completo, cuya única tarea es combatir los sentimientos contra Corea del Norte en las áreas de mensajes de Internet de Corea del Sur y Presiona la idea de que Corea del Norte es un lugar mejor para vivir de lo que realmente es.

En este momento, muchos usuarios de Internet reconocen e ignoran automáticamente los mensajes de pago y se desvían de su camino para enseñar a otros qué deben buscar. En Occidente, muchos moderadores de foros tienen herramientas que les permiten eliminar instantáneamente las cuentas de Internet Apes (carteles pagados) y todas sus publicaciones pagadas. En China puedes ser arrestado por hacer eso, pero no solo por ignorar la propaganda pagada. Israel deja que los "operadores" revelen que son semioficiales o que se quedan callados al respecto. Al utilizar estudiantes universitarios cuidadosamente seleccionados, los israelíes pueden evitar la detección y entregar mensajes más efectivos. Esto podría ser una ventaja clave de este programa.

Los chinos comenzaron a usar esta práctica en 2005 cuando los funcionarios de propaganda buscaron formas de lidiar con la creciente actividad antigubernamental en los foros de Internet. Una idea fue organizar los carteles pro-gubernamentales ya disponibles. La burocracia de propaganda (que es enorme en China) lo hizo y consiguió tantos voluntarios que pronto desarrollaron una prueba para seleccionar los carteles más capaces y también organizaron clases de capacitación para mejorar las habilidades de estos voluntarios. Se ofrecieron bonos en efectivo por el trabajo más efectivo. En un momento dado, el gobierno tenía casi 100,000 voluntarios y pósters pagados operando. Esto evolucionó rápidamente en el ejército de 50 centavos. Para 2010, el gobierno ruso adoptó la práctica y en poco tiempo existió el Ejército de 50 Rublos en Rusia.

Los chinos finalmente se dieron cuenta de que la calidad era mejor que la cantidad porque los pósters menos articulados eran fáciles de detectar y ridiculizar, como miembros del "50 Cent Army", "Internet Apes" o "Water" (debido a las cuentas zombie utilizadas para la publicación ) Ejército ". Este fue especialmente el caso fuera de China. Dentro de China la gente acaba de aprender a ignorar los carteles del gobierno. Pero los simios de Internet más hábiles a menudo parecen ser convincentes para muchas personas que siguen las discusiones basadas en Internet. El 50 Cent Army era a menudo una inversión que valía la pena, especialmente cuando se usaban afiches experimentados y expertos. En esta área, la cantidad realmente no coincide con la calidad.

En los Estados Unidos, se adoptaron las mismas técnicas para impulsar a los candidatos políticos o productos comerciales. Allí se llamaba "marketing viral". La CIA ha utilizado una técnica similar para contrarrestar la actividad antiamericana o pro terrorista en Internet. Esta actividad también hizo más fácil detectar posibles terroristas o informantes potenciales.

Rusia adoptó la técnica china de aprovechar el entusiasmo de los voluntarios progubernamentales. Como sucedió en otros lugares, los blogueros y los carteles con muchos seguidores también fueron tentados a ser pro gubernamentales, por una tarifa (o quizás debido a algunas amenazas).

Esta práctica de comprar atención favorable en los medios no es nada nuevo y tiene siglos de antigüedad. Los EE. UU. son únicos en que, durante aproximadamente un siglo, los medios de comunicación estadounidenses estuvieron en gran parte libres de este soborno flagrante. Pero en la mayor parte del mundo, un periodista inteligente atrae rápidamente la atención de las personas que pagarán algunos comentarios favorables. No es ningún secreto, aunque muchos periodistas insisten en que no son comprados.

sábado, 20 de octubre de 2018

Operaciones de desinformación rusas en Twitter en 2016

Los Trolls internos: Cómo las operaciones de información rusas se infiltraron en las comunidades en línea en 2016



 Kate Starbird - Medium 

Para los investigadores en operaciones de desinformación e información en línea, ha sido una semana interesante. El miércoles, Twitter lanzó un archivo de tweets compartidos por cuentas de Internet Research Agency (IRA), una organización en San Petersburgo, Rusia, con supuestos vínculos con el aparato de inteligencia del gobierno ruso. Este archivo de datos proporciona una nueva ventana a las operaciones de información recientes de Rusia. El viernes, el Departamento de Justicia de los Estados Unidos presentó cargos contra una ciudadana rusa por su papel en las operaciones en curso y proporcionó nuevos detalles sobre sus estrategias y objetivos.

Las operaciones de información explotan los sistemas de información (como las plataformas de medios sociales) para manipular las audiencias con fines políticos y estratégicos; en este caso, uno de los objetivos era influir en la elección de los EE. UU. en 2016.

En nuestro laboratorio en la Universidad de Washington (UW), hemos estado estudiando accidentalmente estas operaciones de información desde principios de 2016. Estos desarrollos recientes ofrecen un nuevo contexto para nuestra investigación, y confirman de muchas maneras lo que pensábamos que estábamos viendo, en la intersección de las operaciones de información y el discurso político en los Estados Unidos, desde una perspectiva muy diferente.

Hace unos años, el estudiante de pregrado de la Universidad de Washington (y ahora doctorado) Leo Stewart inició un proyecto para estudiar conversaciones en línea sobre el movimiento #BlackLivesMatter. Esta investigación creció hasta convertirse en un proyecto de colaboración, conmigo, el estudiante de doctorado Ahmer Arif y la profesora asistente de iSchool Emma Spiro. A medida que la investigación evolucionó, comenzamos a centrarnos en "enmarcar concursos" dentro de lo que resultó ser una conversación en línea muy politizada.

El concepto de encuadre o marco tiene raíces interesantes y definiciones que compiten entre sí (ver Goffman, Entman, Benford y Snow). En términos simples, un marco es una forma de ver y comprender el mundo que nos ayuda a interpretar nueva información. Cada uno de nosotros tiene un conjunto de marcos que utilizamos para dar sentido a lo que vemos, oímos y experimentamos. Los marcos existen dentro de los individuos, pero también pueden ser compartidos. Enmarcar es el proceso de dar forma a los marcos de otras personas; en otras palabras, guiar cómo otras personas interpretan la información nueva. Podemos hablar sobre la actividad de enmarcar, ya que se lleva a cabo dentro de las aulas o mediante transmisiones de noticias, anuncios políticos o una conversación con un amigo que lo ayuda a comprender por qué es tan importante votar. Como probablemente pueda suponer, el encuadre puede ser una poderosa herramienta política.

Los concursos de engaños se producen cuando dos (o más) grupos intentan promover marcos o puntos de vista diferentes, por ejemplo, en relación con un evento histórico específico o un problema social emergente. Piense en las imágenes recientes del grupo de migrantes centroamericanos que intentan cruzar la frontera hacia México. Un marco para estas imágenes ve a estas personas como refugiados que intentan escapar de la pobreza y la violencia, y describe su movimiento coordinado (en la "caravana") como un método para garantizar su seguridad mientras viajan cientos de kilómetros con la esperanza de una vida mejor. Un marco de la competencia ve a esta caravana como un grupo caótico de invasores extranjeros, "incluidos muchos criminales", que marcha hacia los Estados Unidos (debido a las débiles leyes de inmigración creadas por los demócratas), donde causarán daños económicos y perpetrarán violencia. Estos son dos marcos distintos y podemos ver cómo las personas con motivos políticos están trabajando para refinar, resaltar y expandir su marco, y para socavar o ahogar el otro marco.

En 2017, publicamos un artículo que examina los concursos de marcos en Twitter relacionados con un subconjunto de conversaciones de #BlackLivesMatter que tuvieron lugar alrededor de los eventos de filmación en 2016. Consulte nuestro documento para ver los detalles metodológicos y la amplitud de los hallazgos. En ese trabajo, primero tomamos una vista de nivel meta de más de 66,000 tweets y 8,500 cuentas que eran altamente activas en esa conversación, creando un grafo de red (a continuación) basado en una métrica de "audiencia compartida" que nos permitió agrupar cuentas Basado en tener conjuntos similares de seguidores.

Figura 1. Grafo de cuentas de la “audiencia compartida” en las conversaciones de Twitter sobre los eventos #BlackLivesMatter y Shooting en 2016

Ese grafo reveló que, estructuralmente, la conversación de #BlackLivesMatter en Twitter tenía dos grupos o comunidades de cuentas distintas: una sobre la "izquierda" política que apoyaba a #BlackLivesMatter y otra sobre la "derecha" política que criticaba a #BlackLivesMatter. (Para obtener más información sobre los colores dentro del grupo a la derecha, lea el documento).

A continuación, realizamos un análisis cualitativo de los diferentes contenidos que compartían las cuentas en los dos lados diferentes de la conversación. Contenido, por ejemplo, como estos tweets (desde el lado izquierdo del grafo):


Tweet: Cops called elderly Black man the n-word before shooting him to death #KillerCops #BlackLivesMatter

Tweet: WHERE’S ALL THE #BlueLivesMatter PEOPLE?? 2 POLICE OFFICERS SHOT BY 2 WHITE MEN, BOTH SHOOTERS IN CUSTODY NOT DEAD.

Y estos tweets (desde el lado derecho del grafo):

Tweet: Nothing Says #BlackLivesMatter like mass looting convenience stores & shooting ppl over the death of an armed thug.

Tweet: What is this world coming to when you can’t aim a gun at some cops without them shooting you? #BlackLivesMatter.

En estos tweets, puedes ver los tipos de "concursos de engaños" que se llevaban a cabo. A la izquierda, el contenido se unió alrededor de los marcos que destacaban los casos en los que los afroamericanos eran víctimas de violencia policial, caracterizando esto como una forma de racismo sistémico e injusticia en curso. A la derecha, el contenido apoyaba marcos que destacaban la violencia dentro de la comunidad afroamericana, argumentando implícitamente que la policía actuaba razonablemente en el uso de la violencia. También puede ver cómo el contenido de la derecha intenta contrarrestar y socavar explícitamente el movimiento #BlackLivesMatter y sus marcos y, a su vez, cómo reacciona el contenido de la izquierda e intenta impugnar los contramarcos de la derecha.

Nuestra investigación reveló varios datos interesantes acerca de la estructura de los dos grupos distintos y la naturaleza del activismo "de base" que conforma ambos lados de la conversación. Una vez más, tendrás que leer el documento para obtener más información (ver abajo de este párrafo). Pero a un alto nivel, dos de nuestros principales puntos de partida fueron 1) cuán divididas estaban esas dos comunidades; y 2) cuán tóxico era gran parte del contenido.



Ese primer artículo fue aceptado para su publicación en otoño de 2017; terminamos la versión final a principios de octubre. Y entonces las cosas se pusieron interesantes.

Unas semanas más tarde, en noviembre de 2017, el Comité de Inteligencia de la Cámara de Representantes publicó una lista de cuentas que Twitter les dio, que se encontraron asociadas con la Agencia de Investigación de Internet (IRA) de Rusia y su campaña de influencia dirigida a la elección de los EE. UU. Las actividades de estas cuentas, las operaciones de información de las que formaban parte, se habían producido al mismo tiempo que las conversaciones politizadas que habíamos estado estudiando tan de cerca.

Al revisar la lista, notamos que reconocimos varios nombres de cuenta. Por lo tanto, decidimos realizar una verificación cruzada de la lista de cuentas con las cuentas en nuestro conjunto de datos #BlackLivesMatter. De hecho, docenas de cuentas en la lista aparecieron en nuestros datos. Algunas, como @ Crystal1Johnson y @TEN_GOP, estaban entre las cuentas más retwiteadas en nuestro análisis. Y algunos de los ejemplos de tweets que habíamos presentado en nuestro artículo anterior, incluidos algunos de los tweets más problemáticos, no fueron publicados por activistas "reales" de #BlackLivesMatter o #BlueLivesMatter, sino por cuentas de IRA.

Para obtener una mejor visión de cómo las cuentas IRA participaron en la conversación de Twitter #BlackLivesMatter, creamos otro grafo de red (a continuación) utilizando los patrones de retweet de las cuentas. Al igual que en el grafo anterior, vimos dos grupos diferentes de cuentas que tendían a retuitear otras cuentas en su grupo, pero no las cuentas en el otro grupo. Nuevamente, había un grupo de cuentas (a la izquierda, en magenta) que era pro-BlackLivesMatter y liberal / demócrata, y un grupo (a la derecha, en verde) que era anti-BlackLivesMatter y conservador / republicano.



Figura 2. Grafo de la red de retweets de cuentas en las conversaciones de Twitter sobre los eventos #BlackLivesMatter y Shooting en 2016

A continuación, identificamos y destacamos las cuentas que se identificaron como parte de las operaciones de información de la IRA. El grafo, en toda su espeluznante gloria, está abajo, con las cuentas IRA en Orange y otras cuentas en azul.


Figura 3. Grafo de la red retweets más cuentas IRA Troll (en naranja)

Como puede ver, las cuentas IRA habían personificado a activistas en ambos lados de la conversación. A la izquierda estaban las cuentas de IRA como @ Crystal1Johnson, @gloed_up y @BleepThePolice que representaron a las personas de activistas afroamericanos que apoyaron el movimiento #BlackLivesMatter. A la derecha estaban cuentas de IRA como @TEN_GOP, @USA_Gunslinger y @SouthLoneStar que pretendían ser ciudadanos o grupos políticos conservadores de los Estados Unidos que criticaban el movimiento #BlackLivesMatter.

El estudiante de doctorado Ahmer Arif realizó un profundo análisis cualitativo de las cuentas de IRA activas en esta conversación: estudió sus perfiles y tweets para comprender cómo elaboraron y mantuvieron cuidadosamente a sus personas. Le recomiendo que lea ese documento (especialmente los Resultados y la Discusión; el trabajo se reproduce al final de este párrafo). Entre otras observaciones, Ahmer describió cómo (como persona de inclinación izquierda que apoyaba #BlackLivesMatter) fue muy fácil problematizar gran parte del contenido de las cuentas en el lado "derecho" del grafo, parte de ese contenido, que incluía Las declaraciones e imágenes racistas y explícitamente antiinmigrantes fueron profundamente perturbadoras. Pero de alguna manera estaba más preocupado por su reacción al contenido IRA del lado izquierdo del grafo, contenido que a menudo se alineaba con sus propios marcos. A veces, este contenido lo dejó dudoso sobre si realmente se trataba de propaganda.



Esto subraya el poder y el matiz de estas estrategias. Estos agentes del IRA estaban representando caricaturas de ciudadanos políticamente activos de los Estados Unidos. En algunos casos, estas fueron caricaturas burdas de los peores tipos de actores en línea, utilizando la retórica más tóxica. Pero en otros casos, estas cuentas parecían personas comunes a nosotros, personas que se preocupan por las cosas que nos importan, personas que quieren las cosas que queremos, personas que comparten nuestros valores y marcos. Estos sugieren dos aspectos diferentes de estas operaciones de información.

Primero, estas operaciones de información nos apuntan dentro de nuestras comunidades en línea: los lugares a los que vamos para escuchar nuestras voces, hacer conexiones sociales y organizar acciones políticas. Se están infiltrando en estas comunidades actuando como otros miembros de la comunidad, desarrollando confianza, reuniendo audiencias. En segundo lugar, estas operaciones comienzan a aprovechar esa confianza para diferentes objetivos, para orientar a esas comunidades hacia los objetivos estratégicos de los operadores (en este caso, el gobierno ruso).
Uno de estos objetivos es "sembrar división" - para poner presión en las fallas en nuestra sociedad. Una sociedad dividida que se vuelve contra sí misma, que no puede unirse y encontrar un terreno común, es una que se manipula fácilmente. Observe cómo las cuentas de color naranja en el grafo (Figura 3) se encuentran en el exterior de los grupos: tal vez pueda imaginarlos literalmente separando a las dos comunidades. Los agentes rusos no crearon una división política en los Estados Unidos, pero estaban trabajando para alentarla.

El segundo objetivo es formar a estas comunidades hacia sus otros objetivos estratégicos. No es sorprendente que, considerando lo que ahora sabemos sobre su estrategia 2016, las cuentas IRA a la derecha en este grafo convergieron en apoyo de Donald Trump. Su actividad a la izquierda es más interesante. Como habíamos discutido en nuestro artículo anterior (escrito antes de conocer las actividades de IRA), las cuentas en el grupo pro # BlackLivesMatter de la izquierda estaban muy divididas en el sentimiento acerca de Hillary Clinton y la elección de 2016. Cuando nos fijamos específicamente en las cuentas IRA de la izquierda, encontramos que criticaban constantemente a Hillary Clinton, destacando las declaraciones anteriores que percibían como racistas y alentando a las personas de izquierda que no votaban por ella. Por lo tanto, podemos ver las cuentas IRA utilizando dos estrategias diferentes en los diferentes lados de la gráfica, pero con el mismo objetivo (de elegir a Donald Trump).

La conversación #BlackLivesMatter no es la única conversación política a la que se dirige el IRA. Con los nuevos datos proporcionados por Twitter a principios de esta semana, podemos ver que hubo varias comunidades de conversación en las que participaron, desde derechos de armas hasta temas de inmigración y debates sobre vacunas. Dando un paso atrás y teniendo en cuenta estos puntos de vista de los datos, debemos tener cuidado, tanto en el caso de #BlackLivesMatter como en estos otros públicos de problemas, para resistir la tentación de decir eso, porque estos movimientos o comunidades fueron atacados por las operaciones de información rusas. , que por lo tanto son ilegítimos. El hecho de que las cuentas IRA enviaran mensajes que apoyen a #BlackLivesMatter no significa que A) que la eliminación de la injusticia racial en los Estados Unidos esté alineada con los objetivos estratégicos de Rusia; o B) que #BlackLivesMatter es un brazo del gobierno ruso. (Los agentes de la IRA también enviaron mensajes diciendo exactamente lo contrario, por lo que podemos suponer que son como máximo ambivalentes). Si acepta esto, también debería poder pensar de manera similar sobre las actividades de la IRA que respaldan los derechos de las armas y terminan con la inmigración ilegal en los Estados Unidos. Es probable que Rusia no se preocupe por la mayoría de los problemas domésticos en los Estados Unidos. Su participación en estas conversaciones tiene un conjunto diferente de objetivos: socavar a los Estados Unidos dividiéndonos, erosionar nuestra confianza en la democracia (y otras instituciones) y apoyar resultados políticos específicos Eso debilita nuestras posiciones estratégicas y fortalece las suyas. Esos son los objetivos de sus operaciones de información.

Una de las cosas más sorprendentes de la era de Internet es la forma en que nos permite unirnos, junto con las personas de al lado, en todo el país y en todo el mundo, y trabajar juntos para lograr causas compartidas. Hemos visto los aspectos positivos de esto con el voluntariado digital durante eventos de desastre y activismo político en línea durante eventos como la Primavera Árabe. Pero algunos de los mismos mecanismos que hacen que la organización en línea sea tan poderosa también nos hacen particularmente vulnerables, en estos espacios, a tácticas como las que usa el IRA. Transmitir las recomendaciones de Ahmer Arif, si pudiéramos dejar a los lectores con un solo objetivo, es ser más reflexivos acerca de cómo interactuamos con la información en línea (y en otros lugares), para sintonizar con cómo esta información nos afecta (emocionalmente) y para considerarla. cómo las personas que buscan manipularnos (por ejemplo, moldeando nuestros marcos) no nos están simplemente gritando desde el "otro lado" de estas divisiones políticas, sino que cada vez más intentan cultivarnos y darnos forma desde nuestras propias comunidades.

domingo, 12 de agosto de 2018

Algoritmo para la detección de fake news

La gente es mala al detectar noticias falsas. ¿Pueden los programas de computadora funcionar mejor?

Hay demasiada desinformación en línea para que los verificadores de datos humanos la atrapen
Por
Maria Temming


MONITORES DE DECEPCIÓN Los investigadores están creando algoritmos en línea para verificar la veracidad de las noticias en línea.

Alex Nabaum
Número de la revista: Science Magazine Vol. 194, No. 3, 4 de agosto de 2018, p. 22



Desplazarse a través de una fuente de noticias a menudo se siente como jugar Dos verdades y una mentira.

Algunas falsedades son fáciles de detectar. Como informes de que la Primera Dama Melania Trump quería un exorcista para limpiar los demonios de la Casa Blanca de la era Obama, o que un director de una escuela de Ohio fue arrestado por defecar frente a una asamblea estudiantil. En otros casos, la ficción se combina demasiado bien con los hechos. CNN fue realmente allanado por la Comisión Federal de Comunicaciones? ¿La policía descubrió realmente un laboratorio de metanfetamina dentro de un Walmart de Alabama? No y no. Pero cualquiera que se mueva por una serie de historias fácilmente podría ser engañado.

Vivimos en una era dorada de desinformación. En Twitter, las falsedades se extienden más y más rápido que la verdad (SN: 31/3/18, p.14). En el período previo a las elecciones presidenciales estadounidenses de 2016, los artículos falsos más populares obtuvieron más acciones, reacciones y comentarios de Facebook que las principales noticias reales, según un análisis de BuzzFeed News.

Antes de Internet, "no se podía tener a una persona sentada en un ático y generando teorías de conspiración a gran escala", dice Luca de Alfaro, científico informático de la Universidad de California en Santa Cruz. Pero con las redes sociales de hoy en día, vender mentiras es demasiado fácil: si esas mentiras provienen de disfraces como Disinfomedia, una compañía que ha sido propietaria de varios sitios web de noticias falsas o un grupo de adolescentes en Macedonia que recaudaron el dinero escribiendo noticias falsas populares durante las elecciones de 2016

La mayoría de los usuarios de internet probablemente no estén transmitiendo literas intencionalmente. La sobrecarga de información y la capacidad limitada de atención de la persona que practica surf de la web promedio no son exactamente propicias para la vigilancia de la verificación de los hechos. El sesgo de confirmación se alimenta también. "Cuando se trata de información no filtrada, es probable que las personas elijan algo que se ajuste a su propio pensamiento, incluso si esa información es falsa", dice Fabiana Zollo, científica informática de la Universidad de Venecia Ca 'Foscari, que estudia cómo circula la información en las redes sociales.

Intencional o no, compartir información errónea puede tener graves consecuencias. Las noticias falsas no solo amenazan la integridad de las elecciones y erosionan la confianza pública en las noticias reales. Amenaza vidas. Los falsos rumores que se propagan en WhatsApp, un sistema de mensajería de teléfono inteligente, por ejemplo, provocaron linchamientos en India este año que dejaron más de una docena de personas muertas.

Para ayudar a clasificar las noticias falsas de la verdad, los programadores están construyendo sistemas automatizados que juzgan la veracidad de las historias en línea. Un programa de computadora podría considerar ciertas características de un artículo o la recepción de un artículo en las redes sociales. Las computadoras que reconocen ciertas señales de advertencia podrían alertar a los verificadores de datos humanos, que harían la verificación final.

Las herramientas automáticas de búsqueda de mentiras "todavía están en su infancia", dice el científico informático Giovanni Luca Ciampaglia de la Universidad de Indiana en Bloomington. Los investigadores están explorando qué factores marcan de manera más confiable las noticias falsas. Desafortunadamente, no tienen un conjunto acordado de historias verdaderas y falsas para usar para probar sus tácticas. Algunos programadores confían en medios de comunicación establecidos o agencias de prensa estatales para determinar qué historias son ciertas o no, mientras que otros recurren a listas de noticias falsas informadas en las redes sociales. Por lo tanto, la investigación en esta área es algo así como una lucha libre.

Pero los equipos de todo el mundo están avanzando porque internet es una manguera de información, y pedirle a los inspectores de datos humanos que se mantengan al día es como apuntar esa manguera a un filtro Brita. "Es una especie de entumecimiento de la mente", dice Alex Kasprak, un escritor de ciencia en Snopes, el sitio de verificación de datos en línea más antiguo y más grande, "solo el volumen de cosas realmente de mala calidad que hay por ahí".




Sustancia y estilo

Cuando se trata de inspeccionar el contenido de las noticias directamente, hay dos formas principales de saber si una historia encaja en la factura de la fraudulencia: qué dice el autor y cómo lo dice el autor.

Ciampaglia y sus colegas automatizaron esta tediosa tarea con un programa que verifica cuán estrechamente relacionados están el sujeto y el objeto de una declaración. Para hacer esto, el programa usa una vasta red de nombres construidos a partir de hechos encontrados en el cuadro de información en el lado derecho de cada página de Wikipedia, aunque redes similares han sido construidas a partir de otros depósitos de conocimiento, como bases de datos de investigación.

En la red de nombres del grupo Ciampaglia, dos sustantivos están conectados si un sustantivo apareció en la caja de información de otro. Cuantos menos grados de separación entre el sujeto y el objeto de una declaración en esta red, y cuanto más específicas sean las palabras intermedias que conectan el sujeto y el objeto, más probable es que el programa de computadora etiquete una afirmación como verdadera.

Tomemos la falsa afirmación de que "Barack Obama es musulmán". Hay siete grados de separación entre "Obama" e "Islam" en la red de sustantivos, incluidos los sustantivos muy generales, como "Canadá", que se conectan con muchas otras palabras. Dada esta larga y serpenteante ruta, el verificador automatizado de datos, descrito en 2015 en PLoS ONE, consideró que Obama probablemente no sea musulmán.

Ruta de la rotonda

Un verificador automático de hechos juzga la afirmación "Barack Obama es musulmán" al estudiar los grados de separación entre las palabras "Obama" e "Islam" en una red de sustantivos construida a partir de la información de Wikipedia. La conexión muy suelta entre estos dos sustantivos sugiere que el enunciado es falso.


Fuente: G.L. Ciampaglia et al / PLOS One 2015

Pero estimar la veracidad de las declaraciones basadas en este tipo de separación sujeto-objeto tiene límites. Por ejemplo, el sistema consideró probable que el ex presidente George W. Bush esté casado con Laura Bush. Estupendo. También decidió que George W. Bush probablemente esté casado con Barbara Bush, su madre. Menos genial. Ciampaglia y sus colegas han estado trabajando para dar a su programa una visión más matizada de las relaciones entre los nombres en la red.

Verificar cada declaración en un artículo no es la única manera de ver si una historia pasa la prueba del olfato. El estilo de escritura puede ser otro regalo. Benjamin Horne y Sibel Adali, informáticos del Rensselaer Polytechnic Institute en Troy, N.Y., analizaron 75 artículos verdaderos de los medios de comunicación considerados más confiables por Business Insider, así como 75 historias falsas de sitios en una lista negra de sitios web engañosos. En comparación con las noticias reales, los artículos falsos tienden a ser más cortos y repetitivos con más adverbios. Las historias falsas también tienen menos citas, palabras técnicas y sustantivos.

Sobre la base de estos resultados, los investigadores crearon un programa informático que utilizaba los cuatro factores distintivos más fuertes de las noticias falsas: número de sustantivos y número de citas, redundancia y recuentos de palabras, para juzgar la veracidad del artículo. El programa, presentado en la Conferencia Internacional sobre Web y Redes Sociales en Montreal, clasificó correctamente las noticias falsas del verdadero 71 por ciento del tiempo (un programa que clasifica las noticias falsas de las verdaderas al azar mostraría una precisión del 50 por ciento). Horne y Adali están buscando características adicionales para aumentar la precisión.

Verónica Pérez-Rosas, una científica informática de la Universidad de Michigan en Ann Arbor, y sus colegas compararon 240 artículos originales y 240 inventados. Al igual que Horne y Adali, el equipo de Pérez-Rosas encontró más adverbios en los artículos de noticias falsos que en los reales. Las noticias falsas en este análisis, informadas en arXiv.org el 23 de agosto de 2017, también tienden a utilizar un lenguaje más positivo y a expresar más certeza.

Verdad y mentiras

Un estudio de cientos de artículos reveló diferencias estilísticas entre las noticias originales y las inventadas. Las historias reales contenían más lenguaje que transmitía diferenciación, mientras que las historias falsas expresaban más certeza.


Fuente: V. Pérez-Rosas et al / arxiv.org 2017

Las computadoras no necesitan necesariamente que los humanos les digan qué aspectos de los artículos falsos dan estas historias. El ingeniero informático e ingeniero Vagelis Papalexakis de la Universidad de California en Riverside y sus colegas construyeron un detector de noticias falso que comenzó clasificando un caché de artículos en grupos según lo similares que eran las historias. Los investigadores no proporcionaron instrucciones explícitas sobre cómo evaluar la similitud. Una vez que el programa agrupaba los artículos de acuerdo con la semejanza, los investigadores etiquetaron el 5 por ciento de todos los artículos como fácticos o falsos. A partir de esta información, el algoritmo, descrito el 24 de abril en arXiv.org, predijo etiquetas para el resto de los artículos sin marcar. El equipo de Papalexakis probó este sistema en casi 32,000 artículos reales y 32,000 falsos compartidos en Twitter. Alimentado con ese pequeño núcleo de verdad, el programa predijo correctamente las etiquetas de alrededor del 69 por ciento de las otras historias.

Supervisión de adultos

Hacer las cosas bien el 70 por ciento de las veces no es lo suficientemente preciso como para confiar en los programas de investigación de noticias por sí mismos. Pero los detectores de noticias falsos podrían ofrecer una alerta de proceder con precaución cuando un usuario abre una historia sospechosa en un navegador web, similar a la alerta que aparece cuando está a punto de visitar un sitio sin certificado de seguridad.

En un tipo similar de primer paso, las plataformas de medios sociales podrían usar perros guardianes de la información errónea para buscar fuentes de noticias cuestionables y luego enviarlas a verificadores de datos humanos. Hoy, Facebook considera los comentarios de los usuarios, como aquellos que publican comentarios incrédulos o informan que un artículo es falso, al elegir qué historias verificar. La compañía luego envía estas historias a los escépticos profesionales en FactCheck.org, PolitiFact o Snopes para su verificación. Pero Facebook está abierto a usar otras señales para encontrar fraudes de manera más eficiente, dice la portavoz de Facebook, Lauren Svensson.

No importa qué tan buenas sean las computadoras para encontrar noticias falsas, estos sistemas no deberían reemplazar totalmente a los verificadores de datos humanos, dice Horne. La decisión final sobre si una historia es falsa puede requerir una comprensión más matizada de la que puede proporcionar una computadora.

"Hay una gran escala de grises" de desinformación, dice Julio Amador Díaz López, un científico informático y economista del Imperial College de Londres. Ese espectro, que incluye la verdad tomada fuera de contexto, la propaganda y las declaraciones que son prácticamente imposibles de verificar, como las convicciones religiosas, puede ser difícil para las computadoras para navegar.

El escritor de ciencia de Snopes, Kasprak, imagina que el futuro de la verificación de los hechos será como la transcripción de audio asistida por computadora. Primero, el sistema automatizado elabora un borrador de la transcripción. Pero un humano todavía tiene que revisar ese texto para detalles que se pasan por alto, como errores de ortografía y puntuación, o palabras que el programa acaba de equivocarse. De manera similar, las computadoras podrían compilar listas de artículos sospechosos para que las personas revisen, dice Kasprak, enfatizando que los humanos aún deben tener la última palabra sobre lo que se etiqueta como verdadero.

Ojos en la audiencia

A pesar de que los algoritmos se vuelven más astutos al marcar artículos falsos, no hay garantía de que los creadores de noticias falsas no intensifiquen su juego para eludir la detección. Si los programas de computadora están diseñados para ser escépticos de las historias que son demasiado positivas o expresan mucha certeza, entonces los autores engañosos podrían refinar sus estilos de escritura en consecuencia.

"Las noticias falsas, como un virus, pueden evolucionar y actualizarse a sí mismas", dice Daqing Li, un científico de redes de la Universidad de Beihang en Beijing que ha estudiado noticias falsas en Twitter. Afortunadamente, las noticias en línea se pueden juzgar en más que el contenido de sus narraciones. Y otros signos reveladores de noticias falsas podrían ser mucho más difíciles de manipular, a saber, los tipos de participación del público que estas historias atraen en las redes sociales.

Sin ovejas

La mayoría de los usuarios de Twitter que discutieron rumores falsos sobre dos desastres publicaron tweets que simplemente difundieron estos rumores. Solo se publicó una pequeña fracción buscando verificación o expresando dudas sobre las historias.


H. Thompson

Juan Cao, científico informático del Instituto de Tecnología Informática de la Academia de Ciencias de China en Beijing, descubrió que en la versión china de Twitter, Sina Weibo, los tweets específicos sobre una determinada noticia son buenos indicadores de si una historia en particular es cierto. El equipo de Cao creó un sistema que podría resumir los tweets sobre un evento noticioso en particular, y luego ordenarlos en dos grupos: los que expresaron su apoyo a la historia y los que se opusieron. El sistema consideró varios factores para medir la credibilidad de esos puestos. Si, por ejemplo, la historia se centra en un evento local que un usuario estaba geográficamente cerca, la entrada del usuario se vio como más creíble que la entrada de un usuario más lejano. Si un usuario estuvo inactivo por un tiempo prolongado y comenzó a publicar una sola historia, ese comportamiento anormal contó con la credibilidad del usuario. Al sopesar el carácter distintivo de los tweets de apoyo y escépticos, el programa decidió si una historia en particular podría ser falsa.

El grupo de Cao probó esta técnica en 73 historias reales y 73 falsas, etiquetadas como tales por organizaciones como la Agencia de Noticias Xinhua dirigida por el gobierno de China. El algoritmo examinó alrededor de 50,000 tweets sobre estas historias en Sina Weibo, y reconoció noticias falsas correctamente alrededor del 84 por ciento del tiempo. El equipo de Cao describió los hallazgos en 2016 en Phoenix en una conferencia de la Asociación para el Avance de la Inteligencia Artificial. De Alfaro y sus colegas de UC Santa Cruz informaron similarmente en Macedonia en la Conferencia Europea sobre Aprendizaje Automático y Principios y Prácticas de Descubrimiento de Conocimiento en Bases de Datos del año pasado, que los engaños se pueden distinguir de las noticias reales que circulan en Facebook en base a qué usuarios les gustan estas historias.

En lugar de ver quién está reaccionando a un artículo, una computadora puede ver cómo se transmite la historia en las redes sociales. Li y sus colegas estudiaron las formas de las redes de repost que se ramificaron de las noticias en las redes sociales. Los investigadores analizaron las redes de publicación de aproximadamente 1,700 historias falsas y 500 noticias verdaderas en Weibo, así como alrededor de 30 redes de noticias falsas y 30 redes de noticias reales en Twitter. En ambos sitios de redes sociales, el equipo de Li descubrió que la mayoría de la gente tendía a publicar noticias reales directamente de una sola fuente, mientras que las noticias falsas tendían a extenderse más a través de la gente que publicaba datos de otros remitentes.

Una red típica de repositorios de noticias reales "se parece mucho más a una estrella, pero las noticias falsas se extienden más como un árbol", dice Li. Esto se mantuvo incluso cuando el equipo de Li ignoró las noticias publicadas originalmente por fuentes oficiales conocidas, como los propios medios de noticias. Informado el 9 de marzo en arXiv.org, estos hallazgos sugieren que las computadoras podrían usar el compromiso con las redes sociales como una prueba de fuego para la veracidad, incluso sin poner las publicaciones individuales bajo el microscopio.

Ramificando

En Twitter, la mayoría de las personas que publican (puntos rojos) noticias reales lo obtienen de una única fuente central (punto verde). Las noticias falsas se propagan más a través de las personas que reposten de otros remitentes.


Z. Zhao et al / arxiv.org 2018

Verdad a la gente


Cuando se capta la desinformación circulando en las redes sociales, la mejor forma de lidiar con ella sigue siendo una pregunta abierta. Simplemente fregar artículos falsos de los feeds de noticias probablemente no sea el camino a seguir. Las plataformas de medios sociales que ejercen ese nivel de control sobre lo que los visitantes pueden ver "serían como un estado totalitario", dice Murphy Choy, analista de datos de SSON Analytics en Singapur. "Va a ser muy incómodo para todas las partes involucradas".

Las plataformas podrían poner señales de advertencia sobre la desinformación. Pero etiquetar las historias que han sido verificadas como falsas puede tener un desafortunado "efecto de verdad implícita". Las personas pueden confiar más en las historias que no están señaladas explícitamente como falsas, ya sea que hayan sido verificadas o no, de acuerdo con una investigación publicada el pasado Septiembre en la Red de Investigación de Ciencias Sociales por los investigadores del comportamiento humano Gordon Pennycook, de la Universidad de Regina en Canadá, y David Rand en la Universidad de Yale.

En lugar de eliminar las historias, Facebook muestra menos historias desacreditadas en las noticias de los usuarios, lo que puede reducir las opiniones futuras de un artículo falso en un 80 por ciento, dice el portavoz de la compañía, Svensson. Facebook también muestra artículos que desacreditan historias falsas cada vez que los usuarios encuentran las historias relacionadas, aunque esa técnica puede ser contraproducente. En un estudio de usuarios de Facebook a los que les gusta y comparten noticias de conspiración, Zollo y su colega Walter Quattrociocchi descubrieron que, después de que los conspiradores interactuaran con artículos desacreditados, estos usuarios realmente aumentaron su actividad en las páginas de conspiración de Facebook. Los investigadores informaron este hallazgo en junio en Complex Spreading Phenomena in Social Systems.

Todavía hay mucho trabajo por hacer en la enseñanza de computadoras, y personas, para reconocer noticias falsas. Como dice el viejo refrán: una mentira puede llegar a la mitad del mundo antes de que la verdad se ponga en sus zapatos. Pero los algoritmos informáticos de ojos penetrantes pueden al menos frenar las historias falsas con algunos nuevos pesos de tobillo.

Este artículo aparece en la edición del 4 de agosto de 2018 de Science News con el titular "Detectando noticias falsas: los programas informáticos invocan mentiras en Internet".

viernes, 6 de julio de 2018

Desinformación, sesgos y complejidad de la viralidad



La desinformación y los sesgos infectan las redes sociales, tanto intencionalmente como accidentalmente


Las personas que comparten una posible información errónea en Twitter (en morado) rara vez llegan a ver correcciones o verificación de datos (en naranja). Shao et al., CC BY-ND

Giovanni Luca Ciampaglia y Filippo Menczer | The Conversation


Las redes sociales se encuentran entre las principales fuentes de noticias en los EE. UU. Y en todo el mundo. Sin embargo, los usuarios están expuestos a contenido de precisión cuestionable, que incluye teorías de conspiración, clickbait, contenido hiperpartidista, pseudociencia e incluso informes inventados de "noticias falsas".

No es de extrañar que haya tanta desinformación publicada: el spam y el fraude en línea son lucrativos para los delincuentes, y la propaganda gubernamental y política produce beneficios tanto partidarios como financieros. Pero el hecho de que el contenido de baja credibilidad se propague tan rápida y fácilmente sugiere que las personas y los algoritmos detrás de las plataformas de medios sociales son vulnerables a la manipulación.



Explicando las herramientas desarrolladas en el Observatorio de Redes Sociales.

Nuestra investigación ha identificado tres tipos de prejuicios que hacen que el ecosistema de las redes sociales sea vulnerable a la desinformación intencional y accidental. Es por eso que nuestro Observatorio de Redes Sociales de la Universidad de Indiana está creando herramientas para ayudar a las personas a tomar conciencia de estos prejuicios y protegerse de las influencias externas diseñadas para explotarlas.

Sesgo en el cerebro

Los sesgos cognitivos se originan en la forma en que el cerebro procesa la información que cada persona encuentra todos los días. El cerebro puede manejar solo una cantidad finita de información, y demasiados estímulos entrantes pueden causar sobrecarga de información. Eso en sí mismo tiene serias implicaciones para la calidad de la información en las redes sociales. Hemos descubierto que la fuerte competencia por la atención limitada de los usuarios significa que algunas ideas se vuelven virales a pesar de su baja calidad, incluso cuando las personas prefieren compartir contenido de alta calidad.

Para evitar sentirse abrumado, el cerebro usa una serie de trucos. Estos métodos generalmente son efectivos, pero también pueden convertirse en sesgos cuando se aplican en contextos incorrectos.

Un acceso directo cognitivo ocurre cuando una persona decide si comparte una historia que aparece en su feed de redes sociales. Las personas se ven muy afectadas por las connotaciones emocionales de un titular, a pesar de que no es un buen indicador de la precisión de un artículo. Mucho más importante es quién escribió la pieza.

Para contrarrestar este sesgo y ayudar a las personas a prestar más atención a la fuente de un reclamo antes de compartirlo, desarrollamos Fakey, un juego de alfabetización móvil de noticias (gratuito para Android e iOS) que simula un medio de noticias típico de las redes sociales, con una mezcla de noticias artículos de fuentes principales y de poca credibilidad. Los jugadores obtienen más puntos por compartir noticias de fuentes confiables y marcar contenido sospechoso para verificar los hechos. En el proceso, aprenden a reconocer señales de credibilidad de la fuente, como reclamos hiperpartidistas y titulares con carga emocional.






Screenshots del Fakey game. Mihai Avram and Filippo Menczer

Sesgo en la sociedad

Otra fuente de sesgo proviene de la sociedad. Cuando las personas se conectan directamente con sus pares, los sesgos sociales que guían su selección de amigos influyen en la información que ven.

De hecho, en nuestra investigación hemos descubierto que es posible determinar las tendencias políticas de un usuario de Twitter simplemente observando las preferencias partidistas de sus amigos. Nuestro análisis de la estructura de estas redes de comunicación partidistas encontró que las redes sociales son particularmente eficientes en la diseminación de información, precisa o no, cuando están estrechamente vinculadas y desconectadas de otras partes de la sociedad.

La tendencia a evaluar la información de forma más favorable si proviene de sus propios círculos sociales crea "cámaras de eco" que están maduras para la manipulación, ya sea consciente o involuntariamente. Esto ayuda a explicar por qué tantas conversaciones en línea se convierten en confrontaciones de "nosotros contra ellos".

Para estudiar cómo la estructura de las redes sociales en línea hace que los usuarios sean vulnerables a la desinformación, creamos Hoaxy, un sistema que rastrea y visualiza la propagación del contenido desde fuentes de baja credibilidad, y cómo compite con el contenido de verificación de datos. Nuestro análisis de los datos recopilados por Hoaxy durante las elecciones presidenciales de EE. UU. En 2016 muestra que las cuentas de Twitter que compartieron información falsa quedaron casi completamente aisladas de las correcciones hechas por los inspectores de hechos.

Cuando profundizamos en las cuentas que difunden información errónea, encontramos un grupo central de cuentas muy denso retwitteándose casi exclusivamente, incluidos varios bots. Las únicas veces que los usuarios del grupo desinformado citaron o mencionaron organizaciones de verificación de hechos fueron cuando cuestionaron su legitimidad o afirmaron lo contrario de lo que escribieron.



Una captura de pantalla de una búsqueda de Hoaxy muestra cómo los bots comunes, en rojo y rosa oscuro, están difundiendo una historia falsa en Twitter. Hoaxy


Sesgo en la máquina


El tercer grupo de sesgos surge directamente de los algoritmos utilizados para determinar lo que las personas ven en línea. Tanto las plataformas de redes sociales como los motores de búsqueda los emplean. Estas tecnologías de personalización están diseñadas para seleccionar solo el contenido más atractivo y relevante para cada usuario individual. Pero al hacerlo, puede terminar reforzando los sesgos cognitivos y sociales de los usuarios, lo que los hace aún más vulnerables a la manipulación.
Por ejemplo, las herramientas de publicidad detalladas integradas en muchas plataformas de redes sociales permiten a los activistas de la desinformación explotar el sesgo de confirmación adaptando los mensajes a las personas que ya están inclinadas a creer en ellos.
Además, si un usuario a menudo hace clic en los enlaces de Facebook desde una fuente de noticias en particular, Facebook tenderá a mostrar a esa persona más del contenido de ese sitio. Este efecto llamado "burbuja de filtro" puede aislar a las personas desde perspectivas diversas, lo que fortalece el sesgo de confirmación.

Nuestra propia investigación muestra que las plataformas de redes sociales exponen a los usuarios a un conjunto de fuentes menos diversas que los sitios de medios no sociales como Wikipedia. Debido a que esto está al nivel de una plataforma completa, no de un solo usuario, llamamos a esto el sesgo de homogeneidad.

Otro ingrediente importante de las redes sociales es la información que está en tendencia en la plataforma, de acuerdo con lo que obtiene la mayor cantidad de clics. Llamamos a este sesgo de popularidad, porque hemos descubierto que un algoritmo diseñado para promover contenido popular puede afectar negativamente la calidad general de la información en la plataforma. Esto también alimenta el sesgo cognitivo existente, reforzando lo que parece ser popular independientemente de su calidad.

Todos estos sesgos algorítmicos pueden ser manipulados por bots sociales, programas informáticos que interactúan con los humanos a través de cuentas de redes sociales. La mayoría de los bots sociales, como el Big Ben de Twitter, son inofensivos. Sin embargo, algunos ocultan su naturaleza real y se utilizan con fines maliciosos, como aumentar la desinformación o crear falsamente la apariencia de un movimiento de base, también llamado "astroturfing". Encontramos pruebas de este tipo de manipulación en el período previo al 2010 Elecciones de medio término en los EE. UU.



Para estudiar estas estrategias de manipulación, desarrollamos una herramienta para detectar bots sociales llamada Botometer. Botometer utiliza el aprendizaje automático para detectar cuentas de bots, mediante la inspección de miles de características diferentes de las cuentas de Twitter, como los tiempos de sus publicaciones, la frecuencia de los tweets y las cuentas que sigue y los retweets. No es perfecto, pero reveló que hasta el 15 por ciento de las cuentas de Twitter muestran signos de ser bots.

Usando Botometer junto con Hoaxy, analizamos el núcleo de la red de desinformación durante la campaña presidencial 2016 en Estados Unidos. Encontramos muchos bots explotando los sesgos cognitivos, de confirmación y de popularidad de sus víctimas y los sesgos algorítmicos de Twitter.

Estos robots pueden construir burbujas de filtro alrededor de usuarios vulnerables, proporcionándoles falsas afirmaciones y desinformación. En primer lugar, pueden atraer la atención de los usuarios humanos que apoyan a un candidato en particular al tuitear los hashtags de ese candidato o al mencionar y retuitear a la persona. Luego, los bots pueden amplificar las afirmaciones falsas que manchan a los oponentes retwitteando artículos de fuentes de poca credibilidad que coinciden con ciertas palabras clave. Esta actividad también hace que el algoritmo destaque para otros usuarios historias falsas que se comparten ampliamente.

Comprender vulnerabilidades complejas

A pesar de que nuestra investigación, y la de otros, muestra cómo las personas, las instituciones e incluso sociedades enteras pueden ser manipuladas en las redes sociales, quedan muchas preguntas por responder. Es especialmente importante descubrir cómo estos diferentes sesgos interactúan entre sí, creando potencialmente vulnerabilidades más complejas.

Herramientas como la nuestra ofrecen a los usuarios de Internet más información sobre desinformación y, por lo tanto, cierto grado de protección contra sus daños. Las soluciones probablemente no sean solo tecnológicas, aunque probablemente haya algunos aspectos técnicos para ellas. Pero deben tener en cuenta los aspectos cognitivos y sociales del problema.

miércoles, 21 de marzo de 2018

Los rusos usaron cuentas chavistas durante la crisis catalana

La trama rusa empleó redes chavistas para agravar la crisis catalana

Un análisis de más de cinco millones de mensajes de la Universidad George Washington revela que RT y Sputnik usaron miles de cuentas para propagar una imagen negativa de España antes y después del 1-O

La trama rusa empleó redes chavistas para agravar la crisis catalana

David Alandete || El País




Dos medios del Kremlin, RT y Sputnik, se valieron de un elevadísimo número de cuentas en redes sociales en el entorno del chavismo y Venezuela para propagar una imagen negativa de España en las jornadas anteriores y posteriores al referéndum del 1 de octubre, según un pormenorizado análisis de más de cinco millones de mensajes de la universidad George Washington, en EE UU. El informe advierte de la “grave crisis de reputación, política y económica en España y en la UE”.

La principal conclusión del estudio es que los líderes políticos y las instituciones tradicionales han perdido peso a la hora de influir en la opinión pública. Su lugar lo han ocupado otros actores, mucho más difíciles de seguir y controlar, y que ya no se circunscriben al ámbito político y mediático de un solo país. En el caso del pulso soberanista catalán, la narrativa de los partidos constitucionalistas en el Gobierno y en la oposición quedó reducida por una compleja red de mensajes originados en medios prorrusos y amplificados en parte por el chavismo.



Para el estudio se ha utilizado un software avanzado de medición y análisis de big data que utiliza tecnología española. Su autor, Javier Lesaca, es investigador visitante en la Escuela de Medios y Asuntos Públicos de la George Washington University. Ha analizado en total 5.029.877 mensajes en Twitter, Facebook y otras redes sociales que emplearon los términos Cataluña, Catalunya y Catalonia entre el 29 de septiembre y el 5 de octubre.

“Lo más sorprendente de la investigación ha sido descubrir todo un ejército de cuentas zombis perfectamente coordinadas que se dedican a compartir contenidos generados por RT y Sputnik en diversas conversaciones digitales, que van desde Siria y Estados Unidos hasta Cataluña”, asegura Lesaca. “Hay indicios para pensar que el patrón de disrupción digital que se ha detectado en debates digitales sobre las elecciones de Estados Unidos o el Brexit se ha producido también en Cataluña y que los actores de esta disrupción son los mismos”.

La trama rusa empleó redes chavistas para agravar la crisis catalana La red de injerencia rusa sitúa Cataluña entre sus prioridades para debilitar Europa
Desde la mesa del Consejo de Ministros se reconoció este viernes que el Gobierno tiene información contrastada de que en la crisis catalana ha habido mensajes disruptivos procedentes de “territorio ruso” y se añadió que había “de otros lugares”, informa Anabel Díez. Fuentes gubernamentales reconocieron posteriormente que con esos “otros lugares” se referían a Venezuela.

Un claro ejemplo: RT publicó múltiples noticias sobre Cataluña. Estas se difundieron luego en redes sociales, provocando una conversación con mensajes y respuestas en las que uno de los términos más empleados fue #VenezuelaSaludaACataluña, por encima de menciones a la OTAN, la UE o Julian Assange. En lo que respecta a Sputnik, la segunda noticia más compartida fue: “Maduro: Rajoy debe responder al mundo por lo que ha hecho en Cataluña”.

La mitad de las noticias compartidas por RT en las jornadas inmediatamente anteriores y posteriores al referéndum del 1 de octubre fueron sobre la supuesta violencia policial, con titulares como: “Fuertes vídeos: la brutal represión de la policía contra los votantes del referéndum catalán” o “Cataluña elige su destino entre porras y balas de goma”.

El análisis de los mensajes en redes sobre la crisis catalana revela que los dos medios rusos, financiados ambos por el Kremlin, lograron que sus enlaces se compartieran más que los de los medios públicos españoles EFE y RTVE, o que cabeceras privadas internacionales como The Guardian o CNN. Según concluye el informe, “los conglomerados mediáticos rusos RT y Sputnik han participado en una estrategia deliberada de disrupción en la conversación digital global sobre Cataluña”.


Es significativa la plataforma que emplearon para propagar y viralizar esos mensajes, según el análisis de Lesaca: la mayoría, un 32%, fueron cuentas chavistas o de Venezuela, seguidas por perfiles falsos o automatizados (25%), cuentas anónimas con coberturas reales que sólo se dedican a difundir contenido de RT y Sputnik (30%) y canales oficiales de estos dos medios (10%). Solo un 3% de la conversación obedeció a perfiles reales fuera de esos grupos de interés. Una de las cuentas más activas fue @MarinoEscalante en Twitter, que ha compartido enlaces de RT con mensajes como “Rajoy y el Rey franquista de #España ven la paja en el ojo de Maduro, pero no en #Cataluña”.

Esta procedencia queda confirmada por el análisis de las cuentas que a la hora de publicar mensajes en Twitter, Facebook y otras redes sociales hacen pública su geolocalización. Venezuela es su ubicación más común por detrás de España. De entre los que compartieron el contenido de RT sobre la crisis catalana, un 13,18% están en Venezuela.En el caso de Sputnik, son un 10,46%.

Como afirma el informe, la mayoría de perfiles digitales anónimos analizados “están asociados a cuentas o nodos que se originan en Venezuela y que claramente muestran su simpatía hacia el régimen de Nicolás Maduro, el Partido Socialista Unido de Venezuela o su líder [difunto] Hugo Chávez”. El estudio añade que “en algunos casos, se detecta que esas cuentas publican el mismo contenido al mismo tiempo, reforzando la hipótesis del empleo de robots”.

El empleo de los bots es crucial en este tipo de estrategias de disrupción: se crean noticias inventadas o con enfoques partidistas o manipulados. Luego se publican en algún foro, por oscuro que sea. Después, se difunden los mensajes en redes sociales y una verdadera legión de cuentas falsas procede a compartirlos de forma automática, haciendo que los algoritmos digitales les dediquen un lugar destacado.

Según Lesaca, “los sistemas democráticos tienen la obligación de investigar estos indicios e implementar métodos sistemáticos de monitoreo y respuesta frente a presuntas disrupciones de agentes extranjeros. Las guerras y conflictos internacionales se están librando ya en la opinión pública”.

UNA RED EN CUYO CENTRO ESTÁ VENEZUELA
El gran entramado de cuentas en redes sociales que controlan tanto Rusia como el chavismo logró que una determinada interpretación de la crisis catalana dominara la conversación global en foros como Twitter. Lo demuestra el gráfico que encabeza esta información, que identifica visualmente las cuentas más activas y las conexiones entre estas.
Esas informaciones, que habitualmente describen una supuesta brutalidad policial en el referéndum del 1 de octubre y que en ocasiones restaban importancia a que el referéndum hubiera sido ilegalizado por la justicia, fueron compartidas con mayor intensidad —los puntos rojos— por cuentas chavistas, que ocuparon el lugar central de la conversación social sobre la crisis en Cataluña.
Los vídeos más compartidos en esas redes, por ejemplo, fueron los que mostraban cargas policiales durante el referéndum, con mensajes alarmistas y en ocasiones con opiniones que referían a una supuesta carencia democrática del Estado español en esta crisis.
Es decir: hubo un esfuerzo consciente y coordinado por parte de esas cuentas en la órbita venezolana por amplificar al máximo las informaciones procedentes de los medios estatales rusos RT y Sputnik, algo que también hicieron activistas en la órbita rusa como Edward Snowden.
El estudio apunta la conclusión clara de esta estrategia: “La narrativa que generaron los grupos pro-independentistas, contraria al Gobierno de España, dominó la conversación de forma hegemónica en inglés, español y catalán”.