Mostrando entradas con la etiqueta social bots. Mostrar todas las entradas
Mostrando entradas con la etiqueta social bots. Mostrar todas las entradas

domingo, 23 de febrero de 2020

Guerra de bots en el FC Barcelona

‘Barçagate’: Así actúan los ejércitos de bots maliciosos

Los algoritmos que dirigen a los bots se han convertido en un medio poderoso de comunicación política y es muy difícil llegar a descubrir quiénes son los creadores que están detrás
La Vanguardia

Por Patricia Plaza



Los usuarios que aparecen como destacados, son los más centrales (los que catalizan las conversaciones recibiendo más respuestas, retuits o menciones) en la conversación sobre el hashtag #bartomeuOUT (Social Elephants y Gephi)


Muchos políticos, famosos e influencers se jactan de tener muchos seguidores en las redes sociales. Sin embargo, gran parte de ellos no son de carne y hueso. A estas alturas, la compra de seguidores es un secreto a voces. Algunas empresas ofertan paquetes de 1.000 seguidores falsos en Twitter, Facebook, Instagram o YouTube por el módico precio de 0,89€ (‘Me gustas’ y retuits van aparte).

Pero más allá de engrosar las listas de seguidores, likes y retuits, en los últimos años los bots se han convertido en una forma de manipular a los ciudadanos, siendo también generadores de opinión. Programas informáticos diseñados que actúan como ejércitos para crear comentarios y reforzar la imagen de su amo. Usados por empresas para brindar servicio de atención a sus clientes, o potenciales clientes, para dar una buena experiencia de compra o información. Por ejemplo, un estudio publicado por FakeSpot, denunciaba que el 61% de las reseñas de productos electrónicos de Amazon eran falsas.

La Cadena Ser destapaba esta semana la caja de los truenos, según este medio el FC Barcelona habría contratado una empresa que utilizaba cuentas falsas en las redes para criticar a jugadores y opositores. Un contrato de un millón de euros repartidos en seis cuentas falsas de Facebook distintas. Esa empresa es I3 Ventures, la misma que en junio presentaba un estudio encargado por el FC Barcelona en el que alertaba sobre la presencia de bots. El análisis detectaba que el 30% de los usuarios que hablaban sobre el Barça eran cuentas automatizadas. El propio FC Barcelona presentaba ese estudio y lo publicaba íntegramente en su página web con la voluntad de conocer la percepción de la marca Barça en las redes sociales. Titulado como Análisis del comportamiento de la conversación global digital en torno al FC Barcelona, el informe analizaba la actividad de enero de 2018 a junio de 2019.


Los bots pueden desempeñar actividades maliciosas, como enviar spam, acosar o promover discursos de odio

En un estudio de la Universidad de Oxford sobre las campañas de Trump y Clinton en Twitter en 2016, Phil Howard, profesor de estudios de internet, explicaba que cada vez más políticos y gobiernos de todo el mundo “emplean” tanto bots como personas para gestionar sus conversaciones políticas en las redes sociales. Los bots “pueden desempeñar tareas como suministrar noticias e información”. Y también “actividades maliciosas, como enviar spam, acosar o promover discursos de odio”.

Los algoritmos que dirigen a los bots se han convertido en un medio poderoso de comunicación política y es muy difícil llegar a descubrir quiénes son los creadores que están detrás. Auténticas campañas de marketing diseñadas desde distintas cuentas falsas para llegar a un objetivo común. Es lo que en la jerga marketiniana se denomina astroturfing . Una técnica de propaganda que pretende dar impresión de espontaneidad y popularidad, ocultando al verdadero emisor del mensaje.
Cómo identificar un bot

Los bots intentan actuar como si fueran humanos, pero su intensa actividad les delata. Además de una imagen de perfil y nombre de usuario sospechoso, suele seguir a muchas más cuentas de las que le siguen. Pero lo más relevante es la monotemática de sus publicaciones y su ritmo de publicación constante en el que no parece tener prisa por irse a dormir. Y su velocidad de respuesta sin apenas tiempo para leer los comentarios. Si la cuenta es de muy reciente creación o si descubrimos que usa una App para publicar, también son datos que nos pueden llevar a sospechar.


Si se detectan desviaciones la probabilidad que se trate de un bot es mayor”
Alessandro Bernardi Analista de redes sociales y cofundador de ‘Social Elephants’

Al igual que los virus de ordenador, los criadores de “granjas de bots” han ido perfeccionándolos con el tiempo, emulando cada vez mejor el comportamiento humano. Algunas herramientas como Botometer tratan de detectar bots de Twitter, monitorizando datos públicos de la cuenta y comparándolos con los patrones típicos de cuentas reales. “Si se detectan desviaciones la probabilidad que se trate de un bot es mayor”, explica Alessandro Bernardi, analista de redes sociales y cofundador de Social Elephants.

Por ejemplo, si analizamos la actividad del perfil oficial del FC Barcelona en Twitter (@FCBarcelona_es), Botometer nos indica que tiene 0.1/5 probabilidades de ser un bot, es decir que tiene un comportamiento muy humano:

Botometer establece que la cuenta de Twitter @FCBarcelona_es solo tiene 0.1/5 probabilidades de ser un bot (Botometer)

En el caso del Barçagate las supuestas cuentas falsas son páginas de Facebook, una red social que ofrece muy pocos datos públicos, lo que limita mucho poder identificar si se trata de bots o no. Un estudio de la israelí Reblaze llamado El Estado de la Protección de los Bots 2019 muestra que 62% de los usuarios de internet, donde se incluyen las redes sociales, son bots. Y de esos, el 38% son denominados “malos”, es decir, que atentan contra la integridad de las personas, de las empresas o son usadas en favor de un gobierno o partido político. “Según un reportaje de Wired con datos de Robhat Labs se ha estimado que en el caso de ciertos eventos de debate político los bots pueden llegar a contribuir hasta un 60% de toda la actividad”, afirma Bernardi.

Bots de guerrilla usados para destruir, acosar y promover discursos de odio. Una sutileza y hostilidad que preocupa tanto a autoridades como a empresarios y a usuarios de las redes.

Aunque en realidad, según Bernardi, en el caso del Barçagate no haría falta usar bots para realizar una acción en redes sociales: “Con un presupuesto de un millón de euros sería más fácil poner un equipo humano a gestionar personalmente ciertas cuentas distribuyendo ciertos contenidos estratégicamente preparados”.

Sean humanos o bots los que estén detrás de estos perfiles de Facebook, la verdad es que es muy difícil descubrir quién es el verdadero emisor de los mensajes y quién está detrás de todas las publicaciones que difaman a jugadores. Y aquí está el quid de la cuestión: si es el FC Barcelona el que desarrolla su propia campaña o si se trata de una fuente externa. Las dudas son muy amplias y la incertidumbre se ciñe sobre la sombra del propio Bartomeu. El Barça rompía su contrato con I3 Ventures, al mismo tiempo que I3 Ventures negaba haber cobrado un millón de euros del Barça para monitorizar las redes.

¿Las redes sociales están haciendo algo para frenar la presencia de bots?


Twitter lleva tiempo diciendo que está trabajando en un “sello” (similar al de las cuentas verificadas) para poder distinguir entre cuentas de humanos y de bots. “Tanta tiene que ser la desesperación de esta red social que recientemente su fundador (Jack Dorsey) le llegó a preguntar a Elon Musk si se les ocurría una manera de ‘arreglar Twitter’”, explica Bernardi.

De todas formas Twitter ya ha bloqueado unas cuantas de las cuentas implicadas en el reciente Barçagate. A lo mejor por denuncia de alguien o porque la misma red social ha detectado un comportamiento anómalo que incumple sus normas, no necesariamente de bot:


Twitter ha bloqueado alguna de las cuentas en Twitter vinculadas al 'Barçagate' (Twitter)

Alessandro Bernardi ha analizado en Botometer las distintas cuentas que en la información de la Cadena Ser se citan como bots y que no aparecen como bloqueadas. “En dos casos detectamos algo de probabilidad que realmente sea un bot, pero por ejemplo la cuenta de ‘Mes Que un Club’, sale un comportamiento prácticamente humano. Así que quizás tendríamos que dejar de pensar si hablamos de bots o no, y poner el foco en si hubo o no una estrategia maliciosa y un intento de manipulación, aunque sea que fuera operado por humanos”.

Según la actividad de la cuenta en Twitter de @AlterSports, Botometer detecta que tiene 2,1/5 probabilidades de ser un bot (Botometer) Según la actividad de la cuenta @SportsLeaksCom en Twitter, Botometer detecta que tiene 1,4/5 probabilidades de ser un bot (Botometer) Según la actividad de la cuenta @MésQueUnClub en Twitter, Botometer detecta que tiene 0,2/5 probabilidades de ser un bot (Botometer)

A modo de ejemplo, el analista de redes sociales y cofundador de Social Elephants ha elaborado para La Vanguardia una monitorización del hashtag #bartomeuOUT durante esta semana, antes y después que saliera a la luz la información de la Cadena Ser sobre las supuestas cuentas falsas de Facebook.

Social Elephants ha contabilizado más de 90.000 tuits esta semana con el hahstag #bartomeuOut:
Este gráfico muestra la actividad de unos 90.000 tuits que usaron el hashtag #bartmeuOUT en Twitter entre el 12 y el 20 de febrero. (Social Elephants)

Los autores de los tuits son sobre todo hombres y medios de comunicación:
Los autores de los tuits que han usado el hashtag #BartomeuOUT entre el 12 y el 20 de febrero son sobre todo hombres y medios (Social Elephants)

Los usuarios son en su mayoría de Barcelona: Los usuarios que han usado el hashtag #bartomeuOUT entre el 12 y el 20 de febrero son en su mayoría de Barcelona (Social Elephants)

Analizando las conversaciones, este mapa identifica quién habla con quién y cuáles son los diferentes grupos de usuarios que hablan de temas en común (identificados por colores diferentes). Los usuarios que aparecen como destacados son los usuarios mas centrales (los que catalizan las conversaciones recibiendo más respuestas, retuits o menciones) en la conversación sobre el hashtag #bartomeuOUT:

  Los usuarios que aparecen como destacados, son los más centrales (los que catalizan las conversaciones recibiendo más respuestas, retuits o menciones) en la conversación sobre el hashtag #bartomeuOUT (Social Elephants y Gephi)

También puede ser interesante tratar de identificar bots que hayan usado el hashtag #bartomeuOUT, por ejemplo buscando entre los usuarios que sospechosamente hacen muchos retuits a los demás: Estos son los usuarios que sospechosamente hacen muchos RTs a los demás con el hashtag #bartomeuOUT (Social Elephants)

Entre estos destaca el caso de @BartomeuVerdugo. Esta cuenta tiene solo seis seguidores y más de 300 retuits tan solo a tuits que contienen el hashtag #bartomeuOUT:
Curioso el caso de @BartmoeuVerdugo con tan solo 6 followers y mas de 300 Retweets tan solo a tweets que contengan el hashtag #bartmeuOUT (Twitter)

Irónico que en su perfil, este usuario se defina como “no soy un robot”. Sin embargo, como siempre hay bots que saben disimular peor o mejor, Botometer es bastante claro en identificarlo como bot con un 3.9/5 de probabilidad:
Según la actividad de la cuenta @BartmoeuVerdugo en Twitter, Botometer detecta que tiene 3,9/5 probabilidades de ser un bot (Botometer)

Tras este análisis, podemos concluir que la guerra de bots no solo la juega una parte. Sea o no sea el FC Barcelona quien está detrás de las cuentas falsas que refuerzan la imagen de Bartomeu y atacan a los jugadores, lo que sí es cierto es que, como en todos los ámbitos de la vida, la guerra también se lucha desde el otro lado. Todo es un tira y afloja en el que existen bots para todos los gustos.

martes, 16 de julio de 2019

Contaminación de información vía bot sociales: Puede ser muy fácil

Contaminación de la información por bots sociales.

Xiaodan Lou, Alessandro Flammini, Filippo Menczer
ArXiv




Las redes sociales son vulnerables a los robots sociales engañosos, que pueden hacerse pasar por humanos para amplificar la información errónea y manipular las opiniones. Poco se sabe acerca de las consecuencias a gran escala de tales operaciones de contaminación. Aquí presentamos un modelo de información basado en agentes con preferencia de calidad y atención individual limitada para evaluar el impacto de diferentes estrategias que los robots pueden explotar para contaminar la red y degradar la calidad general del ecosistema de información. Descubrimos que penetrar en una fracción crítica de la red es más importante que generar contenido que llame la atención y que apuntar a usuarios aleatorios es más dañino que apuntar a nodos centrales. El modelo es capaz de reproducir patrones empíricos sobre la amplificación de la exposición y la viralidad de la información de baja calidad. Discutimos las ideas proporcionadas por nuestro análisis, con un enfoque en el desarrollo de contramedidas para aumentar la resistencia de los usuarios de las redes sociales a la manipulación.




jueves, 22 de noviembre de 2018

Bots difunden noticias falsas pero pueden ser combatidos

Los bots difundieron muchas falsificaciones durante las elecciones de 2016. Pero también pueden desacreditarlo.

Por Daniel Funke · Poynter





Desde las elecciones estadounidenses de 2016, ha habido mucha especulación sobre el papel que desempeñaron los robots en la difusión de información errónea en línea. Y ahora, ese papel ha sido cuantificado.

Según un estudio publicado hoy en la revista Nature Communications, las cuentas automáticas de Twitter amplían de manera desproporcionada la información errónea durante las últimas elecciones en los Estados Unidos. Descubrió que, si bien los bots solo representaban alrededor del 6 por ciento de los usuarios de Twitter en el estudio, eran responsables del 34 por ciento de todas las acciones de artículos de fuentes de "baja credibilidad" en la plataforma.

"Este estudio encuentra que los bots contribuyen significativamente a la diseminación de información errónea en línea, y también muestra la rapidez con la que se pueden propagar estos mensajes", dijo Filippo Menczer, profesor de informática y ciencias de la computación en la Universidad de Indiana, y el director del estudio, en un comunicado de prensa. enviado a Poynter.

Los investigadores analizaron 14 millones de tweets y 400,000 artículos compartidos en Twitter entre mayo de 2016 y marzo de 2017. Para determinar si algo era una fuente de baja credibilidad, se basaron en recursos de sitios como PolitiFact (propiedad de Poynter), que ha compilado una lista de sitios web conocidos por difundir información falsa o engañosa en línea.

Esas fuentes abarcan desde sitios satíricos como The Onion hasta sitios de noticias falsas como USAToday.com.co. Esa es una gran brecha, pero en las plataformas sociales como Twitter, la línea entre la desinformación y la sátira es notoriamente borrosa, y los usuarios se dividen cuando uno se convierte en el otro.

Para rastrear cómo los bots amplificaban la información errónea de estas fuentes, los autores del estudio utilizaron dos herramientas de IU: Hoaxy y Botometer. La primera es una plataforma que rastrea la propagación de reclamaciones en línea, mientras que la segunda es un algoritmo de aprendizaje automático que detecta bots en las redes sociales.

El estudio compara principalmente las distribuciones de puntajes de bot de Botometer, que identifican bots basados ​​en miles de otros ejemplos. Los autores mitigaron los falsos positivos y negativos al establecer un umbral de 2.5 / 5, una puntuación que, según Menczer, tenía el mayor grado de precisión en su algoritmo.

Aparte de su papel en la amplificación del alcance de la desinformación, los bots también desempeñan un papel crítico en su despegue en primer lugar. Según el estudio, es probable que los bots amplifiquen los tweets falsos justo después de su publicación, antes de que se vuelvan virales. Luego los usuarios los compartieron porque parecía que mucha gente ya los tenía.

"Las personas tienden a confiar más en los mensajes que parecen provenir de muchas personas", dijo el coautor Giovanni Luca Ciampaglia, profesor asistente de ciencias de la computación en la Universidad del Sur de la Florida, en el comunicado de prensa. "Los bots se aprovechan de esta confianza al hacer que los mensajes parezcan tan populares que se engaña a personas reales para que difundan sus mensajes por ellos".

El estudio sugiere que Twitter reduzca el número de cuentas automatizadas en las redes sociales para reducir la amplificación de la desinformación. La compañía ha logrado algunos avances hacia este fin, suspendiendo más de 70 millones de cuentas solo en mayo y junio. Más recientemente, la compañía derribó una red de bots que impulsó puntos de vista pro saudíes sobre la desaparición de Jamal Khashoggi y comenzó a permitir que los usuarios informen sobre posibles cuentas falsas.

No obstante, los bots siguen causando estragos en Twitter, y algunos no se utilizan para difundir información errónea en absoluto. Entonces, ¿qué deberían hacer los verificadores de datos para combatir su papel en la difusión de información errónea?

Tai Nalon ha pasado la mayor parte del año pasado tratando de responder esa pregunta, y su respuesta es vencer a los robots en su propio juego.

"Creo que la inteligencia artificial es la única forma de abordar la desinformación, y tenemos que crear bots para abordar la desinformación", dijo el director de Aos Fatos, un proyecto brasileño de verificación de hechos. “(Los periodistas) tienen que llegar a las personas donde están leyendo las noticias. Ahora en Brasil, están leyendo en las redes sociales y en WhatsApp. Entonces, ¿por qué no estar allí y automatizar los procesos utilizando las mismas herramientas que usan los malos? "

En el período previo a las elecciones del mes pasado en Brasil, Aos Fatos creó un bot de Twitter que corrige automáticamente a las personas que comparten noticias falsas. Llamada Fátima, la cuenta automatizada aprovecha AI para escanear Twitter en busca de URL que coincidan con las comprobaciones de hechos en la base de datos de artículos de Aos Fatos. Luego, el bot responde al usuario de Twitter con un enlace a la verificación de hechos. (Divulgación: Fátima ganó la donación instantánea de International Fact Checking Network para Brasil).



Desde el lanzamiento de Fátima durante el verano, Nalon le dijo a Poynter que el bot ha escaneado más de 12,000 enlaces y tuiteado casi 2,500 respuestas a una variedad de usuarios. Nalon dijo que eso es importante porque no todos los tweeters que comparten información errónea van a seguir a los verificadores de datos o incluso a las organizaciones de medios verificadas. Bots como Fátima aseguran que todos los usuarios tengan acceso a la información verificada, independientemente de sus propios silos de información.

“Creo que la tecnología puede escalar nuestro trabajo. Nuestro mayor desafío es llegar a las personas que no tienen acceso a la verificación de datos ", dijo Nalon. "Con Fátima, por ejemplo ... cada vez que tuitea un enlace con una respuesta a alguien, mucha gente va allí y le gusta y le dice cosas a las personas que compartieron la información errónea".

Aos Fatos es uno de los pocos medios de verificación de datos para construir un bot de Twitter que corrige automáticamente la información errónea. Y Nalon dijo que uno de sus objetivos para 2019 es extender la herramienta a más verificadores de hechos, comenzando con Chequeado en Argentina.

“Lo que los periodistas necesitan es construir formas de meditar, y no estaremos mediando solo usando las herramientas que Facebook y Twitter nos dan. Tenemos que construir herramientas dentro de Facebook, Twitter y WhatsApp ”, dijo Nalon. "Creo que, si estamos creando conciencia, también podemos aumentar la confiabilidad - y en realidad hackear la forma en que la gente ve a los robots".


sábado, 21 de abril de 2018

Radiografía ARS de un ataque de bots en Twitter

¡Cuando los bots atacan!

Alguien compró a mi cuenta de Twitter unos 10 mil seguidores falsos / bots, y esto es lo que aprendí sobre las herramientas de detección de spam de Twitter

Geoff Golberg | Medium
Cofundador de Elementus | Presentado en Adweek, Forbes, IB Times y Huffington Post, entre otros | geoffgolberg.com



Representación de grafo de red de mis seguidores de Twitter (¡gran punto gris soy yo, Geoff Golberg!). Cada punto es uno de mis seguidores de Twitter. La versión interactiva es fantástica cuando se ve en el escritorio (use el touchpad / mouse para moverse / acercarse, pase el cursor sobre los puntos para revelar la cuenta, haga clic para observar la interconectividad). Crédito gráfico: Max Galka

La historia primero, los datos después

A menos que haya estado viviendo bajo una roca, es probable que haya leído el informe de investigación de The New York Times, "The Follower Factory". La pieza se sumerge profundamente en la compra de seguidores de Twitter falsos / bot. Yo también tengo algo de experiencia con seguidores de Twitter falsos / bot. Tengo una historia Tengo algunos datos.

Supongo que un buen lugar para comenzar sería este tweet del profesor de Stanford, Johan Ugander: es parte de una tormenta de tweets conectado a "The Follower Factory" y te animo a leer el hilo en su totalidad:


Escribir una publicación sobre cuentas de Twitter falsas / bot es algo que he pospuesto por demasiado tiempo. Puedo relacionarme con el escenario hipotético que describe Johan, ya que fui atacado de esta manera hace un par de años. Descubrir ese tweet fue el empujón que necesitaba para finalmente abordar esta publicación (¡gracias, Johan!).

En enero de 2016 noté que mi cuenta de Twitter estaba ganando seguidores a un ritmo ridículo:


Estoy seguro de que mi cuenta fue "maliciosamente [dirigida] por alguien con seguidores de bot para hacer que [me] se vea mal".

Dejame explicar.

El ataque de los Bots

Unos días antes del aumento en los seguidores de Twitter, twitteé lo siguiente:


MeVee surgió de la nada, lanzando una aplicación de video en vivo a principios de 2016, en lo que era un sector muy caliente en ese momento. El seguimiento en Twitter de MeVee (15K +) fue una señal de alerta inmediata para mí, considerando que acababan de lanzarse, así que decidí revisar manualmente los seguidores de Twitter más recientes de la cuenta. Después de encontrar lo que parecía ser principalmente cuentas falsas / bot, ejecuté la cuenta a través de TwitterAudit. TwitterAudit ciertamente no es perfecto, pero me ha impresionado su precisión (más sobre esto más adelante). Como sospechaba, TwitterAudit reveló que la mayoría (93%) de los seguidores de Twitter de MeVee eran falsos.

¿Por qué una aplicación lanzada recientemente compraría seguidores de Twitter? La respuesta es simple: la prueba social (es decir, tener más seguidores en Twitter puede afectar la percepción de MeVee).

Para su crédito, MeVee respondió a mi tweet en lugar de ignorarlo:




La cuenta de Twitter de MeVee ha cambiado su manejador de @MeVeeApp a @buildwithcrane. La cuenta ahora está asociada con Crane AI, que no tiene nada que ver con el video en vivo (MeVee ya no existe)
La respuesta ("alguien desde el principio accidentalmente compró algunos seguidores") me dio una buena risa. Varias personas nombradas en el informe del New York Times señalaron de manera similar con el dedo en otro lugar (empleados, familiares, agentes, compañías de relaciones públicas, amigos) cuando se enfrentaron.

Si bien no puedo decir definitivamente que alguien con vínculos de MeVee atacó mi cuenta, lo que definitivamente puedo decir es que no compré los seguidores. Muy fácilmente podría haber sido un tercero que se encontró con nuestro intercambio de Twitter y pensó que sería divertido inundar mi cuenta con seguidores falsos / bot. En cualquier caso, la identidad del culpable no es central en la historia / datos que estoy compartiendo.

En última instancia, cualquiera puede comprar seguidores de Twitter falsos / bot en su cuenta de Twitter. ¿Sabía usted eso?

Mientras que unos días antes estaba recomendando herramientas para facilitar la eliminación de MeVee de seguidores de Twitter falsos / bot, ahora me encontré en una posición en la que mi cuenta de Twitter estaba siendo "maliciosamente [apuntada] por alguien con seguidores de bot para hacer que me viera mal "

En ese momento, trabajaba como creador / consultor de contenido de video en vivo. Fue un trabajo que realmente disfruté, especialmente cuando se trataba de viajes, como fue el caso cuando me asocié con Heineken durante los Juegos Olímpicos de Río, por ejemplo:


Trabajando como un "influencer" (prefiero mucho "creador"), me sentí muy orgulloso de asegurar que mi seguimiento de Twitter fuera limpio / de fiar. En otras palabras, no quería que mi cuenta fuera seguida por cuentas de Twitter falsa / bot, lo que podría ser malo para los negocios.

Los expertos en marketing están investigando / analizando las audiencias de los creadores con quienes se asocian más allá de simplemente mirar el alcance (es decir, el número de seguidores). La mayoría de los especialistas en marketing, sin embargo, no emplean procesos sofisticados para garantizar que se mantengan alejados de los socios que a sabiendas juegan con el sistema mediante la compra de seguidores / compromisos sociales. Mi deseo de mantener un seguimiento limpio / legítimo de Twitter fue impulsado por la necesidad. No quería perder ningún trabajo por la apariencia de que estaba representando falsamente mi alcance / influencia.

Desde que me uní a Twitter (marzo de 2009), de hecho, y mucho antes de ingresar al video en vivo, regularmente revisaba mis seguidores para asegurarme de que fueran cuentas reales. Como resultado, puedo decir con confianza que probablemente tengo más cuentas de Twitter bloqueadas que tú. (~ 3.3K cuentas, para ser precisos)

El marketing de Influencer está completamente roto, por cierto, pero lo guardaré para una futura publicación.

Bueno, Mierda. Esto apesta

No me llevó mucho tiempo darme cuenta de que mi cuenta de Twitter estaba siendo atacada (en lo que a mí respecta) por cuentas falsas / bot.

Después de frustrarme con el bloqueo de las cuentas infinitas de bots falsos / bots, opté por cambiar mi configuración para "Proteger [mis] tweets". Al suscribirse a Twitter, los tweets son públicos por defecto y cualquiera puede seguir cualquier cuenta. Cuando los tweets están protegidos, las personas deben hacer una solicitud para seguir. Por lo tanto, cambiar mi cuenta a privado aliviaría la carga de bloquear cuentas.

La protección de tweets no es una solución ideal, ya que los tweets de cuentas privadas solo pueden ser vistos por los seguidores. Esto limita la visibilidad y, por extensión, dificulta el compromiso / la interacción. Otra desventaja de tener una cuenta privada es que tus tweets ya no pueden ser retuiteados. Twitter funciona como un vehículo fantástico para amplificar contenido (mediante descubrimiento / retweets); sin embargo, ese valor no puede ser capturado por cuentas privadas de Twitter. Estar limitado a la utilización de Twitter en el marco de una red privada degrada enormemente tanto la utilidad como la experiencia del usuario. Tener una cuenta privada significaba que ya no podía aprovechar Twitter de manera efectiva.

A continuación, llamé a varios empleados de Twitter para ver si podían ofrecer consejos / soluciones. El resultado de esos intercambios fue este: no se preocupen por los seguidores falsos / bot, ya que Twitter friega regularmente su ecosistema y las cuentas falsas / bots serán eliminadas, eventualmente. También archivé un boleto con el Centro de ayuda de Twitter, pero no recibí una respuesta (vale la pena señalar que no se proporcionó un número de ticket ni un correo electrónico de confirmación).

Poco tiempo después cambié mi cuenta a pública, dando a Twitter el beneficio de la duda. Durante las próximas semanas, mi cuenta de Twitter creció de ~ 4.6K seguidores a ~ 11.7K "seguidores" (del 7 de enero de 2016 al 29 de enero de 2016):



Fuente: TwitterCounter.com (Feb '18)
Más de dos años después, todavía estoy esperando que se eliminen miles de cuentas falsas / bot de Twitter / mi lista de seguidores.

Ya es suficiente con la historia, vayamos a los datos

(Llévame de vuelta a la historia)

Como ilustraré, y aplicando múltiples enfoques / herramientas, es relativamente fácil identificar cuentas de Twitter falsas / bot. Además, contrariamente a la creencia popular, Twitter es bastante efectivo para identificar cuentas de spam.

Según Nick Bilton (autor de "Hatching Twitter"): "Twitter sabía acerca de todos sus seguidores falsos, y siempre lo ha hecho, eliminando suficientes bots para que parezca que les importa, pero no lo suficiente como para afectar la cantidad percibida de activos. usuarios en la plataforma ".

Luego de una inspección más cercana de lo que ocurre bajo el capó de Twitter, resulta evidente que la afirmación de Nick describe perfectamente el enfoque de Twitter para lidiar con cuentas falsas / bot.

1) Representación de grafo de red



@ seguidores de geoffgolberg (a partir de mayo '17)

Una vez más, esta es una representación gráfica de red de mis seguidores de Twitter. Cada punto es uno de mis seguidores de Twitter. Los colores representan las comunidades (determinadas por la interconexión) y el tamaño de cada círculo representa cuán central es el seguidor / cuenta en la comunidad.

Dado que esta es mi propia red de Twitter, rápidamente queda claro lo que cada comunidad representa. Cuando se realizan análisis similares para otras cuentas, donde uno carece del mismo nivel de familiaridad, puede requerir un poco más de trabajo de campo.

El gráfico anterior incluye una leyenda para evitarle el dolor (personalmente, ¡me gusta este proceso!) De intentar identificar a cada comunidad. Lo que inmediatamente se destaca son los racimos verdes. Mientras que los clusters no verdes reflejan una conectividad significativa entre las comunidades, los clusters verdes están, en su mayor parte, desconectados del resto de las comunidades. Los seguidores falsos / bot que se compraron para mi cuenta comprenden la gran mayoría de los puntos verdes. Una pequeña porción de los puntos verdes son seguidores reales, simplemente cuentas que no están conectadas con el resto de mis seguidores de Twitter (algunos amigos de la escuela secundaria, por ejemplo, aparecen en los clusters verdes).

¡Dirígete a la versión interactiva para buscar tu cuenta y explorar!

2) TwitterAudit.com

TwitterAudit se fundó en 2012. De forma gratuita, uno puede auditar sus propias / otras cuentas de Twitter. TwitterAudit toma una muestra aleatoria de (hasta) 5K de los seguidores de una cuenta y luego puntúa a cada uno de esos seguidores. Su algoritmo evalúa un conjunto de variables (algunas de las cuales incluyen: número de tweets, fecha del último tweet, proporción de seguidores y seguidores) y luego determina si cada seguidor es real o falso. Su oferta paga (PRO) le permite a uno ejecutar su cuenta a través de un mayor número de sus seguidores, en lugar de estar limitado por 5K, como es el caso de la oferta gratuita.

Un puntaje de auditoría del 98%, por ejemplo, significa que TwitterAudit ha determinado que el 98% de los seguidores de la cuenta es real. Antes de comenzar una ronda de bloqueo de seguidores falsos / bot en septiembre de 2015, tenía un puntaje de TwitterAudit del 98% (78 seguidores falsos de ~ 4K seguidores):


En febrero de 2018, más de dos años después de que mi cuenta de Twitter fue atacada por cuentas falsas / bot, TwitterAudit determinó que ~ 4K de mis seguidores eran falsos (70% de puntaje de auditoría):




Aquí está el crecimiento de esos seguidores falsos, en relación con el crecimiento de mis seguidores en Twitter en general:



@ seguidores de geoffgolberg (seguidores "falsos" según lo determinado por TwitterAudit, Feb '18)

Como mencioné anteriormente, mantener un seguimiento limpio / legítimo de Twitter siempre ha sido importante para mí. Esto se evidencia por el hecho de que el primer seguidor falso identificado por TwitterAudit fue mi seguidor 1.680 (en otras palabras, evité seguidores falsos durante mis primeros ~ 6 años como usuario de Twitter). A continuación se muestra una tabla que resume los datos de TwitterAudit:


3) API de Twitter

El informe del New York Times empleó una táctica muy inteligente para identificar a los seguidores falsos / bot. Su enfoque implica trazar los seguidores de una cuenta (primero a más reciente) en la fecha en que se creó cada cuenta (seguidor) respectiva. El siguiente ejemplo, cortesía del editor gráfico del New York Times, Rich Harris, hace un excelente trabajo al ilustrar patrones que señalan a los seguidores falsos / bot:


El profesor de Credit Columbia, Mark Hansen, con el descubrimiento de la huella dactilar

Poco después de leer "The Follower Factory", me encontré con una publicación de Elaine Ou, donde aplica el mismo análisis a su propia cuenta de Twitter. Elaine revisa los seguidores del columnista del New York Times Paul Krugman ("por el bien de la objetividad periodística") y Eric Schneiderman, el Fiscal General de Nueva York, también (Schneiderman abrió una investigación tras el informe del New York Times). Elaine escribió un código de Python para reproducir los diagramas de dispersión del estilo del New York Times, y tuvo la amabilidad de vincularlo al final de su publicación.

Estos son los resultados de ejecutar el script de Elaine para mi cuenta de Twitter:


@ seguidores de geoffgolberg (Feb '18; excluye "cuentas sospechosas de spam")

Aquí es donde las cosas se ponen interesantes.

A pesar de tener más de 13K seguidores en ese momento, el script solo devolvió ~ 9.4K seguidores (el ataque del seguidor falsa / bot puede verse desde ~ 3.6K a ~ 5.1K seguidores). Decidí buscar en el Centro de ayuda de Twitter y encontré la sección "Mi conteo de seguidores está equivocado". Una frase que decía "Para ver la lista completa de sus seguidores, incluidas las cuentas sospechosas de spam, apague el filtro de calidad en su configuración" me llamó la atención. Aquí hay más información sobre el filtro de calidad (también desde el Centro de ayuda de Twitter):



Cada cuenta de Twitter tiene un filtro de calidad (que se lanzó en agosto de 2016) activado por defecto. Traducido: Twitter quiere ocultar las cuentas que han identificado como "cuentas sospechosas de correo no deseado" de su lista de seguidores. Si un usuario desea ver la lista completa de sus seguidores, debe desactivar el filtro de calidad en su configuración. Este hallazgo me llevó a twittear las siguientes preguntas:


Con el filtro de calidad ahora desactivado, el script de Elaine todavía devolvió ~ 9.4K seguidores para mi cuenta. Su secuencia de comandos está utilizando la llamada a la API GET followers / list para obtener una lista de seguidores de la cuenta. Alternativamente, esto se puede hacer usando la llamada a la API GET followers / ids.

Este último devolvió mi lista completa de seguidores, haciendo coincidir el número que aparece en mi perfil de Twitter (más de 13K).

Aquí está el diagrama de dispersión del estilo del New York Times (reproducido usando Excel) para mi lista completa de seguidores:


Los seguidores de @ geoffgolberg (Feb '18; incluye "cuentas sospechosas de spam")

El ataque comprendió ~ 1.5K cuentas en el primer diagrama de dispersión, mientras que aquí, que refleja el conteo de seguidores reales mostrado por Twitter, el ataque recoge unas cuentas adicionales de 4K (el ataque falso / seguidor del robot ahora se puede ver desde ~ 3.7K a ~ 9.2K seguidores). Esas cuentas ~ 4K han sido identificadas por Twitter como "cuentas sospechosas de spam"; sin embargo, por alguna razón, las cuentas no se suspenden ni eliminan.

A continuación, decidí comparar la lista parcial de mis seguidores (OBTENER seguidores / enumerar llamada API) con mi lista completa de seguidores (GET seguidores / ids llamada API). Estas son las "cuentas sospechosas de correo no deseado" (es decir, no devueltas por la API llamada GET followers / list) expresadas como un porcentaje de mi lista completa de seguidores (es decir, cuentas devueltas por la API de ID / seguidores de GET):



Con la excepción del ataque, la API de Twitter siempre devolvió ~ 1% de seguidores como cuentas identificadas por Twitter como "cuentas sospechosas de correo no deseado" (cada período de tiempo abarca al menos un año y entre miles de seguidores). Sin embargo, durante el mes de enero de 2016, Twitter ha marcado el 73% de las cuentas que siguieron a mi cuenta como "cuentas sospechosas de correo no deseado" (nuevamente, más de 4K cuentas / seguidores). En otras palabras, más de 4K de los 13.600 seguidores reflejados en mi perfil de Twitter son "cuentas sospechosas de spam", al menos, según las herramientas de detección de spam de Twitter.

Esto no es un error ni está aislado de mi cuenta. La plataforma completa de Twitter se basa en recuentos engañosos / inflados de seguidores / seguidores, que incluyen cuentas que los mismos Twitter han identificado como "cuentas sospechosas de correo no deseado" (y se han identificado como tales durante años).

Discutiré por qué eso importa más adelante en la publicación; primero analizaremos más de cerca los datos de los diversos enfoques / herramientas.

Comparando los tres enfoques

Para esta sección, el análisis se centrará en el período de tiempo de ataque (del 7 de enero de 2016 al 29 de enero de 2016).

En el contexto del ataque, el enfoque del grafo de red es el más preciso para identificar seguidores falsos / bot. Ciertamente hay muchos puntos verdes / seguidores que son cuentas reales; sin embargo, es mucho más probable que esas cuentas sigan fuera de las fechas de ataque.

Traducido: los amigos de la escuela secundaria mencionados anteriormente, por ejemplo, que forman parte de los clusters verdes, están allí porque están desconectados del resto de mis comunidades, no porque sean cuentas falsas / bot. Es mucho más probable que lo hayan seguido en el primer período de tiempo (marzo de 2009 a diciembre de 2014) que 7 años después de que me uní a Twitter durante el ataque que duró solo unas semanas en enero de 2016. Durante el período de ataque, los grupos verdes desconectados tienden a señalar cuentas falsas / bot, en lugar de cuentas más amplias que están desconectadas del resto de mis comunidades.

Antes de saltar a los datos, aquí hay una visualización de ~ 200 cuentas que siguieron durante el período de ataque (¡encienda su audio mientras mira!). La primera columna es roja cuando la representación del gráfico de red refleja estar en los clústeres verdes (es decir, cuentas falsas / bot). La segunda columna es roja cuando la API de Twitter refleja ser una "cuenta sospechosa de spam". La tercera columna es roja cuando TwitterAudit refleja que es una cuenta falsa. Las cuentas que fueron suspendidas por Twitter (entre junio de 2017 y febrero de 2018) son de color naranja, mientras que las cuentas que fueron eliminadas por Twitter (el mismo período de tiempo) son de color gris:

Tenga en cuenta la cadena de ~ 30 seguidores donde los tres enfoques indican que las cuentas que siguen son reales. Esto sucedió el 19 de enero de 2016, después de haber sido nominado por los premios Shorty Awards para Periscoper of the Year (recogiendo esos seguidores reales, en sucesión, como resultado):


El enfoque del grafo de red identifica el 97% de las cuentas que siguieron durante el ataque (5,419 de 5,583) para ser cuentas falsas / bot (puntos verdes). Entre junio de 2017 y febrero de 2018 (9 meses), Twitter suspendió solo 50 de esas cuentas, mientras que otras 36 fueron eliminadas.

La API de Twitter identifica 4.013 "cuentas sospechosas de correo no deseado" que siguieron durante el ataque. El 98.7% de esas cuentas también fueron determinadas como cuentas falsas / bot por el gráfico de red. En otras palabras, Twitter aplica el identificador de "cuenta sospechosa de correo no deseado" solo una vez que tienen un alto nivel de confianza.

TwitterAudit identifica 3.903 cuentas falsas que siguieron durante el ataque. El 98.8% de esas cuentas también fueron determinadas como cuentas falsas / bot por el gráfico de la red. Al igual que Twitter, cuando TwitterAudit identifica una cuenta como spam / falso, hay una gran probabilidad de que sea, de hecho, una cuenta falsa / bot.

Tanto Twitter como Twitter Audit no identifican ~ 1.5K cuentas falsas / bot contra el gráfico de red.

Cuando Twitter marcó una cuenta como spam, hubo una probabilidad del 76.6% de que TwitterAudit también identificara la cuenta como una cuenta falsa / bot. Cuando TwitterAudit determinó que una cuenta era falsa, había un 78.8% de posibilidades de que la cuenta también fuera identificada como una cuenta de spam / falsa por Twitter.

Hubo 3,049 cuentas donde los tres enfoques determinaron que la cuenta es una cuenta falsa / bot.

Aquí hay otra forma de visualizar el conjunto de datos (las cuentas suspendidas por Twitter son amarillas, las cuentas eliminadas por Twitter son azules):


Sentido de todo

Anteriormente, hice la siguiente afirmación: la plataforma completa de Twitter se basa en seguidores engañosos / inflados / siguientes recuentos

La presencia de cuentas falsas / bot no debería ser la clave de esta publicación. Lo que es notable es que Twitter es bastante bueno para identificar cuentas de spam, simplemente eligen eliminar una fracción de estas cuentas falsas / bot.

¿Por qué no eliminarlos a todos?

Twitter es una compañía que cotiza en bolsa. Cada trimestre, entre otras cosas, Twitter informa sus MAU (usuarios activos mensuales). Es una medida clave que los accionistas (potenciales) evalúan al tomar decisiones de inversión. Durante la llamada a las ganancias del tercer trimestre de Twitter, se reveló que Twitter había exagerado su recuento de MAU durante los últimos tres años.

En el caso de mi cuenta de Twitter, Twitter actualmente refleja tener 13.500 seguidores:



Este número, sin embargo, incluye ~ 4K cuentas que los mismos Twitter han identificado como "cuentas sospechosas de correo no deseado". Desde la perspectiva de un usuario de Twitter, me sentiría mucho más cómodo usando la plataforma sabiendo que los seguidores / siguientes conteos presentados son más precisos representación de la realidad. Además, cuando se interactúa con otras cuentas, es posible que los usuarios incluyan estos recuentos como señales que procesan cuando evalúan la credibilidad de las cuentas con las que interactúan.

Desde la perspectiva de un anunciante, tener recuentos de seguidores / seguidores que reflejen cuentas que en realidad están siendo utilizadas por seres humanos (es decir, menos "cuentas sospechosas de correo no deseado" de Twitter) es críticamente importante. Lo que es más importante, ¿filtra Twitter los compromisos / acciones que involucran "cuentas sospechosas de correo no deseado" al determinar qué eventos / acciones son facturables a los anunciantes? Si los anunciantes no reciben una factura en esos casos, ¿por qué esas cuentas se reflejan en los seguidores / conteos siguientes?

OK, ¿cuál es tu punto?

Las implicaciones de la decisión de Twitter de eliminar solo una fracción de las cuentas falsas / bot son mucho más amplias que las de un solo usuario (yo, en este caso), molesto.

A principios de este mes, mientras revisaba las cuentas que seguían las mías, simplemente ordenaba a mis seguidores por la cantidad de tweets que cada cuenta publicaba. Después de notar que uno de mis seguidores tenía una cantidad alarmantemente grande de tweets, decidí investigar un poco más, luego compartí mis hallazgos en este hilo:

¡Asegúrate de leer el hilo completo!

Al día siguiente noté que Twitter había suspendido la cuenta de Twitter @nine_oh. Twitter habría (probablemente) continuado contando la cuenta como un usuario activo mensual si no se hubiera puesto en su conocimiento, y esa es la parte más problemática. Vale la pena señalar que la cuenta fue marcada por Twitter como una "cuenta sospechosa de spam" antes de ser suspendida.

En este caso particular, se estaba utilizando una cuenta que reflejaba tener más de un millón de seguidores para amplificar los tweets conservadores de Trump. Es de suponer que el algoritmo de Twitter ve los retweets de cuentas con gran cantidad de seguidores como una señal favorable, ya sea que Twitter haya determinado que muchos de esos seguidores son "sospechosos de cuentas de spam". A menudo, lo que sucede es que las redes de cuentas retuitean los mismos tweets / tweets un corto período de tiempo. Esto probablemente se haga como un intento de juego del algoritmo de Twitter, dando a los tweets / tweets más visibilidad en las líneas de tiempo de los usuarios. En otras palabras, es un esfuerzo coordinado para impactar el flujo de información a través de la plataforma de Twitter:


El problema no es específico de Trump / tweets conservadores. Sucede en todo el espectro político y se extiende a muchos países.

Todo se reduce a esto: Twitter tomó la decisión de poner la rentabilidad por delante de la democracia.

Responsabilidad

A principios de este mes, Twitter emitió una RFP (solicitud de propuesta) en la que buscaba la dirección del público para ayudarlo a "definir qué significa la salud para Twitter y cómo [ellos] deberían abordar la medición".

La salud de Twitter mejoraría tremendamente si Twitter hiciera una cosa (aparentemente simple): eliminar el 100% de las cuentas que identificaron como "sospechosas de cuentas de spam"

¿Cómo podemos nosotros, como usuarios, anunciantes y accionistas, asegurarnos de que Twitter se considere "públicamente responsable" para hacerlo? ¿Cómo podemos garantizar que Twitter adopte un enfoque más proactivo para controlar su ecosistema en el futuro?


martes, 17 de abril de 2018

Los bots dominan 2/3 del tráfico de Twitter

Los bots en Twitter comparten dos tercios de los enlaces a sitios web populares: Pew

Natasha Lomas | Tech Crunch




Es oficial: los Bots están haciendo mucho trabajo de RR.PP. en Twitter, especialmente cuando se trata de promover sitios web pornográficos.

Esa conclusión, quizás poco sorprendente, sobre qué cuentas de Twitter automatizadas son compartir enlaces proviene de un nuevo estudio del Centro de Investigación Pew que se propuso cuantificar un aspecto de la actividad basada en bots en la Twittosfera.

Específicamente, los investigadores querían saber qué proporción de enlaces twitteados a sitios web populares son publicados por cuentas automáticas, en lugar de usuarios humanos.

La respuesta que se les ocurrió fue que alrededor de dos tercios de los enlaces twitteados a sitios web populares son publicados por robots en lugar de humanos.

Los investigadores dicen que estaban interesados ​​en tratar de entender un poco más acerca de cómo la información se propaga en Twitter. Aunque para este estudio no trataron de profundizar directamente en preguntas más complicadas (y complicadas) sobre bots, como si la información que es propagada por estos robots es en realidad desinformación.

Los investigadores de Pew tampoco trataron de determinar si la actividad de relaciones públicas con enlaces automáticos realmente llevó a niveles significativos de participación humana con el contenido en cuestión. (Algo que puede ser difícil de determinar para los investigadores externos porque Twitter no brinda acceso completo a la forma en que da forma a la visibilidad de los tweets en su plataforma, ni datos sobre cómo los usuarios individuales hacen uso de controles y configuraciones que pueden influir en lo que ven o no lo haga en su plataforma).

Por lo tanto, es seguro decir que muchas preguntas relacionadas con los robots aún no se han investigado exhaustivamente.

Pero aquí hay al menos otra información sobre qué cuentas automáticas están enfrentadas con los principales sitios web de medios, aunque, como siempre, estos resultados son calificados como "bots sospechosos" como consecuencia de lo difícil que es identificar definitivamente si una entidad en línea es humana o no. (Pew utilizó la herramienta de aprendizaje automático Botometer de la Universidad de Indiana para identificar bots sospechosos, basándose en un puntaje de 0,43 o superior para declarar una probable automatización, en base a una serie de sus propios ejercicios de validación).

La conclusión principal de Pew es que las cuentas automatizadas sospechadas desempeñaron un papel destacado al tuitear enlaces a contenido en el ecosistema de Twitter, con un 66% de todos los enlaces tuiteados a los sitios web más populares probablemente publicados por cuentas automáticas, en lugar de usuarios humanos.

Los investigadores determinaron la popularidad del sitio web al realizar primero un análisis de 1,2 millones de tweets en inglés que contenían enlaces (extrayendo datos de tweets de muestra aleatoria a través de la API de transmisión de Twitter), que se redujeron a una lista de 2.315 sitios populares, es decir, duplicados y enlaces muertos. eliminados.

A continuación, los clasificaron en dominios de contenido, con todos los enlaces que apuntaban a cualquier otro contenido en Twitter (es decir, no en forma externa) recopilados en una sola categoría de Twitter.com.

Después de eso, pudieron comparar cómo (sospechosos) los bots frente a los (probables) humanos compartían diferentes categorías de contenido.

A continuación, se muestran los resultados del contenido que muestran los bots sospechosos: como se mencionó anteriormente, no es de sorprender que esté dominado por contenido para adultos. Aunque se descubrió que los bots responden por la mayoría de los enlaces compartidos a los sitios web populares en toda la categoría. Ergo, los robots ya están haciendo una gran cantidad de trabajo duro de RR.PP. ...

(Considerando eso, una buena regla general parece ser que si una cuenta de Twitter comparte enlaces a sitios pornográficos, probablemente no sea humana). O bien, es una cuenta humana que ha sido pirateada.

Los investigadores también descubrieron que un número relativamente pequeño de cuentas automatizadas eran responsables de una parte sustancial de los enlaces a los medios populares en Twitter. "Las 500 cuentas de bots sospechosos más activas por sí solas fueron responsables del 22% de todos los enlaces a estos sitios de noticias y eventos actuales durante el período en que se realizó este estudio. Por el contrario, las 500 cuentas humanas más activas fueron responsables de solo el 6% de todos los enlaces a dichos sitios ", escriben.

Claramente, los bots no son retenidos por las debilidades humanas en relaciones públicas, como la necesidad de dejar de trabajar para comer o dormir.

Pew dice que su análisis también sugiere que ciertos tipos de sitios de noticias y eventos actuales aparecen como "especialmente probables" de ser twitteados por cuentas automáticas. "Entre los más destacados se encuentran sitios de agregación o sitios que compilan principalmente contenido de otros lugares de la web. Se estima que el 89% de los enlaces a estos sitios de agregación durante el período de estudio fueron publicados por cuentas bot ", escriben.

tl; dr: los Bots parecen estar menos interesados ​​en promocionar los informes originales. O, para decirlo de otra manera, a menudo se despliega el trabajo de bot grunt para tratar de obtener visualizaciones baratas del contenido de otras personas.

Otra observación interesante: "Las cuentas automatizadas también proporcionan una proporción algo superior a la media de enlaces a sitios que carecen de una página de contacto público o dirección de correo electrónico para ponerse en contacto con el editor u otro personal.

"La gran mayoría (90%) de los sitios populares de noticias y eventos actuales examinados en este estudio tenía una página de contacto pública, no Twitter. La pequeña minoría de sitios que carecen de este tipo de página de contacto fueron compartidos por bots sospechosos a mayor velocidad que aquellos con páginas de contacto. Alrededor del 75% de los enlaces a dichos sitios fueron compartidos por cuentas de bots sospechosos durante el período de estudio, en comparación con el 60% de los sitios con una página de contacto ".

Sin leer demasiado sobre ese hallazgo, es posible teorizar que los sitios sin ninguna página de contenido público o correo electrónico podrían ser más propensos a la desinformación. (Los investigadores de Pew no llegan tan lejos como para unirse a esos puntos exactamente, pero sí señalan: "Este tipo de información de contacto puede usarse para enviar comentarios de los lectores que pueden servir como base de correcciones o informes adicionales").

Dicho esto, Pew también descubrió que el contenido político tiene un interés relativamente menor para los bots frente a otros tipos de noticias y contenido de actualidad, al menos a juzgar por esta instantánea de tweets en inglés (tomada el verano pasado).

"[C] ciertos tipos de sitios de noticias y eventos actuales reciben una participación inferior a la media de sus enlaces de Twitter desde cuentas automatizadas", escriben los investigadores. "En particular, este análisis indica que las noticias populares y los sitios de eventos actuales que presentan contenido político tienen el nivel más bajo de tráfico de enlace de las cuentas bot entre los tipos de noticias y contenido de eventos actuales que analizó el Centro, manteniendo constantes otros factores. De todos los enlaces a fuentes de medios populares que presentan prominentemente contenido político o político durante el período del estudio, se estima que el 57% se originó a partir de cuentas de bot ".

Los investigadores también analizaron la afiliación política, para tratar de determinar si los bots sospechosos se tuercen hacia la izquierda o hacia la derecha en términos del contenido que están compartiendo.

(Para determinar la inclinación ideológica del contenido al que se está vinculado en Twitter, Pew dice que utilizaron una técnica estadística conocida como análisis de correspondencia, que examina el comportamiento del público de Twitter de las publicaciones para compartir el contenido en un espectro ideológico que va desde "Muy liberal" a "más conservador").

De hecho, encontraron que las cuentas automáticas publicaban una mayor proporción de contenido de sitios que tenían "audiencias humanas mixtas o centristas ideológicamente". Al menos en lo que concierne a los sitios populares de noticias y eventos actuales "con una orientación hacia noticias y asuntos políticos".

"El análisis del Centro encuentra que las cuentas autónomas sospechosas publican una mayor proporción de enlaces a sitios que son principalmente compartidos por usuarios humanos que puntúan cerca del centro del espectro ideológico, en lugar de aquellos compartidos más a menudo por un público más liberal o más conservador ," escriben. "Las cuentas automatizadas comparten aproximadamente entre el 57% y el 66% de los enlaces a sitios políticos que son compartidos por una audiencia humana ideológicamente mixta o centrista, según el análisis".

Pew agrega que las diferencias de derecha a izquierda en la proporción de tráfico bot "no eran sustanciales".

Aunque, sobre esto, vale la pena enfatizar que esta parte del análisis se basa en un subconjunto bastante pequeño de una instantánea de la Twittersfera que ya se enfoca exclusivamente en el idioma inglés y en los EE. UU. así que leer demasiado en esta parte del análisis parece imprudente.

Pew señala: "Este análisis se basa en un subgrupo de noticias populares y puntos de venta de eventos actuales que presentan historias políticas en sus titulares o tienen una sección de política, y que sirven principalmente a la audiencia de los EE. UU. Un total de 358 sitios web de nuestra muestra completa de 2,315 sitios populares cumplieron con estos criterios ".

Realmente, el estudio subraya una verdad fundamental acerca de los bots de Twitter: a menudo se utilizan con fines de spam / relaciones públicas: para tratar de dirigir el tráfico a otros sitios web. La esencia de lo que están promoviendo varía, aunque a menudo puede ser contenido para adultos.

Los Bots también se usan a menudo para tratar de generar clics de forma barata a un agregador de contenido barato o sitios de productos para que las entidades externas puedan cobrar de forma económica gracias a las vistas de anuncios y los ingresos mejorados.

Las campañas de desinformación política pueden resultar en un menor volumen de spam / PR generados por bot que las granjas de pornografía o contenido. Aunque el daño potencial - a los procesos democráticos y las instituciones sociales - es posiblemente mucho más serio. Además de ser muy difícil de cuantificar.

Y, bueno, en lo que respecta a la influencia de los bots, todavía tenemos muchas más preguntas que respuestas.

domingo, 28 de enero de 2018

ARS aplicado: Una visión del ecosistema de medios alternativos

Guerras de información: una ventana al ecosistema de medios alternativos

Teorías de conspiración, pensamiento abarrotado y desinformación política

Por Kate Starbird
Asst. Professor of Human Centered Design & Engineering at UW. Researcher of crisis informatics and online rumors. Aging athlete. Army brat.

Medium

Antecedentes: examen de "narrativas alternativas" de eventos de crisis

Durante más de tres años, mi laboratorio en la Universidad de Washington ha realizado investigaciones sobre cómo las personas difunden los rumores en línea durante los eventos de crisis. Hemos analizado los desastres naturales como los terremotos y los huracanes, así como los hechos por el hombre, como los tiroteos masivos y los ataques terroristas. Debido a la disponibilidad pública de datos, nos enfocamos principalmente en Twitter, pero también utilizamos los datos recopilados allí (tweets) para exponer una actividad más amplia en el ecosistema de medios circundante.

Con el tiempo, notamos que un tipo similar de rumor seguía apareciendo, una y otra vez, después de cada uno de los eventos de crisis provocados por el hombre: una teoría de conspiración o "narrativa alternativa" del evento que afirmaba que o no había sucedido o que fue perpetrado por alguien más que los sospechosos actuales.

Encontramos este tipo de rumor al estudiar los atentados del Boston Marathon en 2013. Notamos una gran cantidad de tweets (> 4000) que afirmaban que los bombardeos eran una "bandera falsa" perpetrada por los Navy Seals de los EE. UU. La difusión inicial de este rumor implicó una "cascada" de tweets que enlazan a un artículo en el sitio web de InfoWars. En ese momento, nuestros investigadores no sabían qué era InfoWars, pero la importancia de esa conexión se hizo evidente con el tiempo.

En eventos de crisis posteriores, aparecieron rumores similares. Después del tiroteo en Umpqua Community College, se rumoreaba que el evento fue organizado por "actores de crisis" por razones políticas, específicamente para justificar restricciones legales a los derechos de armas. Y después de los tiroteos en el club nocturno Orlando Pulse, un rumor sugirió que fueron cometidos por alguien más que el pistolero acusado, con el propósito de culpar falsamente al ataque contra los musulmanes. Para cada evento de crisis creado por el hombre que estudiamos, encontramos evidencia de narraciones alternativas, a menudo compartidas por algunas de las mismas cuentas y conectadas a algunos de los mismos sitios en línea.

Estos rumores tenían diferentes "firmas" de otros tipos de rumores. En términos de volumen (medido en tweets por minuto), la mayoría de los rumores relacionados con la crisis se disparan rápidamente y luego se desvanecen con relativa rapidez, típicamente "decayendo" a un ritmo exponencial. Pero estos rumores narrativos alternativos aumentaron más lentamente, y luego se demoraron, disminuyendo y fluyendo a lo largo de días o semanas (o años). También tuvieron una participación sostenida de un grupo de usuarios de Twitter (es decir, muchos tweets por usuario durante un período de tiempo prolongado), en lugar de la participación finita de un gran número de usuarios (uno o dos tweets por usuario, todos al mismo tiempo). ) como lo hacen los rumores típicos. Además, los rumores narrativos alternativos a menudo tenían una gran "diversidad de dominio", en los tweets que hacen referencia a los rumores vinculados a un gran número de dominios distintos (diferentes sitios web), incluidos sitios alternativos como InfoWars, BeforeItsNews y RT (también conocido como Russia Today). Varios de estos rumores también tenían una fuerte presencia de "botnet"; en otras palabras, muchas cuentas de Twitter participantes no eran personas "reales", sino que eran operadas por un programa de computadora que controlaba una gran cantidad de cuentas.

En nuestro primer estudio (sobre los atentados con maratón de Boston en 2013) notamos que los rumores narrativos alternativos se cruzaban con el contenido politizado. El análisis de hashtags concurrentes mostró que #falseflag a menudo aparecía en los mismos tweets como #obama, #nra, #teaparty, #tcot, #tlot, # p2. Como investigador de informática de crisis, he observado a menudo cómo las crisis se politizan en espacios en línea (y en otros lugares), pero esto fue diferente, ya que el rumor de falsa bandera parecía estar profundamente conectado a temas políticos y se propagaba con un propósito claramente político.


Extrañas similitudes y conexiones: por qué cambiamos de enfoque

Inicialmente, decidimos no insistir en este tipo de rumores, pensando que tenían poco impacto en nuestras preguntas centrales de investigación: cómo responden las personas a los eventos de crisis y cómo podemos hacer que el espacio de información sea más útil para las personas afectadas por la crisis detectando rumores falsos . Estos rumores narrativos alternativos rara vez resonaron dentro de las poblaciones afectadas por la crisis. Y así, aunque a menudo los comentamos cuando salieron a la luz en nuestros datos, mantuvimos nuestro enfoque de investigación en otra parte.

Sin embargo, a principios de 2016, a raíz de los tiroteos del Umpqua Community College y los ataques terroristas coordinados en París, algunos de mis alumnos decidieron examinar más de cerca lo que percibían como elementos comunes en las narrativas alternativas que se difunden en Twitter sobre el dos eventos diferentes, además de lo que ellos pensaban que era una botnet que manejaba una gran parte de ese contenido.

[Ambas corazonadas resultaron ser ciertas. La botnet estaba conectada a "The Real Strategy" o TheRealStrategy.com. Coordinaron cientos de cuentas que tuiteaban contenido relacionado con varias narrativas alternativas diferentes de estos eventos y otros. Aunque algunas de esas cuentas se han eliminado, otras aún están operativas, se han creado otras nuevas y continúan publicando y publicando en Twitter contenido relacionado con numerosas teorías de conspiración.]

Usando datos de Twitter recopilados durante estos eventos, los estudiantes construyeron grafos de red que revelaron las conexiones entre diferentes cuentas de Twitter, y entre diferentes "comunidades" de cuentas, participando en estas narrativas alternativas. Cuando fuimos a examinar los datos en el invierno de 2016, estábamos muy confundidos por algunas de las intersecciones. ¿Por qué un puñado de cuentas "Anónimas" y GamerGaters estaban conectados con cuentas pro-palestinas de un lado y nacionalistas blancos europeos con otro? ¿Por qué los partidarios aparentemente izquierdistas de Wikileaks se conectaban con partidarios aparentemente derechistas de Donald Trump? ¿Y por qué estos grupos se unieron para hablar sobre narrativas alternativas de los eventos de tiroteo en masa? No tiene sentido. Todavía.


Una exploración sistemática del ecosistema de medios alternativos a través de la lente de narrativas alternativas de eventos de rodaje masivo

Casi un año después, motivados por las interrupciones políticas de 2016, la retórica en torno a las "noticias falsas" y los medios alternativos, y la persistente sensación de que había algo en nuestros datos de rumores en línea que podía darnos una idea de estos problemas, completamos un estudio sistemático de narrativas alternativas de los eventos de tiroteo masivo, mirando específicamente al ecosistema de medios alternativos que los genera y apoya su propagación. Un primer documento resultante de este trabajo fue revisado recientemente y aceptado en la conferencia ICWSM 2017. He subido una versión preimpresa de este documento a mi sitio web.

En el resto de este blog, voy a describir parte de esa investigación, incluidos los métodos y los principales hallazgos. Estos hallazgos tocan la naturaleza de los medios alternativos, incluida la presencia de (y las conexiones entre) teorías de conspiración, propaganda política y desinformación.


Métodos de recopilación y análisis de datos

El 1 de enero de 2016, nuestro laboratorio lanzó una colección de Twitter centrada específicamente en los eventos de rodaje. Mantuvimos esta colección durante más de nueve meses, hasta el 6 de octubre, haciendo un seguimiento de términos (en inglés) que incluyen disparos, disparos, pistoleros y pistoleros. A partir de esta recopilación, identificamos tweets que hacen referencia a narraciones alternativas, es decir, tweets que también contenían términos como "bandera falsa", "engaño" y "agente de crisis".

A continuación, creamos un mapa de red de los dominios de Internet a los que se hace referencia en estos tweets. En otras palabras, queríamos ver qué sitios web citaban las personas mientras hablaban y construíamos estas narrativas alternativas, así como también cómo se conectaban esos diferentes sitios web. Para hacer eso, generamos un grafo donde los nodos eran dominios de Internet (extraídos de enlaces URL en los tweets). En este grafo, los nodos se clasifican por el número total de tweets que se vinculan a ese dominio y existe una ventaja entre dos nodos si la misma cuenta de Twitter publicó un tweet que cita un dominio y otro tweet que cita al otro. Después de algunos recortes (eliminar dominios como sitios de redes sociales y acortadores de URL que están conectados a todo), terminamos con el grafo que ves en la Figura 1. Luego usamos el grafo para explorar el ecosistema de medios a través del cual se producen narrativas alternativas toma lugar.



Figura 1. Grafo de red de dominio, coloreado por tipo de medio
 Púrpura = medios dominantes; Color agua = medios alternativos;
 Rojo = medios controlados por el gobierno

Después de generar el grafo, realizamos un análisis cualitativo exhaustivo de todos los dominios en el grafo, leyendo sus páginas de inicio y Acerca de, identificando los temas destacados en su sitio web actual, buscando temas específicos dentro de su contenido histórico, examinando otra información disponible (en línea) sobre sus propietarios y escritores, etc. A continuación, analizo lo que aprendimos sobre este ecosistema de medios alternativos a través de este análisis.

Se citaron medios alternativos para respaldar narrativas alternativas; Los principales medios de comunicación fueron citados para desafiarlos

El grafo de red representa una subsección del ecosistema de medios más grande: es una instantánea de la "estructura" de la conversación sobre narrativas alternativas. Después de recortar en dominios citados varias veces (y por varias personas), el grafo contiene 117 dominios en total. Determinamos que 80 de ellos pertenecían a "medios alternativos" (Figura 1, color agua) y 27 pertenecían a medios convencionales (Figura 1, color púrpura). Otros dominios incluyen tres pertenecientes a ONG y dos pertenecientes a medios de comunicación financiados por el gobierno ruso (RT.com y SputnikNews.com).

Es importante tener en cuenta que no todos estos dominios contienen contenido que promueve narrativas alternativas de los eventos de disparo. En las conversaciones de Twitter sobre estas narrativas alternativas, los dominios fueron citados de diferentes maneras para diferentes tipos de contenido.

Más de la mitad de los dominios en el grafo (y más del 80% de los dominios de medios alternativos) fueron citados por contenido que apoya explícitamente las narrativas alternativas. Sin embargo, otros (especialmente los principales medios de comunicación) fueron citados por relatos de los hechos, y luego fueron utilizados como evidencia por los teóricos de la conspiración a medida que construían estas teorías. Y algunos fueron mencionados por sus negaciones de estas teorías. A continuación hay ejemplos de cada uno, para darle una idea de cómo los tweets hacen referencia a dominios externos.

Soporte: El siguiente tweet se vincula a un artículo en el dominio WorldTruth.tv que afirma que los testimonios de varios pistoleros (que entran en conflicto con la cuenta oficial) sugieren que el tiroteo en el club nocturno Orlando Pulse es una especie de bandera falsa. La información contradictoria y dinámica, típica de las situaciones del tipo de niebla de guerra que ocurren después de los eventos de crisis, a menudo se usa como "evidencia" para apoyar narrativas alternativas de estos eventos.




Como evidencia: el siguiente tuit afirma que uno de los testigos del tiroteo en Orlando es un actor y que los disparos fueron una falsa bandera. Esto hace eco de un tema común, que aparece en muchas narrativas alternativas en nuestra investigación, que los "actores de crisis" se utilizan para organizar eventos. El tweet se vincula a un artículo en el dominio Toronto Star que contiene una cuenta objetiva neutral del evento.



Negación: este tweet se vincula al dominio del New York Times, a un artículo que refuta varias narrativas alternativas diferentes de los disparos en Orlando. Sin embargo, en lugar de alinearse con los argumentos en ese artículo, este tweet está acusando al New York Times de ser un participante en la bandera de conspiración / engaño / falsa.




[Siguiendo las reglas de Twitter, solo proporciono ejemplos aquí de tweets que todavía están disponibles públicamente en Twitter. También he intentado elegir las cuentas para estos ejemplos que parecen propagar intencionalmente narrativas alternativas; en otras palabras, estoy tratando de evitar llamar individuos / cuentas que podrían ser incómodas al estar asociadas con estas ideas.]

La mayoría de los dominios citados en la producción de narrativas alternativas eran dominios de "medios alternativos", y la mayoría de estos (68 de 80) fueron citados (vinculados) en los tweets que recopilamos para contenido que explícitamente apoyaba narrativas alternativas. Como puede ver en el grafo (Figura 1), el ecosistema de medios alternativos está estrechamente conectado, es decir, los usuarios de Twitter que producen narraciones alternativas suelen citar varios dominios de medios alternativos diferentes en sus tweets de teoría de la conspiración. Los tres centros principales en esta red en particular son VeteransToday.com, BeforeItsNews.com y NoDisinfo.com, pero hay muchos otros dominios de medios alternativos que juegan un papel importante en la producción de narrativas alternativas. Este ecosistema de medios alternativos (un subconjunto del grafo más grande) es el foco del resto de este blog.

Sin embargo, quiero señalar explícitamente y aclarar un aspecto del grafo: aunque los principales dominios de los medios como el Washington Post, el New York Times y Fox News aparecen en el grafo, ninguna cuenta de los medios principales en este grafo alojó ningún contenido que promoviera la alternativa. narrativas que estábamos estudiando. En cambio, en general se citaron en nuestros datos de Twitter para el contenido general sobre el evento que luego se usó como "evidencia" de una conspiración. Los medios convencionales también fueron citados para las correcciones de las narraciones alternativas (a veces en tweets que respaldan esas correcciones, a veces en tweets que los impugnan). En el caso del New York Times, el periódico publicó un artículo que negaba explícitamente las narrativas alternativas del tiroteo en Orlando. Esta negación fue citada varias veces por aquellos que promueven esas narraciones, como incluso más evidencia de su teoría. [Esto demuestra un aspecto irritante de corrección de rumor en este contexto - que las correcciones a menudo son contraproducentes].

El grafo de red revela algunos sitios de medios principales para estar más integrados en el ecosistema de medios alternativos. Por ejemplo, varias personas que twittean enlaces a VeteransToday.com también twittean enlaces a FoxNews.com, acercándolo a esa parte del grafo.

El papel de las botnets en la amplificación de narrativas alternativas

Estos datos también proporcionan información sobre el efecto de las cuentas automatizadas (botnets) en los datos. Por ejemplo, el dominio más tuiteado en nuestros datos fue TheRealStrategy.com. Se tuiteó tantas veces (7436) y se conectó a tantos dominios (en relación con los demás dominios) que tuvimos que eliminarlo del grafo. [Fue el único dominio de medios altamente citado y altamente conectado que eliminamos]. El examen de los patrones temporales (tweets a lo largo del tiempo) sugiere que casi todos los tweets que se vinculó a este dominio fueron generados por un programa de computadora. Ese programa operó cientos de cuentas diferentes, ordenándoles que tuiteen en ráfagas regulares (docenas al mismo tiempo). En la mayoría de los casos, estos tweets están vinculados a TheRealStrategy, pero el programa también está salpicado de tweets que enlazan con otros dominios de medios alternativos. Un análisis más detallado reveló que muchas de estas cuentas de Twitter tienen descripciones de perfil similares y que usan fotos robadas de otras personas en línea. Esta es una botnet muy sofisticada que parece estar trayendo efectivamente cuentas "reales" a sus redes de amigos / seguidores, y principalmente propagando teorías de conspiración y contenido politizado.

El sitio de InfoWars fue el segundo más twitteado en nuestro conjunto de datos (1742 veces). Casi todas las actividades de tweet que citan a InfoWars provenían de un conjunto coordinado de cuentas; todas tenían un nombre similar y cada una enviaba un tweet único que enlazaba a uno de los dos artículos de InfoWars sobre diferentes narrativas alternativas de diferentes eventos de disparos. Todas estas cuentas ahora están suspendidas. Aunque no es tan sofisticado como TheRealStrategy, este botnet amplificó el contenido de InfoWars, que ocasionalmente fue retomado y retuiteado por otros.


Propaganda política: nacionalismo vs. globalismo

Una de las primeras cosas que nos llamó la atención cuando realizamos análisis de contenido cualitativo en los dominios de medios alternativos fue la cantidad de contenido político en los sitios web. Intentamos caracterizar este contenido, pasando por varias rondas de iteración para tratar de reconocer patrones en los sitios y distinguir entre diferentes orientaciones políticas.

Rápidamente quedó claro que el espectro político izquierdo (liberal) frente a derecho (conservador) de los EE. UU. No era apropiado para gran parte de este contenido. En cambio, la principal orientación política fue hacia la antiglobalización. Casi siempre, esta orientación se hizo explícita en el contenido.

El significado del globalismo varió en todos los sitios. Para algunos sitios web enfocados en la audiencia de los EE. UU., El globalismo implicaba una postura pro inmigrante. Para sitios más centrados en el ámbito internacional, se utilizó el globalismo para caracterizar (y criticar) la influencia del gobierno de los EE. UU. En otras partes del mundo. En algunos de los sitios más conspirativos, el término se usaba para sugerir conexiones a una conspiración global por parte de personas ricas y poderosas que manipulaban el mundo para su beneficio. El globalismo también estaba ligado al corporativismo; en otras palabras, las formas en que las grandes compañías multinacionales ejercen poder sobre el mundo. Y el término también estaba conectado, implícita y explícitamente, a los medios convencionales.

De esta manera, ser antiglobalista podría incluir ser medios anti-mainstream, anti-inmigración, anti-corporación, anti-Estados Unidos. gobierno y anti-Unión Europea. Debido a la variedad de significados empleados, el sentimiento de antiglobalización juntó a individuos (e ideologías) tanto del lado derecho como del izquierdo del espectro político de los EE. UU. Es inquietante que gran parte del contenido antiglobalista en estos dominios de medios alternativos fuera también antisemita, haciéndose eco de las teorías conspirativas de larga data sobre poderosos judíos que controlan los acontecimientos mundiales.

Tantas teorías de conspiración: epistemologías paralizadas, pensamiento abarrotado y las huellas dactilares de una campaña de desinformación

Otra cosa que notamos fue la proliferación y la convergencia de diferentes temas conspirativos. Cada dominio que albergaba un artículo que promovía una narrativa alternativa de un evento de tiroteo también contenía contenido que hacía referencia a otras teorías de conspiración, a veces cientos de ellas. No eran todos de naturaleza política. También encontramos teorías de pseudociencias sobre vacunas, transgénicos y "chemtrails". Algunos dominios trataban sobre teorías de conspiración, pero otros presentaban noticias aparentemente normales con teorías de conspiración salpicadas. A través del análisis cualitativo, determinamos que 24 dominios de medios alternativos se enfocaban principalmente en la distribución de teorías de conspiración y se centraban principalmente en comunicar una agenda política.

Aunque hubo muchas teorías diferentes que se extendieron a través de este ecosistema de información, también vimos una convergencia de temas: algunas de las mismas historias aparecieron en varios dominios diferentes. Ocasionalmente, las historias parecían en gran medida independientes (es decir, diferentes perspectivas, diferentes pruebas), pero a menudo se copiaban esencialmente de un sitio a otro, o una historia posterior simplemente sintetizaba un artículo en otro sitio, incluidos extractos largos del original. Además, algunos autores parecían contribuir historias a múltiples dominios en la red.

Por lo tanto, una persona que busca información dentro de este ecosistema puede encontrar un artículo de un sitio web que sintetizó un artículo de un segundo sitio web que se publicó originalmente y se copió de un tercer sitio web. Un efecto de esto es que las personas que buscan información dentro de este espacio pueden pensar que están obteniendo información de muchas fuentes diferentes cuando en realidad están obteniendo información de las mismas o muy similares fuentes, lavadas a través de muchos sitios web diferentes. Sunstein y Vermeule (2009) sostienen que el pensamiento conspirativo se relaciona con una "epistemología paralizada" y que un componente significativo de esto es una dieta de información limitada y / o sesgada (por ejemplo, una conformada por un grupo social). Nuestra investigación sugiere que la dinámica de la información de este ecosistema de medios alternativos, cómo la misma información existe en diferentes formas en diferentes lugares, puede crear una percepción falsa de diversidad de información o triangulación, complicando aún más esta cuestión de las epistemologías paralizadas.

Desde otra perspectiva, estas propiedades del ecosistema de noticias alternativas -la proliferación de muchas e incluso conflictivas teorías de conspiración y la apariencia engañosa de la diversidad de fuentes- pueden reflejar el uso intencional de tácticas de desinformación. Aunque a menudo pensamos que la desinformación se emplea para convencernos de una ideología específica, en un artículo de 2014 titulado "La amenaza de la irrealidad", Pomerantsev y Weiss describen cómo las estrategias de desinformación rusas (que remontan a Lenin) están diseñadas para no convencer pero confundir, crear un "pensamiento confuso" dentro de la sociedad. Su argumento estratégico es que una sociedad que aprende que no puede confiar en la información puede controlarse fácilmente. Es posible que el ecosistema de medios actual, incluidos los dominios de medios alternativos y las plataformas de redes sociales que ayudan a extender los enlaces a estos dominios, esté contribuyendo al pensamiento confuso (un pariente o efecto tal vez de una epistemología paralizada). Aún no está claro si estos efectos están relacionados con campañas de desinformación decididas o son solo efectos emergentes de nuestro espacio de información actual. Parece que los investigadores tienen algo que hacer para aclarar lo que está sucediendo aquí y quizás pensar en diseñar sistemas que sean más resistentes a la desinformación.

Los medios alternativos se copian el pensamiento crítico, los hechos y la verdad

Quizás el hallazgo más desconcertante que surgió de este análisis, especialmente cuando intentamos pensar cómo ayudar a las personas a convertirse en mejores consumidores de información en línea, fue lo que percibimos como una estrategia intencional de muchos sitios web de medios alternativos para aprovechar la retórica sobre noticias falsas y pensamiento crítico para confundir aún más y engañar a los lectores.

Nuestra investigación muestra que el rechazo de las noticias principales es un tema común en todos los dominios de medios alternativos. Tal vez es una perogrullada decir que existen medios alternativos en yuxtaposición con los medios convencionales, pero lo interesante aquí es que muchos sitios de medios alternativos se han establecido explícitamente como oposición a los medios "corporativos" convencionales. También se han aprovechado de los reclamos de parcialidad política en los medios convencionales (hacia ideologías liberales o prooccidentales) y los han aprovechado para apoyar su propia legitimidad.

Además, parece que han cooptado argumentos sobre alfabetización mediática (boyd hace este mismo argumento) y pensamiento crítico. La conversación sobre "noticias falsas" a menudo termina con declaraciones sobre enseñar a las personas a ser mejores consumidores de información, a ser escépticos mientras se educan a sí mismos a través de encuentros con los medios en línea. Sitios de noticias alternativos se han apropiado de estos argumentos y los están usando para apoyar la propagación de narrativas alternativas y otras teorías conspirativas.

Considere el siguiente texto, un extracto de la página Acerca del dominio 21stCenturyWire.com:




21stCenturyWire.com es un dominio típico en nuestro grafo de red, ubicado en la esquina superior izquierda (de la Figura 1) y fuertemente conectado a NoDisinfo y VeteransToday (que difunden un fuerte contenido antisemita). 59 tweets en nuestra colección vinculados a este dominio, haciendo referencia a varios artículos que explícitamente apoyan narrativas alternativas sobre varios tiroteos masivos, incluyendo afirmaciones de que tanto los disparos de la policía de Dallas como los tiroteos en los clubes nocturnos de Orlando fueron eventos escenificados. Sin embargo, el enfoque conspirativo de este dominio se extendió mucho más allá de las narraciones alternativas de los tiroteos. El contenido del dominio apoyó una amplia gama de temas conspirativos, con artículos que promocionan afirmaciones sobre vacunas que causan autismo, eventos meteorológicos diseñados por el gobierno, protestas contra Trump respaldadas por George Soros y anillos de pedófilos operados por personas poderosas. A través de nuestro análisis del contenido del dominio, también determinamos que 21stCenturyWire apoye firmemente los intereses políticos rusos (otro tema prominente en nuestros datos).

El dominio pertenece y es operado por Patrick Henningsen, un periodista que ha trabajado para RT news, Guardian.co.uk, GlobalResearch.ca, e Infowars.com. Quizás no sea sorprendente que todos estos dominios sean nodos en nuestro grafo.

Al examinar la página Acerca de 21stCenturyWire, puede ver cómo el sitio aprovecha la retórica (algo tecno-utópica) de la libertad de información y el periodismo ciudadano, alentando explícitamente a los lectores a usar sus propias habilidades de "pensamiento crítico" e implícitamente felicitándolas por esas habilidades y tal vez activando un sentido de confianza en sus habilidades. Usted puede manejar esto. ¡Le daremos los hechos y usted puede decidir por usted mismo! El sitio también afirma estar fuera del control corporativo y gubernamental. La primera afirmación representa un contraposicionamiento algo natural, es decir, medios alternativos contra los medios dominantes controlados por la empresa. Pero la segunda afirmación es poco sincera, ya que el dominio a menudo alberga contenido que se publica de manera cruzada en RT, anteriormente Russia Today, un medio de comunicación financiado y controlado en gran parte por el gobierno ruso.

Este tipo de posicionamiento de medios alternativos era típico para los dominios que examinamos. A continuación se muestra otro ejemplo, este de la página Propósito y objetivos del dominio NoDisinfo.com:



Observe el lenguaje que enfatiza cómo este sitio web proporciona "hechos". Permite a las personas "tomar sus propias decisiones". Su propósito es desentrañar el "engaño y la desinformación". Es probable que este encuadre sea muy intencional, afirmando que presenta una "verdad" no adulterada y faculta a los usuarios para quizás sentir que están descubriendo esa verdad dentro de este dominio. Y los usuarios pueden encontrar todo tipo de verdad (en forma de teorías de conspiración) aquí: del trinchero 9-11 a las afirmaciones sobre posibles efectos apocalípticos del desastre nuclear de Fukishima que los medios de comunicación dominantes ocultaron intencionadamente.

Resumen y conclusión

Esta investigación intentó tomar un enfoque sistemático para desempacar el ecosistema de medios alternativos. Nos enfocamos en "narrativas alternativas" de eventos de crisis y utilizamos datos de Twitter para mapear la estructura del ecosistema de medios alternativos que impulsa estas narrativas. A través del análisis de contenido, encontramos que estos dominios albergan colectivamente muchos tipos diferentes de teorías de conspiración, desde narrativas políticamente temáticas sobre el "Nuevo Orden Mundial" hasta argumentos anti-vacunas. En este mundo "virtual", los tiroteos de Sandy Hook School fueron organizados por actores de crisis y la tierra en realidad es plana después de todo.

Determinamos que gran parte del contenido de esta red era propaganda política. En su mayor parte, esta propaganda política se centró en torno a "antiglobalización". Este término se usó para designar diferentes cosas en diferentes dominios (e incluso en diferentes artículos dentro de los mismos dominios) - p. anti-inmigración, imperialismo anti-occidental, anti-corporación, anti-medios. Curiosamente, también hubo fuertes corrientes de antisemitismo (a veces explícito, a veces menos) a través de una subsección de este ecosistema. Tomados en conjunto, estas posiciones parecen estar alineadas y utilizadas en apoyo del surgimiento de ideologías nacionalistas en los EE. UU. Y en otros lugares.

También notamos cómo la estructura del ecosistema de medios alternativos y el contenido alojado y difundido allí sugieren el uso de tácticas de desinformación intencional, destinadas a crear un "pensamiento confuso" y una desconfianza general en la información.

Debido a que los datos subyacentes en este análisis son limitados (a los tweets sobre eventos de rodaje), será necesario un trabajo futuro para A) evaluar el ecosistema de medios alternativos más amplio (nuestros datos nos limitan a una visión muy específica); y B) determinen qué tan influyentes son estos medios y sus mensajes en las perspectivas estadounidenses y mundiales de los eventos mundiales y la ciencia. Sin embargo, está claro que la información compartida dentro de este ecosistema de información aparentemente marginal está entrando a la esfera pública en general.

Cuando realizamos este análisis en diciembre, muchos de estos dominios de noticias alternativos comenzaron a apropiarse del término "noticias falsas" para desviar los ataques a los principales medios de comunicación. Semanas más tarde, el recién inaugurado presidente de Estados Unidos, Trump, se hizo eco de este refrán, declarando públicamente (incluso twitteando) que varios medios de comunicación e historias particulares eran "noticias falsas". Se han identificado otras trayectorias de información de sitios web de medios alternativos a declaraciones públicas de la administración Trump (por ejemplo, las recientes escuchas telefónicas), y aunque esto no implica causalidad, sí indica una conexión entre el ecosistema de medios alternativos y el presidente de los EE. UU. La incorporación de Steve Bannon al círculo interno de Trump también subraya esta conexión. Antes de su nombramiento para la campaña de Trump, Bannon publicó las noticias de Breitbart, un sitio web de medios alternativo que aparece en nuestros datos, y que decidimos tener una fuerte perspectiva antiglobalista. De hecho, los recientes comentarios de Bannon en la reunión republicana del CPAC hacen explícita esta orientación ideológica.

Mientras criticaba a los principales medios de comunicación, Bannon dijo esto: "Son medios corporativos y globalistas que se oponen firmemente a una agenda nacionalista económica como la que tiene Donald Trump".

Este comentario resume una gran parte de la investigación que hicimos, demostrando cómo la crítica de los medios dominantes (prácticamente grabada en el ADN de los medios alternativos) se alinea con una agenda política de antiglobalización en favor del nacionalismo, y cómo esa agenda está conectada a las orientaciones políticas y los objetivos de la administración Trump. Quizás la principal contribución de nuestra investigación es simplemente señalar que estas ideologías se extienden dentro de un ecosistema de medios alternativos que utiliza teorías de conspiración como los reclamos de Hook de Sandy Hook y antiguas narrativas antisemitas para atraer lectores y apoyar esta propagación. Y que estos sitios web de medios alternativos no se centran únicamente en el contenido ultraderechista o altísimo de EE. UU., Sino que también usan contenido de alt-left para atraer a los lectores a este ecosistema de información y las ideologías que se extienden allí.

Lo más importante, este trabajo sugiere que Alex Jones es de hecho un profeta. En serio, mientras leía a través de docenas de estos sitios web de medios alternativos y cavaba DEEP en su contenido, me di cuenta de que realmente se está librando una guerra de información. Hace tres años, nuestro laboratorio decidió que estas teorías de conspiración eran demasiado marginales y salaces para ser el centro de nuestra investigación. Casi que estaba por debajo de nuestra dignidad prestar atención y promover este tipo de contenido. Qué terrible error fue ese. Me parece que no fuimos los únicos que lo hicimos. Es (pasado) el momento en que atendemos a esto (como investigadores y diseñadores de los sistemas que conducen este contenido). Espero que no sea demasiado tarde.

[Aquí hay una lista de los dominios que aparecen en nuestro grafo de red. Tenga en cuenta que la codificación cualitativa se realizó a través de un análisis de contenido iterativo e interpretativo. Es posible que otros perciban que una determinación diferente (o un conjunto de categorías) sería mejor para algunos de estos dominios. Por favor avíseme si siente que hay un error de codificación sistemático o un patrón no reconocido en los datos, ya que este trabajo está en curso y me gustaría poder incorporar sus ideas. Gracias.]