miércoles, 30 de noviembre de 2016

Tecnología para atacar las fuentes de desinformación en medios sociales

Desinformación en las redes sociales: ¿Puede la tecnología salvarnos?
The conversation


Compartiendo hashtags de la elección: Los puntos son cuentas de Twitter; Las líneas muestran retweeting; Los puntos más grandes son retweeted más. Los puntos rojos son bots probables; Los azules son probablemente seres humanos. Clayton Davis, CC BY-ND

Autor Filippo Menczer
Profesor de Informática e Informática; Director del Centro de Redes Complejas y Sistemas de Investigación, Universidad de Indiana, Bloomington


Si obtienes tus noticias de las redes sociales, como la mayoría de los estadounidenses, estás expuesto a una dosis diaria de engaños, rumores, teorías conspirativas y noticias engañosas. Cuando todo está mezclado con información confiable de fuentes honestas, la verdad puede ser muy difícil de discernir.

De hecho, el análisis de mi equipo de investigación de datos y seguimiento de rumores de la Universidad de Columbia Emergent sugiere que esta desinformación es tan probable que vaya viral como información confiable.

Muchos están preguntando si este ataque de desinformación digital afectó el resultado de las elecciones estadounidenses de 2016. La verdad es que no sabemos, aunque hay razones para creer que es totalmente posible, sobre la base de análisis anteriores y los recuentos de otros países. Cada pieza de desinformación contribuye a la formación de nuestras opiniones. En general, el daño puede ser muy real: si la gente puede ser engañada para poner en peligro la vida de nuestros hijos, como lo hacen cuando se optan por inmunizaciones, ¿por qué no nuestra democracia?

Como investigador de la propagación de la desinformación a través de los medios de comunicación social, sé que limitar la capacidad de los falsificadores de noticias para vender anuncios, como anunció recientemente Google y Facebook, es un paso en la dirección correcta. Pero no limitará los abusos impulsados ​​por motivos políticos.


Explotación de medios sociales

Hace unos 10 años, mis colegas y yo realizamos un experimento en el que aprendimos que el 72 por ciento de los estudiantes universitarios confiaban en vínculos que parecían originados por amigos, incluso hasta el punto de ingresar información de inicio de sesión personal en sitios de phishing. Esta vulnerabilidad generalizada sugiere otra forma de manipulación maliciosa: La gente también podría creer que la desinformación que reciben al hacer clic en un enlace de un contacto social.

Para explorar esa idea, he creado una página web falsa con noticias aleatorias generadas por computadoras, como "Celebrity X en la cama con Celebrity Y!". Los visitantes del sitio que buscaban un nombre activarían el script para fabricar automáticamente una Historia de la persona. Incluí en el sitio un descargo de responsabilidad, diciendo que el sitio contenía texto sin sentido y "hechos" inventados. También colocé anuncios en la página. Al final del mes, recibí un cheque por correo con los ingresos de los anuncios. Esa era mi prueba: las noticias falsas podían ganar dinero contaminando Internet con falsedades.

Lamentablemente, yo no era el único con esta idea. Diez años más tarde, tenemos una industria de falsas noticias y desinformación digital. Los sitios de Clickbait fabrican bromas para ganar dinero con anuncios, mientras que los llamados sitios hiperpartidistas publican y difunden rumores y teorías de conspiración para influir en la opinión pública.

Esta industria se ve reforzada por lo fácil que es crear bots sociales, cuentas falsas controladas por software que parecen personas reales y por lo tanto pueden tener una influencia real. Investigaciones en mi laboratorio descubrieron muchos ejemplos de falsas campañas populares, también llamadas de astroturfing político.

En respuesta, desarrollamos la herramienta BotOrNot para detectar bots sociales. No es perfecto, pero lo suficientemente preciso como para descubrir campañas de persuasión en los movimientos Brexit y antivax. Usando BotOrNot, nuestros colegas encontraron que una gran parte de la charla en línea sobre las elecciones de 2016 fue generada por bots.



En esta visualización de la propagación del hashtag # SB277 sobre una ley de vacunación de California, los puntos son cuentas de Twitter publicando usando ese hashtag, y las líneas entre ellos muestran retweeting de mensajes hashtagged. Los puntos más grandes son cuentas que se retweeted más. Los puntos rojos son bots probables; Los azules son probablemente seres humanos. Onur Varol, CC BY-ND


Creación de burbujas de información

Los seres humanos somos vulnerables a la manipulación por la desinformación digital gracias a un complejo conjunto de sesgos sociales, cognitivos, económicos y algorítmicos. Algunos de estos han evolucionado por buenas razones: Confiar en las señales de nuestros círculos sociales y rechazar la información que contradice nuestra experiencia nos sirvió bien cuando nuestra especie se adaptó a evadir a los depredadores. Pero en las actuales redes en línea, una conexión de red social con un teórico de la conspiración en el otro lado del planeta no ayuda a informar mis opiniones.

Copiar a nuestros amigos y no seguir a los que tienen diferentes opiniones nos dan cámaras de eco tan polarizadas que los investigadores pueden decir con alta precisión si usted es liberal o conservador por sólo mirar a sus amigos. La estructura de la red es tan densa que cualquier desinformación se extiende casi instantáneamente dentro de un grupo, y así segregada que no llega al otro.

Dentro de nuestra burbuja, estamos expuestos selectivamente a información alineada con nuestras creencias. Ese es un escenario ideal para maximizar el compromiso, pero uno perjudicial para desarrollar un escepticismo saludable. El sesgo de confirmación nos lleva a compartir un titular sin ni siquiera leer el artículo.

Nuestro laboratorio obtuvo una lección personal en esto cuando nuestro propio proyecto de investigación se convirtió en el tema de una campaña de desinformación viciosa en el período previo a las elecciones de mitad de mandato de los Estados Unidos en 2014. Cuando investigamos lo que estaba sucediendo, encontramos falsas noticias sobre nuestra investigación que eran compartidas predominantemente por los usuarios de Twitter dentro de una cámara de eco partidista, una comunidad grande y homogénea de usuarios políticamente activos. Estas personas se apresuraron a retweet e impermeables a debunking información.




En este gráfico de cámaras de eco en la Twittersfera, puntos morados representan a las personas difundir afirmaciones falsas sobre el proyecto de investigación Truthy; Las dos cuentas que trataban de desacreditar la información falsa están en naranja en la extrema izquierda. Giovanni Luca Ciampaglia, CC BY-ND

Inevitabilidad viral 

Nuestra investigación muestra que dada la estructura de nuestras redes sociales y nuestra limitada atención, es inevitable que algunos memes se vuelvan virales, independientemente de su calidad. Incluso si los individuos tienden a compartir información de mayor calidad, la red en su conjunto no es efectiva para discriminar entre información confiable y fabricada. Esto ayuda a explicar todos los engaños virales que observamos en la naturaleza.

La economía de la atención se ocupa del resto: si prestamos atención a un tema determinado, se producirá más información sobre ese tema. Es más barato fabricar información y transmitirla como un hecho que para informar la verdad real. Y la fabricación se puede adaptar a cada grupo: los conservadores leen que el Papa endosó a Trump, los liberales leen que apoyó a Clinton. Él tampoco hizo nada.


Atención a los algoritmos

Dado que no podemos prestar atención a todos los posts de nuestros feeds, los algoritmos determinan lo que vemos y lo que no. Los algoritmos utilizados por las plataformas de medios sociales hoy en día están diseñados para priorizar puestos atractivos - los que es probable que haga clic en, reaccionar y compartir. Pero un análisis reciente encontró que las páginas engañosas intencionalmente consiguieron al menos tanto compartir y reaccionar en línea como noticias reales.

Este sesgo algorítmico hacia el compromiso sobre la verdad refuerza nuestros sesgos sociales y cognitivos. Como resultado, cuando seguimos enlaces compartidos en las redes sociales, tendemos a visitar un conjunto de fuentes más pequeñas y homogéneas que cuando realizamos una búsqueda y visitamos los resultados principales.

La investigación existente demuestra que estar en una cámara de eco puede hacer que las personas sean más crédulas acerca de aceptar rumores no verificados. Pero necesitamos saber mucho más acerca de cómo diferentes personas responden a un solo engaño: algunos lo comparten de inmediato, otros lo comprueban primero.

Estamos simulando una red social para estudiar esta competencia entre compartir y verificación de hechos. Esperamos ayudar a desentrañar evidencias contradictorias sobre cuándo la comprobación de hechos ayuda a evitar que los engaños se propaguen y cuando no. Nuestros resultados preliminares sugieren que cuanto más segregada sea la comunidad de creyentes engañadores, más larga la broma sobrevivirá. Una vez más, no se trata sólo de la estafa sino también de la red.

Muchas personas están tratando de averiguar qué hacer con todo esto. Según el último anuncio de Mark Zuckerberg, los equipos de Facebook están probando opciones potenciales. Y un grupo de estudiantes universitarios ha propuesto una manera de etiquetar simplemente los enlaces compartidos como "verificados" o no.

Algunas soluciones permanecen fuera de alcance, al menos por el momento. Por ejemplo, todavía no podemos enseñar a los sistemas de inteligencia artificial cómo discernir entre la verdad y la falsedad. Pero podemos decir algoritmos de clasificación para dar mayor prioridad a fuentes más confiables.


Estudiar la difusión de noticias falsas

Podemos hacer que nuestra lucha contra las noticias falsas sea más eficiente si comprendemos mejor cómo se propaga la mala información. Si, por ejemplo, los bots son responsables de muchas de las falsedades, podemos centrar la atención en detectarlas. Si, alternativamente, el problema es con las cámaras de eco, tal vez podríamos diseñar sistemas de recomendación que no excluyan puntos de vista diferentes.

Para ello, nuestro laboratorio está construyendo una plataforma llamada Hoaxy para rastrear y visualizar la propagación de reclamos sin verificar y la verificación de hechos correspondiente en las redes sociales. Eso nos dará datos reales, con los que podemos informar a nuestras redes sociales simuladas. Entonces podemos probar posibles enfoques para combatir falsas noticias.

Hoaxy también puede mostrar a la gente lo fácil que es que sus opiniones sean manipuladas por la información en línea - e incluso la probabilidad de que algunos de nosotros compartamos falsedades en línea. Hoaxy se unirá a una serie de herramientas en nuestro Observatorio de Medios Sociales, que permite a cualquiera ver cómo se propagan los memes en Twitter. Vincular herramientas como éstas a los verificadores de hechos humanos y las plataformas de medios sociales podría facilitar la minimización de la duplicación de esfuerzos y apoyarse mutuamente.

Es imprescindible invertir recursos en el estudio de este fenómeno. Necesitamos todas las manos en la cubierta: los científicos de la computación, los científicos sociales, los economistas, los periodistas y los socios de la industria deben trabajar juntos para mantenerse firmes contra la extensión de la desinformación.

No hay comentarios:

Publicar un comentario en la entrada