domingo, 29 de abril de 2018

Redes sociales, movilidad laboral y economía urbana

Movilidad laboral, redes sociales y crecimiento económico en las ciudades


Center for Network Research

El 30 de octubre, el orador invitado en la serie de seminarios CNS fue Balázs Lengyel, quien dio una charla sobre "Movilidad laboral, redes sociales y crecimiento económico en las ciudades"(Labor Mobility, Social Networks and Economic Growth in Cities). Balázs es investigador en el Instituto de Economía de la Academia Húngara de Ciencias, donde dirige el Grupo de Investigación Lendület de Agglomeration and Social Networks.

Balázs comenzó su charla con una revisión de algunos estudios de economistas urbanos donde el argumento principal es que la población mundial se concentra en áreas metropolitanas porque las empresas y los individuos se benefician compartiendo bienes (infraestructura, educación superior, etc.), hay una mejor correspondencia en los mercados laborales , y aprender de los compañeros ocurre en las ciudades. Sin embargo, hay poco conocimiento sobre el aprendizaje entre empresas a través de los vínculos sociales en entornos urbanos y cómo las redes sociales colaborativas influyen en el éxito urbano.

Durante la charla, Balázs mostró, con evidencia empírica, cómo el movimiento de individuos entre empresas crea nuevos vínculos sociales y tiene dos efectos: (1) un efecto directo, cuando los nuevos empleados aportan nuevos conocimientos a la empresa, transfiriendo habilidades nuevas pero relacionadas tecnológicamente el espacio del producto, y (2) un efecto indirecto, con colegas anteriores que tienden a continuar comunicándose y en algunos casos trabajando juntos.


Red de relación de habilidades de industrias de cuatro dígitos. Figura de: Zsolt Csafordi & Laszlo Lorincz & Balazs Lengyel & Karoly Miklos Kiss, 2016. "Derrames de productividad a través de los flujos laborales: el efecto de la brecha de productividad, las empresas de propiedad extranjera y la relación con las habilidades", IEHAS Discussion Papers 1610, Institute of Economics , Centro de Estudios Económicos y Regionales, Academia Húngara de Ciencias. https://ideas.repec.org/p/has/discpr/1610.html

Uno de los efectos directos que se pueden observar en la movilidad laboral es el aumento en el rendimiento de las empresas receptoras, a medida que más nuevos empleados van a una empresa, la productividad aumenta. Sin embargo, para hacerlo, es necesario contar con una red de colaboración cohesiva dentro de la empresa para explotar los nuevos conocimientos aportados a la empresa.

Por último, Balázs argumentó que el efecto de la movilidad de los trabajadores sobre la productividad regional no es sencillo: necesita crear vínculos sociales entre las empresas para estimular el crecimiento.

Trabajos relaciones de Balazs Lengyel


  • Balázs Lengyel, Rikard H. Eriksson; Co-worker networks, labour mobility and productivity growth in regions, Journal of Economic Geography, Volume 17, Issue 3, 1 May 2017, Pages 635–660, https://doi.org/10.1093/jeg/lbw027
  • Zsolt Csafordi & Laszlo Lorincz & Balazs Lengyel & Karoly Miklos Kiss, 2016. "Productivity spillovers through labor flows: The effect of productivity gap, foreign-owned firms, and skill-relatedness," IEHAS Discussion Papers 1610, Institute of Economics, Centre for Economic and Regional Studies, Hungarian Academy of Sciences. https://ideas.repec.org/p/has/discpr/1610.html


viernes, 27 de abril de 2018

Red de caminos romanos vistos como una red de subte moderna

Sistema de caminos de la antigua Roma visualizado en el estilo de los mapas de subterráneos modernos




Sasha Trubetskoy, estudiante de U. Chicago, ha creado un "diagrama de estilo de metro de las principales carreteras romanas, basado en el Imperio del año 125 DC". Basándose en el modelo ORBIS de Stanford, el Proyecto Pelagios y el Itinerario Antonine, el mapa de Trubetskoy combina carreteras históricas bien conocidas, como la Via Appia, con las menos conocidas (en algunos casos, nombres imaginados). Si quieres tener una sensación de escala, se necesitaría, según Trubetskoy, "dos meses para caminar a pie desde Roma a Bizancio. Si tuvieras un caballo, solo te llevaría un mes".

Puede ver el mapa en un formato más grande aquí. Y si sigues este enlace y le envías a Trubetskoy unos pocos dólares, él promete enviarte un PDF nítido para imprimirlo. Disfrutar.

a través de coudal

Siga Open Culture en Facebook y Twitter y comparta medios inteligentes con sus amigos. O mejor aún, suscríbete a nuestro correo electrónico diario y obtén una dosis diaria de Open Culture en tu bandeja de entrada.

Si desea apoyar Open Culture y nuestra misión, considere hacer una donación a nuestro sitio. Es difícil confiar 100% en los anuncios, y sus contribuciones nos ayudarán a proporcionar los mejores materiales culturales y educativos gratuitos.

miércoles, 25 de abril de 2018

Resiliencia en comunidades: El rol del pegamento y las fricciones sociales

¿Qué hace que una comunidad sea resiliente?

Un estudio de Stanford explora cómo las comunidades se recuperan (o no se recuperan) de los desastres.
Martin J. Smith - Stanford Business School of Graduates



Después de desastres como los huracanes, algunas comunidades se unen mientras otras se disuelven en el caos. | Reuters / Alvin Baez

Los esfuerzos de socorro más críticos después de un huracán o un terremoto desastroso implican la entrega de alimentos, agua y energía a los necesitados. Pero un estudio reciente de un profesor de Stanford Graduate School of Business sugiere que un problema igualmente devastador a menudo se produce a raíz de tales desastres.

Ese "asesino silencioso" es la falta de cohesión comunitaria, representada por el número y la diversidad de sus organizaciones voluntarias y su disposición a cooperar. "El impacto real de los desastres está amortiguado por aquellos", dice Hayagreeva "Huggy" Rao. "Mientras mejor sea la infraestructura, mejor será la recuperación". Un desastre es un shock. Piensa en esas organizaciones como amortiguadores ".

Rao, profesor de comportamiento organizacional en Stanford GSB, fue coautor del estudio con Heinrich R. Greve, quien obtuvo un doctorado del GSB de Stanford en 1994 y ahora enseña en la escuela de negocios INSEAD en Singapur. Su artículo fue publicado en la edición de febrero de 2018 de Academy of Management Journal.

La pareja quería entender mejor por qué algunas comunidades son resilientes frente a los desastres y por qué otros son menos capaces de recuperarse. Concluyeron que la capacidad de recuperación de una comunidad depende de dos factores críticos:
  • Cómo se enmarca el desastre por parte de la comunidad y sus líderes, incluso si se percibe como un accidente inevitable o como la culpa de alguna persona o grupo de personas
  • Cuán cooperativa es la comunidad para enfrentar los desafíos

Analizando una epidemia de 100 años de antigüedad

Llegaron a esas conclusiones al estudiar un brote de la altamente contagiosa gripe española en Noruega en 1918 y 1919, y eligieron esa epidemia en parte porque los médicos noruegos debían informar los casos de la enfermedad. Eso creó una rica vena de datos sobre cómo el contagio se propagó en áreas abarrotadas y ciudades costeras, a lo largo de las rutas marítimas y ferroviarias, así como en las comunidades minoritarias.

Las circunstancias del brote enmarcaron la historia de una manera que hizo que la gente sospechara entre sí. Según una mujer en ese momento, "todos temían a los demás", lo que dificultaba que la comunidad trabajara en conjunto para recuperarse.

Necesitas pegamento para unir a una comunidad. Pero también necesita WD-40 para reducir la fricción.
Hayagreeva Rao
Los investigadores luego compararon esa respuesta a las heladas de primavera que ocasionalmente causaron estragos entre las numerosas familias de agricultores de Noruega. Esas comunidades tenían un sentido más unificado de propósito, medido por las cooperativas de riesgo compartido, como las mutuales de seguros, las cajas de ahorros y la producción y distribución minorista de alimentos. Ese tipo de cooperación social y económica es una buena medida de la capacidad de una comunidad para "participar en la acción cívica, que a su vez depende de la confianza y la integración social".

En el brote de gripe, Rao dice, "el gobierno noruego estaba diciendo: '¡Quédense adentro! ¡No te congregues y salgas! ¡Esas son cosas que podrían ayudar a prevenir la propagación de enfermedades! "Piénselo. El mensaje fue '¡Cuidado con la gente!'

Rumor y especulación

Tal encuadre a menudo tiene un doble impacto: "Uno es lo que el gobierno dice explícitamente [instando a las personas a evitarse mutuamente para evitar la diseminación de la enfermedad], pero también desencadena la conversación y conduce a rumores y especulaciones". Al crear un "nosotros vs. "ellos" mentalidad, los funcionarios en última instancia obstaculizan la cooperación de la comunidad.

Rao dice que la historia reciente apoya esa conclusión. El sufrimiento causado por el brote de hantavirus en 1993 en el área de Four Corners en el suroeste de Estados Unidos, por ejemplo, fue exacerbado por quienes lo llamaron la "gripe Navajo" (debido al hecho de que el brote afectó a muchas poblaciones indígenas de la zona) ) "Los médicos comenzaron a llamar a los Centros para el Control de Enfermedades, preguntando si estaba bien que los Navajos fueran a restaurantes, etc.", dice Rao.

El estudio concluye que las comunidades más resilientes parecen ser aquellas con una amplia variedad de organizaciones cooperativas profundamente arraigadas, a menudo compuestas de voluntarios como médicos, educadores y líderes religiosos. "Esos desarrollan la resistencia en el sistema social", dice Rao. "Cuando las personas crean organizaciones y esas organizaciones son diversas, la comunidad tiene la capacidad de resolver problemas a largo plazo".

Músculo organizacional tenso de Puerto Rico

Rao dice que la capacidad de recuperación de Puerto Rico se está probando durante los esfuerzos de reconstrucción después del huracán María en septiembre de 2017. "Hubo una queja justificada sobre la velocidad de respuesta, pero lo que todavía tenemos que saber es quiénes son exactamente las víctimas? ¿Qué está pasando con el músculo organizacional en la comunidad? ¿Las iglesias se están plegando? ¿Las personas van a Miami o Houston? Puedes inyectar recursos, pero si se destruye la infraestructura organizacional, es un problema mayor, porque las comunidades no pueden ayudarse a sí mismas ".

Rao cita el trabajo del profesor de política pública Robert Putnam de la Universidad de Harvard, cuyo libro de 2000 Bowling Alone: ​​The Collapse and Revival of American Community compara la diversidad social y la cooperación con el lubricante WD-40. "En primer lugar, necesita pegamento para unir a la comunidad", dice Rao. "Pero también necesita WD-40 para reducir la fricción". Generalmente, dice Rao, los EE. UU. Hoy "necesitan más WD-40".

lunes, 23 de abril de 2018

Patrones en las redes de comercio internacional

Estructura y formación de las principales redes en el comercio internacional, 2001-2010

Min Zhoua, Gang Wub y Helian Xuc
Social Networks Volume 44, January 2016, Pages 9-21
https://doi.org/10.1016/j.socnet.2015.07.006



Resaltados


  • Este es el primer estudio que usa las relaciones comerciales más importantes para construir la red.
  • La red de comercio superior muestra una estructura jerárquica claramente similar a un árbol.
  • Nuestro modelo usa el comportamiento del país en tríadas locales para explicar dicha estructura de red.
  • Nuestro modelo teórico es consistente con el comercio internacional en la práctica.

Resumen
Proponemos la construcción de una red comercial internacional basada en las relaciones comerciales más importantes (es decir, el país i está vinculado al país j si j es el principal socio comercial de i). La red construida captura las relaciones más importantes en el comercio internacional. La red general muestra una estructura jerárquica similar a un árbol. Está organizado en torno a los países centrales del mundo (especialmente los EE. UU., China y Alemania) bajo los cuales hay más niveles de centros locales. Desarrollamos un modelo que usa el comportamiento del país en el entorno triádico local para tener en cuenta la formación de dicha estructura de red. El censo de tríadas confirma la aplicabilidad de este modelo.



Usamos el comercio internacional en 2010 para ilustrar la construcción de tales redes comerciales principales. La Fig. 1 visualiza estas redes. Comenzamos con la red internacional completa sin tener en cuenta la clasificación. Cuando solo mantenemos la principal relación comercial importadora de cada país (el vínculo entrante más fuerte) en la red, la red resultante se denomina la red de importación top 1. También podemos relajar este estándar y mantener las dos principales relaciones comerciales importadoras de cada país (las más fuertes y las segundas más fuertes). La red resultante se llama la red de importación top 2. Podemos aflojar aún más el estándar y bajar al ranking de las relaciones comerciales. Una característica clave de la red de importación superior es que todos los nodos tienen un grado en el estándar seleccionado, pero el grado de salida varía según los nodos. Por ejemplo, en la red de importación top 1, todos los países tienen un grado en 1, pero su grado de grado saliente y puede ser mayor que 1. Un país solo puede tener un país como su principal fuente de importación, pero puede ser el mayor fuente de importación para muchos otros países. El grado saliente también puede ser 0 cuando el país no es la principal fuente de importación para ningún país. Por el contrario, en la red de exportación superior, todos los países tienen un grado superior al estándar seleccionado, pero su grado varía según los países.





Examinamos la estructura de las principales redes comerciales, tanto en la red como en los niveles nodales. Usamos el software UCINET para visualizar las principales 1 redes de importación y exportación en 2010 (ver Fig. 3). Ambas redes están divididas en dos grandes clusters: el clúster EE. UU.-China y el clúster Alemania-Francia. El primer clúster es una gran red conectada centrada en los EE. UU. y China. China y los EE. UU. lideran cada uno un subgrupo grande, y estos dos clusters están conectados a través del comercio entre China y EE. UU. China es la principal fuente de importación de los EE. UU. y EE. UU. es el mercado de exportación más grande de China. El segundo grupo es una red relativamente más pequeña centrada en Alemania y Francia. En general, las redes muestran una estructura jerárquica típica similar a un árbol, con los Estados Unidos, China, Alemania y Francia ocupando los centros en la parte superior. Debajo de estos centros globales, también hay algunos centros locales.

La red de comercio top 1: probando el modelo

Para examinar si la formación de las principales redes de comercio internacional en realidad sigue nuestro modelo, a continuación realizamos el censo de las tríadas. Para las redes dirigidas, cuando consideramos tanto la presencia / ausencia como la direccionalidad de las relaciones, existen 64 tipos posibles de tríadas. Si combinamos esas tríadas con la misma estructura, los 64 tipos se pueden clasificar en 16 configuraciones de tríada, como se muestra en la Fig. 6.




Usamos el esquema de etiquetado estándar M-A-N para denotar las 16 tríadas (Holland y Leinhardt, 1970, 1972; Prell, 2012: 141-43). Esta notación utiliza un número de 3 dígitos, a veces más una letra adicional. El primer dígito indica el número de vínculos mutuos (M) en la tríada; el segundo dígito representa la cantidad de vínculos asimétricos (A); y el tercer dígito representa el número de enlaces nulos (N). A veces necesitamos una letra más (C, D, T o U) al final para distinguir más a las tríadas. D significa "hacia abajo", U "hacia arriba", T "transitivo" y C "cíclico". Por ejemplo, "030C" representa una tríada que tiene 0 enlaces bidireccionales, 3 enlaces unidireccionales y 0 enlaces ausentes y la tríada es cíclica.
Utilizo el censo de la tríada para probar la aplicabilidad de nuestro modelo a las principales redes de comercio en la realidad. Un censo de la tríada consiste en contar las frecuencias de los 16 tipos de tríadas en todas las posibles tríadas en una red determinada (Wasserman y Faust, 1994). Por lo tanto, un censo tríada clasifica toda la información sobre una red en 16 recuentos.

(1) La red de importación top 1
Usamos el esquema de etiquetado M-A-N para codificar las triadas que aparecen en el modelo sobre la formación de la red de importación de top 1 (ver Fig. 4). Solo hay seis posibles tipos de tríadas, según el modelo. Están ubicados en diferentes etapas del proceso de formación.
(1) Tríada 003: el tipo de tríada en la primera etapa, o figura 4a.
(2) Tríada 012: el tipo de tríada en la segunda etapa, o figura 4b.
(3) Tríada 021D: el tipo de tríada en la tercera etapa, o figura 4c1.
(4) Tríada 021C: el tipo de tríada en la tercera etapa, o la figura 4c2 y c4. Tenga en cuenta que la Fig. 4c2 y c4 son esencialmente el mismo tipo de tríada.
(5) Tríada 102: el tipo de tríada en la tercera etapa, o figura 4c3.
(6) Tríada 111U: el tipo de tríada en la etapa final, o la figura 4d1, d2 y d3. Tenga en cuenta que el proceso finalmente conduce a un solo tipo de tríada posible. La figura 4d1, d2 y d3 son esencialmente el mismo tipo de tríada.
Para comprobar si nuestro modelo funciona para la red de comercio internacional en realidad, aplicamos el censo de la tríada a los datos de la red de importación top 1 de 2001 a 2010. El resultado del censo de la tríada en cualquiera de los 10 años es completamente coherente con predicción del modelo (ver Tabla 4).
En primer lugar, según lo predicho por el modelo, la red consta de solo triadas 003, 012, 102, 021D, 021C y 111U. No hay triadas cerradas en la red de importación top 1. Siete tipos de tríadas cerradas, a saber, 030T, 030C, 120D, 120U, 120C, 210 y 300, todas tienen 0 frecuencias. Además, dado que todos los nodos de la red de importación de top 1 tienen un grado de 1, por lo que 021U, 111D y 201 no existen en la red de importación de top 1.
Segundo, la distribución de frecuencias de los seis tipos de tríadas también es consistente con las cuatro etapas del proceso de formación descrito en el modelo. La tríada 003 (la tríada en la primera etapa) tiene la frecuencia más grande, seguida por la tríada 012 (la segunda etapa), y luego por las tríadas 021D, 102 y 021C (la tercera etapa), y finalmente por la tríada 111U (la etapa final). La frecuencia disminuye gradualmente en las etapas, a medida que menos tríadas alcanzan la siguiente etapa y la menor cantidad de tríadas evoluciona hacia la forma "madura", la tríada 111U.
Vale la pena señalar que la tríada 111U fue en general (aunque lentamente) en aumento desde 2001 hasta 2008, pero experimentó una caída después de la crisis del año 2008. Su frecuencia alcanzó el pico (99) en el año 2007, pero disminuyó a 61 en 2009 y 65 en 2010. Esta disminución se produjo junto con la contracción general en la red de importación internacional durante la crisis financiera.
(2) La red de exportación top 1
Cuando utilizamos el esquema de etiquetado M-A-N para recodificar el modelo sobre la formación de la red de exportación superior (ver Fig. 5), solo las siguientes 6 configuraciones de tríada son posibles en la red.
(1) Tríada 003: el tipo de tríada en la primera etapa, o figura 5a.
(2) Tríada 012: el tipo de tríada en la segunda etapa, o figura 5b.
(3) Tríada 021U: el tipo de tríada en la tercera etapa, o figura 5c1.
(4) Tríada 021C: el tipo de tríada en la tercera etapa, o la figura 5c2 y c4. Tenga en cuenta que la Fig. 5c2 y c4 son esencialmente el mismo tipo de tríada.
(5) Tríada 102: el tipo de tríada en la tercera etapa, o figura 5c3.
(6) Tríada 111D: el tipo de tríada en la etapa final, o la figura 5d1, d2 y d3. Tenga en cuenta que el proceso finalmente conduce a un solo tipo de tríada posible. La Fig. 5d1, d2 y d3 son esencialmente el mismo tipo de tríada.

Aplicamos el censo de la tríada a la red de exportación top 1 actual entre 2001 y 2010 para ver si cumple con nuestro modelo. El resultado del censo de la tríada para los 10 años se muestra en la Tabla 5. Una vez más, el resultado es completamente coherente con nuestro modelo.
En primer lugar, como lo predice el modelo, solo hay seis tipos de tríadas en la red, incluidas las triadas 003, 012, 102, 021U, 021C y 111D. En particular, no se observan tríadas cerradas en la red de exportación superior 1, como lo sugiere el modelo.



El modelo es 100% exitoso al explicar la estructura de las principales redes comerciales. Sin embargo, a medida que incluimos más relaciones comerciales de menor importancia, aunque los seis tipos de tríadas aún dominan en números, comienzan a aparecer otros tipos de tríadas. Cuanto más bajamos el nivel de importancia, más tipos de tríadas emergen y cuanto más disminuye el dominio de los seis tipos de tríada. Este patrón sugiere una disminución del efecto de cascada de información marginal y la disminución del poder explicativo de nuestro modelo con la inclusión de relaciones comerciales adicionales menos importantes.



Específicamente, como se muestra en la Fig. 7, para las principales redes de importación: (1) en la red superior 1, todas las tríadas son de los seis tipos (003, 012, 102, 021D, 021C y 111U) identificados en nuestro modelo (es decir, 1,750,540 del total de 1,750,540 triadas), por lo que nuestro modelo tiene un 100% de poder explicativo; (2) en la red de los 2 principales, 1,750,325 (de un total de 1,750,540) tríadas son de los seis tipos identificados en nuestro modelo, por lo que nuestro modelo tiene un 99,99% de poder explicativo; (3) en la red de los 3 principales, 1,749,902 (de un total de 1,750,540) tríadas son de los seis tipos, lo que sugiere que nuestro modelo ahora tiene un 99,96% de poder explicativo; (4) en la red de los 4 principales, 1,749,267 (de un total de 1,750,540) tríadas son de los seis tipos, por lo que nuestro modelo tiene 99,93% de poder explicativo. También analizamos las redes top 5, top 6, etc. La tendencia es similar: a medida que bajamos un nivel de importancia, el poder explicativo de nuestro modelo disminuye en aproximadamente 0.03%.




El mismo patrón también se observa en las principales redes de exportación mostradas en la Fig. 8. (1) En la red superior 1, todas las tríadas son de los seis tipos (003, 012, 102, 021U, 021C, 111D) identificados en nuestro modelo (es decir, 1,750,540 del total de 1,750,540 tríadas), por lo que nuestro modelo tiene un 100% de poder explicativo; (2) en la red superior 2, 1,750,325 (de un total de 1,750,540) tríadas son de los seis tipos, por lo que el poder explicativo de nuestro modelo disminuye al 99,99%; (3) en la red de los 3 principales, 1,749,906 (de un total de 1,750,540) tríadas son de los seis tipos, por lo que nuestro modelo ahora tiene un 99,96% de poder explicativo; (4) en la red de los 4 principales, 1,749,278 (de un total de 1,750,540) tríadas son de los seis tipos, por lo que el poder explicativo de nuestro modelo disminuye aún más a 99,93%. También analizamos las redes top 5, top 6, etc. De nuevo, a medida que bajamos un nivel de importancia, el poder explicativo disminuye en aproximadamente 0.03%.
En general, el patrón general es que nuestro modelo teórico funciona mejor para las principales redes comerciales y un poco menos bien a medida que aumenta el número de socios comerciales (es decir, cuando bajamos el nivel de importancia de las relaciones comerciales). Sin embargo, el modelo sigue siendo muy efectivo ya que su poder explicativo permanece muy por encima del 99% para las redes top 2, top 3, top 4 (o incluso 5, 6, etc.). Puede explicar una mayoría predominante de tríadas en estas redes principales.

sábado, 21 de abril de 2018

Radiografía ARS de un ataque de bots en Twitter

¡Cuando los bots atacan!

Alguien compró a mi cuenta de Twitter unos 10 mil seguidores falsos / bots, y esto es lo que aprendí sobre las herramientas de detección de spam de Twitter

Geoff Golberg | Medium
Cofundador de Elementus | Presentado en Adweek, Forbes, IB Times y Huffington Post, entre otros | geoffgolberg.com



Representación de grafo de red de mis seguidores de Twitter (¡gran punto gris soy yo, Geoff Golberg!). Cada punto es uno de mis seguidores de Twitter. La versión interactiva es fantástica cuando se ve en el escritorio (use el touchpad / mouse para moverse / acercarse, pase el cursor sobre los puntos para revelar la cuenta, haga clic para observar la interconectividad). Crédito gráfico: Max Galka

La historia primero, los datos después

A menos que haya estado viviendo bajo una roca, es probable que haya leído el informe de investigación de The New York Times, "The Follower Factory". La pieza se sumerge profundamente en la compra de seguidores de Twitter falsos / bot. Yo también tengo algo de experiencia con seguidores de Twitter falsos / bot. Tengo una historia Tengo algunos datos.

Supongo que un buen lugar para comenzar sería este tweet del profesor de Stanford, Johan Ugander: es parte de una tormenta de tweets conectado a "The Follower Factory" y te animo a leer el hilo en su totalidad:


Escribir una publicación sobre cuentas de Twitter falsas / bot es algo que he pospuesto por demasiado tiempo. Puedo relacionarme con el escenario hipotético que describe Johan, ya que fui atacado de esta manera hace un par de años. Descubrir ese tweet fue el empujón que necesitaba para finalmente abordar esta publicación (¡gracias, Johan!).

En enero de 2016 noté que mi cuenta de Twitter estaba ganando seguidores a un ritmo ridículo:


Estoy seguro de que mi cuenta fue "maliciosamente [dirigida] por alguien con seguidores de bot para hacer que [me] se vea mal".

Dejame explicar.

El ataque de los Bots

Unos días antes del aumento en los seguidores de Twitter, twitteé lo siguiente:


MeVee surgió de la nada, lanzando una aplicación de video en vivo a principios de 2016, en lo que era un sector muy caliente en ese momento. El seguimiento en Twitter de MeVee (15K +) fue una señal de alerta inmediata para mí, considerando que acababan de lanzarse, así que decidí revisar manualmente los seguidores de Twitter más recientes de la cuenta. Después de encontrar lo que parecía ser principalmente cuentas falsas / bot, ejecuté la cuenta a través de TwitterAudit. TwitterAudit ciertamente no es perfecto, pero me ha impresionado su precisión (más sobre esto más adelante). Como sospechaba, TwitterAudit reveló que la mayoría (93%) de los seguidores de Twitter de MeVee eran falsos.

¿Por qué una aplicación lanzada recientemente compraría seguidores de Twitter? La respuesta es simple: la prueba social (es decir, tener más seguidores en Twitter puede afectar la percepción de MeVee).

Para su crédito, MeVee respondió a mi tweet en lugar de ignorarlo:




La cuenta de Twitter de MeVee ha cambiado su manejador de @MeVeeApp a @buildwithcrane. La cuenta ahora está asociada con Crane AI, que no tiene nada que ver con el video en vivo (MeVee ya no existe)
La respuesta ("alguien desde el principio accidentalmente compró algunos seguidores") me dio una buena risa. Varias personas nombradas en el informe del New York Times señalaron de manera similar con el dedo en otro lugar (empleados, familiares, agentes, compañías de relaciones públicas, amigos) cuando se enfrentaron.

Si bien no puedo decir definitivamente que alguien con vínculos de MeVee atacó mi cuenta, lo que definitivamente puedo decir es que no compré los seguidores. Muy fácilmente podría haber sido un tercero que se encontró con nuestro intercambio de Twitter y pensó que sería divertido inundar mi cuenta con seguidores falsos / bot. En cualquier caso, la identidad del culpable no es central en la historia / datos que estoy compartiendo.

En última instancia, cualquiera puede comprar seguidores de Twitter falsos / bot en su cuenta de Twitter. ¿Sabía usted eso?

Mientras que unos días antes estaba recomendando herramientas para facilitar la eliminación de MeVee de seguidores de Twitter falsos / bot, ahora me encontré en una posición en la que mi cuenta de Twitter estaba siendo "maliciosamente [apuntada] por alguien con seguidores de bot para hacer que me viera mal "

En ese momento, trabajaba como creador / consultor de contenido de video en vivo. Fue un trabajo que realmente disfruté, especialmente cuando se trataba de viajes, como fue el caso cuando me asocié con Heineken durante los Juegos Olímpicos de Río, por ejemplo:


Trabajando como un "influencer" (prefiero mucho "creador"), me sentí muy orgulloso de asegurar que mi seguimiento de Twitter fuera limpio / de fiar. En otras palabras, no quería que mi cuenta fuera seguida por cuentas de Twitter falsa / bot, lo que podría ser malo para los negocios.

Los expertos en marketing están investigando / analizando las audiencias de los creadores con quienes se asocian más allá de simplemente mirar el alcance (es decir, el número de seguidores). La mayoría de los especialistas en marketing, sin embargo, no emplean procesos sofisticados para garantizar que se mantengan alejados de los socios que a sabiendas juegan con el sistema mediante la compra de seguidores / compromisos sociales. Mi deseo de mantener un seguimiento limpio / legítimo de Twitter fue impulsado por la necesidad. No quería perder ningún trabajo por la apariencia de que estaba representando falsamente mi alcance / influencia.

Desde que me uní a Twitter (marzo de 2009), de hecho, y mucho antes de ingresar al video en vivo, regularmente revisaba mis seguidores para asegurarme de que fueran cuentas reales. Como resultado, puedo decir con confianza que probablemente tengo más cuentas de Twitter bloqueadas que tú. (~ 3.3K cuentas, para ser precisos)

El marketing de Influencer está completamente roto, por cierto, pero lo guardaré para una futura publicación.

Bueno, Mierda. Esto apesta

No me llevó mucho tiempo darme cuenta de que mi cuenta de Twitter estaba siendo atacada (en lo que a mí respecta) por cuentas falsas / bot.

Después de frustrarme con el bloqueo de las cuentas infinitas de bots falsos / bots, opté por cambiar mi configuración para "Proteger [mis] tweets". Al suscribirse a Twitter, los tweets son públicos por defecto y cualquiera puede seguir cualquier cuenta. Cuando los tweets están protegidos, las personas deben hacer una solicitud para seguir. Por lo tanto, cambiar mi cuenta a privado aliviaría la carga de bloquear cuentas.

La protección de tweets no es una solución ideal, ya que los tweets de cuentas privadas solo pueden ser vistos por los seguidores. Esto limita la visibilidad y, por extensión, dificulta el compromiso / la interacción. Otra desventaja de tener una cuenta privada es que tus tweets ya no pueden ser retuiteados. Twitter funciona como un vehículo fantástico para amplificar contenido (mediante descubrimiento / retweets); sin embargo, ese valor no puede ser capturado por cuentas privadas de Twitter. Estar limitado a la utilización de Twitter en el marco de una red privada degrada enormemente tanto la utilidad como la experiencia del usuario. Tener una cuenta privada significaba que ya no podía aprovechar Twitter de manera efectiva.

A continuación, llamé a varios empleados de Twitter para ver si podían ofrecer consejos / soluciones. El resultado de esos intercambios fue este: no se preocupen por los seguidores falsos / bot, ya que Twitter friega regularmente su ecosistema y las cuentas falsas / bots serán eliminadas, eventualmente. También archivé un boleto con el Centro de ayuda de Twitter, pero no recibí una respuesta (vale la pena señalar que no se proporcionó un número de ticket ni un correo electrónico de confirmación).

Poco tiempo después cambié mi cuenta a pública, dando a Twitter el beneficio de la duda. Durante las próximas semanas, mi cuenta de Twitter creció de ~ 4.6K seguidores a ~ 11.7K "seguidores" (del 7 de enero de 2016 al 29 de enero de 2016):



Fuente: TwitterCounter.com (Feb '18)
Más de dos años después, todavía estoy esperando que se eliminen miles de cuentas falsas / bot de Twitter / mi lista de seguidores.

Ya es suficiente con la historia, vayamos a los datos

(Llévame de vuelta a la historia)

Como ilustraré, y aplicando múltiples enfoques / herramientas, es relativamente fácil identificar cuentas de Twitter falsas / bot. Además, contrariamente a la creencia popular, Twitter es bastante efectivo para identificar cuentas de spam.

Según Nick Bilton (autor de "Hatching Twitter"): "Twitter sabía acerca de todos sus seguidores falsos, y siempre lo ha hecho, eliminando suficientes bots para que parezca que les importa, pero no lo suficiente como para afectar la cantidad percibida de activos. usuarios en la plataforma ".

Luego de una inspección más cercana de lo que ocurre bajo el capó de Twitter, resulta evidente que la afirmación de Nick describe perfectamente el enfoque de Twitter para lidiar con cuentas falsas / bot.

1) Representación de grafo de red



@ seguidores de geoffgolberg (a partir de mayo '17)

Una vez más, esta es una representación gráfica de red de mis seguidores de Twitter. Cada punto es uno de mis seguidores de Twitter. Los colores representan las comunidades (determinadas por la interconexión) y el tamaño de cada círculo representa cuán central es el seguidor / cuenta en la comunidad.

Dado que esta es mi propia red de Twitter, rápidamente queda claro lo que cada comunidad representa. Cuando se realizan análisis similares para otras cuentas, donde uno carece del mismo nivel de familiaridad, puede requerir un poco más de trabajo de campo.

El gráfico anterior incluye una leyenda para evitarle el dolor (personalmente, ¡me gusta este proceso!) De intentar identificar a cada comunidad. Lo que inmediatamente se destaca son los racimos verdes. Mientras que los clusters no verdes reflejan una conectividad significativa entre las comunidades, los clusters verdes están, en su mayor parte, desconectados del resto de las comunidades. Los seguidores falsos / bot que se compraron para mi cuenta comprenden la gran mayoría de los puntos verdes. Una pequeña porción de los puntos verdes son seguidores reales, simplemente cuentas que no están conectadas con el resto de mis seguidores de Twitter (algunos amigos de la escuela secundaria, por ejemplo, aparecen en los clusters verdes).

¡Dirígete a la versión interactiva para buscar tu cuenta y explorar!

2) TwitterAudit.com

TwitterAudit se fundó en 2012. De forma gratuita, uno puede auditar sus propias / otras cuentas de Twitter. TwitterAudit toma una muestra aleatoria de (hasta) 5K de los seguidores de una cuenta y luego puntúa a cada uno de esos seguidores. Su algoritmo evalúa un conjunto de variables (algunas de las cuales incluyen: número de tweets, fecha del último tweet, proporción de seguidores y seguidores) y luego determina si cada seguidor es real o falso. Su oferta paga (PRO) le permite a uno ejecutar su cuenta a través de un mayor número de sus seguidores, en lugar de estar limitado por 5K, como es el caso de la oferta gratuita.

Un puntaje de auditoría del 98%, por ejemplo, significa que TwitterAudit ha determinado que el 98% de los seguidores de la cuenta es real. Antes de comenzar una ronda de bloqueo de seguidores falsos / bot en septiembre de 2015, tenía un puntaje de TwitterAudit del 98% (78 seguidores falsos de ~ 4K seguidores):


En febrero de 2018, más de dos años después de que mi cuenta de Twitter fue atacada por cuentas falsas / bot, TwitterAudit determinó que ~ 4K de mis seguidores eran falsos (70% de puntaje de auditoría):




Aquí está el crecimiento de esos seguidores falsos, en relación con el crecimiento de mis seguidores en Twitter en general:



@ seguidores de geoffgolberg (seguidores "falsos" según lo determinado por TwitterAudit, Feb '18)

Como mencioné anteriormente, mantener un seguimiento limpio / legítimo de Twitter siempre ha sido importante para mí. Esto se evidencia por el hecho de que el primer seguidor falso identificado por TwitterAudit fue mi seguidor 1.680 (en otras palabras, evité seguidores falsos durante mis primeros ~ 6 años como usuario de Twitter). A continuación se muestra una tabla que resume los datos de TwitterAudit:


3) API de Twitter

El informe del New York Times empleó una táctica muy inteligente para identificar a los seguidores falsos / bot. Su enfoque implica trazar los seguidores de una cuenta (primero a más reciente) en la fecha en que se creó cada cuenta (seguidor) respectiva. El siguiente ejemplo, cortesía del editor gráfico del New York Times, Rich Harris, hace un excelente trabajo al ilustrar patrones que señalan a los seguidores falsos / bot:


El profesor de Credit Columbia, Mark Hansen, con el descubrimiento de la huella dactilar

Poco después de leer "The Follower Factory", me encontré con una publicación de Elaine Ou, donde aplica el mismo análisis a su propia cuenta de Twitter. Elaine revisa los seguidores del columnista del New York Times Paul Krugman ("por el bien de la objetividad periodística") y Eric Schneiderman, el Fiscal General de Nueva York, también (Schneiderman abrió una investigación tras el informe del New York Times). Elaine escribió un código de Python para reproducir los diagramas de dispersión del estilo del New York Times, y tuvo la amabilidad de vincularlo al final de su publicación.

Estos son los resultados de ejecutar el script de Elaine para mi cuenta de Twitter:


@ seguidores de geoffgolberg (Feb '18; excluye "cuentas sospechosas de spam")

Aquí es donde las cosas se ponen interesantes.

A pesar de tener más de 13K seguidores en ese momento, el script solo devolvió ~ 9.4K seguidores (el ataque del seguidor falsa / bot puede verse desde ~ 3.6K a ~ 5.1K seguidores). Decidí buscar en el Centro de ayuda de Twitter y encontré la sección "Mi conteo de seguidores está equivocado". Una frase que decía "Para ver la lista completa de sus seguidores, incluidas las cuentas sospechosas de spam, apague el filtro de calidad en su configuración" me llamó la atención. Aquí hay más información sobre el filtro de calidad (también desde el Centro de ayuda de Twitter):



Cada cuenta de Twitter tiene un filtro de calidad (que se lanzó en agosto de 2016) activado por defecto. Traducido: Twitter quiere ocultar las cuentas que han identificado como "cuentas sospechosas de correo no deseado" de su lista de seguidores. Si un usuario desea ver la lista completa de sus seguidores, debe desactivar el filtro de calidad en su configuración. Este hallazgo me llevó a twittear las siguientes preguntas:


Con el filtro de calidad ahora desactivado, el script de Elaine todavía devolvió ~ 9.4K seguidores para mi cuenta. Su secuencia de comandos está utilizando la llamada a la API GET followers / list para obtener una lista de seguidores de la cuenta. Alternativamente, esto se puede hacer usando la llamada a la API GET followers / ids.

Este último devolvió mi lista completa de seguidores, haciendo coincidir el número que aparece en mi perfil de Twitter (más de 13K).

Aquí está el diagrama de dispersión del estilo del New York Times (reproducido usando Excel) para mi lista completa de seguidores:


Los seguidores de @ geoffgolberg (Feb '18; incluye "cuentas sospechosas de spam")

El ataque comprendió ~ 1.5K cuentas en el primer diagrama de dispersión, mientras que aquí, que refleja el conteo de seguidores reales mostrado por Twitter, el ataque recoge unas cuentas adicionales de 4K (el ataque falso / seguidor del robot ahora se puede ver desde ~ 3.7K a ~ 9.2K seguidores). Esas cuentas ~ 4K han sido identificadas por Twitter como "cuentas sospechosas de spam"; sin embargo, por alguna razón, las cuentas no se suspenden ni eliminan.

A continuación, decidí comparar la lista parcial de mis seguidores (OBTENER seguidores / enumerar llamada API) con mi lista completa de seguidores (GET seguidores / ids llamada API). Estas son las "cuentas sospechosas de correo no deseado" (es decir, no devueltas por la API llamada GET followers / list) expresadas como un porcentaje de mi lista completa de seguidores (es decir, cuentas devueltas por la API de ID / seguidores de GET):



Con la excepción del ataque, la API de Twitter siempre devolvió ~ 1% de seguidores como cuentas identificadas por Twitter como "cuentas sospechosas de correo no deseado" (cada período de tiempo abarca al menos un año y entre miles de seguidores). Sin embargo, durante el mes de enero de 2016, Twitter ha marcado el 73% de las cuentas que siguieron a mi cuenta como "cuentas sospechosas de correo no deseado" (nuevamente, más de 4K cuentas / seguidores). En otras palabras, más de 4K de los 13.600 seguidores reflejados en mi perfil de Twitter son "cuentas sospechosas de spam", al menos, según las herramientas de detección de spam de Twitter.

Esto no es un error ni está aislado de mi cuenta. La plataforma completa de Twitter se basa en recuentos engañosos / inflados de seguidores / seguidores, que incluyen cuentas que los mismos Twitter han identificado como "cuentas sospechosas de correo no deseado" (y se han identificado como tales durante años).

Discutiré por qué eso importa más adelante en la publicación; primero analizaremos más de cerca los datos de los diversos enfoques / herramientas.

Comparando los tres enfoques

Para esta sección, el análisis se centrará en el período de tiempo de ataque (del 7 de enero de 2016 al 29 de enero de 2016).

En el contexto del ataque, el enfoque del grafo de red es el más preciso para identificar seguidores falsos / bot. Ciertamente hay muchos puntos verdes / seguidores que son cuentas reales; sin embargo, es mucho más probable que esas cuentas sigan fuera de las fechas de ataque.

Traducido: los amigos de la escuela secundaria mencionados anteriormente, por ejemplo, que forman parte de los clusters verdes, están allí porque están desconectados del resto de mis comunidades, no porque sean cuentas falsas / bot. Es mucho más probable que lo hayan seguido en el primer período de tiempo (marzo de 2009 a diciembre de 2014) que 7 años después de que me uní a Twitter durante el ataque que duró solo unas semanas en enero de 2016. Durante el período de ataque, los grupos verdes desconectados tienden a señalar cuentas falsas / bot, en lugar de cuentas más amplias que están desconectadas del resto de mis comunidades.

Antes de saltar a los datos, aquí hay una visualización de ~ 200 cuentas que siguieron durante el período de ataque (¡encienda su audio mientras mira!). La primera columna es roja cuando la representación del gráfico de red refleja estar en los clústeres verdes (es decir, cuentas falsas / bot). La segunda columna es roja cuando la API de Twitter refleja ser una "cuenta sospechosa de spam". La tercera columna es roja cuando TwitterAudit refleja que es una cuenta falsa. Las cuentas que fueron suspendidas por Twitter (entre junio de 2017 y febrero de 2018) son de color naranja, mientras que las cuentas que fueron eliminadas por Twitter (el mismo período de tiempo) son de color gris:

Tenga en cuenta la cadena de ~ 30 seguidores donde los tres enfoques indican que las cuentas que siguen son reales. Esto sucedió el 19 de enero de 2016, después de haber sido nominado por los premios Shorty Awards para Periscoper of the Year (recogiendo esos seguidores reales, en sucesión, como resultado):


El enfoque del grafo de red identifica el 97% de las cuentas que siguieron durante el ataque (5,419 de 5,583) para ser cuentas falsas / bot (puntos verdes). Entre junio de 2017 y febrero de 2018 (9 meses), Twitter suspendió solo 50 de esas cuentas, mientras que otras 36 fueron eliminadas.

La API de Twitter identifica 4.013 "cuentas sospechosas de correo no deseado" que siguieron durante el ataque. El 98.7% de esas cuentas también fueron determinadas como cuentas falsas / bot por el gráfico de red. En otras palabras, Twitter aplica el identificador de "cuenta sospechosa de correo no deseado" solo una vez que tienen un alto nivel de confianza.

TwitterAudit identifica 3.903 cuentas falsas que siguieron durante el ataque. El 98.8% de esas cuentas también fueron determinadas como cuentas falsas / bot por el gráfico de la red. Al igual que Twitter, cuando TwitterAudit identifica una cuenta como spam / falso, hay una gran probabilidad de que sea, de hecho, una cuenta falsa / bot.

Tanto Twitter como Twitter Audit no identifican ~ 1.5K cuentas falsas / bot contra el gráfico de red.

Cuando Twitter marcó una cuenta como spam, hubo una probabilidad del 76.6% de que TwitterAudit también identificara la cuenta como una cuenta falsa / bot. Cuando TwitterAudit determinó que una cuenta era falsa, había un 78.8% de posibilidades de que la cuenta también fuera identificada como una cuenta de spam / falsa por Twitter.

Hubo 3,049 cuentas donde los tres enfoques determinaron que la cuenta es una cuenta falsa / bot.

Aquí hay otra forma de visualizar el conjunto de datos (las cuentas suspendidas por Twitter son amarillas, las cuentas eliminadas por Twitter son azules):


Sentido de todo

Anteriormente, hice la siguiente afirmación: la plataforma completa de Twitter se basa en seguidores engañosos / inflados / siguientes recuentos

La presencia de cuentas falsas / bot no debería ser la clave de esta publicación. Lo que es notable es que Twitter es bastante bueno para identificar cuentas de spam, simplemente eligen eliminar una fracción de estas cuentas falsas / bot.

¿Por qué no eliminarlos a todos?

Twitter es una compañía que cotiza en bolsa. Cada trimestre, entre otras cosas, Twitter informa sus MAU (usuarios activos mensuales). Es una medida clave que los accionistas (potenciales) evalúan al tomar decisiones de inversión. Durante la llamada a las ganancias del tercer trimestre de Twitter, se reveló que Twitter había exagerado su recuento de MAU durante los últimos tres años.

En el caso de mi cuenta de Twitter, Twitter actualmente refleja tener 13.500 seguidores:



Este número, sin embargo, incluye ~ 4K cuentas que los mismos Twitter han identificado como "cuentas sospechosas de correo no deseado". Desde la perspectiva de un usuario de Twitter, me sentiría mucho más cómodo usando la plataforma sabiendo que los seguidores / siguientes conteos presentados son más precisos representación de la realidad. Además, cuando se interactúa con otras cuentas, es posible que los usuarios incluyan estos recuentos como señales que procesan cuando evalúan la credibilidad de las cuentas con las que interactúan.

Desde la perspectiva de un anunciante, tener recuentos de seguidores / seguidores que reflejen cuentas que en realidad están siendo utilizadas por seres humanos (es decir, menos "cuentas sospechosas de correo no deseado" de Twitter) es críticamente importante. Lo que es más importante, ¿filtra Twitter los compromisos / acciones que involucran "cuentas sospechosas de correo no deseado" al determinar qué eventos / acciones son facturables a los anunciantes? Si los anunciantes no reciben una factura en esos casos, ¿por qué esas cuentas se reflejan en los seguidores / conteos siguientes?

OK, ¿cuál es tu punto?

Las implicaciones de la decisión de Twitter de eliminar solo una fracción de las cuentas falsas / bot son mucho más amplias que las de un solo usuario (yo, en este caso), molesto.

A principios de este mes, mientras revisaba las cuentas que seguían las mías, simplemente ordenaba a mis seguidores por la cantidad de tweets que cada cuenta publicaba. Después de notar que uno de mis seguidores tenía una cantidad alarmantemente grande de tweets, decidí investigar un poco más, luego compartí mis hallazgos en este hilo:

¡Asegúrate de leer el hilo completo!

Al día siguiente noté que Twitter había suspendido la cuenta de Twitter @nine_oh. Twitter habría (probablemente) continuado contando la cuenta como un usuario activo mensual si no se hubiera puesto en su conocimiento, y esa es la parte más problemática. Vale la pena señalar que la cuenta fue marcada por Twitter como una "cuenta sospechosa de spam" antes de ser suspendida.

En este caso particular, se estaba utilizando una cuenta que reflejaba tener más de un millón de seguidores para amplificar los tweets conservadores de Trump. Es de suponer que el algoritmo de Twitter ve los retweets de cuentas con gran cantidad de seguidores como una señal favorable, ya sea que Twitter haya determinado que muchos de esos seguidores son "sospechosos de cuentas de spam". A menudo, lo que sucede es que las redes de cuentas retuitean los mismos tweets / tweets un corto período de tiempo. Esto probablemente se haga como un intento de juego del algoritmo de Twitter, dando a los tweets / tweets más visibilidad en las líneas de tiempo de los usuarios. En otras palabras, es un esfuerzo coordinado para impactar el flujo de información a través de la plataforma de Twitter:


El problema no es específico de Trump / tweets conservadores. Sucede en todo el espectro político y se extiende a muchos países.

Todo se reduce a esto: Twitter tomó la decisión de poner la rentabilidad por delante de la democracia.

Responsabilidad

A principios de este mes, Twitter emitió una RFP (solicitud de propuesta) en la que buscaba la dirección del público para ayudarlo a "definir qué significa la salud para Twitter y cómo [ellos] deberían abordar la medición".

La salud de Twitter mejoraría tremendamente si Twitter hiciera una cosa (aparentemente simple): eliminar el 100% de las cuentas que identificaron como "sospechosas de cuentas de spam"

¿Cómo podemos nosotros, como usuarios, anunciantes y accionistas, asegurarnos de que Twitter se considere "públicamente responsable" para hacerlo? ¿Cómo podemos garantizar que Twitter adopte un enfoque más proactivo para controlar su ecosistema en el futuro?


jueves, 19 de abril de 2018

¿Cambridge Analytica realmente afectó las decisiones de los votantes?

La ciencia detrás de Cambridge Analytica: ¿Funciona el perfilado psicológico?

Los investigadores que advirtieron sobre los abusos de los datos de Facebook muestran cómo los perfiles psicológicos obtienen resultados.
Stanford Graduates School of Business | por Edmund L. Andrews


 
  Un hombre aturdido con una superposición de símbolos de ojos, carros de compras, computadoras y otros símbolos de marketing | Fotografía de Tricia Seibold con iStock / izusek y iStock / axel2001
Los anuncios en línea son sensiblemente más persuasivos cuando se dirigen a los rasgos psicológicos de un usuario. | Fotografía de Tricia Seibold con iStock / izusek y iStock / axel2001


Silicon Valley y Washington están en un alboroto por las revelaciones de que Cambridge Analytica, una firma de consultoría "psicográfica" a favor de Trump, obtuvo datos personales detallados sobre 87 millones de usuarios de Facebook.

Pero si bien gran parte del furor ha tenido que ver con la privacidad y la ética, una pregunta práctica sigue siendo: ¿la focalización psicológica es una herramienta efectiva de propaganda digital?

La respuesta, de acuerdo con un investigador de Stanford que fue pionero en muchas de las técnicas originales, es "sí".

"He estado advirtiendo sobre estos riesgos durante años", dice Michal Kosinski, psicólogo y profesor asistente de comportamiento organizacional en la Stanford Graduate School of Business. "Nuestra última investigación confirma que este tipo de focalización psicológica no solo es posible sino que también es eficaz como herramienta de persuasión digital masiva".

Kosinski nunca trabajó para Cambridge Analytica y nunca adquirió datos de Facebook sin el permiso de los usuarios.

Aprovechando los "me gusta" de Facebook

Como estudiante de doctorado y subdirector del Centro de Psicometría de la Universidad de Cambridge de 2008 a 2014, Kosinski trabajó con un colega para investigar si era posible identificar los rasgos psicológicos de las personas a partir de sus "me gusta" de Facebook.

Las personas que "les gustaban" Battlestar Galactica eran probablemente introvertidas, por ejemplo, mientras que las personas que "gustaban" de Lady Gaga eran probablemente extrovertidas. Kosinski y su colega de Cambridge, David Stillwell, pudieron correlacionar "me gusta" con otros rasgos básicos de la personalidad: apertura, escrupulosidad, amabilidad y neuroticismo. Armados con solo 10 "me gusta", podían evaluar los rasgos de una persona con mayor precisión que los compañeros de esa persona. Con 70 "Me gusta", podrían hacerlo mejor que los amigos cercanos de una persona.

Y ahora, en un nuevo estudio, Kosinski y sus colegas, entre ellos Stillwell, Sandra Matz de Columbia Business School y Gideon Nave de la Wharton School of Business (1), confirman el siguiente paso lógico: los anuncios son más persuasivos cuando se adaptan a las necesidades psicológicas. rasgos.

La investigación quería advertir

Kosinski no se jacta de esto.

"La mayoría de mis estudios han sido concebidos como advertencias", dice. "Se pueden imaginar aplicaciones que son para bien, pero es mucho más fácil pensar en aplicaciones que manipulen a las personas en decisiones que van en contra de sus propios intereses".

Él y sus colegas crearon una aplicación de Facebook que permitió a las personas completar un cuestionario de personalidad que mide cinco rasgos básicos de personalidad. Luego les pidieron a los usuarios acceso a sus "me gusta", y eventualmente acumularon una base de datos con 3 millones de perfiles.

Al correlacionar los "me gusta" de las personas con sus puntajes en el cuestionario de personalidad, Kosinski y Stillwell desarrollaron algoritmos para inferir con precisión una serie de rasgos de personalidad de la actividad de Facebook de una persona.

Los fundadores de Cambridge Analytica adoptaron técnicas similares y las aplicaron a la política. También dieron un gran paso adelante al usar su propia aplicación para recopilar en secreto la actividad de Facebook en decenas de millones de usuarios que simplemente habían sido amigos de personas que habían tomado el cuestionario de la aplicación.

En su nuevo estudio, Kosinski y sus colegas querían ver si la orientación psicológica realmente entrega mejores resultados en publicidad. Los investigadores realizaron tres campañas publicitarias experimentales en Facebook.

Midiendo el Efecto de los Anuncios Especificados

Al promocionar una línea de cosméticos, por ejemplo, publicaron anuncios de duelo dirigidos a introvertidos y extrovertidos. En total, los anuncios llegaron a 3 millones de personas.

"La mayoría de mis estudios han sido pensados como advertencias. Puedes imaginar aplicaciones que son para el bien, pero es mucho más fácil pensar en aplicaciones que manipulen a las personas en decisiones que van en contra de sus propios intereses.
Michal Kosinski


El anuncio para extrovertidos presentaba a una mujer bailando y el eslogan "Baila como si nadie estuviera mirando (pero lo son totalmente)". Por el contrario, el anuncio para introvertidos presentaba a una mujer que se contemplaba en un espejo y un lema silencioso: "La belleza no tiene que gritar ".

Efectivamente, las personas tenían un 50% más de probabilidades de comprar los cosméticos si veían el anuncio dirigido a su tipo particular.

Los resultados fueron similares cuando los investigadores promovieron una aplicación de crucigramas para teléfonos inteligentes con anuncios dirigidos a los usuarios en función de su apertura a cosas nuevas.

Se instó a las personas que habían sido identificadas como muy abiertas a "dar rienda suelta a su creatividad" en "un número ilimitado" de acertijos. Las personas identificadas como propensas a aferrarse a lo familiar recibieron la orden de "conformarse con un favorito de todos los tiempos".

Aquellos que vieron el anuncio dirigido a su nivel particular de apertura tuvieron un 30% más de probabilidades de descargar el juego que aquellos que no lo hicieron.

En una tercera prueba, Kosinski y sus colegas probaron anuncios rivales para un videojuego que ya sabían que atraía mucho a los introvertidos. El primer anuncio presentaba un tono estándar lleno de acción: "¿Listo? ¡Fuego! ... "El segundo anuncio se diseñó para introvertidos:" ¡Uf! ¿Día duro? ¿Qué tal un rompecabezas con el que relajarse? ". Aquí, los anuncios para introvertidos generaron un 30% más de clics y un 20% más de descargas.

Kosinski dice que probablemente sea imposible prohibir los ataques psicológicos como una herramienta de propaganda política, pero dice que las personas pueden defenderse al darse cuenta de cómo funciona. También pueden promulgar políticas que eviten los abusos.

"Es un poco como el fuego", dice. "Puedes usar fuego tanto para calentar tu casa como para quemarla. No se puede prohibir el fuego, y no se puede evitar que algunas personas cometan incendios premeditados. Lo que necesitas son bomberos y equipo de seguridad contra incendios ".

(1) Psychological Targeting as an Effective Approach to Digital Mass Persuasion
By S.C. Matz, Michal Kosinski, G. Nave, D. J. Stillwell
Proceedings of the National Academy of Sciences of the United States of America. November 2017, Vol. 114, Issue 48, Pages 12714-12719
Organizational Behavior

martes, 17 de abril de 2018

Los bots dominan 2/3 del tráfico de Twitter

Los bots en Twitter comparten dos tercios de los enlaces a sitios web populares: Pew

Natasha Lomas | Tech Crunch




Es oficial: los Bots están haciendo mucho trabajo de RR.PP. en Twitter, especialmente cuando se trata de promover sitios web pornográficos.

Esa conclusión, quizás poco sorprendente, sobre qué cuentas de Twitter automatizadas son compartir enlaces proviene de un nuevo estudio del Centro de Investigación Pew que se propuso cuantificar un aspecto de la actividad basada en bots en la Twittosfera.

Específicamente, los investigadores querían saber qué proporción de enlaces twitteados a sitios web populares son publicados por cuentas automáticas, en lugar de usuarios humanos.

La respuesta que se les ocurrió fue que alrededor de dos tercios de los enlaces twitteados a sitios web populares son publicados por robots en lugar de humanos.

Los investigadores dicen que estaban interesados ​​en tratar de entender un poco más acerca de cómo la información se propaga en Twitter. Aunque para este estudio no trataron de profundizar directamente en preguntas más complicadas (y complicadas) sobre bots, como si la información que es propagada por estos robots es en realidad desinformación.

Los investigadores de Pew tampoco trataron de determinar si la actividad de relaciones públicas con enlaces automáticos realmente llevó a niveles significativos de participación humana con el contenido en cuestión. (Algo que puede ser difícil de determinar para los investigadores externos porque Twitter no brinda acceso completo a la forma en que da forma a la visibilidad de los tweets en su plataforma, ni datos sobre cómo los usuarios individuales hacen uso de controles y configuraciones que pueden influir en lo que ven o no lo haga en su plataforma).

Por lo tanto, es seguro decir que muchas preguntas relacionadas con los robots aún no se han investigado exhaustivamente.

Pero aquí hay al menos otra información sobre qué cuentas automáticas están enfrentadas con los principales sitios web de medios, aunque, como siempre, estos resultados son calificados como "bots sospechosos" como consecuencia de lo difícil que es identificar definitivamente si una entidad en línea es humana o no. (Pew utilizó la herramienta de aprendizaje automático Botometer de la Universidad de Indiana para identificar bots sospechosos, basándose en un puntaje de 0,43 o superior para declarar una probable automatización, en base a una serie de sus propios ejercicios de validación).

La conclusión principal de Pew es que las cuentas automatizadas sospechadas desempeñaron un papel destacado al tuitear enlaces a contenido en el ecosistema de Twitter, con un 66% de todos los enlaces tuiteados a los sitios web más populares probablemente publicados por cuentas automáticas, en lugar de usuarios humanos.

Los investigadores determinaron la popularidad del sitio web al realizar primero un análisis de 1,2 millones de tweets en inglés que contenían enlaces (extrayendo datos de tweets de muestra aleatoria a través de la API de transmisión de Twitter), que se redujeron a una lista de 2.315 sitios populares, es decir, duplicados y enlaces muertos. eliminados.

A continuación, los clasificaron en dominios de contenido, con todos los enlaces que apuntaban a cualquier otro contenido en Twitter (es decir, no en forma externa) recopilados en una sola categoría de Twitter.com.

Después de eso, pudieron comparar cómo (sospechosos) los bots frente a los (probables) humanos compartían diferentes categorías de contenido.

A continuación, se muestran los resultados del contenido que muestran los bots sospechosos: como se mencionó anteriormente, no es de sorprender que esté dominado por contenido para adultos. Aunque se descubrió que los bots responden por la mayoría de los enlaces compartidos a los sitios web populares en toda la categoría. Ergo, los robots ya están haciendo una gran cantidad de trabajo duro de RR.PP. ...

(Considerando eso, una buena regla general parece ser que si una cuenta de Twitter comparte enlaces a sitios pornográficos, probablemente no sea humana). O bien, es una cuenta humana que ha sido pirateada.

Los investigadores también descubrieron que un número relativamente pequeño de cuentas automatizadas eran responsables de una parte sustancial de los enlaces a los medios populares en Twitter. "Las 500 cuentas de bots sospechosos más activas por sí solas fueron responsables del 22% de todos los enlaces a estos sitios de noticias y eventos actuales durante el período en que se realizó este estudio. Por el contrario, las 500 cuentas humanas más activas fueron responsables de solo el 6% de todos los enlaces a dichos sitios ", escriben.

Claramente, los bots no son retenidos por las debilidades humanas en relaciones públicas, como la necesidad de dejar de trabajar para comer o dormir.

Pew dice que su análisis también sugiere que ciertos tipos de sitios de noticias y eventos actuales aparecen como "especialmente probables" de ser twitteados por cuentas automáticas. "Entre los más destacados se encuentran sitios de agregación o sitios que compilan principalmente contenido de otros lugares de la web. Se estima que el 89% de los enlaces a estos sitios de agregación durante el período de estudio fueron publicados por cuentas bot ", escriben.

tl; dr: los Bots parecen estar menos interesados ​​en promocionar los informes originales. O, para decirlo de otra manera, a menudo se despliega el trabajo de bot grunt para tratar de obtener visualizaciones baratas del contenido de otras personas.

Otra observación interesante: "Las cuentas automatizadas también proporcionan una proporción algo superior a la media de enlaces a sitios que carecen de una página de contacto público o dirección de correo electrónico para ponerse en contacto con el editor u otro personal.

"La gran mayoría (90%) de los sitios populares de noticias y eventos actuales examinados en este estudio tenía una página de contacto pública, no Twitter. La pequeña minoría de sitios que carecen de este tipo de página de contacto fueron compartidos por bots sospechosos a mayor velocidad que aquellos con páginas de contacto. Alrededor del 75% de los enlaces a dichos sitios fueron compartidos por cuentas de bots sospechosos durante el período de estudio, en comparación con el 60% de los sitios con una página de contacto ".

Sin leer demasiado sobre ese hallazgo, es posible teorizar que los sitios sin ninguna página de contenido público o correo electrónico podrían ser más propensos a la desinformación. (Los investigadores de Pew no llegan tan lejos como para unirse a esos puntos exactamente, pero sí señalan: "Este tipo de información de contacto puede usarse para enviar comentarios de los lectores que pueden servir como base de correcciones o informes adicionales").

Dicho esto, Pew también descubrió que el contenido político tiene un interés relativamente menor para los bots frente a otros tipos de noticias y contenido de actualidad, al menos a juzgar por esta instantánea de tweets en inglés (tomada el verano pasado).

"[C] ciertos tipos de sitios de noticias y eventos actuales reciben una participación inferior a la media de sus enlaces de Twitter desde cuentas automatizadas", escriben los investigadores. "En particular, este análisis indica que las noticias populares y los sitios de eventos actuales que presentan contenido político tienen el nivel más bajo de tráfico de enlace de las cuentas bot entre los tipos de noticias y contenido de eventos actuales que analizó el Centro, manteniendo constantes otros factores. De todos los enlaces a fuentes de medios populares que presentan prominentemente contenido político o político durante el período del estudio, se estima que el 57% se originó a partir de cuentas de bot ".

Los investigadores también analizaron la afiliación política, para tratar de determinar si los bots sospechosos se tuercen hacia la izquierda o hacia la derecha en términos del contenido que están compartiendo.

(Para determinar la inclinación ideológica del contenido al que se está vinculado en Twitter, Pew dice que utilizaron una técnica estadística conocida como análisis de correspondencia, que examina el comportamiento del público de Twitter de las publicaciones para compartir el contenido en un espectro ideológico que va desde "Muy liberal" a "más conservador").

De hecho, encontraron que las cuentas automáticas publicaban una mayor proporción de contenido de sitios que tenían "audiencias humanas mixtas o centristas ideológicamente". Al menos en lo que concierne a los sitios populares de noticias y eventos actuales "con una orientación hacia noticias y asuntos políticos".

"El análisis del Centro encuentra que las cuentas autónomas sospechosas publican una mayor proporción de enlaces a sitios que son principalmente compartidos por usuarios humanos que puntúan cerca del centro del espectro ideológico, en lugar de aquellos compartidos más a menudo por un público más liberal o más conservador ," escriben. "Las cuentas automatizadas comparten aproximadamente entre el 57% y el 66% de los enlaces a sitios políticos que son compartidos por una audiencia humana ideológicamente mixta o centrista, según el análisis".

Pew agrega que las diferencias de derecha a izquierda en la proporción de tráfico bot "no eran sustanciales".

Aunque, sobre esto, vale la pena enfatizar que esta parte del análisis se basa en un subconjunto bastante pequeño de una instantánea de la Twittersfera que ya se enfoca exclusivamente en el idioma inglés y en los EE. UU. así que leer demasiado en esta parte del análisis parece imprudente.

Pew señala: "Este análisis se basa en un subgrupo de noticias populares y puntos de venta de eventos actuales que presentan historias políticas en sus titulares o tienen una sección de política, y que sirven principalmente a la audiencia de los EE. UU. Un total de 358 sitios web de nuestra muestra completa de 2,315 sitios populares cumplieron con estos criterios ".

Realmente, el estudio subraya una verdad fundamental acerca de los bots de Twitter: a menudo se utilizan con fines de spam / relaciones públicas: para tratar de dirigir el tráfico a otros sitios web. La esencia de lo que están promoviendo varía, aunque a menudo puede ser contenido para adultos.

Los Bots también se usan a menudo para tratar de generar clics de forma barata a un agregador de contenido barato o sitios de productos para que las entidades externas puedan cobrar de forma económica gracias a las vistas de anuncios y los ingresos mejorados.

Las campañas de desinformación política pueden resultar en un menor volumen de spam / PR generados por bot que las granjas de pornografía o contenido. Aunque el daño potencial - a los procesos democráticos y las instituciones sociales - es posiblemente mucho más serio. Además de ser muy difícil de cuantificar.

Y, bueno, en lo que respecta a la influencia de los bots, todavía tenemos muchas más preguntas que respuestas.

domingo, 15 de abril de 2018

Teoría económica: Centralidad en juegos cooperativos en redes

Centralidad en teoría de juegos de un vistazo (una nueva clase de herramientas de análisis de red).

Game Theoretic Centrality


La idea clave detrás de las medidas de centralidad de la teoría del juego es tratar a los nodos como jugadores en un juego cooperativo, donde el valor de cada coalición de nodos está determinado por ciertas propiedades de teoría de gráficos. La ventaja clave de este enfoque es que los nodos se clasifican no solo según sus roles individuales en la red, sino también de acuerdo con la forma en que contribuyen al rol desempeñado por todos los posibles subconjuntos (o grupos) de nodos. Esto es importante en diversas aplicaciones en las que el rendimiento de un grupo no puede describirse simplemente como la suma de las actuaciones individuales de los nodos implicados.



Considere, por ejemplo, una aplicación de epidemiología, cuyo objetivo es contener la propagación de una enfermedad. Si nos preguntamos si la vacunación de un nodo individual es suficiente para detener la propagación de la enfermedad, probablemente la respuesta sea No. Una forma mucho más probable de contener la enfermedad es vacunar simultáneamente a un grupo (posiblemente relativamente pequeño) de nodos. En base a esto, para cuantificar la importancia de un nodo, debemos considerar la ganancia potencial de vacunarlo como parte de un grupo más grande, en lugar de solo considerar la ganancia potencial de vacunarlo solo.

Tal análisis de grupos de nodos en la red corresponde directamente a la teoría de juegos de coalición, donde el rendimiento de los jugadores se estudia en `` coaliciones '' (es decir, subconjuntos de jugadores). Es importante destacar que, al imponer la estructura combinatoria de un juego de coalición a través de una red, es posible analizar el rendimiento de los nodos usando una gran cantidad de conceptos de soluciones teóricas de juegos desarrolladas durante décadas para analizar el rendimiento de los jugadores. Un concepto de solución teórico-juego bien conocido es el valor de Shapley, que recibió amplia atención en la literatura debido a sus propiedades deseables. Otro es el índice de poder de Banzhaf.

Una ventaja particular de esta perspectiva teórica de juego del análisis de redes es que expone la posibilidad de extender una amplia variedad de medidas de centralidad. Esto se debe a que un juego cooperativo generalmente no establece suposiciones o restricciones sobre cómo se evalúan los grupos. Esta evaluación se puede adaptar para ajustarse mejor a la medida de centralidad en cuestión. Por ejemplo, un grupo de nodos se puede evaluar en función del grado promedio en el mismo, o en función de su diámetro, o su cercanía a otros nodos, etc.

Una posible desventaja de las centralidades de red teóricas de juegos es que se basan en conceptos de solución que son difíciles de calcular. Por ejemplo, dado un juego de coalición definido sobre una red de nodos O(|V|), un cálculo directo del valor de Shapley requiere considerar todas las posibles coaliciones O(2|V|) (es decir, grupos) de nodos. Esto es claramente prohibitivo para redes con cientos, o incluso decenas, de nodos. De hecho, se ha demostrado que en algunos casos el número exponencial de cálculos no se puede evitar, es decir, es imposible calcular ciertas centralidades de red teóricas de juegos en polinomios temporales en el tamaño de la red. Este resultado negativo se cumple, por ejemplo, para las centralidades de redes teóricas de juegos en el espíritu de los juegos restringidos por gráficos de Myerson (1977).

Afortunadamente, también se han encontrado varios resultados computacionales positivos. En particular, Michalak et al. (2013) analizaron varias extensiones basadas en el valor de Shapley de la centralidad de grados y mostraron que es posible aprovechar el hecho de que los valores de los grupos de nodos dependen de la topología de la red. Como resultado, mostraron que algunas medidas de centralidad de la teoría del juego pueden ser computables en tiempo polinomial. De manera similar, los resultados del tiempo polinomial son conocidos por la centralidad de interrelación basada en el valor de Shapley (Szczepański et al., 2012).

Principales resultados computacionales (qué tan rápido podemos calcular las centralidades teóricas de juegos).

En general, los conceptos de soluciones teóricas de juegos como el valor de Shapley o el índice de poder de Banzhaf son desafiantes desde el punto de vista informático; el número de cálculos requeridos es exponencial en la cantidad de jugadores. Afortunadamente, este no es necesariamente el caso cuando la evaluación de coaliciones (es decir, grupos de nodos) depende de la topología de la red. En particular, para la centralidad teórica del juego, se han encontrado varios resultados computacionales positivos. Los enumeramos a continuación:

Nombre de centralidadGrafos no ponderadasGrafos ponderadosArtículo (PDF)
Semivalue-based Degree CentralityO(|V|3)O(|V|3)Szczepański et al. (2015)
Shapley value-based Degree CentralityO(|V|+|E|)O(|V|+|E|)Michalak et al. (2013)
Coalitional Semivalue-based Degree CentralityO(|V|4)O(|V|4)Szczepański et al. (2014)
Owen value-based Degree CentralityO(|V|+|E|)O(|V|+|E|)Szczepański et al. (2014)
Semivalue-based Betweenness CentralityO(|V|2|E|)O(|V|3|E| + |V|3log|V|)mimeo, University of Oxford
Shapley value-based Betweenness CentralityO(|V||E|)O(|V|2|E| + |V|2log|V|)Szczepański et al. (2012)
Semivalue-based Closeness CentralityO(|V|5)O(|V|5)Szczepański et al. (2015)
Shapley value-based Closeness CentralityO(|V||E|)O(|V||E| + |V|2log|V|)Michalak et al. (2013)

Aplicaciones de la centralidad teórica de juegos para el análisis de redes sociales.


Capital social.

El valor de Owen (Owen 1977) es una extensión del valor de Shapley a situaciones en las que los jugadores han acordado a priori dividirse en uniones. En este contexto, los miembros de un sindicato interactúan con otros sindicatos en su conjunto (es decir, no es posible que solo algunos de los miembros colaboren o unan fuerzas con otro sindicato). Los jugadores en cualquier unión colaboran estrictamente en el juego. De forma similar al valor de Shapley, el valor de Owen cuantifica el rol de un jugador individual, pero ahora teniendo en cuenta el papel de la unión a priori a la que pertenece este jugador. Por ejemplo, un jugador puede ser débil por sí mismo, pero si él / ella pertenece a una unión importante, entonces su rol se fortalecerá de acuerdo con el valor de Owen.

Recientemente, Szczepanski et al. (2014) propuso la extensión teórica de juego de la centralidad de grado basada en el valor de Owen. Curiosamente, esta centralidad tiene una interpretación no trivial como medida del capital social. En particular, el capital social de un individuo aumenta (disminuye) si pertenece a una comunidad que es rica (pobre) en términos de capital social. Por ejemplo, si un abogado no está particularmente bien conectado, su capital social todavía se incrementa por el hecho de que pertenece a la comunidad de abogados bien conectada. Por lo tanto, esta es la primera medida de capital social que evalúa a los actores individuales tanto en el contexto de sus relaciones con el mundo externo como en el contexto del rol externo de la comunidad a la que pertenecen.



Como una aplicación de muestra de esta medida, Szczepanski et al. (2014) estudió una red que consta de artículos conectados por citas de relaciones. Aquí, todas las publicaciones de una revista en particular, o la serie de actas de una conferencia en particular, pueden verse como una comunidad científica naturalmente definida. El objetivo de Szczepanski et al. fue estudiar cómo la importancia de una determinada comunidad científica influye en el papel de un solo artículo en la red de citas. La red de la vida real utilizada para simulaciones es una red de citas que consta de 2.084.055 publicaciones y 2.244.018 relaciones de citas. Todas las publicaciones están clasificadas en 22,954 comunidades únicas que representan revistas, actas de congresos o títulos de libros individuales. En lo que sigue, de los 2.084.055 nodos, la Figura 1 se centra en los primeros 11 según la centralidad de grado. Más específicamente, la Figura 1 (a) ilustra el poder relativo de las comunidades a las que pertenecen estos nodos (cuanto más grande es el círculo, más poderosa es la comunidad). Como se puede ver, los nodos clasificados 5, 6 y 8 pertenecen a comunidades significativamente menos poderosas que los nodos 1, 2, 3, 4, 7, 9, 10 y 11. La Figura 1 (b) muestra cómo cambia el ranking de esos 11 nodos de acuerdo con las centralidades basadas en valores de Shapley y Owen. Mientras que para la mayoría de los nodos las perturbaciones no son tan intensas, observamos una degradación significativa de la posición de los nodos 5, 6 y 8 en el ranking Owen, que demuestra cómo es capaz de reconocer el hecho de que estos tres nodos pertenecen a comunidades más débiles .

En cuanto a los problemas computacionales, Szczepanski et al. (2014) mostraron que la centralidad de grados basada en el valor de Owen puede calcularse en O(|V|+|E|) tiempo, lo que hace que este concepto sea práctico incluso para redes grandes de la vida real.

Aplicaciones de la centralidad teórica de juegos a la biología.

En biología e investigación médica, se utilizan diversas tecnologías experimentales de alto rendimiento para recopilar una gran cantidad de datos sobre funciones biológicas interactivas. En muchos casos, las interacciones entre estas características se pueden representar como una red, cuyo análisis implica la definición de medidas apropiadas de relevancia para los nodos y para los enlaces. Para este propósito, varias medidas de centralidad basadas en la teoría de juegos de coalición se han aplicado con éxito a diferentes tipos de redes biológicas.

Redes cerebrales.

Las observaciones clínicas de las funciones cerebrales se representan actualmente en la actualidad como una red que consta de regiones y estructuras cerebrales (por ejemplo, estructuras neuronales) y sus interconexiones. Por ejemplo, las redes cerebrales están representadas por gráficos dirigidos cuyos nodos son estructuras neuronales (núcleos o regiones corticales) y cuyo conjunto de arcos dirigidos representa el conjunto de conexiones dirigidas (proyecciones) entre estas estructuras. En Kötter et al. (2007), los juegos de coalición y el valor de Shapley se han utilizado para medir la importancia de las estructuras cerebrales individuales para la conectividad de la gráfica derivada de las propiedades globales de las redes formadas por las neuronas y sus interconexiones. El valor de cada coalición no vacía de estructuras neuronales en el juego se define como la cantidad de componentes conectados en la red cerebral y el valor de Shapley de este juego se utiliza para comprender las consecuencias funcionales de una lesión en las diferentes áreas del cerebro. Las aplicaciones del valor de Shapley para el análisis de redes cerebrales reales que representan áreas corticales visuales y áreas corticales prefrontales del macaco, respectivamente, se presentan y discuten en Kötter et al. (2007).

Redes de genes.

Las redes génicas (p. Ej., Que representan las interacciones proteína-proteína, coexpresión de genes, etc.) se utilizan cada vez más para explorar la funcionalidad a nivel de sistema de proteínas y genes. Recientemente, se ha introducido un nuevo método basado en juegos de coalición en Moretti et al. (2010) para evaluar la centralidad en las redes de genes, teniendo en cuenta las interacciones entre los genes. La idea básica del enfoque en Moretti et al. (2010) se basa en el análisis de dos juegos de coalición: un juego de asociación, definido como un juego de coalición sobre un conjunto de genes donde el valor de cada coalición S mide la "interacción" entre los genes en S y un conjunto dado de un una familia a priori de genes clave, y un juego restringido por gráficos, donde la interacción genética se restringe a las conexiones proporcionadas por una red genética. La diferencia de los valores de Shapley calculados en los dos juegos de coalición antes mencionados se usa en Moretti et al. (2010) como una medida de centralidad génica en una red de genes real derivada de datos de expresión génica.




La figura anterior muestra la red de interacción entre los genes (nodos) de las células sanguíneas de los niños de la región de Teplice (TP) en la República Checa, un distrito minero caracterizado por altos niveles de contaminantes transportados por el aire que incluyen carcinógenos. Las interacciones entre pares de genes están representadas por aristas. Los bordes más gruesos muestran los caminos más cortos entre los genes más asociados. Fuente: Moretti et al. (2010).

Redes metabólicas

Las redes metabólicas representan sistemas biológicos complejos compuestos de reacciones bioquímicas a través de las cuales se transforman los metabolitos. El análisis de balance de flujo (FBA) de redes metabólicas se ha utilizado en Sajitz-Hermstein y Zoran (2012) para introducir juegos de FBA, que son juegos de coalición donde el conjunto de jugadores es el conjunto de reacciones que forman la red metabólica y una coalición S corresponde a la subred inducida por las reacciones incluidas en S. El valor dado a la coalición S por la función característica de un juego FBA es entonces el valor óptimo de la función objetivo determinada por FBA en la subred correspondiente en S. El valor de Shapley solo considerando el conjunto restringido de subredes capaces de realizar la función bioquímica investigada se ha utilizado en Sajitz-Hermstein y Zoran (2012) como una medida de centralidad funcional para cuantificar las contribuciones de las reacciones individuales a las capacidades de conversión bioquímica. Las aplicaciones a redes metabólicas reales, como un modelo de glicólisis y vía de la pentosa fosfato, se presentan en [Sajitz-Hermstein y Zoran (2012), Sajitz-Hermstein y Zoran (2013)].

Redes quimiosensoriales.

El Multi-perturbation Shapley Value Analysis (MSA) (Keinan et al., 2004) es un método para deducir la localización de la función causal a partir de múltiples datos de perturbaciones, donde el valor de Shapley se utiliza para cuantificar la importancia de cada uno de los elementos de un complejo sistema en la realización de diferentes funciones. Siguiendo este enfoque, el valor de cada coalición de elementos del sistema es una medida del rendimiento del sistema biológico para una determinada función (por ejemplo, la capacidad del sistema para sobrevivir a la radiación UV). Los autores en Kaufman et al. (2005) utilizaron el método MSA para analizar la localización de funciones en el sistema nervioso, basándose en los experimentos de ablación con láser de las neuronas quimiosensoriales en C. elegans.

Aplicaciones de la centralidad teórica de juegos a la tecnología de las comunicaciones de información.

Red de computadoras.

Con el fin de reducir su huella de carbono, las TIC emergentes están integradas con protocolos de consumo de energía y técnicas de ahorro de energía. Un enfoque de enrutamiento consciente de la energía se estudia en [Bianzino et al. (2011), Bianzino et al. (2012)] con el objetivo de resumir la contribución de dispositivos que usan índices de poder (y en particular el valor de Shapley) de determinados juegos de coalición definidos sobre el conjunto de los elementos de una red troncal. Tales juegos de coalición incorporan la información sobre la estructura de la red (por ejemplo, la conectividad de subredes), la cantidad de tráfico que enrutan los dispositivos y la robustez de la red (es decir, posibles escenarios de falla). La clasificación proporcionada por el valor de Shapley de tales juegos se ha utilizado para impulsar la selección de dispositivos menos críticos que deberían desconectarse primero a fin de reducir el consumo de energía y tener en cuenta el rendimiento global esperado de la red. La clasificación proporcionada por el valor de Shapley se ha comparado en escenarios de red realistas con clasificaciones dadas por métodos basados ​​en nociones de centralidad clásica. Esta comparación muestra que la clasificación de valores de Shapley puede proporcionar un alto ahorro de energía con un impacto menor en los niveles de QoS (calidad de servicio) esperados en la red.



En la figura anterior: Izquierda: vista del grafo de criticidad de los enlaces según el índice de Shapley para el escenario de la red de referencia durante el tráfico de la hora punta: cuanto más grueso es un enlace, mayor es su importancia. Derecha: Ahorro de energía alcanzable para el escenario de referencia de la red, para diferentes clasificaciones de enlaces. Fuente: Bianzino et al. (2012)