martes, 5 de julio de 2016

Cooperación y su relación con el tamaño de grupo y la memoria

La cooperación surge cuando los grupos son pequeños y los recuerdos son largos, un estudio encuentra
por Katherine Unger Baillie - Phys,org



Diagrama de red social. Crédito: Daniel Tenerife / Wikipedia

La tragedia de los comunes, un concepto descrito por el ecologista Garrett Hardin, pinta una visión pesimista de la naturaleza humana. La teoría es que, si un recurso es compartido, los individuos actuarán en su propio interés, pero en contra de los intereses del grupo, por el agotamiento de ese recurso.

Sin embargo, los ejemplos de cooperación e intercambio abundan en la naturaleza, de las sociedades humanas a las bacterias unicelulares.
En un nuevo artículo, publicado en la revista como informes científicos de la Universidad de Pennsylvania investigadores utilizan la teoría de juegos para demostrar el complejo conjunto de rasgos que pueden promover la evolución de la cooperación. Su análisis demostró que los grupos pequeños en los que los actores tenían buena memoria de las acciones de sus compañeros de grupo eran más propensos a desarrollar estrategias de cooperación.
El trabajo sugiere una posible ventaja de la poderosa capacidad de memoria del ser humano: se ha alimentado nuestra capacidad como sociedad para cooperar.
"En el pasado hemos visto las interacciones de dos jugadores para determinar las estrategias evolutivas más robustos", dijo Joshua B. Plotkin, profesor del Departamento de Biología de Penn en la Escuela de Artes y Ciencias. "Nuestro nuevo análisis permite escenarios en los que los jugadores pueden reaccionar a los comportamientos y estrategias de varios otros jugadores a la vez. Nos da una imagen de un conjunto mucho más rico de las interacciones sociales, una imagen que es probable que sea más representativo de las complejidades de la humana comportamiento."
Plotkin colaboró ​​con Alexander J. Stewart, entonces su investigador postdoctoral y ahora un investigador de la Royal Society en el University College de Londres, en el trabajo, que se basa en años de exámenes de teoría de juegos por el par.
En sus trabajos anteriores, utilizaron escenario del dilema del prisionero iterado, en el que dos jugadores se enfrentan y se puede elegir entre cooperar o no, para entender qué circunstancias promover el aumento de la generosidad frente al egoísmo.
En el nuevo documento, se agregaron dos niveles de complejidad. En primer lugar, se utilizó un escenario diferente, conocido como un juego de bienes públicos, lo que permite a los jugadores interactuar con más de un otro jugador a la vez. La puesta a punto también permitió a los investigadores para variar el número de jugadores en un juego determinado. En el juego de los bienes públicos, un jugador puede aportar una cierta cantidad de un recurso personal a una piscina pública, que luego se divide por igual entre todos los jugadores. El mayor beneficio compartido viene cuando todos los jugadores contribuyen generosamente, sino que también pone a los jugadores generosos en riesgo de perder los recursos a los jugadores egoístas, una tragedia de los comunes el escenario.

El segundo nivel de complejidad añadida fue imbuir a los jugadores con la capacidad para la buena memoria. Es decir, los jugadores pueden utilizar las acciones de sus rivales a partir de múltiples rondas anteriores del juego para informar a sus estrategias para las rondas posteriores. Si un jugador se encontró en varias ocasiones un jugador en un grupo que con frecuencia se comportó de manera egoísta, por ejemplo, que pueden ser más propensos a "castigar" desertor que mediante la retención de los recursos en las rondas futuras.
Además, se permitió a las poblaciones de los jugadores a "evolucionar", de tal manera que los jugadores más exitosos, los que alcanzan mayores beneficios, son más propensos a pasar sus estrategias a la siguiente generación de jugadores.
Stewart y Plotkin encontraron que cuanto más jugadores en un juego menos probable que las estrategias de cooperación podrían ganar a cabo. En cambio, la mayoría de las estrategias sólidas en grandes grupos favoreció deserción.
"Esto tiene sentido intuitivo", dijo Plotkin. "Como un grupo que aumenta el tamaño, las perspectivas de una cooperación sostenida bajan. La tentación de desertar y convertirse en un gorrón sube."
Por el contrario, sus resultados mostraron que dar a los jugadores una memoria más larga, la capacidad de recordar y basar sus decisiones en un máximo de 10 rondas previas de las acciones de sus oponentes, dio lugar a un mayor volumen relativo de las estrategias de cooperación sólidas. Parte de la razón de esto, según los investigadores, era debido a mayores recuerdos permitía a los jugadores para desarrollar una gama más amplia de las estrategias más matizadas, incluyendo los que podrían castigar a los individuos para desertar estrategias y asegurar que no hacerse cargo de la población
"A los jugadores más fuertes de memoria permitida para eliminar el desertor raro", dijo Plotkin.
En una última serie de experimentos, Stewart y Plotkin utilizan simulaciones por ordenador que permitieron la capacidad de memoria de los jugadores que evolucionar con las propias estrategias. Encontraron que no sólo se vieron favorecidos memorias más largas, pero la evolución de los recuerdos más largos dieron lugar a un aumento de la cooperación.
"Creo que una comida para llevar fascinante de nuestro estudio," Stewart dijo, "es que se puede obtener un conjunto de circunstancias en las que hay una especie de bucle de realimentación incontrolable. Recuerdos más largos favorecen una mayor cooperación y una mayor cooperación promueve la buena memoria. Ese tipo de situación , donde se pasa de un sistema más simple a uno que es más complejo, es un gran ejemplo de lo que hace la evolución, que conduce a la complejidad cada vez mayor ".
Como paso siguiente, Stewart y Plotkin les gustaría usar sujetos humanos para evaluar sus resultados matemáticos.
"Tenemos todos estos resultados acerca de qué tipo de estrategias tienen éxito que tiene en cuenta las diferentes características de las acciones de los jugadores", dijo Stewart. "Nos gustaría realizar un experimento con la gente para averiguar lo que realmente están prestando atención a cuando están jugando. Es sus pagos? ¿Es pagos de sus oponentes? Y vemos cómo esas estrategias coinciden con los que vemos en nuestros análisis ".

Explore más leyendo: Nice organisms finish first: Why cooperators always win in the long run

Más información: Alexander J. Stewart et al, Small groups and long memories promote cooperation, Scientific Reports (2016). DOI: 10.1038/srep26889

viernes, 1 de julio de 2016

ARS aplicado al Medioevo y la nueva comprensión de la Historia

Cómo la nueva ciencia de la historia computacional está cambiando el estudio del pasado

La aplicación de la teoría de redes con los registros medievales sugiere que los acontecimientos históricos se rigen por "leyes de la historia", al igual que la naturaleza esté regida por las leyes de la física.
por Emerging Technology from the arXiv  23 de Junio de 2016

Una de las características curiosas de ciencia de las redes es que las mismas redes subyacen a los fenómenos completamente diferentes. Como resultado, estos fenómenos tienen similitudes profundas que están lejos de ser evidente a primera vista. Buenos ejemplos incluyen la propagación de la enfermedad, el tamaño de los incendios forestales, e incluso la distribución de la magnitud del sismo, que todos siguen un patrón similar. Este es un resultado directo de su compartiendo la misma estructura de la red.

Así que por lo general es de extrañar que las mismas "leyes" surgen cuando los físicos encuentran las mismas redes subyacentes otros fenómenos. Exactamente esto ha sucedido en varias ocasiones en las ciencias sociales. ciencia de las redes sociales ahora permite a los científicos para modelar las sociedades, para estudiar la forma en que las ideas, los chismes, las modas, y así sucesivamente flujo a través de la sociedad, e incluso para estudiar cómo esto influye en la opinión.

Para ello han utilizado las herramientas desarrolladas para estudiar otras disciplinas. Es por eso que el nuevo campo de la ciencia social computacional ha vuelto tan poderoso tan rápidamente.


Fig. 2: Modelo de red de lazos de parentesco entre los miembros principales de la élite Bizantina (número de nodos = 107) centrados en el Emperador Andronikos II Palaiologos en los años 1321 a 1328 DC; los nodos are coloreados de acuerdo al agrupamiento identificado con la ayuda del algoritmo de Newman (imagen: Johannes Preiser-Kapeller, 2015, creada con el software ORA*)

Pero hay otro campo de la actividad, que también se beneficia: el estudio de la historia. A lo largo de la historia, los seres humanos han formado redes que han jugado un papel profundo en la manera han desarrollado los hechos. Los historiadores han comenzado recientemente a la reconstrucción de estas redes que utilizan fuentes históricas, tales como la correspondencia y los registros de la época.

Hoy en día, Johannes Preiser-Kapeller en la Academia de Ciencias de Austria en Viena explica cómo este enfoque está proyectando una nueva luz sobre diversos acontecimientos históricos. De hecho, el trabajo ha descubierto patrones previamente desconocidos en la forma en la historia se desarrolla. De la misma manera que los patrones en la naturaleza revelan las leyes de la física, estos descubrimientos revelan las primeras leyes de la historia.

Preiser-Kapeller se ha centrado en los conflictos medievales y en particular las relativas al Imperio bizantino en el siglo 14, que se concentra en torno a Constantinopla, un enlace entre las redes comerciales de Europa y Asia. Este fue un período de conflicto significativo debido a los cambios fuerzas políticas, la peste, y el cambio climático causado por una pequeña edad de hielo durante la Edad Media.

Preiser-Kapeller ha reconstruido las redes políticas que existían en el momento usando sobrevivir a la correspondencia y otros registros históricos. En estas redes, cada persona influyente es un nodo, y los enlaces se dibujan entre los que comparten relaciones significativas. Para ser registrado en la red, estos enlaces tienen que ser registrados en correspondencia con frases tales como Mi noble tía o Mi primo imperial. También registra cómo éstos cambian con el tiempo.

Utilizando algoritmos estándar para estudiar diversas medidas de la estructura de la red, Preiser-Kapeller encontraron grupos dentro de la red, identifica los actores más importantes en una red, y se examina cómo los individuos agrupados en torno a otros que eran similares de alguna manera.

Cómo cambian con el tiempo estas medidas resulta tener un vínculo importante con los principales acontecimientos que se desarrollaron más tarde. Por ejemplo, Preiser-Kapeller dice, la fragmentación de la red política crea las condiciones para una guerra civil que debilitó de forma permanente el Imperio bizantino. En última instancia, se derrumbó en 1453.

Estos cambios también siguieron algunos patrones interesantes. "La distribución de frecuencias del número de lazos de conflicto activados en un año tiende a seguir una ley de potencias," dice Preiser-Kapeller. Exactamente los mismos patrones de ley de potencia surgen cuando los científicos estudian la complejidad de la distribución del tamaño de las guerras, epidemias y religiones.

Una cuestión interesante es si los mismos patrones aparecen en otra parte de la historia. Para averiguarlo, se comparó la red de Bizancio con los de otros cinco períodos de conflicto medieval en Europa, África y Asia.

Y los resultados son una lectura interesante. "En promedio en los cinco unidades políticas, un cambio de regla en un año aumentó la probabilidad de que otro cambio en el siguiente triple año", dice Preiser-Kapeller. Así que mientras más cerca esté de una conmoción, más probabilidades hay de ser otro pronto. O en otras palabras, trastornos tienden a agruparse.

Esa es una regla que debe sonar familiar a los geofísicos. Existe un fenómeno similar en los registros del terremoto: la más reciente de un terremoto grande, mayor es la probabilidad de que otro grande pronto. Esto se conoce como la ley de Omori-que los terremotos tienden a agruparse.

No es de extrañar que surjan efectos similares en estos sistemas, ya que ambos están gobernados por la misma ciencia de las redes. Los historiadores estarían en todo su derecho a adoptar este y otros patrones como "leyes de la historia."

Estas leyes están maduras para su posterior estudio. Aunque la complejidad que surge de la teoría de redes en muchas áreas de la ciencia se ha estudiado durante décadas, ha habido casi ningún tipo de investigación en el campo de la historia. Eso sugiere que hay una fruta madura que se tenía por la primera generación de historiadores computacionales, como Preiser-Kapeller. Espere escuchar más sobre él un futuro próximo.



Ref: arxiv.org/abs/1606.03433 : Calculating the Middle Ages? The Project “Complexities and Networks in the Medieval Mediterranean and the Near East”

martes, 28 de junio de 2016

Marketing: Flujo de comunicación de dos pasos

Flujo de la comunicación de dos pasos
Wikipedia


El modelo de flujo de comunicación de dos pasos dice que la mayoría de la gente forma sus opiniones bajo la influencia de los líderes de opinión, y que éstos a su vez son influenciados por los medios de comunicación. En contraste con el flujo de un solo paso de la teoría hipodérmica o teoría de la bala mágica, que sostiene que las personas se ven influidos directamente por los medios de comunicación, de acuerdo con el modelo de flujo de dos pasos, las ideas fluyen de los medios de comunicación a los líderes de opinión, y de ellos a una población más amplia.

Productos básico

La teoría se basa en un estudio de 1940 en la influencia social que establece que los efectos de los medios se establecen indirectamente a través de la influencia personal de los líderes de opinión. La mayoría de las personas reciben gran parte de su información y se ven influidos por la segunda mano los medios de comunicación, a través de la influencia personal de los líderes de opinión.

Concepto

El modelo de dos etapas dice que la mayoría de las personas no se ven influidos directamente por los medios de comunicación, sino que más bien forman sus opiniones basadas en los líderes de opinión que interpretan los mensajes de los medios de comunicación y los ponen en contexto. Los líderes de opinión son los que inicialmente se expone a un contenido específico de los medios, y que se interpretan en base a su propia opinión. Entonces comienzan a infiltrarse en estas opiniones a través del público en general que se convierten en "seguidores de opinión". [1] Estos "líderes de opinión" aumento su influencia a través de más medios de élite en lugar de incorporar medios de comunicación. [2] En este proceso, la influencia social es creado y ajustado por los ideales y las opiniones de cada grupo "los medios de élite", así como por los ideales y las opiniones opuestas de estos grupos de medios de comunicación y en combinación con fuentes populares medios de comunicación. Por lo tanto, la influencia principal en estas opiniones es principalmente una persuasión social. [3]


Acerca de

El flujo de dos pasos de modelo de comunicación plantea la hipótesis de que las ideas fluyen de los medios de comunicación a los líderes de opinión, y de ellos a una población más amplia. Fue introducido por primera vez por el sociólogo Paul Lazarsfeld et al. en 1944 [4] y elaborados por Elihu Katz y Lazarsfeld en 1955 [5] y las subsiguientes publicaciones [6] Lowery y DeFleur argumentan que el libro era mucho más que un simple informe de investigación:. que era un esfuerzo para interpretar la investigación de los autores dentro de un marco de esquemas conceptuales, aspectos teóricos y resultados de la investigación dibujados en líneas generales desde el estudio científico de pequeños grupos [7] a diferencia de la teoría hipodérmica, que considera efectos de los medios masivos de ser directo, el modelo de flujo de dos pasos subraya la acción humana.

Según Lazarsfeld y Katz, la información de los medios de comunicación se canaliza a las "masas" a través de liderazgo de opinión. Las personas con más acceso a los medios de comunicación, y que tiene una comprensión más culta de contenido de medios, explican y difunden el contenido a otros.

Sobre la base de la hipótesis de flujo de dos pasos, el término "influencia personal" vino a ilustrar el proceso que media entre mensaje directo de los medios y la reacción del público a ese mensaje. Los líderes de opinión tienden a ser similares a los que basados ​​en influir en la personalidad, intereses, demografía, o los factores socioeconómicos. Estos líderes tienden a influir en otros para cambiar sus actitudes y comportamientos. La teoría de dos pasos refina la capacidad de predecir cómo los mensajes de los medios influyen en el comportamiento del público y explica por qué las campañas de determinados medios de comunicación no alteran actitudes de la audiencia. Esta hipótesis proporciona una base para la teoría del flujo de dos pasos de comunicación de masas. [8]


Flujo de dos pasos de la comunicación en la red Twitter (red de protesta chilena en torno a HidroAysén) [9]

Debate contemporáneo

En los tiempos de las redes sociales digitales, la teoría más de seis décadas de edad chispas mucho interés nuevo. El hecho de que las bases de datos masivas están siendo utilizados para enviar mensajes a medida que los individuos llevan de nuevo a la idea de un "flujo de un solo paso de la comunicación". [10] La idea es una especie de aguja hipodérmica / modelo bala mágica, con el la capacidad de análisis de datos grandes informó a la personalización en masa. Los estudios empíricos realizados por otros investigadores, por el contrario, han encontrado que las plataformas modernas de medios sociales, como Twitter, exhiben una clara evidencia de un flujo de dos pasos de la comunicación (véase la figura). [9] [11] Muchos usuarios de redes sociales obtienen sus noticias de celebridades u otros líderes de opinión de amplificación, que de nuevo reciba avisos por medios de comunicación o por personas con conocimientos específicos. La huella digital de grano fino de las redes sociales también sugiere que hay más que simplemente los modos de un solo paso y dos pasos de flujo de comunicación, lo que lleva la búsqueda de más complejos modelos de múltiple flujo basado en estructuras de red distintas. [9] [12 ]

Lazarsfeld y Katz

Paul Lazarsfeld y Elihu Katz son considerados como los fundadores de la teoría funcional y su libro Influencia Personal (1955) se considera que es el manual para la teoría.


Paul Felix Lazarsfeld

Uno de los primeros en embarcarse en la investigación de Comunicaciones, fue el primero en introducir la diferencia entre la "investigación administrativa" y "la investigación crítica» en lo que respecta a los medios de comunicación. La investigación crítica que creía, critica a las instituciones de los medios propios de las formas de perspectiva que sirven los grupos sociales dominantes. La investigación crítica favorece los métodos inductivos interperspective y de investigación. [13] Estudio de las elecciones presidenciales de 1940 Lazarsfeld fue publicada como la elección del pueblo (1944). Durante la investigación reveló información acerca de los procesos psicológicos y sociales que influyen en las decisiones de voto. El estudio también descubrió un proceso de influencia que Lazarsfeld llamado "liderazgo de opinión." Llegó a la conclusión de que existe un flujo de múltiples etapas de la información de los medios de comunicación a las personas que sirven como líderes de opinión que luego se transmiten al público en general. Llamó a este proceso de comunicación el "flujo de dos pasos de la comunicación." [14]

Elihu Katz

Katz fue profesor en la Escuela de Comunicación de la Universidad de Pennsylvania cuando colaboró ​​con Lazarsfeld en 1955. Su investigación tuvo como objetivo observar el flujo de influencia en las intersecciones de la masa y la comunicación interpersonal y dio lugar al libro "Influencia Personal". Katz a cabo investigaciones de Lazarfeld en un estudio de la circulación de la información, que es la base de la "Influencia Personal". Katz y Lazarsfeld llegaron a la conclusión de que: "... la imagen tradicional del proceso de persuasión de masas debe dejar espacio para" gente "como factores que intervienen entre los estímulos de los medios de comunicación y resultantes dictámenes, decisiones y acciones." [2]

Los trabajos publicados sobre la teoría

Elección Popular

La elección presidencial de 1940 vio el presidente Franklin Roosevelt buscar un tercer mandato sin precedentes en la oficina. Financiado por becas de la Fundación Rockefeller, la revista Life, y el encuestador Elmo Roper, Oficina de Investigación de radio de Colombia llevó a cabo un estudio de la votación. Se basó en un estudio de panel de 2.400 votantes en el Condado de Erie, Ohio. Paul Lazarsfeld, Bernard Berelson y Hazel Gaudet supervisados ​​15 entrevistadores, que desde mayo a octubre los entrevistados seleccionados estratégicamente 2.400 miembros de la comunidad en varias ocasiones diferentes con el fin de documentar su proceso de toma de decisiones durante la campaña. Se centraron en los factores que podrían influir en sus decisiones ya que la campaña avanzaba. Elección Popular, un libro basado en este estudio presentó la teoría del "flujo de dos pasos de las comunicaciones", que más tarde llegó a ser asociado con el llamado "modelo de efectos limitados" de los medios de comunicación: la idea de que las ideas fluyen a menudo de radio y de impresiones en "líderes de opinión" locales que, a su vez, los desplazan a las personas con conocimientos políticos más limitada, o "seguidores de opinión." Los resultados de la investigación llevaron a la conclusión de que a veces la comunicación persona a persona puede ser más eficaz que los medios de comunicación tradicionales, como periódicos, televisión, radio, etc. Esta idea se desarrolló aún más en el libro influencia personal. [15]

Influencia personal

En 1944, Paul Lazarsfeld en contacto McFadden Publicaciones en lo que respecta a su primer libro, la elección del pueblo. Los dos colaboraron formar una asociación mutuamente beneficiosa en el que Macfadden vio una manera de obtener ganancias financieras de la publicidad para la población femenina y Lazarsfeld vio una forma de obtener más información acerca de la influencia social. De esto surgió del estudio realizado por la Oficina de Investigación Social Aplicada en el que 800 mujeres residentes en Decatur, Illinois, donde entrevistó a través de entrevistas de panel para descubrir qué y quién influenciada principalmente su toma de decisiones. Lazarsfeld trabajó con Robert Merton y por lo tanto contrató a C. Wright Mills para dirigir el estudio. Otra parte del equipo de investigación, Thelma Anderson Ehrlich, las mujeres locales Decatur capacitado para administrar encuestas para las mujeres seleccionadas de la ciudad. Por el estudio de 1955. Decatur se publicó como parte de Elihu Katz y Lazarsfeld del libro influencia personal. El libro llegó a la conclusión de que, en última instancia, la interacción cara a cara es más influyente que la influencia de los medios tradicionales y por lo tanto confirmó el modelo de flujo de dos pasos de la comunicación. [16]

Críticas

El flujo original de dos pasos hipótesis de que las ideas fluyen de los medios de comunicación a los líderes de opinión y las secciones a continuación, a menos activos de la población ha sido criticado y negada por los estudios consiguientes innumerables. Los resultados de Deutschmann y Danielson afirman, "instamos a que la hipótesis de flujo de dos fases Katz-Lazarsfeld, como una descripción del proceso de información inicial, se aplicará a la comunicación de masas con precaución". [17] Se encuentran evidencia sustancial de que la masa inicial los medios de información fluye directamente a la gente en general, no se transmite por los líderes de opinión.

Además, la hipótesis de dos pasos no describe adecuadamente el flujo de aprendizaje. Everett Rogers "difusión de innovaciones" cita un estudio en el que dos tercios de los encuestados acreditada la advertencia respecto de los medios de comunicación en lugar de la comunicación cara a cara [esta afirmación necesita una citación, idealmente, desde la 5ª edición - de lo contrario es inconfirmado]. Del mismo modo, los críticos argumentan que la mayor parte de los hallazgos de Lazarsfeld se refieren a factores de aprendizaje involucrados con los hábitos de los medios de comunicación en general, más que el aprendizaje de la información en particular. Ambos resultados sugieren una mayor prevalencia de un flujo de un solo paso de comunicación.

Sin embargo, la hipótesis de dos pasos de Lazarsfeld es una descripción adecuada para comprender la influencia de los medios en la creencia y el comportamiento. Troldahl encuentra que la exposición a los medios de comunicación es un primer paso para introducir el debate, en el que los líderes de opinión punto de iniciar el flujo de segunda etapa. Estos resultados también se dan cuenta papel decisivo líderes de opinión "en la teoría del equilibrio, lo que sugiere que las personas están motivadas para mantener la coherencia entre sus creencias y opiniones actuales. Si una persona se expone a nuevas observaciones que sean incompatibles con las creencias actuales, él o ella se ve inmersa en desequilibrio. Esta persona entonces buscar el consejo de su líder de opinión, que les proporcione conocimientos adicionales para llevarlos de vuelta al equilibrio. Además, esta teoría puede ser válida durante la época en la que los líderes de opinión fueron los únicos que tienen fácil acceso a los contenidos de los medios. Hoy en día, hay un flujo libre de información para que cualquier persona pueda tener acceso a los contenidos de los medios sin depender sustancialmente de los líderes de opinión.

La investigación empírica que analiza enormes bases de datos de los flujos de comunicación en los medios de comunicación social encuentra panorama de los medios digitales de hoy facilitar de forma simultánea en una sola etapa, de dos etapas y modelos de flujo de múltiples etapas más complejas de comunicación. [9] Por ejemplo, en las redes de Twitter no es contradicción que promedian los usuarios de Twitter mencionan principalmente la intermediación de los líderes de opinión en sus tweets (flujo de dos pasos), mientras que al mismo tiempo las salidas tradicionales de medios de comunicación reciben el 80-90% de su menciona directamente a través de un flujo directo de una sola etapa a partir de los mismos usuarios. [9] Esto muestra que el modelo de dos etapas no parece estar muerta, ni obsoleto, sino simplemente una de varias maneras fluye la comunicación en las redes modernas.

Referencias


  1. Baran, Stanley. "Theories of Mass Communication". Introduction to Mass Communication. McGraw Hill. Retrieved July 2011.
  2. Katz & Lazarsfeld (1955). "Personal Influence". New York: Free Press.
  3. Staubhaar, LaRose, Davenport (2009). Media Now. Belmont, Ca: Wadsworth Cengage Learning. pp. 415–416. ISBN 978-0-495-56595-6.
  4. Paul Felix Lazarsfeld, Bernard Berelson, Hazel Gaudet, The people's choice: how the voter makes up his mind in a presidential campaign, Columbia University Press, 1944, p. 151ff
  5. Elihu Katz & Paul Felix Lazarsfeld (1955). Personal Influence: the Part Played by People in the Flow of Mass Communications. pp. 309ff. ISBN 1-4128-0507-4.
  6. Elihu Katz (Spring 1957). "The Two-Step Flow of Communication: An Up-To-Date Report on a Hypothesis". The Public Opinion Quarterly 21 (1): 61–78.
  7. Lowery & DeFleur, "Milestones In Mass Communication Research" Personal influence: Two-Step Flow of Communication, Longman Inc., 1983, p.179
  8. "Two Step Flow Theory." Opleidingswebsite Communicatiewetenschap (CW) En Communication Studies (CS). Unitveristy of Twente, 9 Sept. 2004. Web. 11 Apr. 2010. <http://www.cw.utwente.nl/theorieenoverzicht/Levels%20of%20theories/macro/Two-Step%20Flow%20Theory.doc/>.
  9. Hilbert, M., Vasquez, J., Halpern, D., Valenzuela, S., & Arriagada, E. (2016). One Step, Two Step, Network Step? Complementary Perspectives on Communication Flows in Twittered Citizen Protests. Social Science Computer Review. Freely available at http://escholarship.org/uc/item/0nn4p7mv
  10. Bennett, W. L., & Manheim, J. B. (2006). The One-Step Flow of Communication. The ANNALS of the American Academy of Political and Social Science, 608(1), 213–232.http://doi.org/10.1177/0002716206292266
  11. Choi, S. (2014). The Two-Step Flow of Communication in Twitter-Based Public Forums. Social Science Computer Review, 0894439314556599
  12. Stansberry, K. (2012). One-step, two-step, or multi-step flow: the role of influencers in information processing and dissemination in online, interest-based publics. PhD Dissertation presented to the School of Journalism and Communication, University of Oregon.
  13. Staubhaar, LaRose, Davenport (2009). Media Now. Belmont, Ca: Wadsworth Cengage Learning. p. 404. ISBN 978-0-495-56595-6.
  14. "Paul F. Lazarsfeld Biography". Book Rags Inc. Retrieved July 2011.
  15. "THE ERIE COUNTY STUDY (The People’s Choice)". Media Research of the 1940s.
  16. "THE DECATUR COUNTY STUDY (Personal Influence)". Media Research of the 1940s.
  17. Troldahl, Verling C. "A Field Test of a Modified "Two-Step Flow of Communication" Model." Public Opinion Quarterly 30.4 (2001): 609-23. Academic Search Premier. Web. 11 Apr. 2010. <http://web.ebscohost.com>.

domingo, 26 de junio de 2016

Brexit afectará las redes de investigación del Reino Unido

La ciencia de las redes revela el impacto del Brexit en el ecosistema de investigación del Reino Unido


Brexit es un hecho ahora y se espera que tenga un impacto significativo en las economías del Reino Unido y sus socios comerciales claves. Una de las áreas de impacto se refiere a los fondos de investigación de la Unión Europea en la forma de su Programa Marco Horizon 2020 para la Investigación y la Innovación. Un número importante de universidades, institutos de conocimiento y empresas del Reino Unido actualmente participan en este programa. Exactamente que organizaciones y proyectos están potencialmente afectados, y cómo están conectados? La ciencia de las redes ofrece una visión inicial.
Escrito por André Vermeij, Kenedict Innovation Analytic



Un extracto de la red completa que muestra las universidades e instituciones con el mayor número de proyectos asociados

Los datos sobre todos los proyectos y organizaciones de Horizon 2020 está fácilmente disponible como Open Data de CORDIS, el repositorio público de la Comisión Europea para obtener información sobre los proyectos de investigación financiados por la UE. Los principios de la ciencia de las redes nos permiten convertir estos datos en mapas de la actividad de las organizaciones del Reino Unido. Las redes se componen de nodos (entidades) y los bordes (las conexiones entre entidades) y permiten un análisis profundo y visualización de las estructuras subyacentes de la investigación y la colaboración.
A continuación, vamos a las organizaciones que se basan en el Reino Unido a todos los proyectos de Horizonte 2020 que actualmente participan. En la sala de red se conecta, este es un ejemplo de un modo de dos o red bipartita, en el que dos tipos de nodos son distintas conectan cada vez que co-aparecen en el conjunto de datos subyacente. Nos centraremos en el mayor grupo interconectado de la actividad aquí - se omiten los proyectos y organizaciones desconectados.

La exploración de red en sí mismo: Visualización interactiva

La visualización interactivo le permite explorar la red de proyectos y organizaciones de usted mismo. Puede buscar temas y organizaciones que utilizan el cuadro de búsqueda en la parte superior izquierda. Al hacer clic en un nodo muestra sus propiedades a la derecha y le permite ver sus conexiones directas también. los nodos del proyecto incluyen un enlace a la página del proyecto en el sitio web de CORDIS para leer sobre toda la información asociada a ese proyecto.
Los nodos están dimensionados en función de su número total de conexiones, lo que nos permite ver rápidamente que las universidades y las organizaciones son potencialmente los más afectados. colores de nodos se asignan en base a un algoritmo de detección de comunidades, que agrupa a los nodos con conexiones sólidas entre ellos. Esto nos ayuda a obtener una vista visual en los grupos de organizaciones y proyectos que rodean los actores clave. Una versión de pantalla completa de lo visual se puede encontrar aquí.


Detalles



Un primer vistazo a lo visual muestra inmediatamente que la Universidad de Cambridge, la Universidad de Oxford y la University College de Londres son potencialmente los más afectados en términos del número de proyectos de Horizonte 2020 que actualmente participan en. Respectivamente, estas universidades participan en los proyectos 183, 167 y 165. Un buen número de proyectos se caracterizan por la participación de múltiples universidades y organizaciones del Reino Unido. Por ejemplo, Oxford y Cambridge ambos participan en el proyecto 'Bridging the gap: from Individual Behaviour to the Socio-tEchnical MaN'.



El núcleo de la red se compone de una amplia variedad de proyectos y organizaciones que están conectados a varias otras partes de la red. Un buen ejemplo es el proyecto ‘Graphene-based disruptive technologies': muchas de las principales universidades del Reino Unido participan aquí, con la parte de ser proyecto de programa Graphene Flagship de 1 mil millones € de la UE.



La exploración de las estructuras exteriores de la red proporciona una visión interesante sobre los proyectos y organizaciones minoritarias conectado. Te encontrarás con más organizaciones de negocios aquí, incluyendo Rolls Royce y TWI en la parte inferior derecha de la red. Esto demuestra que las organizaciones con fines de lucro son también potencialmente afectados por el Brexit desde una perspectiva de ecosistema investigación, aunque menos que las universidades o institutos de investigación.
Siéntase libre de explorar la red y comparta cualquier idea adicionales usando los comentarios!

viernes, 24 de junio de 2016

Los amigos de Facebook no son amigos después de todo

¡Sorpresa! Sus amigos de Facebook no son sus amigos en la vida real
Usted tiene un amigo en mí (y otras tres personas)
Por Jason Lederman - Popular Science
 


Un nuevo estudio de la Universidad de Oxford confirma por qué tenemos que especificar alguien es un "amigo Facebook" en lugar de un amigo.
El profesor Robin Dunbar observó la relación entre amigos de Facebook de las personas y los verdaderos amigos, y encontró que sólo 14 de los media de 150 amigos de Facebook que un usuario tiene que expresar ninguna simpatía por el usuario en la vida real; sólo cinco amigos de Facebook podrían ser considerados "amigos cercanos".
El estudio también encontró que la edad juega un papel significativo en el número de amigos de Facebook que los participantes tenían, lo que refleja las diferencias en cómo los adolescentes y los adultos utilizan los medios sociales. El grupo de 18 a 24 años de edad de los participantes tenían un promedio de 282 "amigos" más alto que el promedio general de 150 "amigos". Dunbar lo atribuye al hecho de que "los niños son menos exigentes que los adultos en la definición de las amistades, "y que las redes sociales", típicamente estimulan promiscua 'friending' de las personas que a menudo tienen vínculos muy tenues con el ego (X es un amigo [o amigo-de-amigo-de-un-amigo] de y, por lo que le gustaría hacer amistad ¿ellos?)."
A pesar de que los usuarios con más amigos que lo normal pueden pensar que tienen más amigos cercanos, Dunbar encontró la tendencia se mantiene en realidad para ellos, así:
Los encuestados que tenían inusualmente grandes redes no aumentaron el número de amistades cercanas que tenían, sino más bien que agregaron a más conocidos poco definidos en su círculo de amistad, simplemente porque la mayoría de los sitios de medios sociales no permiten diferenciar entre estas capas.
Según Dunbar, las amistades tienen "una tasa de atenuación natural en ausencia de contacto, y los medios sociales pueden funcionar bien para frenar la velocidad de desintegración." Pero no se basan exclusivamente en Facebook para mantener su amistad viva - Dunbar recomienda cara reunión cara a cara para "reforzar" la amistad.
Dado que las personas generalmente encuentran las interacciones a través de medios digitales (incluyendo el teléfono, así como la mensajería instantánea y otros medios de comunicación social basado en texto) menos satisfactorios que las interacciones cara a cara, puede ser que las reuniones cara a cara sean necesarios de vez en cuando para evitar que las amistades, en particular, se decaigan a través de las capas de red y, finalmente, se deslice sobre el enlace ... en la categoría de conocidos.

El trabajo de Dunbar se puede encontrar en:

Do online social media cut through the constraints that limit the size of offline social networks?
R. I. M. Dunbar
DOI: 10.1098/rsos.150292

martes, 21 de junio de 2016

30 paquetes de software de ARS

Top 30 de herramientas de análisis y visualización de redes sociales 

Se revisan las principales herramientas y paquetes de análisis de redes sociales y visualización, que tienen amplias aplicaciones, incluyendo la biología, las finanzas, la sociología, la teoría de redes, y muchos otros dominios.
Por Devendra Desale, KDnuggets.- Data Mining, Analytics, Big Data, and Data Science



Aquí está una lista de la parte superior de análisis de red social y herramientas de visualización que encontramos - véase también en la página Social Network Analysis, Link Analysis, and Visualization de KDnuggets. Aquí vamos...


Centrifuge ofrece a los analistas e investigadores un conjunto integrado de capacidades que pueden ayudar a entender rápidamente y espigan penetración de nuevas fuentes de datos, visualizar descubrimientos mediante la interacción con los datos, colaborar para sacar conclusiones.



Commetrix es un framework de software para la visualización y análisis de red dinámica que soporta moderadores comunitarios, miembros y redes de investigadores. Commetrix es una herramienta de análisis exploratorio de datos de redes dinámicas. Sus conectores pueden leer cómodamente todas las fuentes de datos de la red accesibles, como las redes de coautoría o de procesos de negocio. Sin embargo, la atención se centra en el análisis de la evolución de los patrones de comunicación electrónica, incluyendo el correo electrónico, discusiones, voz sobre IP y mensajería instantánea.

Cuttlefish es una aplicación de banco de trabajo (workbench) de red que visualiza las redes con algunos de los algoritmos de diseño más conocidos. Permite visualizaciones detalladas de los datos de la red, la manipulación interactiva del diseño, edición gráfica y visualización de procesos, así como diferentes métodos de entrada como de salida de TeX usando TikZ y PSTricks. Se puede descargar como archivo jar y se puede utilizar con Gephi también.

Cytoscape es una plataforma de software de código abierto para la visualización de las redes de interacción molecular y vías biológicas y la integración de estas redes con anotaciones, perfiles de expresión génica y otro datos de estado. Si bien Cytoscape fue diseñado originalmente para la investigación biológica, ya que es una plataforma general para el análisis de redes complejas y visualización. distribución del núcleo Cytoscape proporciona un conjunto básico de características para la integración de datos, análisis y visualización. Las características adicionales están disponibles como aplicaciones (anteriormente llamada plugins). Aplicaciones están disponibles para la red y análisis de perfiles moleculares, nuevos diseños, formatos de archivos adicionales, scripting, y la conexión con bases de datos.

EgoNet es un programa para la recogida y análisis de datos de la red egocéntricos. Le ayuda a crear el cuestionario, recopilar datos y proporcionar medidas generales de la red global. Además, las matrices de datos se pueden utilizar para un análisis más extenso por otro software. Una vez que se haya completado la entrevista, la red puede ser visualizado inmediatamente, permitiendo que el entrevistador hacer más preguntas sobre la red. Otras utilidades incluyen la combinación de redes personales en una sola red entera.

Gephi es una visualización interactiva y la plataforma de exploración para todo tipo de redes y sistemas complejos, dinámicos y grafos jerárquicos. Se ejecuta en Windows, Linux y Mac OS X. Gephi es de código abierto y libre. Gephi es una herramienta para las personas que tienen que explorar y comprender los grafos. Como Photoshop, pero para los datos, el usuario interactúa con la representación, manipular las estructuras, formas y colores para revelar propiedades ocultas.



Graph-tool es un módulo de Python eficiente para la manipulación y el análisis estadístico de los grafos (alias para redes). Al contrario de la mayoría de los otros módulos de Python con una funcionalidad similar, las estructuras de datos y algoritmos básicos son implementados en C ++, haciendo uso extensivo de la plantilla de meta-programación, basada en gran medida en la Boost Graph Library. Graph-tool tiene sus propios algoritmos de diseño y dibujo, rutinas interactivas versátiles basados ​​en Cairo y GTK +, pero también puede funcionar como una interfaz muy cómoda a la excelente paquete graphviz.

GraphChi es un spin-off del proyecto GraphLab (ahora renombrado a Dato) de la Universidad Carnegie Mellon. Es para llevar el cómputo de grafos de red a gran escala, tales como el análisis de redes sociales, disponible para cualquier persona con un ordenador portátil moderno. Se le ahorra la molestia y los costos de trabajar con un racimo o distribuidos los servicios en la nube. Programas para GraphChi se escriben en el modelo centrado en el vértice, propuesto por GraphLab y Pregel de Google.

Graphviz es un software de visualización gráfica de código abierto. La visualización gráfica es una forma de representar información estructural como diagramas de grafos abstractos y redes. Los programas de diseño Graphviz toman descripciones de grafos en un lenguaje de texto simple, y hacer diagramas en formatos útiles, tales como imágenes y SVG para páginas web; PDF o PostScript para su inclusión en otros documentos; o visualizar en un navegador gráfico interactivo. Graphviz tiene muchas características útiles para los diagramas de hormigón, como las opciones de colores, fuentes, diseños de nodos de tabla, estilos de línea, hipervínculos y formas personalizadas.

InFlow realiza análisis de red y visualización de la red en un solo producto integrado. Es una de las primeras herramientas en ARS que ha sobrevivido debido a su facilidad de uso y una interfaz interactiva. Es un poco más caro, pero viene con el entrenamiento y el apoyo de Valdis. Es necesario ponerse en contacto con Valdis (puede hacerlo a través de este sitio web) para la fijación de precios y características actuales.



JUNG(Java Universal Network/Graph Framework) es una biblioteca de software que proporciona un lenguaje común y extensible para el modelado, análisis y visualización de datos que se puede representar en forma de grafo o de red. La arquitectura JUNG está diseñado para soportar una variedad de representaciones de entidades y sus relaciones, tales como grafos dirigidos y no dirigidos, grafos multimodales, grafos con enlaces paralelos, y hypergrafos. Proporciona un mecanismo para describir grafos, las entidades y las relaciones con los metadatos.

Keynetiq es una plataforma innovadora para el análisis de red de la organización. Está diseñado para mapear, visualizar y analizar las redes de personas y las relaciones entre ellos, que revela cómo las organizaciones operan realmente en el negocio del día a día. Se proporciona una gama completa de servicios que van desde el análisis de sus objetivos y el diseño de un estudio de la ONA, la implementación de la herramienta Keynetiq, la coordinación de la recopilación de datos y administración de la plataforma, hasta un análisis completo de la red de la organización y una informe detallado completo con un plan de acción.

MeerKat dispone de instalaciones para la minería automatizada comunidad, diversos algoritmos de diseño de visualizaciones de votos, y el análisis de eventos plazo para redes dinámicas que se han observado en varios puntos en el tiempo. Meerkat establece cuidadosamente la red fuera de la pantalla para minimizar la oclusión y se destacan las comunidades. También proporciona información acerca de los nodos más influyentes / centrales dentro de cada comunidad.

Netlytic es un analizador de texto y redes sociales basado en la nube que se pueden resumir de forma automática grandes volúmenes de texto y descubrir las redes sociales de las conversaciones en línea en sitios de medios sociales como Twitter, YouTube, blogs, foros en línea y chats. la suscripción de varios niveles incluyendo la versión gratuita.

NetMiner es una aplicación de software para el análisis de exploración y visualización de datos de gran tamaño de la red según el SCN. Se ha incrustar motor de scripts basado en Python interna que equipado con el generador automático de secuencias de comandos. NetMiner 4 Licencia para los cursos se proporciona a los estudiantes y profesores.

Network Workbench es un software para Análisis de Redes, Modelado y Visualización Toolkit a gran escala para Ciencias Sociales, Biomédicas e Investigación Física. El entorno de los recursos informáticos de código-imaginado datos proporcionará una ventanilla portal en línea para los investigadores, educadores y profesionales interesados ​​en el estudio de las ciencias biomédicas, sociales y de comportamiento, la física y otras redes.

NetworKit es un creciente conjunto de herramientas de código abierto para el análisis de redes de alto rendimiento. Su objetivo es proporcionar herramientas para el análisis de redes de gran tamaño en el rango de tamaño de entre miles de miles de millones de enlaces. Para este propósito, se implementa algoritmos de grafos eficaces, muchos de ellos paralelo a utilizar arquitecturas multinúcleo. Estos están destinados para calcular las medidas estándar de análisis de redes, tales como secuencias grado, coeficientes de la agrupación y la centralidad. A este respecto, NetworKit es comparable a paquetes como NetworkX, aunque con un enfoque en el paralelismo y la escalabilidad.

NetworkX es un paquete de software de lenguaje Python para la creación, manipulación, y el estudio de la estructura, la dinámica y las funciones de las redes complejas. Con NetworkX se puede cargar y redes de tiendas en formatos de datos estándar y no estándar, generar muchos tipos de redes aleatorias y clásicos, analizar la estructura de la red, construir modelos de red, el diseño de nuevos algoritmos de redes, redes de dibujar. Es utilizado por los matemáticos, físicos, biólogos, informáticos, científicos y sociales.

NodeXL es una plantilla libre, de código abierto para Microsoft® Excel® que hace que sea fácil explorar los grafos de redes. Con NodeXL, se puede introducir una lista de enlaces de la red en una hoja de cálculo, haga clic en un botón y ver su grafo, todo ello en el entorno familiar de la ventana de Excel. Grafos flexibles de importación y exportación de importación y exportación en GraphML, PAJEK Ucinet, y los formatos de matriz. Las conexiones directas a las redes sociales Redes Sociales importar directamente desde Twitter, YouTube, Flickr y correo electrónico, o utilizar uno de varios plug-ins disponibles para obtener las redes de Facebook, Cambio, Wikis y los enlaces WWW.

Pajek es un programa para Windows, la principal motivación para el desarrollo de Pajek fue la observación de que existen varias fuentes de grandes redes que ya están en forma legible por máquina. Pajek debe proporcionar herramientas para el análisis y visualización de este tipo de redes: redes de colaboración, molécula orgánica en la química, las redes de interacción receptor de la proteína, genealogías, las redes de Internet, redes de citación, de difusión (SIDA, noticias, innovaciones) redes, la minería de datos (2-mode redes), etc. se utiliza ampliamente en la investigación académica.

Polinode es una herramienta flexible que ayuda a reducir la complejidad a través. En su núcleo está la capacidad de asignar, visualizar y analizar los datos de la red. Dirigida principalmente a las organizaciones y consultores, aplicaciones van desde la identificación de los agentes de cambio y la búsqueda de enlaces críticos a través de la promoción de la diversidad y la mejora de los diseños de los lugares de trabajo.

R es una herramienta de análisis de uso general, pero varias bibliotecas están disponibles para el análisis de redes sociales. Estos incluyen degreenet, RSeina, PAFit, igraph, red SNA, tneto, ERGM, Bergm, hergm, latentnet y networksis. Cada uno proporciona una funcionalidad especializada y para las personas familiarizadas con R representan un amplio conjunto de recursos.

SocNetV (Social Networks Visualizer) es una herramienta fácil de usar multi-plataforma para el análisis y la visualización de las redes sociales. Se permite construir redes (grafos matemáticos) en un lienzo virtual, o redes de carga de varios formatos (GraphML, GraphViz, adyacencia, Pajek, UCINET, etc). Además, SocNetV permite modificar las redes sociales, analizar sus propiedades sociales y matemáticas y aplicar diseños de visualización.



Socioviz ies una plataforma de análisis de redes sociales impulsado por métricas de análisis de redes sociales. Permite al usuario consultar las conversaciones de Twitter y encontrar Identificar factores de influencia, opiniones y contenidos. grafos de redes sociales (mención de usuario y la copresencia hashtag) se visualizan y se pueden exportar en formato Gephi (gexf) para su posterior análisis.

Sentinel Visualizer es utilizado por Advanced Link análisis, visualización de datos, Mapeo Geoespacial, y SNA. Su plataforma de visualización de datos con base de datos le permite ver rápidamente enlaces multi-nivel entre las entidades y el modelo de diferentes tipos de relaciones. funciones de dibujo y volver a dibujar avanzada generar vistas para poner de relieve las entidades más importantes optimizados.

Statnet es un conjunto de paquetes de software en I para el análisis de red de la modelización estadística de las redes. El marco analítico se basa en la familia Modelos de Grafos aleatorios exponenciales (ERGM). Proporciona un marco integral para el modelado de red basado en ERGM, incluyendo herramientas para la estimación del modelo, la evaluación del modelo, la simulación de red basado en el modelo y visualización de la red. Esta amplia funcionalidad es impulsado por un algoritmo de cadena central de Markov Monte Carlo (MCMC).

SVAT (Smart Visual Analytics Tool) es para la visualización de datos, investigación de fraude, y más. Proporciona, visualización rentable fácil de usar de enlaces y fluye entre los sujetos. Una visión general cronológica del conjunto de datos visualizado es crucial en muchos casos. TSVA es compatible con dos puntos de vista de línea de tiempo diferentes, con una gran cantidad de opciones para elegir. Se puede extraer datos de fuentes estructurada o no, y los crujidos para revelar patrones ocultos.



Tulip es un marco de visualización de información dedicado al análisis y visualización de datos relacionales. Su objetivo es proporcionar al desarrollador con una biblioteca completa, el apoyo al diseño de la visualización de información interactivo. Escrito en C ++ el marco permite el desarrollo de algoritmos, codificaciones visuales, técnicas de interacción, modelos de datos y visualizaciones de dominio específico. Uno de los objetivo de tulipán es facilitar la reutilización de componentes y permite que los desarrolladores centrarse en la programación de su aplicación. Esta línea de desarrollo hace que el marco eficiente para la creación de prototipos de investigación, así como el desarrollo de aplicaciones de usuario final.

Visone es un software para la creación visual, la transformación, exploración, análisis y representación de datos de la red, desarrollado de manera conjunta en la Universidad de Konstanz y el Instituto de Tecnología de Karlsruhe desde 2001. El objetivo principal del software visone es capacitar a los investigadores en el ciencias sociales para analizar y visualizar los datos de la red de una manera integrada. Las posibles aplicaciones van desde la sociometría de bibliometría y análisis web.

XANALYS se especializan en proporcionar capacidades de software de gran alcance. A partir de la evaluación de amenazas, manejo de casos importante de Investigación y el delito y fraude de análisis anticipadas. Ayuda a gestionar grandes investigaciones de delitos a varias jurisdicciones, evaluar y analizar las transacciones financieras sospechosas, la captura y actuar sobre los informes de inteligencia, y divulgar las pruebas en un formato de corte listo para asegurar resultados exitosos.

domingo, 19 de junio de 2016

Redes de normas y temas en Wikipedia

La evolución de la red de normas de Wikipedia
Bradi Heaberlin y Simon DeDeo
Future Internet


Resumen: Las normas sociales han sido tradicionalmente difíciles de cuantificar. En cualquier sociedad en particular, su cantidad y las interdependencias complejas a menudo limitan un análisis a nivel de sistema. Una excepción es la de la red de normas que sustentan la comunidad de Wikipedia en línea. Estudiamos la evolución de quince años de esta red con el conjunto interconectado de páginas que se establecen, describiendo e interpretando las normas de la comunidad. A pesar de la reputación de Wikipedia de gobernabilidad ad hoc, nos encontramos con que su evolución normativa es muy conservadora. Los primeros usuarios crean normas que tanto dominan la red y persisten en el tiempo. Estas normas básicas rigen tanto el contenido como las interacciones interpersonales utilizando principios abstractos como la neutralidad, verificabilidad, y asumen de buena fe. A medida que la red crece, vecindarios de normas se desacoplan topológicamente el uno del otro, mientras que el aumento en la coherencia semántica. Tomados en conjunto, estos resultados sugieren que la evolución de la red de Wikipedia norma es similar a los sistemas burocráticos que son anteriores a la era de la información.
Palabras clave: normas sociales; redes de normas; Wikipedia; oligarquía; burocracia; gobernancia; conocimiento común


1. Introducción

Las ideas comunes de la sociedad sobre cómo se "debe" gobernar comportan características esenciales de la vida económica y política [1,2,3,4,5,6]. Fuera de ambientes idealizados de teoría de juegos, por ejemplo, los incentivos económicos se complementan con las normas sobre la honestidad y un salario más alto es posible cuando los trabajadores creen que no deberían engañar a su empleador [7]. Y, si bien la estructura racional de las normas y leyes es una parte importante de las acciones de coordinación y deseos [8], las personas a determinar la legitimidad de estas soluciones basadas en las creencias acerca de la imparcialidad y la autoridad. Una fuerza policial sin legitimidad no puede hacer cumplir la ley [9,10].
Las normas también están en desarrollo continuo. La norma moderna contra la violencia física, por ejemplo, tiene raíces inesperados y sigue evolucionando [11,12,13]. Sin embargo, entendemos mucho menos acerca de la historia y el desarrollo de las normas que sobre la economía o la ley [14]. A menudo carecen de los datos que nos permita hacer el seguimiento de la coevolución de las ideas complejas, interrelacionadas e interpretativos, tales como la honestidad, la justicia, y la autoridad, la forma en que podemos realizar un seguimiento de los precios y los flujos monetarios o la creación y el cumplimiento de los estatutos.
Los sistemas en línea, tales como Wikipedia, proporcionan nuevas oportunidades para estudiar el desarrollo de normas en el tiempo. Junto con los repositorios de información y de códigos en el centro de la economía mundial moderna, tales como GNU / Linux, Wikipedia es un ejemplo canónico de un conocimiento común [15,16,17,18]. conocimientos comunes se basan en las normas, en lugar de los mercados o leyes, para la mayor parte de su gobierno [19,20]. En Wikipedia, editores colaboran para escribir artículos enciclopédicos en un entorno de código abierto gestionado por la comunidad [21,22], y que se basan en las normas sociales para estandarizar y gobiernan sus decisiones de edición [23]. los registros del servidor minuto a minuto de Wikipedia cubren más de quince años de creación de normas y la evolución de una población de editores que se contaban por decenas de miles. Las normas son importantes en la Wikipedia en formas que hacen que sea imposible para que los participantes pasan por alto: es el sistema de normas, en lugar de leyes justas, que dicta lo que el contenido está o no está incluido, que participa, y lo que hacen.
Paralelamente a los hallazgos en el estudio de la evolución regla en grandes instituciones académicas [24], esperamos que las normas de Wikipedia que juegan un papel en la preservación de la memoria institucional, para ser una fuente de estabilidad institucional y el cambio, y que tienen una relación compleja con el circunstancias que llevaron a su creación. páginas norma desempeñan un papel clave en la coordinación de comportamiento entre los editores de la Enciclopedia [25]. Editores citan habitualmente las normas sobre las páginas de discusión de artículos en un intento de coordinar [26], crear consenso y resolver conflictos [23,27].
Este estudio se centra en un subespacio de la enciclopedia dedicada a la información y discusión acerca de las normas de la propia enciclopedia. Las comunidades asociadas a cada uno de 291 idiomas y ediciones tienen una gran independencia para definir y modificar las normas que utilizan de Wikipedia; o sea, se puede seguir una trayectoria evolutiva diferente. Aquí, nos centramos únicamente en las normas de la Wikipedia en idioma Inglés. Se estudia la evolución de estas normas utilizando un subconjunto de las páginas enlazadas estrechamente que establecen, describir e interpretar ellos. Estas páginas, junto con las relaciones entre ellos, nos permiten cuantificar cómo los editores describen las expectativas de comportamiento y, en consecuencia, la forma de crear y volver a interpretar las normas de su comunidad.
Nos centramos en los enlaces entre páginas norma. la formación en línea de enlace se produce por una variedad de razones [28], incluyendo la asociación estratégica por la persona que hace la cita [29]. En el caso de Wikipedia, enlaces entre páginas en la enciclopedia "mainspace" codifican información acerca de las relaciones semánticas [30,31] y la importancia relativa de las páginas [32,33]. La extensión de estos análisis a las páginas de la enciclopedia norma nos permite ver cómo se describen las normas, justificados y explicados por referencia a otras normas. Nuestro uso de esta red es paralela a los estudios de citaciones en los sistemas jurídicos; los investigadores utilizan citas legales para realizar un seguimiento a través de la influencia de precedencia [34] y la legitimación [35], así como el prestigio de la citada [35,36]. El paralelo a las citaciones legales no es exacta: las páginas de la red norma de Wikipedia no (por lo general), creado en respuesta a un evento en particular, como en un caso judicial, sino más bien en respuesta a una necesidad percibida son; páginas pueden ser creados por cualquier usuario, en lugar de un juez o tribunal en particular; y las páginas pueden ser editadas de forma retrospectiva (que conduce, por ejemplo, a la posibilidad de ciclos de gráfico cuando se introducen nuevos enlaces).
Esta perspectiva de la red nos permite ir más allá del seguimiento de un solo comportamiento a través del tiempo (un enfoque común en los estudios de la evolución cultural [37]) para examinar la evolución de las relaciones entre cientos, e incluso miles, de ideas distintas. Utilizamos estos datos para formular tres preguntas críticas. En un sistema en el que constantemente se están discutiendo y crean normas, cómo y cuándo algunas normas llegan a dominar sobre los demás? ¿Qué tipo de comportamiento es lo que gobiernan? Además, ¿cómo esas normas básicas evolucionan con el tiempo?
Las respuestas son sorprendentes. Mientras que algunas cuentas de Wikipedia subrayan su flexibilidad y la naturaleza ad hoc de su gobierno [38,39,40], nos encontramos con que la evolución normativa de la Wikipedia es muy conservadora. Normas que dominan el sistema en los últimos años de la Wikipedia se crearon temprano, cuando la población era mucho menor. Estas normas básicas dicen los editores de la forma de escribir y artículos de formato; también describen cómo colaborar con los demás cuando se enfrentan a los desacuerdos e incluso acaloradas discusiones. Para ello, las normas básicas de referencia, principios racionalizadas universales, como la neutralidad, verificabilidad, la cortesía, y el consenso. Con el tiempo, los barrios de la red de estas normas se desacoplan topológicamente. Mientras lo hacen, su coherencia semántica interna aumenta, tal como se mide utilizando un modelo tema del texto de la página. normas básicas abstractas de Wikipedia y proceso de desacoplamiento muestran que adopta una estructura "organización institucionalizada" similar a los sistemas burocráticos que son anteriores a la era de la información [41].

2. Métodos

Para recopilar datos sobre la red de normas en la Wikipedia, que SPIDER enlaces dentro del "espacio de nombres" reservado para (entre otras cosas) las políticas, lineamientos, procesos y discusión. Estas páginas pueden ser identificados debido a que llevan el prefijo "Wikipedia:" o "WP:". Los nodos de red son páginas. aristas dirigidas entre páginas se producen cuando una página enlaza a otra a través de al menos un hipervínculo que cumple con nuestros criterios de filtrado; estos enlaces se encuentran analizando el código HTML en bruto de cada página y con exclusión de las plantillas de navegación estándar y listas. Nuestra red es, pues, ambos dirigidos y no ponderado. Comenzamos nuestro rastreo en la (seleccionado arbitrariamente) página norma "Asumir la buena fe". Los detalles del proceso de rastreo, los filtros de hipervínculo y el post-tratamiento de los enlaces entre páginas aparecen en el Apéndice A; tanto los datos sin procesar y procesada nuestra red están libremente disponibles en línea [42].
Editores clasifican las páginas del espacio de nombres mediante la adición de etiquetas; estas etiquetas incluyen, sobre todo, "la política", "guía", y "ensayo", entre otros. Cuando descargamos texto de la página, también registrar estas categorizaciones. Estas categorizaciones describen los niveles de gradated expectativas para la adhesión [43]. En el texto "plantilla" que se incluye de forma automática-, las políticas se describen como "normas ampliamente aceptadas" que "todos los editores debe seguir normalmente" [44], las directrices como "normas de aceptación general" que "los editores deben intentar seguir" y para el que "de vez en cuando excepciones pueden ocurrir "[45], mientras que los ensayos proporcionan" apoyo y opinión ":" [s] ome ensayos representan normas generalizadas ", mientras que" otros sólo representan puntos de vista minoritarios "[46]. Una cuarta categoría es la "propuesta", que describe las posibles políticas y directrices "Sin embargo ... en el desarrollo, en discusión, o en el proceso de reunir consenso para la adopción" [47].
Los análisis previos de entorno de políticas de Wikipedia ha hecho hincapié en los muchos, a menudo se superponen, las funciones que las normas de juego en la enciclopedia, como las políticas que tanto intento de controlar el uso no-autorizado de material con derechos de autor y para establecer la legitimidad a través del uso de la dicción legal y la gramática [ 25]. En el estudio actual, consideramos un sistema de clasificación complementaria que se centra en los tipos de interacciones de las normas regulan, en lugar de sus funciones. Proponemos tres categorías distintas normativas en base a, y la clasificación se extiende, preexistente de las normas que rigen [19] y conocimientos comunes naturales [20].
Las normas pueden intentar regular la creación de contenido (normas "-Contenido de Usuario") e interacciones entre los usuarios (normas "usuario-usuario"). Además, las normas pueden intentar definir una estructura administrativa más formal con distintas funciones, deberes y las expectativas de los administradores (normas "usuario-admin"). Los dos autores de este trabajo clasifican de forma independiente una muestra aleatoria de cuarenta páginas que utilizan este esquema, y ​​se calculó la confiabilidad entre codificadores utilizando kappa de Cohen [48].
Para nuestro análisis semántico, incluimos todos los textos, excepto que se encuentra en cajas especiales cuyo texto es reproducido por la plantilla a través de múltiples páginas. Para construir nuestra distribución a través de uno-gramas, se normaliza todo el texto a minúsculas, combinar palabras con guiones ( "corrección de errores" a "errorcorrection"), y soltar puntuación ( "no" a "don't"). Hacemos ninguna corrección derivada ni de ortografía.
Una variable externa crítico es el número de usuarios activos en la enciclopedia en cualquier punto en el tiempo. Tras [49], definimos un usuario activo como uno que ha hecho cinco o más ediciones dentro de un mes; estas estadísticas se mantienen públicamente en [50].

2.1. Medidas de centralidad y atención 

Las páginas de nuestro corpus se crean para explicar las normas de Wikipedia para editores e influir en sus interacciones con la comunidad de edición de la enciclopedia y el contenido. Los usuarios navegar por el sistema de normas como una estructura de red y por lo tanto se encuentran con algunas de las páginas más que otros.
Lo medimos utilizando centralidad del vector propio (CE), que cuantifica la importancia de una página en función de su accesibilidad global dentro de la red. La CE de una página es la probabilidad de que ocurra a través de una página durante una caminata al azar; equivalente al algoritmo PageRank, que se utiliza en las ciencias del comportamiento para identificar a un consenso sobre el dominio y el poder [51]. Hemos establecido ε, la probabilidad de un salto al azar, a 0,15.
Esperamos que algunas de las páginas que se convierten en ideal para acceder a la red, mientras que otros permanecen en gran parte periférica. Estamos cuantificar la desigualdad del sistema utilizando el coeficiente de Gini (GC). GC varía entre cero (igualdad perfecta, todas las páginas tienen la misma CE) y uno (una página tiene un alto CE; todas las demás páginas tienen el mismo valor bajo). GC es ampliamente utilizado en economía para medir la desigualdad en los ingresos. A continuación, se proporciona una medida global de la medida en que un sistema está dominado por unas pocas normas. Como una cantidad sin dimensiones, que permite a los investigadores comparar este sistema con otras que pueden ser objeto de una investigación posterior.
Debido a que estamos interesados ​​en la forma en que evoluciona la red norma citación y el papel que juegan las normas en el contexto de esta estructura, la CE es una medida ideal de la importancia de una norma. Además de cuantificar importancia estructural, sin embargo, se espera que la CE para correlacionar con, y para predecir, medidas de comportamiento de la atención que recibe una página. Para medir la relación entre centralidad y de comportamiento medidas de atención, hacemos un seguimiento de visitas de página de datos (a partir de los registros del servidor de Wikipedia puestos a disposición por StatsGrok [52], véase el Apéndice B), el número total de ediciones de una página ha recibido, el número de ediciones en diversas su página de discusión asociada, y el número de editores que han editado la página. Llevamos a cabo una regresión lineal multivariable sobre estas medidas de atención, junto con la edad y el tamaño de página de la página (en bytes) como predictores de la página de un CE (véase el Apéndice C).

2.2. Influencia y superposición

Una característica importante de la red de norma es la esfera de influencia: las páginas que se basan en cualquier página en particular para el contexto.
Consideremos, por ejemplo, la página norma "Punto de vista neutral" (PVN), una página instando a los editores para describir los sujetos de artículos sin tomar partido. Una página que enlaza con PVN se refiere a su propio sujeto NPOV de alguna manera. Por ejemplo, entre muchas páginas que enlazan con PVN es "Propaganda", un ensayo instando a los editores que tener cuidado con el uso de medios de propaganda de los gobiernos autoritarios. La página de enlaces a la página de la propaganda de PVN el fin de definir la noción de "peso indebido"; El contenido de PVN por lo tanto se puede decir de influir en la interpretación de lo que se encuentra en la propaganda.
La influencia es distinta de centralidad; medidas de centralidad en la medida en que páginas enlazan a la página en cuestión. Por el contrario, la influencia mide el grado en que el contenido de esa página influencias otras páginas. En nuestro formalismo, un nodo p puede ser entendida para influir en un nodo q cuando Q enlaces a p. Influencia no necesita ser directa, sin embargo: p puede influir q si q enlaces a R y R enlaces a p. Para medir la influencia no local, consideramos paseos aleatorios en la red la dirección invertida.
Más formalmente, la colocación de un caminante aleatorio en el nodo p, permitimos que ella tome n pasos de este punto de partida a lo largo de la red de orientación invertida; escribimos la distribución de probabilidad resultante sobre la posición final como pi, la probabilidad de que el caminante terminando en el nodo i. El pi de distribución define la influencia que tiene en p i.
Para cuantificar la distancia entre dos nodos, se considera además la superposición influencia entre dos nodos arbitrarias p y q. Solapamiento cuantifica el grado en que dos caminantes al azar, a partir de estos nodos, tenderán a visitar las mismas páginas. Si pi y qi son las distribuciones de probabilidad asociados con la influencia de nodo p y q, a continuación, se superponen, se define como:


     (1)

Por varias páginas, podemos calcular la media de superposición de par en par simplemente promediando la superposición entre todos los pares posibles dentro del conjunto.
Alta superposición entre p y q indica que dos páginas influyen en un gran número de nodos comunes. Cuando n tiende a infinito, los caminantes al azar convergen a la distribución estacionaria, y la superposición es uno; A la inversa, cuando n es pequeño, caminantes aleatorios tienen menos tiempo para encontrar uno al otro. Tomamos n igual a cinco, más grande que el camino más corto promedio (aproximadamente tres, en nuestra red), de manera que los nodos son potencialmente alcanzable, pero mucho menos que el tiempo de convergencia a la distribución estacionaria.
La superposición puede ser pensado como una medida de la separación de las esferas de influencia. Se invoca únicos mecanismos locales: los usuarios que viajan de una página a otra mediante los enlaces que los conectan. Esto es en contraste a una medida, tal como los caminos más cortos, lo que es computacionalmente caro y requiere un conocimiento detallado, global del enlace-estructura de la red. En general, por ejemplo, el número de nodos de un algoritmo necesita visitar el fin de determinar el camino más corto entre dos nodos por lo general será mucho mayor que la longitud de la trayectoria final.
Tanto la influencia y la superposición requieren que especifique los nodos particulares de interés; nos centramos en este trabajo sobre pares de páginas de alta CE, o normas básicas.

2.3. La coherencia semántica

Consideramos que las relaciones semánticas entre las páginas. Esto proporciona una noción de relación que es distinta de cómo las normas se conectan a través de hipervínculos. Para ello, hacemos (asignación de Dirichlet latente [53]) El modelado de tema en los uno-gramos del, texto legible aparece en cada página. Tema modelos nos permiten representar textos cortos, incluso cuando se obtienen de un rico vocabulario: temas de grano grueso de las distribuciones subyacentes más palabras.
Con el modelo resultante tema, entonces podemos calcular la distancia semántica entre todos los pares de páginas utilizando la distancia Jensen-Shannon (JSD), una medida que cuantifica la posibilidad de distinguir de las dos distribuciones [54]. Esto nos da una red semántica con peso que se puede comparar a la red de enlaces entre páginas. En particular, podemos calcular la coherencia semántica: la correlación de Pearson entre pi (la influencia del nodo p en el nodo i) y el JSD negativo desde el nodo P al nodo i, Ji. Cuando los nodos que están estrechamente relacionadas topológicamente también están estrechamente relacionadas semánticamente (JSD baja), la coherencia es alta.

2.4. La detección de la comunidad

Esperamos que los enlaces que los editores hacen a nivel local para dar lugar a grupos distintos, o haces norma, a nivel mundial. Usamos el algoritmo de detección de Lovaina comunidad [55] para detectar la agrupación entre los nodos de la red. El algoritmo de Lovaina maximiza la modularidad en cada partición local de la red. El primer algoritmo asigna a cada nodo i al otro clúster, a continuación, calcula la ganancia potencial de la modularidad i para unirse al grupo de su nodo vecino j. Cada voy a unirse al grupo de j cuando la combinación de la ganancia ofrece modularidad positiva más alta. Si no hay un posible aumento de la modularidad, que permanece en su grupo inicial.