lunes, 27 de mayo de 2019

Convocatoria Libro: "El ARS desde Latinoamérica"


LIBRO: “EL ANÁLISIS DE REDES SOCIALES DESDE LATINOAMÉRICA”
Francisca Ortiz
Alejandro Espinosa-Rada 
CONVOCATORIA
El análisis de redes toma en consideración distintos niveles de análisis, ya sea desde el entorno que rodea a una persona (ego-red), pasando por pequeñas sub-estructuras que emergen en redes completas (tales como sub-grupos u otras configuraciones), la descripción de la red global (su composición u otras características generales), la yuxtaposición de varias redes (multiplexas, de k-modos o de multinivel) o la comparación de un conjunto de éstas (muestreo de ego-redes o de redes completas).
En términos metodológicos y empírico, las redes pueden ser descritas relacionando micro mecanismos (tales como selección, influencia, homofilia, asortatividades, entre otros) con métricas formales, permitiendo describir e incluso modelar estadísticamente los modos en que se constituyen los lazos en complejas redes sociales.
En la actualidad el análisis de redes se encuentra en un estado de desarrollo exponencial, congregado en diversos países latinoamericanosy congresos nacionales (ANSNANASN), regionales (EUSNRLARS) e internacional (SUNBELT). Principalmente al alero de importantes organizaciones como la “International Network for Social Network Analysis” (INSNA) y de un conjunto relevante de revistas especializadas con alto índice de impacto en las ciencias sociales. Componiendo así un campo fructífero de desarrollo científico en las ciencias sociales.
El libro estará compuesto por tres secciones, y el autor deberá mencionar a cuál de estas secciones postula:
  • Aspectos teóricos del Análisis de Redes Sociales.
  • Metodologías del Análisis de Redes Sociales.
  • Investigaciones empíricas aplicadas al contexto latinoamericano.
En relación a las secciones de aspectos teóricos y metodológicos, se espera que las contribuciones permitan difundir áreas consolidadas del análisis de redes sociales que no se encuentren disponibles en español y/o que planteen alguna contribución de tal forma de hacer accesible la perspectiva de redes a un público amplio interesado en introducirse o profundizar en esta línea de investigación, especialmente orientado a ser un libro referente para cursos enfocados al análisis de redes. Estas secciones no se encuentran restringidas al contexto latinoamericano esperando que tengan un alcance más amplio y transversal a las ciencias sociales.
Con respecto a la sección de investigaciones empíricas aplicadas al contexto latinoamericano, el libro tiene como pretensión representar a un conjunto amplio de aplicaciones en diversos países latinoamericanos o de estudios comparados en donde se involucren distintos países de la región, junto con cubrir un conjunto amplio de temáticas de interés para las ciencias sociales.

Normas editorial: 
Los capítulos tendrán una extensión de entre 7.000 palabras máximo, contando en ello la bibliografía. Para la fecha de entrega del avance de capítulo, los autores deberán enviar su borrador de 4.000 palabras, de tal forma de que los editores puedan realizar comentarios a sus avances.
Usar: Idioma español, letra Time New Román, tamaño 12, espacio sencillo y referencias Apa 6 ta edición.
Los trabajos finales se entregarán el 13 de abril del 2020,  serán sometidos a revisión de pares evaluadores y, finalmente, al proceso de edición y publicación. El proceso completo de edición conlleva que los autores modifiquen su texto, también en función de las líneas del libro. Esto significa que el capítulo de libro no estará 100% seguro en la impresión del libro, ya que eso será definido en último término por los pares evaluadores anónimos. Así, además de los editores, los pares evaluadores también formarán parte de la decisión final de que capítulos formaran parte del libro completo.

Fechas importantes:
EVENTOFECHAS
Convocatoria abierta para presentar resúmenes (300 a 400 palabras):11 de marzo 2019 – 31 de mayo 2019 
Anuncio de resúmenes aceptados: 1 y 2 de julio 2019
Recepción de avances (4.000 palabras): 14 de diciembre 2019
Entrega de comentarios y/o correcciones a los autores de parte de los editores: 15 de enero 2020
Entrega final del capítulo (7.000 palabras):13 de abril 2020
Proceso de corrección de parte de editores:13 de abril 2020 – 1 de julio 2020 
Proceso editorial (corrección, aceptación, edición):Julio 2020 – Febrero 2021
Fecha estimada de publicación de libro:Primer semestre 2021
Los editores se reservan el derecho de no aceptar alguno de los capítulos, si se devela en sus entregas suficientes críticas como para ello. Actualmente no existe un compromiso previo con alguna editoiral, por lo que los editores mantendrán actualizados a los autores del proceso de maquetación, edición y publicación de este en sus debidos tiempos. Esto implica que los tiempos del libro estarían subordinados a los tiempos que manejaría la editorial elegida para publicar el texto final.
Para el envío de resúmenes:
  • Enviar breve carta de presentación (breve justificación de la sección a la que postula, originalidad del manuscrito, conflictos de interés, posibles pares evaluadores). Extensión máxima: una plana.
  • Adjuntar CV actualizado
  • Resumen de 300 a 400 palabras
  • Enviar antecedentes a los siguientes correos: francisca.ortiz@manchester.ac.uk, alejandro.espinosa@manchester.ac.uk
Se recomienda a los autores la siguiente bibliografía:
  • Bellotti, Elisa (2014). “Qualitative Networks: Mixed methods in sociological research”. Routledge, London. 
  • Borgatti, Stephen; Everett, Martin & Johnson, Jeffrey (2018) “Analyzing Social Networks”. SAGE, The United States of America. 
  • Brandes, Ulrik; Robins, Garry; McCraine, Ann & Wasserman, Stanley (2013). What is network science? Network Science,(1)1: 1-15.
  • Crossley, Nick (2012). “Towards relational sociology”. Routledge, London.
  • Crossley, Nick; Bellotti, Elisa; Edwards, Gemma; Everett, Marton; Koskinen, Johan & Tranmer, Mark (2015). “Social Network Analysis for Ego-Nets”. SAGE, London.                 
  • Hanneman, Robert A (2001). “Introducción a los métodos del análisis de redes sociales”. Libro on-line: Universidad de California, Riverside. http://revista-redes.rediris.es/webredes/text.htm
  • Lusher, Dean; Koskinen, Johan & Robins, Garry (2012). Exponential random graph models for social networks: Theory, methods, and applications. Cambridge University Press, The United States of America.
  • Maya-Jariego, I. & Holgado, D. (2005). Lazos fuertes y proveedores múltiples de apoyo: comparación de dos formas de representación gráfica de las redes personales. Empiria. Revista de Metodología de Ciencias Sociales, 10, 107-127.
  • McCarty, Christopher; Lubbers, Miranda Jessica; Vacca, Raffaele & Molina, José Luis (2019). Conducting Personal Network Research: A Practical Guide. The Guilford Press. 
  • Perry, Brea; Pescosolido, Bernice & Borgatti, Stephen (2018). “Egocentric Network Analysis: Foundations, Methods and Models”. Cambridge University Press, Cambdrige.  
  • Porras, José Ignacio & Espinoza, Vicente (Eds.). (2005). Redes : enfoques y aplicaciones del análisis de redes sociales (ARS). Universidad Bolivariana, Santiago, Chile.
  • Robins, Garry (2015). “Doing Social Network Research: Network-based Research Design for Social Scientists”. SAGE, London.
  • Scott, John (2013). “Social network analysis”. SAGE, California.
  • Wasserman, Stanley & Faust, Katherine (2013). “Análisis de redes sociales: Métodos y aplicaciones”. Centro de Investigaciones Sociológicas, Madrid.

lunes, 6 de mayo de 2019

La información pro-vacunación gana terreno frente al terraplanismo anti-vacunación


Volverse viral: el sarampión se propaga, pero los mensajes pro-vax ganan terreno

Lisa Belkin Corresponsal Nacional
Yahoo News



Virus del sarampión y aviso de brote. (Ilustración de la foto: Yahoo News; fotos: Seth Wenig / AP, Getty Images)

Internet, el lugar donde el mensaje contra la vacuna ganó fuerza en primer lugar, podría volverse a favor de las vacunas, sugiere un estudio preliminar.

Los autores tienen la esperanza de que el mismo medio que llevó a muchos padres a retener la vacuna contra el sarampión de sus hijos, lo que conduzca a brotes de una enfermedad que antes se creía erradicada, pudiera usarse para volver a hacer que la enfermedad volviera al pasado.

"La marea puede estar cambiando contra el movimiento contra la vacunación", escribió Filippo Menczer, profesor de informática e informática de la Universidad de Indiana, sobre su investigación que cuantifica y mapea la difusión de información falsa en las redes sociales en los últimos cinco años. (Su artículo apareció la semana pasada en la revista de ideas académicas en línea The Conversation).

Al rastrear los hashtags de Twitter, él y el estudiante graduado Pik-Mai Hui han llegado a la conclusión de que "la información y la actividad pro-vax están comenzando a rechazar, e incluso a superar, la desinformación anti-vax".




A finales de 2016, el movimiento anti-vax (en verde) era mucho más grande que el movimiento pro-vax (en azul). Con el tiempo, el movimiento pro-vax se expandió y llegó a empequeñecer a los anti-vaxxers. (Gráfico: Filippo Menczer y Pik-Mai Hui, Universidad de Indiana, CC BY-ND)


El movimiento contra la vacuna nació en 1998, cuando el gastroenterólogo británico Andrew Wakefield publicó un estudio basado en datos falsificados que vinculaban las vacunas y el autismo. El documento se retrajo y la licencia médica de Wakefield se revocó en 2010. Pero los años desde la publicación del documento son también los años de crecimiento de Internet similar al kudzu; El 3,6 por ciento de la población mundial estaba en línea en 1998, en comparación con el 56 por ciento actual.

Las opiniones de Wakefield continúan siendo compartidas en línea y, como resultado, un porcentaje cada vez mayor de padres, preocupados por el posible daño a sus hijos, se han negado a darles la vacuna MMR (sarampión, paperas, rubéola). Los legisladores estatales han respondido a los temores de los padres, y mientras que los 50 estados requieren que los niños sean vacunados para asistir a la escuela, casi todos otorgan exenciones para las objeciones religiosas, y 17 también otorgan exenciones por razones filosóficas.

Las vacunas no protegen solo a la persona que las recibe. También protegen a los miembros de la población que, por razones médicas, como inmunidad deteriorada, no pueden ser inoculados. Las matemáticas de la llamada inmunidad de rebaño muestran que si el 96 por ciento de la población está vacunada contra el sarampión, entonces es esencialmente erradicada, porque el virus no tiene lugar para propagarse. Es por eso que la enfermedad fue declarada eliminada en los Estados Unidos en 2000.

Pero muy recientemente, el porcentaje de niños no vacunados ha llegado al punto en que se están produciendo nuevos brotes. A partir del 4 de abril, los Centros para el Control de Enfermedades contabilizaron 465 casos individuales de sarampión en brotes en Arizona, California, Colorado, Connecticut, Florida, Georgia, Illinois, Indiana, Kentucky, Massachusetts, Michigan, Missouri, Nevada, New Hampshire, New Jersey, Estado de Nueva York, Oregón, Texas y Washington: más alto que el total de 372 para todo el año pasado, y se acerca al récord de 667 en 2014.


* Casos al 29 de diciembre de 2018. El conteo de casos es preliminar y está sujeto a cambios. ** Casos al 4 de abril de 2019. El conteo de casos es preliminar y está sujeto a cambios. (Gráfico: CDC)

En respuesta, los funcionarios de salud en el condado de Rockland, Nueva York, prohibieron que los menores no vacunados de los lugares públicos duraran el brote. Y en la ciudad de Nueva York, el alcalde Bill de Blasio declaró una emergencia de salud en la sección de Williamsburg de Brooklyn y exigió que todos los residentes del área fueran vacunados o enfrentaran multas de hasta $ 1,000.

Mientras el CDC ha estado contando casos, Menczer y Hui han estado midiendo el flujo de información. Desde septiembre de 2016 hasta septiembre de 2018, analizaron una muestra aleatoria de más de 40,000 tweets que contenían los hashtags pro y anti-vax más utilizados. Luego clasificaron las casi 30,000 cuentas que generaron esos tweets como pro-vax o anti-vax y crearon mapas virtuales, con cuentas de pro-vax representadas por puntos azules y las de anti-vax por verdes. El resultado fue un conjunto de puntos muy apretados, como un foto negativo del distintivo sarpullido rojo del sarampión.

Las manchas cambiaron notablemente durante los dos años, cambiando de casi todo verde a mayormente azul. Y mientras que los colores habían sido manchas distintas y separadas en los días anteriores, lo que significa que las cuentas anti-vax solo retuitearon mensajes anti-vax: durante el último año "observamos algunos nodos azules conectados a los grupos verdes", escribieron los autores del estudio. "Lo que sugiere que la información pro-vax está comenzando a penetrar en la comunidad anti-vax".

Aún está por verse si este cambio en el flujo de información resulta en un cambio hacia arriba en las tasas de vacunación.

Los comentaristas políticos lamentan que la información de hoy en día se difunda en silos, lo que refuerza el debate político ya que la gente escucha solo lo que ya cree. Este único estudio inicial sugiere la posibilidad de una polinización cruzada entre silos, una inoculación metafórica de la información.

"Si [este] hallazgo preliminar es confirmado por otra investigación", escribieron los autores, "podría proporcionar evidencia de que los esfuerzos combinados de las plataformas de medios sociales, organizaciones de salud, campañas de política pública y defensa popular eventualmente pueden superar la ciencia basura anti-vax. ”

sábado, 27 de abril de 2019

Nueva ley de potencia explica mejor diversos eventos

Los investigadores encuentran una ley de potencia mejor que predice terremotos, vasos sanguíneos, cuentas bancarias

Phys.org



Debido a que las venas se ramifican en divisiones aproximadamente proporcionales, también se consideran un fractal. Crédito: Imagen de cortesía / Mitchell Newberry.

Los terremotos gigantes y la riqueza extrema pueden parecer no tener mucho en común, pero la frecuencia con la que el "Big One" llegará a San Francisco y la frecuencia con la que alguien ganará tanto dinero como Bill Gates puede predecirse con una medición estadística llamada exponente de la ley de potencia.

Durante el último siglo, los investigadores han utilizado lo que se llama una ley de potencia para predecir ciertos tipos de eventos, incluida la frecuencia con que se producen los terremotos en ciertos puntos de la escala de Richter. Pero un investigador de la Universidad de Michigan notó que esta ley de potencia no se ajusta a todas las circunstancias.

Mitchell Newberry, un compañero y profesor asistente de Michigan en el Centro para el Estudio de Sistemas Complejos de la UM, sugiere un ajuste a la ley de energía que explicaría los eventos que aumentan o disminuyen en proporciones fijas, por ejemplo, cuando un gerente hace aproximadamente el 20 por ciento. más que su empleado.

Estos ajustes afectan la forma de estimar las probabilidades de terremotos, la cantidad de capilares en el cuerpo humano y el tamaño de las megaciudades y las llamaradas solares. Y pueden revisar cuándo esperar el próximo Big One.

Cuando los científicos trazan algo como la probabilidad de riqueza extrema en un gráfico, la curva es una línea suave. Eso es porque las personas pueden tener cualquier cantidad de dinero en sus cuentas bancarias.

"La suavidad de esta curva significa que cualquier valor es posible", dijo Newberry. "Podría ganar un centavo más fácilmente que un centavo menos".

Ese no es exactamente el caso de eventos como los terremotos, debido a la forma en que se registran en la escala de Richter. La magnitud de Richter de los terremotos aumenta o disminuye en incrementos de 0.1, exponencialmente. Un terremoto de magnitud 3.1 es 1.26 veces más poderoso que los terremotos de magnitud 3.0, por lo que no todos los valores son posibles en la escala. La escala de Richter es un ejemplo de un concepto llamado "auto-similitud" o cuando un evento o cosa está hecho de copias proporcionalmente más pequeñas de sí mismo.

Puede ver la auto-similitud en la naturaleza como la ramificación de las venas en una hoja, o en la geometría como triángulos encajados dentro de triángulos más grandes de la misma forma, llamado triángulo de Sierpinski. Entonces, para explicar los eventos que cambian en proporciones exactas, Newberry y su coautor, Van Savage, de la Universidad de California en Los Ángeles, crearon la ley de potencia discreta.


La curva de Koch se repite infinitamente, mostrando auto-semejanza. Crédito: usuario de Wikimedia Leofun01

En estas ecuaciones de ley de potencia, el exponente en la ecuación es la variable que los científicos están resolviendo. En los terremotos, ese exponente, llamado el valor de Gutenberg-Richter b, se midió por primera vez en 1944 e indica con qué frecuencia es probable que ocurra un terremoto de cierta intensidad. La ley de energía discreta de Newberry produjo una corrección del 11.7% sobre las estimaciones basadas en la ley de energía continua, lo que hace que el exponente se acerque más a la frecuencia histórica de los grandes terremotos. Incluso una corrección del 5% se traduce en una diferencia de más de dos veces en cuándo esperar el próximo terremoto gigante.

"Durante 100 años, las personas han estado hablando de aproximadamente un tipo de distribución de la ley de energía. Es la distribución de la ley de poder de la riqueza y los terremotos", dijo Newberry. "Solo ahora, estamos documentando estas escalas discretas. En lugar de una curva suave, nuestra ley de energía parece una escalera infinita".

Newberry notó la falla en la ley de poder continuo en su estudio de la física del sistema circulatorio. El sistema circulatorio comienza con un gran vaso sanguíneo: la aorta. A medida que la aorta se divide en diferentes ramas (las arterias carótida y subclavia), cada nueva rama disminuye de diámetro en aproximadamente dos tercios.

Estaba utilizando la ley de energía continua para estimar los tamaños de los vasos sanguíneos a medida que continúan ramificándose. Pero la ley de poder producía tamaños de vasos sanguíneos que no podían ocurrir. Indicó que un vaso sanguíneo podría ser solo un poco más pequeño que el tronco desde el cual se ramificó en lugar de alrededor de dos tercios del tamaño de ese tronco.

"Al utilizar la ley de energía continua, solo recibíamos respuestas que sabíamos que estaban mal", dijo Newberry. "Al depurar lo que falló, descubrimos que esta distribución supone que cada tamaño de vaso sanguíneo es igualmente plausible. Sabemos que para la vasculatura real, ese no es el caso".

Así que Newberry hizo ingeniería inversa de la ley de potencia. Al observar los vasos sanguíneos, Newberry podría deducir el exponente de la ley de potencia a partir de dos constantes: cuántas ramas en cada unión (dos) y cuánto más pequeña es cada rama en relación con el tronco. Al medir el tamaño de los vasos en cada división, Newberry pudo resolver la distribución de los vasos sanguíneos.

"Hay un punto intermedio entre una ley de energía continua y la ley de energía discreta", dijo Newberry. "En la ley de poder discreta, todo se presenta en proporciones perfectamente rígidas desde la escala más alta hasta el infinitamente pequeño. En la ley de poder continuo, todo se distribuye de manera perfectamente aleatoria. Casi todo lo que se asemeja en realidad es una mezcla de estos dos . "

jueves, 18 de abril de 2019

Métricas para comparar grafos


Métricas para la comparación de grafos: una guía para profesionales

Peter Wills, Francois G. Meyer
Arxiv




La comparación de la estructura del grafo es una tarea ubicua en el análisis de datos y el aprendizaje automático, con diversas aplicaciones en campos como neurociencia, seguridad cibernética, análisis de redes sociales y bioinformática, entre otros. El descubrimiento y la comparación de estructuras como las comunidades modulares, los clubes ricos, los centros y los árboles en los datos de estos campos permite comprender los mecanismos generativos y las propiedades funcionales del grafo.



A menudo, dos grafos se comparan mediante una medida de distancia por pares, con una pequeña distancia que indica similitud estructural y viceversa. Las opciones comunes incluyen distancias espectrales (también conocidas como distancias λ) y distancias basadas en afinidades de nodo. Sin embargo, aún no se ha realizado ningún estudio comparativo de la eficacia de estas medidas de distancia para discernir entre topologías de grafos comunes y diferentes escalas estructurales.
En este trabajo, comparamos las métricas de los grafos y las medidas de distancia de uso común, y demostramos su capacidad para discernir entre las características topológicas comunes que se encuentran tanto en los modelos de grafos aleatorios como en los conjuntos de datos empíricos. Presentamos una imagen a escala múltiple de la estructura del grafo, en la que se considera el efecto de la estructura global y local sobre las medidas de distancia. Hacemos recomendaciones sobre la aplicabilidad de diferentes medidas de distancia al problema de datos de grafos empíricos basados ​​en esta vista de escala múltiple. Finalmente, presentamos la biblioteca NetComp de Python que implementa las distancias de los grafos utilizados en este trabajo.




miércoles, 10 de abril de 2019

3° Escola Luso-Brasileira de Análise de Redes Sociais





Escola Luso-Brasileira de Análise de Redes Sociais



Estão abertas as inscrições para a edição Portuguesa da 3ª Escola Luso-Brasileira de Análise de Redes Sociais, com organização do SOCIUS/CSG, Centro de Investigação em Sociologia Económica e das Organizações do ISEG - Lisbon School of Economics & Management da Universidade de Lisboa, em parceria com FIOCRUZ - Fundação Osvaldo Cruz, Faculdade de Letras da Universidade de Coimbra e ISPA - Instituto Universitário de Ciências Psicológicas, Sociais e da Vida.


A 3ª Escola Luso-Brasileira irá decorrer no ISEG, entre 15 e 20 de Julho de 2019.


Seguem abaixo as datas e informações gerais sobre cada módulo.

Módulo 1 - INTRODUÇÃO À ANÁLISE DE REDES SOCIAIS
Datas: 15 e 16 julho | 9:30-13:00 14:30-17:00
Objetivo: familiarizar os participantes com os principais conceitos, métodos e medidas da análise de redes sociais.
Software: UCINET VI e Netdraw
Docente: Marta Varanda (ISEG-ULisboa)
Valor: 165€ | Early bird (até 30 de abril): 150 €


Módulo 2 - ANÁLISE DE REDES COM LINGUAGEM DE PROGRAMAÇÃO R
Data: 17 julho | 9:30-13:00 14:30-17:00
Objetivo: Realizar pesquisas em bases de dados científicas; Avaliar e conhecer diferentes ferramentas e pacotes de software existentes relacionados a Linguagem R para o auxílio no trabalho com redes; Realizar atividades práticas de levantamento, tratamento e análise de dados científicos com uso da metodologia de análise de redes; Estudar o ambiente de programação R, RStudio e Shiny para o uso de forma adequada dos pacotes de análise de redes; Descrever o processo de análise de redes e dados, desde o levantamento até a análise e apresentação dos resultados.
Software: Rstudio (R + IDE) e pacotes igraph, sna e Bibliometrix
Docente: Ricardo Barros Sampaio (Fiocruz-Brasília)
Valor: 85€ | Early bird (até 30 de abril): 75€

MÓDULO 3 - MODELOS ESTATÍSTICOS P* PARA ANÁLISE DE REDES SOCIAIS
Data: 18 julho | 9:30-13:00 14:30-17:00
Objectivo: Introdução aos modelos p* (“exponential random graph models”) e ao software PNet. Especificação de modelos que permitem testar hipóteses explicativas acerca dos processos sociais na origem de uma determinada rede social.
Software: PNet
Docente João Daniel (ISPA)
Valor: 85€ | Early bird (até 30 de abril): 75€

MÓDULO 4 - ANÁLISE LONGITUDINAL DE REDES SOCIAIS COM RSIENA
Data: 19 julho | 9:30-13:00 14:30-17:00
Objetivo: Introdução a um tipo de modelos de análise de dados longitudinais ("stochastic actor-based models for network dynamics") e ao software RSiena. Especificação de modelos que permitem testar hipóteses explicativas acerca: (1) dos processos sociais responsáveis pela transformação de uma rede social ao longo do tempo, e (2) da modificação de atributos/comportamentos dos atores envolvidos numa rede social.
Software: RSiena
Docente: João Daniel (ISPA)
Valor: 85€ | Early bird (até 30 de abril): 75€

MÓDULO 5 - ARS APLICADO AOS MEDIA SOCIAIS
Data: 20 julho | 9:30-13:00 14:30-17:00
Objetivo: análise de dinâmicas relacionais como redes sociais online, para projetar e desenvolver análises sistemáticas de redes em media digitais.
Software: Gephi
Docente: Inês Amaral (Universidade de Coimbra)
Valor: 85€ | Early bird (até 30 de abril): 75€



TUTORIAS (discussão de projetos individuais)
Datas: 17-20 julho | Horário: a combinar com docentes
Objetivo: apoiar a elaboração ou adaptação de projetos para a utilização da perspetiva da Análise de Redes Sociais
Docentes: todos


DATAS IMPORTANTES
Inscrição Early bird: até 30 abril 2019
Inscrição: 1 Maio a 5 Julho 2019

INSCRIÇÃO ONLINE: https://formulariosocius.typeform.com/to/E7PxKd

Informação disponível em: https://socius.rc.iseg.ulisboa.pt/home.html



Para mais informações contacte-nos: escolalusobrars@socius.iseg.ulisboa.pt

miércoles, 27 de marzo de 2019

Cómo conquistar al/a la inalcanzable: Consejos desde el ARS

Cómo salir con alguien fuera de tu alcance

La minería de datos sugiere por qué las parejas tienden a coincidir en la deseabilidad y cómo mejorar sus probabilidades cuando persiguen a alguien más arriba en la escala.
por Tecnología Emergente del arXiv




Una observación curiosa sobre las asociaciones humanas es que las parejas tienden a coincidir en términos de edad, educación, actitudes e incluso atractivo físico.

Los sociólogos y los biólogos evolutivos han discutido durante mucho tiempo acerca de cómo sucede esto, con las teorías que caen en dos campos. En un campo está la hipótesis de juego. Esta es la idea de que las personas de alguna manera saben cuán deseables son y eligen un compañero al mismo nivel.

En el otro campo está la hipótesis de la competencia. Esto supone que todos, independientemente de la deseabilidad, buscan el socio más deseable. El resultado es que las personas más deseables se emparejan, seguidas de las siguientes más deseables, y así sucesivamente.

Estas dos hipótesis producen resultados similares de tipos de comportamiento completamente diferentes. La única manera de separarlos es estudiar en detalle el comportamiento de apareamiento. Eso siempre ha sido demasiado difícil de hacer en la escala necesaria.

Hoy, eso cambia, gracias al trabajo de Elizabeth Bruch y Mark Newman en la Universidad de Michigan, que han extraído los datos de un popular sitio de citas en línea para romper el punto muerto. Su avance es una forma nueva y objetiva de medir la deseabilidad y clasificar a las personas en consecuencia.

El trabajo proporciona un nuevo prisma poderoso a través del cual se puede ver el comportamiento de de las citas exitosas. Los investigadores dicen que muestra que la competencia por parejas crea una jerarquía pronunciada en la deseabilidad y que tanto hombres como mujeres buscan consecuentemente parejas más deseables que ellas mismas. También apunta a una estrategia simple que podría mejorar las posibilidades de éxito para la mayoría de las personas.




Primero, el método objetivo de Bruch y Newman para medir la deseabilidad: dicen que las personas más populares son claramente las que reciben el mayor interés en los sitios de citas, según lo cuantificado por la cantidad de mensajes que reciben.

Según esta medida, la persona más popular en el estudio es una mujer de 30 años de Nueva York, que recibió 1,504 mensajes durante el mes en que Bruch y Newman realizaron su estudio. "[Eso es] equivalente a un mensaje cada 30 minutos, día y noche, durante todo el mes", dicen.

Pero la deseabilidad no se trata solo de la cantidad de mensajes recibidos, sino de quiénes son esos mensajes. "Si te contactan personas que son deseables, entonces presumiblemente eres más deseable", afirman los investigadores.

Si este tipo de enfoque le suena familiar, es porque se basa en el famoso algoritmo PageRank de Google. Esto se ha utilizado para clasificar todo, desde páginas web hasta ganadores del Premio Nobel.

En este escenario, el algoritmo PageRank proporciona un enfoque objetivo, basado en la red, para clasificar a hombres y mujeres por su deseabilidad. Y una vez hecho esto, resulta sencillo probar las hipótesis de concordancia y competencia al monitorear si las personas buscan parejas con un nivel similar de deseabilidad o no.

Los resultados hacen para la lectura interesante. "Encontramos que tanto los hombres como las mujeres buscan parejas que en promedio son aproximadamente un 25% más deseables que ellos mismos", dice Bruch y Newman. “Mensajería de parejas potenciales que son más deseables que uno mismo no es solo un acto ocasional de ilusiones; Es la norma ".

Este enfoque no está sin sus trampas. La probabilidad de recibir una respuesta disminuye dramáticamente a medida que aumenta la brecha de deseabilidad. Es fácil imaginar que las personas que contactan a parejas más deseables harían esto más a menudo para aumentar sus posibilidades de obtener una respuesta.

"De hecho, hacen lo contrario: la cantidad de contactos iniciales que un individuo realiza se reduce rápidamente a medida que aumenta la brecha y son las personas que se acercan a los socios menos deseados los que envían la mayor cantidad de mensajes", dicen Bruch y Newman.

Así que las personas obviamente adoptan diferentes estrategias para acercarse a parejas potenciales con alta y baja deseabilidad. De hecho, los investigadores dicen que las personas dedican más tiempo a elaborar mensajes más largos y personalizados para socios más deseables: un enfoque de calidad sobre la cantidad.

El equipo también estudió el contenido de estos mensajes utilizando el análisis de sentimientos. Curiosamente, encontraron que las mujeres tienden a usar más palabras positivas en los mensajes a los hombres deseables, mientras que los hombres usan menos palabras positivas.

Ese puede ser el resultado del aprendizaje por experiencia. "Los hombres experimentan tasas de respuesta ligeramente más bajas cuando escriben mensajes redactados de manera más positiva", dicen Bruch y Newman.

Si estas diferentes estrategias funcionan está lejos de ser claro. "La variación en la recompensa de las diferentes estrategias es bastante pequeña, lo que sugiere que, en igualdad de condiciones, el esfuerzo puesto por escribirlo más largo o más mensajes positivos puede desperdiciarse", dicen.

Es un trabajo interesante, pero tiene menos relevancia para las citas fuera de línea. Las citas en línea ofrecen un gran volumen de parejas potenciales con un umbral bajo para enviar un mensaje, que es bastante diferente del mundo sin conexión.

Sin embargo, los resultados proporcionan algunas ideas importantes. Con respecto a las hipótesis de coincidencia y competencia, la evidencia sugiere que las personas usan ambas. "Son conscientes de su propia posición en la jerarquía y ajustan su comportamiento en consecuencia, mientras que al mismo tiempo compiten modestamente por compañeros más deseables", dicen Bruch y Newman.

"Nuestros resultados son consistentes con el concepto popular de "ligas" de citas, como se refleja en la idea de que alguien puede estar "fuera de tu liga" o "fuera de tu alcance".

Los hallazgos también sugieren una estrategia obvia para atraer a un compañero que está "fuera de su liga". Bruch y Newman dicen que las posibilidades de recibir una respuesta de un socio altamente deseable son bajas, pero no son nulas.

Por lo tanto, la mejor estrategia debería ser enviar más mensajes a socios altamente deseables y estar preparados para esperar más tiempo para recibir una respuesta. "Mensajear a 2 o 3 veces más parejas potenciales para obtener una cita parece una inversión bastante modesta", dicen los investigadores.

Si alguien que busca un compañero tiene tiempo libre, inténtelo y díganos cómo le va.


Ref: arxiv.org/abs/1808.04840 : Aspirational Pursuit Of Mates In Online Dating Markets


miércoles, 13 de marzo de 2019

La ley de Zipf que revela frecuencias de palabras libres de escala

La minería de datos revela un patrón fundamental del pensamiento humano.

Los patrones de frecuencia de palabras muestran que los humanos procesan palabras comunes y poco comunes de diferentes maneras, con importantes consecuencias para el procesamiento del lenguaje natural.
por Emerging Technology from the arXiv



En 1935, el lingüista estadounidense George Zipf hizo un descubrimiento notable. Zipf sentía curiosidad por la relación entre las palabras comunes y las menos comunes. Así que contó la frecuencia con que aparecen las palabras en el lenguaje común y luego las ordenó de acuerdo con su frecuencia.

Esto reveló una regularidad notable. Zipf descubrió que la frecuencia de una palabra es inversamente proporcional a su lugar en las clasificaciones. Por lo tanto, una palabra que ocupa el segundo lugar en el ranking aparece la mitad de las veces que la palabra más común. La palabra del tercer puesto aparece un tercio con la frecuencia y así sucesivamente.

En inglés, la palabra más popular es the, que constituye aproximadamente el 7 por ciento de todas las palabras, seguida por y, que ocurre el 3.5 por ciento del tiempo, y así sucesivamente. De hecho, alrededor de 135 palabras representan la mitad de todas las apariciones de palabras. Así que algunas palabras aparecen a menudo, mientras que casi nunca aparecen.



¿Pero por qué? Una posibilidad intrigante es que el cerebro procesa las palabras comunes de manera diferente y que el estudio de la distribución de Zipf debería revelar información importante sobre este proceso cerebral.

Sin embargo hay un problema. No todos los lingüistas están de acuerdo en que la distribución estadística de la frecuencia de palabras es el resultado de procesos cognitivos. En cambio, algunos dicen que la distribución es el resultado de errores estadísticos asociados con palabras de baja frecuencia, que pueden producir distribuciones similares.

Lo que se necesita, por supuesto, es un estudio más amplio en una amplia gama de idiomas. Tal estudio a gran escala sería más poderoso estadísticamente y sería tan capaz de separar estas posibilidades.

Hoy, recibimos un estudio de este tipo gracias al trabajo de Shuiyuan Yu y sus colegas de la Universidad de Comunicación de China en Beijing. Estos muchachos han encontrado la Ley de Zipf en 50 idiomas tomados de una amplia gama de clases lingüísticas, entre ellas indoeuropeas, urálicas, altaicas, caucásicas, chino-tibetanas, dravidianas, afroasiáticas, etc.

Yu y sus colegas dicen que las frecuencias de palabras en estos idiomas comparten una estructura común que difiere de la que producirían los errores estadísticos. Lo que es más, dicen que esta estructura sugiere que el cerebro procesa las palabras comunes de manera diferente a las poco comunes, una idea que tiene consecuencias importantes para el procesamiento del lenguaje natural y la generación automática de texto.

El método de Yu y sus compañeros es sencillo. Comienzan con dos grandes colecciones de texto llamadas British National Corpus y Leipzig Corpus. Estas incluyen muestras de 50 idiomas diferentes, cada muestra con al menos 30,000 oraciones y hasta 43 millones de palabras.

Los investigadores encontraron que las frecuencias de palabras en todos los idiomas siguen una Ley de Zipf modificada en la que la distribución se puede dividir en tres segmentos. "Los resultados estadísticos muestran que las leyes de Zipf en 50 idiomas comparten un patrón estructural de tres segmentos, y cada segmento demuestra propiedades lingüísticas distintivas", dicen Yu.

Esta estructura es interesante. Yu y compañía han intentado simularlo utilizando una serie de modelos para crear palabras. Un modelo es el modelo de máquina de escribir mono, que genera letras aleatorias que forman palabras cada vez que se produce un espacio.

Este proceso genera una distribución de ley de poder como la Ley de Zipf. Sin embargo, no puede generar la estructura de tres segmentos que Yu y compañía han encontrado. Esta estructura tampoco puede ser generada por errores asociados con palabras de baja frecuencia.

Sin embargo, Yu y sus colegas pueden reproducir esta estructura utilizando un modelo de la forma en que funciona el cerebro, llamado teoría del proceso dual. Esta es la idea de que el cerebro funciona de dos maneras diferentes.

El primero es un pensamiento rápido e intuitivo que requiere poco o ningún razonamiento. Se piensa que este tipo de pensamiento ha evolucionado para permitir que los humanos reaccionen rápidamente en situaciones amenazantes. En general, proporciona buenas soluciones a problemas difíciles, como el reconocimiento de patrones, pero puede ser fácilmente engañado por situaciones no intuitivas.

Sin embargo, los humanos son capaces de un pensamiento mucho más racional. Este segundo tipo de pensamiento es más lento, más calculador y deliberado. Es este tipo de pensamiento el que nos permite resolver problemas complejos, como rompecabezas matemáticos, etc.

La teoría del proceso dual sugiere que las palabras comunes como el, y, si y así sucesivamente, se procesan mediante un pensamiento rápido e intuitivo y, por lo tanto, se usan con más frecuencia. Estas palabras forman una especie de columna vertebral para las oraciones.

Sin embargo, las palabras y frases menos comunes, como la hipótesis y la Ley de Zipf, requieren un pensamiento mucho más cuidadoso. Y debido a esto ocurren con menos frecuencia.

De hecho, cuando Yu y co simulan este proceso dual, conduce a la misma estructura de tres segmentos en la distribución de frecuencia de palabras que midieron en 50 idiomas diferentes.

El primer segmento refleja la distribución de palabras comunes, el último segmento refleja la distribución de palabras no comunes y el segmento medio es el resultado del cruce de estos dos regímenes. "Estos resultados muestran que la Ley de Zipf en los idiomas está motivada por mecanismos cognitivos como el procesamiento dual que gobierna las conductas verbales humanas", dicen Yu y compañía.

Eso es un trabajo interesante. La idea de que el cerebro humano procesa la información de dos maneras diferentes ha adquirido un impulso considerable en los últimos años, entre otras cosas gracias al libro El pensamiento, rápido y lento del psicólogo ganador del Premio Nobel Daniel Kahneman, quien ha estudiado esta idea en detalle.

Un problema conocido que se usa para provocar un pensamiento rápido y lento es el siguiente:

“Un bate y una pelota cuestan $ 1.10 en total. El bate cuesta $ 1.00 más que la pelota. ¿Cuánto cuesta la pelota?

La respuesta, por supuesto, es de 5 centavos. Pero casi todos tienen la inclinación inicial a pensar 10 centavos. Eso es porque 10 centavos se sienten bien. Es el orden de magnitud correcto y lo sugiere el marco del problema. Esa respuesta proviene del lado rápido e intuitivo de tu cerebro.

Pero esta mal La respuesta correcta requiere la parte más lenta y más calculadora de tu cerebro.

Yu y compañía dicen que los mismos dos procesos están involucrados en la generación de oraciones. La parte de pensamiento rápido de su cerebro crea la estructura básica de la oración (las palabras aquí marcadas en negrita). Las otras palabras requieren la parte más lenta y más calculadora de tu cerebro.

Es este proceso dual el que conduce a la Ley Zipf de tres segmentos.

Eso debería tener consecuencias interesantes para los informáticos que trabajan en el procesamiento del lenguaje natural. Este campo se ha beneficiado de enormes avances en los últimos años. Estos provienen de algoritmos de aprendizaje automático, pero también de grandes bases de datos de texto recopiladas por compañías como Google.

Pero generar lenguaje natural sigue siendo difícil. No tienes que chatear con Siri, Cortana o el Asistente de Google por mucho tiempo para alcanzar sus límites de conversación.

Por lo tanto, una mejor comprensión de cómo los humanos generan oraciones podría ayudar significativamente. Zipf seguramente habría quedado fascinado.