Mostrando entradas con la etiqueta bullying. Mostrar todas las entradas
Mostrando entradas con la etiqueta bullying. Mostrar todas las entradas

martes, 26 de mayo de 2020

Modelo de agresión entre usuarios en línea

Sobre un modelo de difusión de agresión y minimización en redes sociales en línea


Marinos Poiitis, Athena Vakali  y Nicolas Kourtellis
ARXiv



La agresión en las redes sociales en línea se ha estudiado hasta ahora, principalmente con varios métodos de aprendizaje automático que detectan tal comportamiento en un contexto estático. Sin embargo, la forma en que la agresión se difunde en la red ha recibido poca atención ya que incorpora desafíos de modelado. De hecho, modelar cómo se propaga la agresión de un usuario a otro es un tema de investigación importante, ya que puede permitir un monitoreo efectivo de la agresión, especialmente en plataformas de medios que ahora aplican técnicas de bloqueo de usuario simplistas. En este documento, nos centramos en cómo modelar propagación de la agresión en Twitter, ya que es una plataforma de microblogging popular en la que la agresión tuvo varios comienzos. Proponemos varios métodos de construcción en dos modelos de difusión conocidos, Cascada Independiente (IC) y Umbral Lineal (LT), para estudiar la evolución de la agresión en la red social. Investigamos experimentalmente cómo el método welleach puede modelar la propagación de la agresión utilizando datos reales de Twitter, mientras que varían los parámetros, como la selección de usuarios para la siembra de modelos, sopesar los bordes de los usuarios, el tiempo de activación de los usuarios, etc. Según el enfoque propuesto, las estrategias de mejor desempeño son las únicas para seleccionar usuarios de semillas con un enfoque basado en grados, sopesan los valores de uso basados ​​en la superposición de sus círculos sociales y activan a los usuarios considerando sus niveles de agresión. Además, empleamos los mejores modelos de rendimiento para predecir qué usuarios reales comunes podrían volverse agresivos (y viceversa) en el futuro, y lograr hasta AU C = 0.89 en esta tarea de predicción. Finalmente, investigamos métodos para minimizar la agresión, lanzando cascadas competitivas para "informar" y "curar" a los agresores. Mostramos que los modelos IC y LT pueden usarse en la minimización de la agresión, proporcionando así alternativas menos intrusivas a las técnicas de bloqueo actualmente empleadas por las populares plataformas de redes sociales en línea.