martes, 13 de marzo de 2018

Kadushin: La homofilia exacerba la desigualdad

Redes sociales y desigualdad

Cómo Facebook contribuye a la desigualdad económica (y de otro tipo).
Charles Kadushin Ph.D.
Psychology Today





Los estadounidenses están descubriendo que a pesar de su ideología de oportunidades para todos, nuestra sociedad se está volviendo cada vez más desigual. "Somos el 99%", el eslogan del movimiento Occupy Wall Street se basa en esta realización. En una reciente charla sobre desigualdad, Alan Krueger, presidente del Consejo de Asesores Económicos de la Casa Blanca, observó que si bien el ingreso medio en los Estados Unidos ha disminuido desde 1999, el ingreso del 1% superior ha aumentado en 13.5 puntos porcentuales desde 1979. Además, un informe reciente de un equipo de académicos internacionales muestra que los estadounidenses disfrutan de una movilidad económica y ocupacional menor que los canadienses y la mayoría de los europeos occidentales. De acuerdo con una encuesta de Pew Charitable Trusts, el público en general es más probable hoy en día que hace dos años para creer que hay conflictos entre los ricos y los pobres en Estados Unidos.

Hay muchas razones sistémicas para esta creciente desigualdad, pero es posible que se haya pasado por alto un factor. Las redes sociales, que dicen hacer conexiones y unir a las personas, paradójicamente exacerban las divisiones y desigualdades sociales. Las redes sociales son inherentemente injustas y excluyentes. Operan según el principio de la homofilia, una palabra derivada de griego que significa "amor a lo mismo" o, más coloquialmente, "aves de un mismo plumaje vuelan juntas". Tres cosas caracterizan las redes de amistad: las mismas clases de personas se unen, se influyen mutuamente para pensar igual y, una vez que están en el mismo lugar, esa misma ubicación les influye para parecerse más. Si las personas tienen un menor prestigio, un estatus socioeconómico o son objeto de discriminación, entonces sus redes estarán compuestas por personas con menor prestigio, un menor nivel socioeconómico y que, por lo demás, están en desventaja.

Las redes sociales pueden alentar a las personas a adoptar prácticas que les ayuden a salir adelante, incluso si todas comienzan desde el mismo lugar. Los estudiantes cuyos amigos toman clases de Colocación Avanzada son más propensos a tomar clases AP que les ayuden a ingresar en buenas universidades. Por el contrario, las redes sociales pueden desalentar a las personas de participar en prácticas como fumar o comer alimentos poco saludables que los perjudican físicamente o delincuentes y comportamientos criminales que les perjudican socialmente. Pero las redes que ayudan a obtener una ventaja se encuentran con mayor frecuencia entre las personas con un estatus socioeconómico más alto, para empezar. "Al que tiene se le dará" es una perogrullada de la red social: los efectos de las redes sociales se amplifican para aquellos que ya son socialmente favorecidos.

La amistad se puede considerar como "capital social" que se distribuye de manera desigual. Estudio tras estudio ha afirmado que si tus amigos tienen recursos financieros o educativos o tienen conexiones con personas que podrían hablar en tu favor, entonces es mucho más probable que subas a la cima. Hace mucho que sabemos que la riqueza y las conexiones se heredan; Olvidamos que las redes de amistad, ya sea que se produzcan naturalmente como resultado de la propia posición, o se cultiven conscientemente como parte de una estrategia de "creación de redes", aumentan las ventajas de la herencia y aumentan la insularidad del 1 por ciento. Lo contrario es verdad. Cuando los amigos de uno carecen de recursos, es más difícil unirse a la clase media. No es una "cultura de la pobreza" el problema, es la red social de la pobreza.

Las redes sociales, un concepto agregado al Oxford English Dictionary solo en 1993, han sido ampliamente amplificadas por sitios basados ​​en internet como Facebook, fundado en 2004 pero ahora usado por más de 150 millones de estadounidenses. Según Facebook, el usuario promedio tiene 130 "amigos". La investigación de redes sociales sugiere que los amigos reflejen su propia clase, estado e intereses. Incluso el acceso a Internet se incrementa al tener amigos de mayores ingresos y educación. Hacer amigos y mantenerse al día con ellos es una actividad placentera, incluso una obsesiva entre algunos jóvenes. Sin embargo, una consecuencia imprevista del trabajo en red es un aumento de la desigualdad social y económica. El aumento de las redes sociales no es el único factor que contribuye al aumento de la desigualdad, pero en el círculo cálido de la amistad individual, otros pueden quedar afuera en el frío.

domingo, 11 de marzo de 2018

Una historia visual del conocimiento humano, con redes

Galería: magníficas redes que nos ayudan a entender el mundo

Helen Walters | Ideas TED




Como señala el diseñador Manuel Lima en su TED Talk, Una historia visual del conocimiento humano, la red se ha convertido en una forma poderosa de visualizar gran parte de lo que está sucediendo en el mundo que nos rodea. "Las redes realmente encarnan nociones de descentralización, de interconexión, de interdependencia", dice Lima. "Esta forma de pensar es fundamental para nosotros para resolver muchos de los problemas complejos a los que nos enfrentamos hoy en día, desde decodificar el cerebro humano hasta comprender el vasto universo que existe". Aquí, Lima comparte algunos de sus gráficos de red favoritos.


Las fortalezas de las naciones

Esta imagen muestra las conexiones entre las disciplinas científicas como la astrofísica, las matemáticas y la bioquímica. Con base en 800,000 referencias dentro de 760,000 artículos científicos, Lima dice que se siente atraído por el hecho de que el gráfico muestra claramente las conexiones y adyacencias de ciertos dominios científicos. Creado por W. Bradford Paley, Dick Klavans y Kevin Boyack; imagen cortesía de W. Bradford Paley.




Visualizando la Biblia

Este mapa de 2007 de Chris Harrison muestra 63,779 referencias cruzadas encontradas en la Biblia. El gráfico de barras en la parte inferior representa capítulos (cuanto más larga sea la barra, más versículos en el capítulo). Cada referencia cruzada se representa como un solo arco con diferentes colores utilizados para reflejar la distancia entre las referencias. Imagen cortesía de Chris Harrison.




Jardín de flores

Esta visualización de Greg Judelman y Maria Lantin muestra la discusión en línea en un evento en vivo. "La flor es representativa de participantes individuales, y florece a medida que se inician nuevas conversaciones, a la vez que se crean vínculos verdes entre quienes interactúan", dice Lima. "El chat en tiempo real es un tema difícil de representar, y este es un caso interesante para el uso de una metáfora visual innovadora". Imagen cortesía de Greg Judelman.




RISD.tv

Esta imagen de Daniel Peltz, Dennis Hlynsky y Chuan Khoo representa un marco colaborativo para la producción de videos en la Escuela de Diseño de Rhode Island en los Estados Unidos. "Tenga en cuenta que los enlaces no son líneas rectas", dice Lima. "Intentaban crear un tratamiento orgánico y fluido, evocador quizás de la cadena invisible de inspiración entre los videos asociados". Imagen cortesía de Daniel Peltz.




Mapa de la ciencia

Otro gráfico que muestra las conexiones entre las disciplinas científicas, este se basó en la forma en que las personas leen los artículos científicos en línea; sus fabricantes analizaron casi mil millones de interacciones del usuario para hacer el mapa de conexiones. "En el 1300 había árboles de la ciencia; este usa la metáfora de la red para crear enlaces entre dominios entrelazados ", dice Lima. Imagen cortesía de J. Bollen, H. Van de Sompel, A. Hagberg, L. Bettencourt, R. Chute, et al.




yFiles

Aunque esto parece una obra de arte abstracto, en realidad están sucediendo muchas cosas aquí. "Es una biblioteca Java de algoritmos de diseño para gráficos, diagramas y diagramas", dice Lima. "Durante los últimos cinco años, han surgido bibliotecas de codificación que le permiten incluir sus datos y visualizarlos. Es realmente la 'templacionización' del campo ". Imagen cortesía de Roland Wiese.




Círculos de Dewey

Aquí hay otra representación de transferencia de conocimiento, esta vez dentro de la Biblioteca Pública de Seattle. La imagen muestra patrones de alquiler, basados ​​en el sistema de clasificación Dewey Decimal amado por los bibliotecarios en todas partes. Cuanto más grande sea el círculo, más personas tomarán prestados libros o medios en esa categoría. Imagen cortesía de Syed Reza Ali.




Esferas

Este es un tipo bastante típico de visualización de red, dice Lima. "En cuanto al contenido, no es único; muestra los enlaces semánticos entre palabras en español usando un modelo de visualización esférica. Pero me gusta porque está bien ejecutado ". Imagen cortesía de Santiago Ortiz.




Las galaxias se forman a lo largo de los filamentos, como gotitas a lo largo de los hilos de la telaraña

"Muchos artistas están obsesionados con las redes, y este muestra una gran instalación física que muestra que el movimiento no solo está sucediendo en dos dimensiones", dice Lima. "Es tan hermoso; rebotar en una cuerda y toda la red cambia ". Imagen cortesía de Tomas Saraceno.




En silencio

"El artista Chiharu Shiota lleva las cosas a un nivel completamente diferente", dice Lima. "Ella llena estos espacios masivos con hilo negro; a veces incluye objetos o personas en una instalación, y crea redes densas y enrevesadas de lana negra e hilo. Me encanta ver artistas que se ocupan de las redes a su manera ". Imagen cortesía de Artists Rights Society (ARS), Nueva York / VG Bild-Kunst, Bonn.

viernes, 9 de marzo de 2018

Estructura de red y difusión anti-científica en un modelo de simulación

Los trucos que los propagandistas usan para vencer a la ciencia

Un modelo de la forma en que se difunden las opiniones revela cómo los propagandistas usan el proceso científico contra sí mismos para influir secretamente en los políticos.
por Emerging Technology del arXiv


En la década de 1950, los profesionales de la salud comenzaron a preocuparse de que el fumar causaba cáncer. Luego, en 1952, la popular revista Reader's Digest publicó "Cancer by the Carton", un artículo sobre el creciente cuerpo de evidencia que lo demostraba. El artículo causó una gran sorpresa y cobertura de los medios. Hoy los peligros para la salud del tabaquismo son claros e inequívocos.

Y, sin embargo, las prohibiciones de fumar han tardado en entrar en vigor, la mayoría aparecieron unos 40 años o más después del artículo de Reader's Digest.

La razón de esta lentitud es fácil de ver en retrospectiva y se describe en detalle por Naomi Oreskes y Erik Conway en su libro de 2010 Merchants of Doubt. Aquí los autores explican cómo la industria del tabaco contrató a una empresa de relaciones públicas para generar controversia en torno a la evidencia y arrojar dudas sobre su veracidad.

Juntos, las compañías tabacaleras y la firma de relaciones públicas crearon y financiaron una organización llamada Comité de Investigación de la Industria del Tabaco para producir resultados y opiniones que contradecían la opinión de que fumar mata. Esto condujo a una falsa sensación de incertidumbre y a cambios de política retrasados ​​que de otro modo tendrían ventas restringidas.



El enfoque fue enormemente exitoso para la industria tabacalera en ese momento. En el mismo libro, Oreskes y Conway muestran cómo un enfoque similar ha influido en el debate sobre el cambio climático. Una vez más, el consenso científico es claro e inequívoco, pero el debate público se ha enturbiado deliberadamente para crear una sensación de incertidumbre. De hecho, Oreskes y Conway dicen que algunas de las mismas personas que idearon la estrategia del tabaco también trabajaron para socavar el debate sobre el cambio climático.

Eso plantea una pregunta importante: ¿qué tan fácil es para los actores maliciosos distorsionar la percepción pública de la ciencia?

Hoy recibimos una respuesta gracias al trabajo de James Owen Weatherall, Cailin O'Connor en la Universidad de California, Irvine, y Justin Bruner en la Universidad Nacional de Australia en Canberra, que han creado un modelo informático de la forma en que se forman los consensos científicos y  cómo esto influye en la opinión de los políticos. El equipo estudió cuán fácilmente estos puntos de vista pueden distorsionarse y determinó que hoy en día es fácil distorsionar la percepción de la ciencia con técnicas que son aún más sutiles que las utilizadas por la industria del tabaco.

La estrategia original del tabaco implicó varias líneas de ataque. Una de ellas fue financiar investigaciones que respaldaron a la industria y luego publicar solo los resultados que se ajustan a la narrativa requerida. "Por ejemplo, en 1954, el TIRC distribuyó un panfleto titulado 'Una perspectiva científica sobre la controversia del cigarrillo' a casi 200,000 médicos, periodistas y legisladores, en el que enfatizaban la investigación favorable y cuestionaban los resultados que respaldaban la opinión contraria", dice Weatherall. y coautores, que llaman a esto enfoque de producción sesgada.

Un segundo enfoque promovió la investigación independiente que pasó a apoyar la narrativa de la industria tabacalera. Por ejemplo, apoyó la investigación sobre el vínculo entre el amianto y el cáncer de pulmón porque enlodaba las aguas al mostrar que otros factores pueden causar cáncer. Weatherall y su equipo llaman a este enfoque de difusión selectivo.

Weatherall y coautores investigaron cómo estas técnicas influyen en la opinión pública. Para ello utilizaron un modelo informático de la forma en que el proceso científico influye en la opinión de los responsables de las políticas.

Este modelo contiene tres tipos de actores. El primero son científicos que llegan a un consenso al llevar a cabo experimentos y permitir que los resultados, y los de sus pares, influyan en su punto de vista.

Cada científico comienza con el objetivo de decidir cuál de las dos teorías es mejor. Una de estas teorías se basa en la "acción A", que se entiende bien y se sabe que funciona el 50 por ciento de las veces. Esto corresponde a la teoría A.

Por el contrario, la teoría B se basa en una acción que no se comprende bien. Los científicos no están seguros de si es o no mejor que A. Sin embargo, el modelo está configurado de modo que la teoría B es en realidad mejor.

Los científicos pueden hacer observaciones utilizando su teoría y, lo que es más importante, tienen resultados probabilísticos. Entonces, incluso si la teoría B es la mejor de las dos, algunos resultados respaldarán la teoría A.

Al comienzo de la simulación, los científicos tienen una creencia aleatoria en la teoría A o B. Por ejemplo, un científico con un crédito de 0.7 cree que hay un 70 por ciento de posibilidades de que la teoría B sea correcta y, por lo tanto, aplica la teoría B en la siguiente ronda de experimentos.

Después de cada ronda de experimentos, los científicos actualizan sus puntos de vista en función de los resultados de su experimento y los resultados de los científicos a los que están vinculados en la red. En la siguiente ronda, repiten este proceso y actualizan sus creencias nuevamente, y así sucesivamente.

La simulación se detiene cuando todos los científicos creen una u otra teoría o cuando la creencia en una teoría alcanza cierto nivel de umbral. De esta manera, Weatherall y Co simulan la forma en que los científicos llegan a una visión consensuada.

Pero, ¿cómo influye este proceso en los responsables políticos? Para averiguarlo, Weatherall y su equipo introdujeron un segundo grupo de personas en el modelo, los responsables de la formulación de políticas, que están influenciados por los científicos (pero no influyen en los propios científicos). De manera crucial, los responsables de las políticas no escuchan a todos los científicos, solo un subconjunto de ellos.

Los formuladores de políticas comienzan con una vista y la actualizan después de cada ronda, usando las opiniones de los científicos que escuchan.

Pero el enfoque clave del trabajo del equipo es cómo un propagandista puede influir en las opiniones de los políticos. Entonces Weatherall y Co introducen un tercer actor en este modelo. Este propagandista observa a todos los científicos y se comunica con todos los legisladores con el objetivo de persuadirlos de que la peor teoría es correcta (en este caso, la teoría A). Lo hacen buscando solo puntos de vista que sugieran que la teoría A es correcta y la comparten con los legisladores.

El propagandista puede funcionar de dos formas que corresponden a la producción sesgada o al intercambio selectivo. En el primero, el propagandista usa un equipo interno de científicos para producir resultados que favorecen la teoría A. En el segundo, el propagandista simplemente escoge esos resultados de científicos independientes que favorecen la teoría A.

Ambos tipos de influencia pueden tener un gran impacto, dicen que Weatherall y el intercambio co-selectivo resultan ser tan buenos como la producción sesgada. "Encontramos que la presencia de un único propagandista que comunica solo los hallazgos reales de los científicos puede tener una influencia sorprendente en las creencias de los responsables de las políticas", explican. "Bajo muchos escenarios, encontramos que mientras la comunidad de científicos converge en creencias verdaderas sobre el mundo, los creadores de políticas alcanzan casi certeza en la falsa creencia".

Y eso sin ninguna ciencia fraudulenta o mala, simplemente seleccionando los resultados. De hecho, los propagandistas ni siquiera necesitan usar sus propios científicos internos para respaldar ideas específicas. Cuando hay una variación natural en los resultados de experimentos científicos imparciales, los propagandistas pueden tener una influencia significativa al seleccionar cuidadosamente aquellos que respaldan su propia agenda. Y se puede hacer a muy bajo riesgo porque todos los resultados que eligen son ciencia "real".

Ese hallazgo tiene implicaciones importantes. Significa que cualquiera que quiera manipular a la opinión pública e influir en los legisladores puede lograr un éxito extraordinario con trucos relativamente sutiles.

De hecho, no son solo los actores nefastos los que pueden terminar influenciando a los hacedores de políticas de maneras que no coinciden con el consenso científico. Weatherall y coautores señalan que los periodistas científicos también escogen los resultados. Los reporteros generalmente están bajo presión para encontrar las historias más interesantes o sexys o entretenidas, y esto sesga lo que los responsables políticos ven. Sin embargo, no está claro cuán significativo sea este efecto en el mundo real.

El hallazgo clave del equipo tendrá profundas consecuencias. "Uno podría haber esperado que producir ciencia sesgada realmente tendría una influencia más fuerte en la opinión pública que simplemente compartir los resultados de otros", dicen Weatherall y compañía. "Pero hay fuertes sentidos en los que la estrategia menos sutil y más sutil de compartir selectivamente es más efectiva que la producción sesgada".

El trabajo también tiene implicaciones para la naturaleza de la ciencia. Este tipo de intercambio selectivo es efectivo solo debido a la amplia variación en los resultados que surgen de ciertos tipos de experimentos, particularmente aquellos que son estudios pequeños de baja potencia.

Este es un problema bien conocido, y la solución es clara: estudios más grandes y de mayor potencia. "Dados algunos recursos financieros fijos, los organismos de financiación deberían asignar esos recursos a unos pocos estudios de gran potencia", argumentan Weatherall y compañía, quienes sugieren que los científicos deberían recibir incentivos para producir ese tipo de trabajo. "Por ejemplo, a los científicos se les debe otorgar más crédito por resultados estadísticamente más fuertes, incluso en casos en que resulten nulos".

Eso haría más difícil para los propagandistas encontrar resultados espurios que puedan usar para distorsionar las vistas.

Pero dado cuán poderoso parece ser el intercambio selectivo, la pregunta ahora es: ¿quién es más probable que haga un uso efectivo de las conclusiones de Weatherall y de la compañía en primer lugar: propagandistas o científicos / legisladores?

Ref: arxiv.org/abs/1801.01239: How to Beat Science and Influence People: Policy Makers and Propaganda in Epistemic Networks

miércoles, 7 de marzo de 2018

Qué algoritmo sobre o subajusta cuando se buscan comunidades en redes

Evaluación del sobreajuste y el subajuste en modelos de estructura de comunidad de red

Amir Ghasemian, Homa Hosseinmardi, Aaron Clauset
(Presentado el 28 de febrero de 2018)
arXiv:1802.10582 [stat.ML]


Una tarea común de minería de datos en redes es la detección de comunidades, que busca una descomposición no supervisada de una red en grupos estructurales basada en regularidades estadísticas en la conectividad de la red. Aunque existen muchos métodos, el teorema de No Free Lunch para la detección de comunidades implica que cada uno realiza algún tipo de compensación, y ningún algoritmo puede ser óptimo en todas las entradas. Por lo tanto, diferentes algoritmos superarán o subestimarán las diferentes entradas, encontrando más, menos o solo comunidades diferentes de lo que es óptimo, y los métodos de evaluación que usan una partición de metadatos como verdad fundamental producirán conclusiones engañosas sobre la precisión general. Aquí, presentamos una amplia evaluación de sobreequipamiento en la detección de comunidades, comparando el comportamiento de 16 algoritmos de detección de comunidades de vanguardia en un corpus novedoso y estructuralmente diverso de 406 redes del mundo real. Encontramos que (i) los algoritmos varían ampliamente tanto en el número de comunidades que encuentran como en su composición correspondiente, dado el mismo aporte, (ii) los algoritmos se pueden agrupar en grupos de alto nivel basados ​​en las similitudes de sus resultados en realidades. las redes mundiales, y (iii) estas diferencias inducen una amplia variación en la precisión de las tareas de predicción de enlaces y descripción de enlaces. Presentamos un nuevo diagnóstico para evaluar el sobreajuste y el ajuste insuficiente en la práctica, y lo utilizamos para dividir aproximadamente los métodos de detección de la comunidad en algoritmos de aprendizaje general y especializado. En todos los métodos e insumos, las técnicas bayesianas basadas en el modelo de bloques estocásticos y un enfoque de longitud de descripción mínima para la regularización representan el mejor enfoque general de aprendizaje, pero pueden superarse en circunstancias específicas. Estos resultados introducen un enfoque basado en principios teóricos para evaluar el exceso y el insuficiente ajuste en los modelos de la estructura de la red comunitaria y un punto de referencia realista mediante el cual se pueden evaluar y comparar nuevos métodos.



lunes, 5 de marzo de 2018

Mapeando la red cerebral para construir mejor inteligencia artificial

Mapeo del cerebro para construir mejores máquinas

Una carrera para descifrar los algoritmos del cerebro podría revolucionar el aprendizaje automático.

Emily Singer || Quanta Magazine



Greg Dunn

Lleve a un niño de tres años al zoológico e intuitivamente sabe que la criatura de cuello largo que mordisquea las hojas es lo mismo que la jirafa en su libro ilustrado. Esa hazaña superficialmente fácil es en realidad bastante sofisticada. El dibujo animado es una silueta congelada de líneas simples, mientras que el animal viviente está inundado de color, textura, movimiento y luz. Puede contorsionarse en diferentes formas y se ve diferente desde todos los ángulos.





Los humanos sobresalen en este tipo de tarea. Podemos comprender sin esfuerzo las características más importantes de un objeto a partir de unos pocos ejemplos y aplicar esas características a lo desconocido. Las computadoras, por otro lado, típicamente necesitan ordenar a través de una base de datos completa de jirafas, que se muestran en muchos entornos y desde diferentes perspectivas, para aprender a reconocer con precisión al animal.

La identificación visual es una de las muchas áreas donde los humanos vencieron a las computadoras. También somos mejores para encontrar información relevante en una avalancha de datos; para resolver problemas no estructurados; y al aprender sin supervisión, cuando un bebé aprende sobre la gravedad cuando juega con bloques. "Los humanos son mucho, mucho mejores generalistas", dijo Tai Sing Lee, científico informático y neurocientífico de la Universidad Carnegie Mellon en Pittsburgh. "Todavía somos más flexibles en el pensamiento y podemos anticipar, imaginar y crear eventos futuros".

Un ambicioso programa nuevo, financiado por el brazo de inteligencia del gobierno federal, tiene como objetivo lograr que la inteligencia artificial esté más en línea con nuestros propios poderes mentales. Tres equipos compuestos por neurocientíficos e informáticos intentarán descubrir cómo el cerebro realiza estas hazañas de identificación visual, y luego fabrican máquinas que hacen lo mismo. "El aprendizaje automático de hoy falla donde los humanos se destacan", dijo Jacob Vogelstein, quien dirige el programa en la Actividad de Proyectos de Investigación Avanzados de Inteligencia (IARPA). "Queremos revolucionar el aprendizaje automático mediante la ingeniería inversa de los algoritmos y cálculos del cerebro".

El tiempo es corto. Cada equipo ahora está modelando un trozo de corteza con detalles sin precedentes. En conjunto, los equipos están desarrollando algoritmos basados ​​en parte en lo que aprenden. Para el próximo verano, a cada uno de esos algoritmos se le dará un ejemplo de un elemento extraño y luego se le pedirá que seleccione instancias del mismo de entre miles de imágenes en una base de datos sin etiqueta. "Es un marco de tiempo muy agresivo", dijo Christof Koch, presidente y director científico del Instituto Allen para Ciencias del Cerebro en Seattle, que está trabajando con uno de los equipos.

Los humanos sobresalen en este tipo de tarea. Podemos comprender sin esfuerzo las características más importantes de un objeto a partir de unos pocos ejemplos y aplicar esas características a lo desconocido. Las computadoras, por otro lado, típicamente necesitan ordenar a través de una base de datos completa de jirafas, que se muestran en muchos entornos y desde diferentes perspectivas, para aprender a reconocer con precisión al animal.

La identificación visual es una de las muchas áreas donde los humanos vencieron a las computadoras. También somos mejores para encontrar información relevante en una avalancha de datos; para resolver problemas no estructurados; y al aprender sin supervisión, cuando un bebé aprende sobre la gravedad cuando juega con bloques. "Los humanos son mucho, mucho mejores generalistas", dijo Tai Sing Lee, científico informático y neurocientífico de la Universidad Carnegie Mellon en Pittsburgh. "Todavía somos más flexibles en el pensamiento y podemos anticipar, imaginar y crear eventos futuros".

Un ambicioso programa nuevo, financiado por el brazo de inteligencia del gobierno federal, tiene como objetivo lograr que la inteligencia artificial esté más en línea con nuestros propios poderes mentales. Tres equipos compuestos por neurocientíficos e informáticos intentarán descubrir cómo el cerebro realiza estas hazañas de identificación visual, y luego fabrican máquinas que hacen lo mismo. "El aprendizaje automático de hoy falla donde los humanos se destacan", dijo Jacob Vogelstein, quien dirige el programa en la Actividad de Proyectos de Investigación Avanzados de Inteligencia (IARPA). "Queremos revolucionar el aprendizaje automático mediante la ingeniería inversa de los algoritmos y cálculos del cerebro".

El tiempo es corto. Cada equipo ahora está modelando un trozo de corteza con detalles sin precedentes. En conjunto, los equipos están desarrollando algoritmos basados ​​en parte en lo que aprenden. Para el próximo verano, a cada uno de esos algoritmos se le dará un ejemplo de un elemento extraño y luego se le pedirá que seleccione instancias del mismo de entre miles de imágenes en una base de datos sin etiqueta. "Es un marco de tiempo muy agresivo", dijo Christof Koch, presidente y director científico del Instituto Allen para Ciencias del Cerebro en Seattle, que está trabajando con uno de los equipos.

Koch y sus colegas ahora están creando un diagrama de cableado completo de un pequeño cubo de cerebro: un millón de micras cúbicas, que suman un volumen quinientos centésimas de una semilla de amapola. Eso es órdenes de magnitud más grandes que el mapa de cableado completo más extenso hasta la fecha, que se publicó en junio pasado y tomó aproximadamente seis años en completarse.

Al final del proyecto IARPA de cinco años, denominado Inteligencia artificial de redes corticales (Microns), los investigadores intentan mapear un milímetro cúbico de corteza. Esa pequeña porción alberga alrededor de 100.000 neuronas, de 3 a 15 millones de conexiones neuronales o sinapsis, y suficiente cableado neuronal para abarcar todo el ancho de Manhattan, si todo estuviera desenredado y tendido de punta a punta.

Nadie ha intentado reconstruir un pedazo de cerebro a esta escala. Pero los esfuerzos a menor escala han demostrado que estos mapas pueden proporcionar información sobre el funcionamiento interno de la corteza. En un artículo publicado en la revista Nature en marzo, Wei-Chung Allen Lee -un neurocientífico de la Universidad de Harvard que está trabajando con el equipo de Koch- y sus colaboradores trazaron un diagrama de 50 neuronas y más de 1,000 de sus socios. Al combinar este mapa con información sobre el trabajo de cada neurona en el cerebro, algunos responden a una entrada visual de barras verticales, por ejemplo, derivaron una regla simple de cómo las neuronas en esta parte de la corteza están conectadas anatómicamente. Descubrieron que las neuronas con funciones similares tienen más probabilidades de conectarse y establecer conexiones más grandes entre sí que con otros tipos de neuronas.

Si bien el objetivo implícito del proyecto Microns es tecnológico: IARPA financia investigaciones que eventualmente podrían llevar a herramientas de análisis de datos para la comunidad de inteligencia, entre otras cosas, debe haber ideas nuevas y profundas sobre el cerebro. Andreas Tolias, un neurocientífico de Baylor College of Medicine que es co-líder del equipo de Koch, compara nuestro conocimiento actual de la corteza con una fotografía borrosa. Él espera que la escala sin precedentes del proyecto Microns ayude a agudizar esa visión, exponiendo reglas más sofisticadas que rigen nuestros circuitos neuronales. Sin conocer todas las partes componentes, dijo, "tal vez nos estamos perdiendo la belleza de la estructura".

Las unidades de procesamiento del cerebro

Los intrincados pliegues que cubren la superficie del cerebro forman la corteza cerebral, una hoja de tejido del tamaño de una pizza que se arrugó para que se ajuste a nuestro cráneo. Es en muchos sentidos el microprocesador del cerebro. La hoja, de aproximadamente tres milímetros de grosor, está formada por una serie de módulos repetitivos, o microcircuitos, similares a la serie de compuertas lógicas en un chip de computadora. Cada módulo consta de aproximadamente 100.000 neuronas dispuestas en una compleja red de células interconectadas. La evidencia sugiere que la estructura básica de estos módulos es aproximadamente la misma en toda la corteza. Sin embargo, los módulos en diferentes regiones del cerebro están especializados para fines específicos, como la visión, el movimiento o la audición.


Andreas Tolias (izquierda), que se muestra aquí con su alumno R.J. Cotton, es co-líder de uno de los equipos de Micron.

Los científicos solo tienen una idea aproximada de cómo se ven estos módulos y cómo actúan. En gran parte se han limitado a estudiar el cerebro a escalas más pequeñas: decenas o cientos de neuronas. Las nuevas tecnologías diseñadas para rastrear la forma, la actividad y la conectividad de miles de neuronas finalmente permiten a los investigadores analizar cómo las células dentro de un módulo interactúan entre sí; cómo la actividad en una parte del sistema puede provocar o frenar la actividad en otra parte. "Por primera vez en la historia, tenemos la capacidad de interrogar a los módulos en lugar de solo adivinar los contenidos", dijo Vogelstein. "Diferentes equipos tienen diferentes conjeturas para lo que hay adentro".

Los investigadores se centrarán en una parte de la corteza que procesa la visión, un sistema sensorial que los neurocientíficos han explorado intensamente y que los científicos de la computación se han esforzado por emular. "La visión parece fácil, solo abre los ojos, pero es difícil enseñar a las computadoras a hacer lo mismo", dijo David Cox, un neurocientífico de Harvard que dirige uno de los equipos de IARPA.

Cada equipo está comenzando con la misma idea básica de cómo funciona la visión, una teoría de décadas de antigüedad conocida como análisis por síntesis. De acuerdo con esta idea, el cerebro hace predicciones sobre lo que sucederá en el futuro inmediato y luego reconcilia esas predicciones con lo que ve. El poder de este enfoque radica en su eficiencia: requiere menos computación que la recreación continua en todo momento.

El cerebro puede ejecutar análisis por síntesis de diferentes maneras, por lo que cada equipo está explorando una posibilidad diferente. El equipo de Cox ve el cerebro como una especie de motor de física, con modelos de física existentes que utiliza para simular cómo debería ser el mundo. El equipo de Tai Sing Lee, codirigido por George Church, teoriza que el cerebro ha construido una biblioteca de partes, fragmentos de objetos y personas, y aprende las reglas sobre cómo unir esas partes. Las hojas, por ejemplo, tienden a aparecer en las ramas. El grupo de Tolias está trabajando en un enfoque más basado en datos, donde el cerebro crea expectativas estadísticas del mundo en el que vive. Su equipo probará varias hipótesis sobre cómo las diferentes partes del circuito aprenden a comunicarse.

Los tres equipos controlarán la actividad neuronal de decenas de miles de neuronas en un cubo objetivo del cerebro. Luego usarán diferentes métodos para crear un diagrama de cableado de esas celdas. El equipo de Cox, por ejemplo, cortará el tejido cerebral en capas más delgadas que un cabello humano y analizará cada corte con microscopio electrónico. Luego, el equipo coserá computacionalmente cada sección transversal para crear un mapa tridimensional densamente empaquetado que traza millones de cables neuronales en su intrincado camino a través de la corteza.

Con un mapa y un patrón de actividad en la mano, cada equipo intentará descubrir algunas reglas básicas que rigen el circuito. Luego programarán esas reglas en una simulación y medirán qué tan bien la simulación coincide con un cerebro real.

Tolias y colaboradores ya tienen una idea de lo que este tipo de enfoque puede lograr. En un artículo publicado en Science en noviembre, mapearon las conexiones entre 11,000 pares de neuronas, descubriendo cinco nuevos tipos de neuronas en el proceso. "Todavía no tenemos una lista completa de las partes que componen la corteza, cómo son las células individuales, cómo están conectadas", dijo Koch. "Eso es lo que [Tolias] comenzó a hacer".


Andreas Tolias y colaboradores mapearon las conexiones entre pares de neuronas y registraron su actividad eléctrica. La anatomía compleja de cinco neuronas (arriba a la izquierda) se puede reducir a un diagrama de circuito simple (arriba a la derecha). La inyección de corriente eléctrica en la neurona 2 hace que la neurona se dispare, lo que provoca cambios eléctricos en las dos células aguas abajo, las neuronas 1 y 5 (abajo). Revista Olena Shmahalo / Quanta; Andreas Tolias

Entre estas miles de conexiones neuronales, el equipo de Tolias descubrió tres reglas generales que gobiernan cómo las células están conectadas: Algunas hablan principalmente de neuronas de su propia clase; otros evitan a los de su propia clase, comunicándose principalmente con otras variedades; y un tercer grupo habla solo con algunas otras neuronas. (El equipo de Tolias definió sus células basándose en la anatomía neural más que en la función, lo cual hizo el equipo de Wei Lee en su estudio). Usando solo estas tres reglas de cableado, los investigadores pudieron simular el circuito con bastante precisión. "Ahora el desafío es descubrir qué significan algorítmicamente esas reglas de cableado", dijo Tolias. "¿Qué tipo de cálculos hacen?"

Redes neuronales basadas en neuronas reales

La inteligencia artificial cerebral no es una idea nueva. Las llamadas redes neuronales, que imitan la estructura básica del cerebro, fueron extremadamente populares en la década de 1980. Pero en ese momento, el campo carecía de la potencia informática y los datos de entrenamiento que los algoritmos necesitaban para ser realmente efectivos. Después de todo, no había disponibles todos los millones de imágenes de gatos etiquetados de Internet. Y aunque las redes neuronales han disfrutado de un gran renacimiento, los programas de reconocimiento de voz y rostro que se han convertido rápidamente en parte de nuestra vida cotidiana se basan en algoritmos de redes neuronales, como AlphaGo, la computadora que recientemente derrotó al mejor jugador Go del mundo: el las reglas que las redes neuronales artificiales usan para alterar sus conexiones son casi con certeza diferentes de las empleadas por el cerebro.

Las redes neuronales contemporáneas "se basan en lo que sabíamos sobre el cerebro en la década de 1960", dijo Terry Sejnowski, un neurocientífico computacional del Instituto Salk en San Diego que desarrolló algoritmos de redes neuronales tempranas con Geoffrey Hinton, un científico informático de la Universidad de Toronto. . "Nuestro conocimiento de cómo está organizado el cerebro está explotando".

Por ejemplo, las redes neuronales actuales se componen de una arquitectura de feed-forward, donde la información fluye de entrada a salida a través de una serie de capas. Cada capa está entrenada para reconocer ciertas características, como un ojo o un bigote. Ese análisis se alimenta, y cada capa sucesiva realiza cálculos cada vez más complejos sobre los datos. De esta forma, el programa finalmente reconoce una serie de píxeles de colores como un gato.

Pero esta estructura de feed-out deja fuera un componente vital del sistema biológico: la retroalimentación, tanto dentro de las capas individuales y de las capas de orden superior a las de menor orden. En el cerebro real, las neuronas en una capa de la corteza están conectadas a sus vecinos, así como a las neuronas en las capas superiores e inferiores, creando una intrincada red de bucles. "Las conexiones de retroalimentación son una parte increíblemente importante de las redes corticales", dijo Sejnowski. "Hay tantos comentarios como conexiones feed-forward".

Los neurocientíficos aún no entienden con precisión qué están haciendo estos circuitos de retroalimentación, aunque saben que son importantes para nuestra capacidad de dirigir nuestra atención. Nos ayudan a escuchar una voz en el teléfono mientras desactivamos los sonidos de la ciudad, por ejemplo. Parte del atractivo de la teoría de análisis por síntesis es que proporciona una razón para todas esas conexiones recurrentes. Ayudan al cerebro a comparar sus predicciones con la realidad.

Los investigadores de Microns intentan descifrar las reglas que rigen los ciclos de retroalimentación, como qué células conectan estos circuitos, qué desencadena su actividad y cómo afecta esa actividad a la salida del circuito, y luego traducen esas reglas en un algoritmo. "Lo que falta en una máquina en este momento es la imaginación y la introspección. Creo que el circuito de retroalimentación nos permite imaginar e introspectar en muchos niveles diferentes ", dijo Tai Sing Lee.

Tal vez los circuitos de retroalimentación un día doten a las máquinas de rasgos que consideramos como únicos humanos. "Si pudieras implementar [circuitería de retroalimentación] en una red profunda, podrías pasar de una red que tiene una especie de reacción instintiva (dar entrada y obtener resultados) a una que sea más reflexiva, que pueda comenzar a pensar en las entradas y las pruebas hipótesis ", dijo Sejnowski, quien se desempeña como asesor de la Iniciativa BRAIN de $ 100 millones del presidente Obama, de la cual el proyecto Microns forma parte.

Pistas para la conciencia

Al igual que todos los programas de IARPA, el proyecto Microns es de alto riesgo. Las tecnologías que los investigadores necesitan para el mapeo a gran escala de la actividad y el cableado neuronal existen, pero nadie las ha aplicado antes a esta escala. Un desafío será lidiar con la enorme cantidad de datos que produce la investigación: de 1 a 2 petabytes de datos por cubo milimétrico de cerebro. Es probable que los equipos necesiten desarrollar nuevas herramientas de aprendizaje automático para analizar todos esos datos, un ciclo de retroalimentación bastante irónico.

Tampoco está claro si las lecciones aprendidas de un pequeño pedazo de cerebro resultarán ilustrativas de los talentos más grandes del cerebro. "El cerebro no es solo una parte de la corteza", dijo Sejnowski. "El cerebro contiene cientos de sistemas especializados para diferentes funciones".

La corteza en sí misma se compone de unidades repetitivas que se ven más o menos iguales. Pero otras partes del cerebro pueden actuar de manera muy diferente. El aprendizaje de refuerzo empleado en el algoritmo AlphaGo, por ejemplo, está relacionado con procesos que tienen lugar en los ganglios basales, parte del cerebro involucrado en la adicción. "Si quieres una IA que vaya más allá del simple reconocimiento de patrones, vas a necesitar muchas partes diferentes", dijo Sejnowksi.

Sin embargo, si el proyecto tiene éxito, hará más que analizar datos de inteligencia. Un algoritmo exitoso revelará verdades importantes sobre cómo el cerebro da sentido al mundo. En particular, ayudará a confirmar que el cerebro sí opera a través del análisis por síntesis, que compara sus propias predicciones sobre el mundo con los datos entrantes que se filtran a través de nuestros sentidos. Revelará que un ingrediente clave en la receta de la conciencia es una mezcla siempre cambiante de imaginación más percepción. "Es la imaginación lo que nos permite predecir eventos futuros y usar eso para guiar nuestras acciones", dijo Tai Sing Lee. Al construir máquinas que piensan, estos investigadores esperan revelar los secretos del pensamiento.

sábado, 3 de marzo de 2018

Trolls rusos apoyan la ultraderecha italiana

Las redes rusas se activaron para impulsar a la ultraderecha en Italia


Un análisis de redes sociales revela cómo medios del Kremlin han fomentado los discursos xenófobos


David Alandete y Daniel Verdú
El País

La maquinaria de injerencias rusa ha centrado sus esfuerzos en los pasados meses en una campaña de desinformación sobre la situación migratoria en Italia con el objetivo de impulsar a partidos radicales ante las elecciones generales del domingo. Según un análisis de 1.055.774 mensajes de 98.191 usuarios en redes sociales al que ha tenido acceso EL PAÍS, un entramado de perfiles de activistas contra la inmigración y las ONG emplearon sobre todo enlaces publicados por Sputnik, un medio propiedad del Gobierno ruso que opera entre otros idiomas en italiano, para propagar la falsa imagen de una Italia invadida por unos refugiados responsables del desempleo y de la inflación, en una crisis agravada por la pasividad de los políticos europeístas y en última instancia por la Unión Europea.

Algunos ejemplos de las informaciones publicadas por Sputnik son “En 2065 la cuota de inmigrantes en Italia podría superar el 40% de la población total” o “El caos de los inmigrantes es el inicio de una guerra social”. Alto Data Analytics, una compañía internacional centrada en la aplicación de big data e inteligencia artificial para el análisis de opinión pública en medios y redes sociales, ha facilitado a este diario un estudio de 3.164 fuentes de contenido como noticias, entradas de blogs y vídeos con publicaciones entre el 1 de febrero y el 31 de julio de 2017. La conclusión es que Sputnik ha sido muy influyente a la hora de radicalizar el debate sobre la crisis migratoria. De todos los medios internacionales que operan en Italia, ese medio ruso es el segundo más influyente, tras la versión italiana del Huffington Post, según las mediciones de Alto, cuyos algoritmos consideran el número de usuarios y la intensidad con la que se comparten los enlaces de los distintos medios en redes sociales de forma similar a como lo harían los algoritmos de Google.

El debate sobre la migración ha impregnado completamente la campaña política italiana dejando apenas espacio para otros temas. Según las encuestas, la formación que no tenga una posición clara al respecto no saldrá en la foto del próximo domingo. Un reflejo evidente de los episodios es la tensión en la calle y en las redes sociales, donde desde hace meses han dejado de existir los matices y triunfan cada vez más las posiciones radicalizadas. El auge de La liga, el partido de tintes xenófobos que preside Matteo Salvini y que forma parte de la potente coalición de centroderecha que lidera Silvio Berlusconi, o Casa Pound, una formación declarada abiertamente fascista que aspira a entrar en el Parlamento, son dos ejemplos.

Sputnik fue una parte central pero no la única en esa estrategia de desestabilización de Italia. A ese medio ruso se le sumó un entramado de pequeños sitios web centrados de forma casi exclusiva en mensajes contra la inmigración como ‘Todos los crímenes de los inmigrantes’, ‘El populista’ o ‘Italia patria mía’. Un indicio de la actividad de cuentas automatizadas o bots, utilizadas para viralizar contenido, es que con el doble de integrantes, la comunidad a favor de la inmigración publicó menos de la mitad del contenido que la que se opone a la entrada de refugiados a Italia. En Twitter, una de las redes sociales analizadas, los mensajes contra la inmigración supusieron un 68% del total.

jueves, 1 de marzo de 2018

Entrevista a Aaron Clauset: Aprendizaje automático, economía y genes

Ciencia de redes: el campo oculto detrás del aprendizaje automático, la economía y la genética de la que nunca habrás oído hablar (probablemente): una entrevista con el Dr. Aaron Clauset [Parte 1]

Por Amy Hodler, Gerente del Programa de Analítica
Blog Neo4j


Recientemente tuve la oportunidad de combinar trabajo y placer y reunirme con el Dr. Aaron Clauset, un experto en ciencia de redes, ciencia de datos y sistemas complejos. En 2016, Clauset ganó el Premio Erdos-Renyi en Network Science, pero es posible que esté más familiarizado con su investigación anterior sobre leyes eléctricas, predicción de enlaces y modularidad.

El Dr. Clauset dirige el grupo de investigación que desarrolló la referencia del conjunto de datos ICON (si está buscando datos de red para evaluar, marque esto ahora) y ha publicado recientemente investigaciones que arrojan luz sobre posibles conceptos erróneos sobre estructuras de red. Cuando apareció un viaje de negocios de última hora a Denver, hice el viaje a Boulder, donde Clauset es profesor asistente de ciencias de la computación en la Universidad de Colorado en Boulder.



El Dr. Aaron Clauset es Profesor Asistente de Ciencias de la Computación en la Universidad de Colorado en Boulder y en el Instituto BioFrontiers. También es parte de la facultad externa en el Instituto Santa Fe (para estudios de complejidad).

Entre el almuerzo y la próxima clase de Clauset, hablamos sobre la investigación reciente de su grupo y la dirección general de la ciencia de la red, y me fui con una superposición de desilusión y entusiasmo. El Laboratorio Clauset ha estado trabajando para ampliar la diversidad y el rigor de estudiar sistemas complejos y, al hacerlo, pueden desmantelar algunas creencias que datan de los años 90. (Debería haber sabido que no sería simple, estamos hablando de sistemas complejos después de todo).

Esto le importa a la comunidad gráfica de Neo4j porque cualquier persona que analice las redes, especialmente si buscan atributos globales, necesita comprender la estructura y la dinámica subyacente. A continuación se encuentra un resumen de nuestra discusión.

¿En qué tipo de trabajo se enfoca su equipo?

Clauset: Mi grupo de investigación en CU Boulder actualmente incluye cinco Ph.D. estudiantes, junto con algunos maestros y varios estudiantes universitarios. Nuestra investigación se centra tanto en el desarrollo de nuevos métodos computacionales para la comprensión de conjuntos de datos complicados y desordenados, como en la aplicación de estos métodos para resolver problemas científicos reales, principalmente en entornos biológicos y sociales.

En el grupo, todos están involucrados en la investigación de alguna manera. Por ejemplo, el sitio web ICON (índice de redes complejas) fue construido por un par de estudiantes de licenciatura para aprender conceptos de redes y explorar herramientas.

Las redes son una de nuestras áreas de trabajo clave. Las redes son en realidad solo una representación, una herramienta para comprender sistemas complejos. Representamos cómo funciona un sistema social al pensar en las interacciones entre pares de personas. Al analizar la estructura de esta representación, podemos responder preguntas sobre cómo funciona el sistema o cómo se comportan las personas dentro de él. En este sentido, la ciencia de la red es un conjunto de herramientas técnicas que se pueden aplicar a casi cualquier dominio.

Las redes también actúan como un puente para comprender cómo las interacciones y dinámicas microscópicas pueden conducir a regularidades globales o macroscópicas. Pueden hacer un puente entre lo micro y lo macro porque representan exactamente qué cosas interactúan entre sí. Solía ​​ser común suponer que todo interactúa con todo, y sabemos que eso no es verdad; en genética, no todos los pares de personas y no todos los pares de genes interactúan entre sí.

Tomado de “Hierarchical structure and the prediction of missing links in networks
Un esfuerzo extremadamente importante en la ciencia de redes es descubrir cómo la estructura de una red da forma a la dinámica de todo el sistema. En los últimos 15 años hemos aprendido que para muchos sistemas complejos, la red es increíblemente importante para configurar lo que les sucede a los individuos dentro de la red y cómo evoluciona todo el sistema.

El trabajo de mi grupo se centra en caracterizar la estructura de estas redes para que podamos comprender mejor cómo la estructura finalmente da forma a la función.

¿Hay puntos en común entre los diferentes tipos de redes?

Clauset: A fines de la década de 1990 y principios de la década de 2000, mucha energía en la conducción de la ciencia de redes provino de los físicos, que aportaron nuevas herramientas matemáticas, modelos y muchos datos nuevos. Una idea que popularizaron fue la hipótesis de que los patrones "universales" ocurrieron en redes de todo tipo: redes sociales, biológicas, tecnológicas, de información e incluso económicas, y que fueron impulsadas por un pequeño número de procesos fundamentales.

Este tipo de idea era bastante normal en una parte de la física. Por ejemplo, hay un modelo matemático universal de cómo funciona un imán que hace predicciones notablemente precisas sobre imanes reales de todo tipo.

El sueño de las redes era mostrar que lo mismo se podía hacer por ellos: que todos los diferentes tipos de redes podían explicarse mediante un pequeño conjunto de principios o procesos matemáticos básicos, o que caían en un pequeño número de categorías estructurales generales. Es una idea bastante poderosa e inspiró tanto un trabajo multidisciplinario realmente bueno como varias afirmaciones altamente provocativas.



La validez de algunas de las afirmaciones más audaces ha sido difícil de evaluar empíricamente porque requirió el uso de un conjunto grande y diverso de redes del mundo real para probar la "universalidad" empírica del patrón. Reunir un conjunto de datos de este tipo es parte de lo que nos llevó a armar el índice de redes complejas, lo que llamamos el índice ICON.

Aunque todavía estamos expandiéndolo, mi grupo ya ha comenzado a revisar muchas de las afirmaciones iniciales sobre patrones universales en redes, incluida la idea de que "todas las redes están libres de escalas", o que solo las redes sociales tienen una alta densidad triangular, o que las redes se agrupan en "superfamilias" basadas en el patrón de su estructura local. Sorprendentemente, muchas afirmaciones sobre la estructura de las redes se han repetido una y otra vez en la literatura, pero no han sido escrutadas cuidadosamente con datos empíricos.

Resulta que muchos de estos patrones universales se desmoronan cuando se puede mirar a través de una gran variedad de redes. El reciente artículo de Kansuke Ikehara [Characterizing the structural diversity of complex networks across domains] plantea una pregunta simple: si etiqueto una gran cantidad de redes de dónde provienen (por ejemplo, una red de transporte / carretera, una red social / en línea o una red metabólica / biológica) ¿puede utilizar el aprendizaje automático para descubrir qué características distinguen a estas clases de redes?

La diversidad estructural de las redes complejas. Si hay algunas "familias" de estructuras de red, entonces ningún algoritmo debería ser capaz de aprender a distinguir las diferentes redes dentro de una familia. En cambio, lo que encontramos fue que prácticamente todas las clases de redes se distinguían fácilmente de las demás clases.


Las redes sociales se agrupan en una parte del espacio de características, las redes biológicas generalmente están bien separadas de aquellas, etc., y esto es cierto para cada clase de red que examinamos. El claro mensaje para llevar a casa es que hay mucha más diversidad en las estructuras de red de lo que pensamos hace 20 años, y por lo tanto, mucho más trabajo por hacer para comprender de dónde viene esta diversidad.

La investigación de Ikehara reveló la diversidad estructural oculta de las redes y sugiere que puede haber menos patrones universales de lo que alguna vez se pensó. Al mismo tiempo, algunos grupos de redes están más cerca unos de otros en términos de su estructura.

Por ejemplo, encontramos que las redes de distribución de agua exhiben firmas estructurales similares a las redes miceliales fúngicas, lo que sugiere que pueden estar formadas por procesos subyacentes similares o problemas de optimización. De esta forma, el aprendizaje automático puede ayudarnos a identificar semejanzas estructurales y, por lo tanto, a ayudarnos a descubrir, de una manera basada en datos, dónde es más probable que encontremos una explicación mecánica común.

¿Cómo está evolucionando la ciencia de la red?

Clauset: En muchos sentidos, la ciencia de redes hoy se está diversificando y expandiendo. Esta expansión permite una gran especialización, pero hay una compensación. Ahora las personas pueden tomar métodos de red y aplicarlos en preguntas realmente específicas sobre sistemas realmente específicos.

Esto es enormemente productivo y un logro emocionante para la ciencia de redes. Pero, el crecimiento del trabajo disciplinario alrededor de las redes también significa que hay relativamente menos trabajo que cruza los límites disciplinarios. Sin espacios compartidos donde personas de diferentes dominios se reúnan para hablar sobre sus avances, las personas que trabajan en un tipo de problema tienen menos probabilidades de exponerse a ideas potencialmente notables en un área diferente.

Claro, muchas ideas sobre economía no se aplicarán a las redes biológicas, pero algunas lo harán, y si los economistas y los biólogos nunca se comunican entre sí, nunca lo sabremos. Si no hay un terreno común, habrá una gran cantidad de reinvención y retrasos, incluso años para que los métodos en un dominio pasen a otro.

Es por eso que creo que es muy importante estudiar y reunirse para debatir sobre las redes en general. Este tipo de fervor interdisciplinario es otra cosa que los físicos y los informáticos ayudaron a poner en marcha hace unos 20 años; eran principalmente físicos y científicos informáticos que transmitían "también podemos hacer sociología, política y ecología".

Esa actitud ciertamente molestó a algunas personas, especialmente a los sociólogos que ya habían estado haciendo redes durante 80 años, pero también generó un enorme y amplio interés en las redes de prácticamente todas las ciencias. Ahora, las diferentes áreas disciplinarias de la ciencia de las redes crecen tan rápido que, de alguna manera, el centro -encrucijada donde las ideas pueden saltar entre los campos- se está reduciendo de manera efectiva.

¿Cómo puede la ciencia de redes fomentar una mayor colaboración entre dominios?

Clauset: Tener un evento real que sirva como una encrucijada entre dominios donde las personas pueden presentarse e interactuar es esencial. En muchos sentidos, la Conferencia Internacional sobre Ciencia de Redes está tratando de hacer eso, pero se esfuerza por sacar a los investigadores de sus dominios y colocarlos en el medio, ya que las diferentes disciplinas tienen diferentes preguntas generales. Creo que siempre que algunos expertos en dominios de diferentes campos lleguen a la encrucijada para hablar e interactuar, las buenas ideas eventualmente se extenderán.

Continuar con este esfuerzo interdisciplinario será una parte clave para continuar el avance de la ciencia de redes. Pero no todos los esfuerzos deben ser interdisciplinarios. De hecho, las disciplinas son esenciales para ayudar a enfocar nuestra atención colectiva.

No estoy seguro de cuál es el equilibrio correcto entre el trabajo disciplinario y el interdisciplinario, pero para mí las ideas interdisciplinarias son las más interesantes. Si el trabajo sobre estos no está financiado y respaldado a niveles decentes, seguramente no abordaremos muchas de las ideas más importantes de la sociedad porque son las que abarcan diferentes disciplinas.

Por ejemplo, la ciberseguridad no es solo un problema técnico, ya que los humanos tienen un terrible historial de escritura de software libre de errores. La seguridad real requiere componentes legales, componentes sociales, componentes éticos, componentes económicos y probablemente más para desarrollar una solución duradera.

De hecho, si elige cualquier problema que afecte a una porción decente de la población, entonces seguramente se trate de un problema interdisciplinario que requerirá un enfoque interdisciplinario para comprender y resolver.

Conclusión

Como puede ver, tuvimos una gran discusión sobre cómo están cambiando algunas de las ideas preconcebidas sobre las redes. La próxima semana, en la segunda parte de esta serie, resumiré nuestra inmersión más profunda en algunos de los avances y temas emergentes en la ciencia de redes.