Mostrando entradas con la etiqueta red libre de escala. Mostrar todas las entradas
Mostrando entradas con la etiqueta red libre de escala. Mostrar todas las entradas

sábado, 28 de diciembre de 2019

Esculturas de redes de realidad aumentada


Esculturas de red aumentadas

Agoston Nagy || Startup




Su artículo presenta una colaboración continua entre la Universidad de Arte y Diseño Moholy-Nagy (Budapest, H) y Barabasi Lab (Boston, EE. UU.). El objetivo del proyecto es unir redes espaciales físicas impresas en 3D con sus correspondientes capas de información de fondo utilizando la realidad aumentada. Dado que un modelo virtual está alineado con la escultura de red impresa real, la audiencia puede revelar capas de información navegando sobre diferentes capas de la realidad: interactuando con un dispositivo móvil táctil en su pantalla, pero también, navegando en el espacio real moviéndose El dispositivo alrededor. Usando los sensores de movimiento integrados, el giroscopio y la imagen de la cámara en tiempo real, el resultado es una experiencia de realidad mixta, donde la información digital en capas se conecta a la escultura de red física real.

Un taller


Después de una lluvia de ideas inicial con el científico de redes László Albert Barabási, comenzamos el proyecto con un taller en el campus MOME con Mihály Minkó, donde se invitó a diseñadores, artistas, ingenieros y personas de diferentes campos de las humanidades. Estábamos investigando formas de cómo podemos mezclar el lenguaje de la realidad aumentada con los problemas de visualización de la red. Se dieron dos conferencias teóricas como punto de partida, que abordan las taxonomías de la realidad aumentada (y sus correspondientes modelos cognitivos de las diferentes modalidades del espacio) y la topología de la red: visualización, comprensión de las estructuras de redes complejas y sin escala.


Algunas diapositivas de la conferencia.

El pensamiento colaborativo, los ajustes y la cultura del bricolaje también son una parte crucial de la metodología de nuestro taller, por lo que obtuvimos algunos componentes de plástico que consisten en bloques de construcción simples para ensamblar diferentes sistemas moleculares, y los participantes tuvieron que construir redes simplificadas por su cuenta. Las instrucciones se basaron en algunos datos extremadamente filtrados y limitados que obtuvieron en sus manos, sentados alrededor de una mesa, construyendo el objeto juntos, independientemente de sus antecedentes profesionales. Esta forma de diseño colaborativo abre conversaciones significativas, invoca varias preguntas sobre el tema que el grupo está investigando. Como resultado del taller, obtuvimos algunas ideas interesantes sobre los conceptos de navegación dentro de la realidad aumentada, también tuvimos una experiencia de primera mano sobre cómo se pueden crear redes, nodos y sus enlaces.

Diferentes conceptos espaciales para la realidad aumentada portátil

Dado que las redes son estructuras abstractas en sí mismas, visualizarlas en otro modelo abstracto (realidad aumentada) es aún más desafiante, estamos construyendo algo que ninguno de nosotros había experimentado antes.

Hasta aquí todo bien. Parece que

Los métodos de comprensión de redes y relaciones complejas se pueden aprender y comprender mejor si tenemos experiencia práctica con respecto a una estructura (construcción, combinación, reestructuración de partes y piezas) además de leer teorías y conceptos abstractos solamente.



Colocar contenido virtual en una red física simple

La realidad aumentada es un campo emergente de comunicación visual, que tiene mucho potencial, lo que significa que también necesita mucha experimentación práctica. Como el paradigma computacional donde la fusión del espacio real y los algoritmos comenzaron con la navegación náutica, nuestro tiempo también está lidiando con el mismo paradigma con nuevos métodos. Hoy en día, las personas tienen que combinar el espacio físico real con capas de contenido virtual: estos son los conceptos básicos de la computación consciente del espacio, donde tenemos que construir el lenguaje para la próxima era del diseño computacional.

Contar historias significativas dentro de este espacio híbrido es un concepto muy novedoso para creadores de contenido, diseñadores e ingenieros. Comprender el contexto de estos escenarios complejos involucra a personas de diferentes profesiones, incluidos ingenieros, humanidades (literatura, semiótica, etc.), científicos cognitivos, expertos en visualización y, lo que es más importante, expertos que se ocupan de las consecuencias éticas y biológicas de la tecnología, como como inteligencia artificial y diferentes capas de realidad.

Taller de Realidad Aumentada y Ciencia de Redes (MOME, 2019)

Un prototipo

El objetivo de la colaboración entre los dos institutos es encontrar y construir visualizaciones significativas para estas interrelaciones conceptuales entre el espacio, los datos y su representación. Es un viaje interesante para crear una nueva estética basada en datos y redes, donde los conceptos científicos son más fáciles de comprender para las personas que están fuera de los círculos académicos de diseño o comunidades científicas.

Comenzamos a construir un prototipo de iOS en C ++ (OpenFrameworks) que se basa en la plataforma de realidad aumentada de Apple, ARKit. Estamos utilizando puntos de características de la alimentación de la cámara del dispositivo para construir, cargar y guardar coordenadas mundiales que están conectadas a la escultura de la red física. También utilizamos la misma aplicación para representar contenido virtual en la pantalla, usando OpenGL combinado con el Metal de Apple como el procesador gráfico.


Proceso de calibración en el prototipo.

La interfaz de usuario y el ciclo de vida de la aplicación se basan en componentes personalizados, no hay elementos y módulos integrados específicos del sistema operativo que se utilicen, lo que conduce a una portabilidad más fácil y una estrategia de desarrollo multiplataforma a prueba de futuro. El prototipo más tarde se puede portar a la plataforma ARCore de Android u otros sistemas operativos de la próxima industria de realidad montada en la cabeza.

El uso de la aplicación está destinado a ser "consciente del espacio", lo que significa que está utilizando algunos conceptos especiales más allá de las rutinas de navegación convencionales (como tocar, deslizar, pellizcar, etc.). La distancia del objeto físico real juega un papel extremadamente importante en la experiencia.

El concepto de aplicación, transformación de datos, diseño y desarrollo se realiza junto con Mihály Minkó. La aplicación está a punto de ser lanzada en 2020 como una parte integrada de las próximas exhibiciones de diferentes redes y esculturas generativas hechas por Barabasi Lab, esta publicación se actualizará, en consecuencia.

sábado, 27 de abril de 2019

Nueva ley de potencia explica mejor diversos eventos

Los investigadores encuentran una ley de potencia mejor que predice terremotos, vasos sanguíneos, cuentas bancarias

Phys.org



Debido a que las venas se ramifican en divisiones aproximadamente proporcionales, también se consideran un fractal. Crédito: Imagen de cortesía / Mitchell Newberry.

Los terremotos gigantes y la riqueza extrema pueden parecer no tener mucho en común, pero la frecuencia con la que el "Big One" llegará a San Francisco y la frecuencia con la que alguien ganará tanto dinero como Bill Gates puede predecirse con una medición estadística llamada exponente de la ley de potencia.

Durante el último siglo, los investigadores han utilizado lo que se llama una ley de potencia para predecir ciertos tipos de eventos, incluida la frecuencia con que se producen los terremotos en ciertos puntos de la escala de Richter. Pero un investigador de la Universidad de Michigan notó que esta ley de potencia no se ajusta a todas las circunstancias.

Mitchell Newberry, un compañero y profesor asistente de Michigan en el Centro para el Estudio de Sistemas Complejos de la UM, sugiere un ajuste a la ley de energía que explicaría los eventos que aumentan o disminuyen en proporciones fijas, por ejemplo, cuando un gerente hace aproximadamente el 20 por ciento. más que su empleado.

Estos ajustes afectan la forma de estimar las probabilidades de terremotos, la cantidad de capilares en el cuerpo humano y el tamaño de las megaciudades y las llamaradas solares. Y pueden revisar cuándo esperar el próximo Big One.

Cuando los científicos trazan algo como la probabilidad de riqueza extrema en un gráfico, la curva es una línea suave. Eso es porque las personas pueden tener cualquier cantidad de dinero en sus cuentas bancarias.

"La suavidad de esta curva significa que cualquier valor es posible", dijo Newberry. "Podría ganar un centavo más fácilmente que un centavo menos".

Ese no es exactamente el caso de eventos como los terremotos, debido a la forma en que se registran en la escala de Richter. La magnitud de Richter de los terremotos aumenta o disminuye en incrementos de 0.1, exponencialmente. Un terremoto de magnitud 3.1 es 1.26 veces más poderoso que los terremotos de magnitud 3.0, por lo que no todos los valores son posibles en la escala. La escala de Richter es un ejemplo de un concepto llamado "auto-similitud" o cuando un evento o cosa está hecho de copias proporcionalmente más pequeñas de sí mismo.

Puede ver la auto-similitud en la naturaleza como la ramificación de las venas en una hoja, o en la geometría como triángulos encajados dentro de triángulos más grandes de la misma forma, llamado triángulo de Sierpinski. Entonces, para explicar los eventos que cambian en proporciones exactas, Newberry y su coautor, Van Savage, de la Universidad de California en Los Ángeles, crearon la ley de potencia discreta.


La curva de Koch se repite infinitamente, mostrando auto-semejanza. Crédito: usuario de Wikimedia Leofun01

En estas ecuaciones de ley de potencia, el exponente en la ecuación es la variable que los científicos están resolviendo. En los terremotos, ese exponente, llamado el valor de Gutenberg-Richter b, se midió por primera vez en 1944 e indica con qué frecuencia es probable que ocurra un terremoto de cierta intensidad. La ley de energía discreta de Newberry produjo una corrección del 11.7% sobre las estimaciones basadas en la ley de energía continua, lo que hace que el exponente se acerque más a la frecuencia histórica de los grandes terremotos. Incluso una corrección del 5% se traduce en una diferencia de más de dos veces en cuándo esperar el próximo terremoto gigante.

"Durante 100 años, las personas han estado hablando de aproximadamente un tipo de distribución de la ley de energía. Es la distribución de la ley de poder de la riqueza y los terremotos", dijo Newberry. "Solo ahora, estamos documentando estas escalas discretas. En lugar de una curva suave, nuestra ley de energía parece una escalera infinita".

Newberry notó la falla en la ley de poder continuo en su estudio de la física del sistema circulatorio. El sistema circulatorio comienza con un gran vaso sanguíneo: la aorta. A medida que la aorta se divide en diferentes ramas (las arterias carótida y subclavia), cada nueva rama disminuye de diámetro en aproximadamente dos tercios.

Estaba utilizando la ley de energía continua para estimar los tamaños de los vasos sanguíneos a medida que continúan ramificándose. Pero la ley de poder producía tamaños de vasos sanguíneos que no podían ocurrir. Indicó que un vaso sanguíneo podría ser solo un poco más pequeño que el tronco desde el cual se ramificó en lugar de alrededor de dos tercios del tamaño de ese tronco.

"Al utilizar la ley de energía continua, solo recibíamos respuestas que sabíamos que estaban mal", dijo Newberry. "Al depurar lo que falló, descubrimos que esta distribución supone que cada tamaño de vaso sanguíneo es igualmente plausible. Sabemos que para la vasculatura real, ese no es el caso".

Así que Newberry hizo ingeniería inversa de la ley de potencia. Al observar los vasos sanguíneos, Newberry podría deducir el exponente de la ley de potencia a partir de dos constantes: cuántas ramas en cada unión (dos) y cuánto más pequeña es cada rama en relación con el tronco. Al medir el tamaño de los vasos en cada división, Newberry pudo resolver la distribución de los vasos sanguíneos.

"Hay un punto intermedio entre una ley de energía continua y la ley de energía discreta", dijo Newberry. "En la ley de poder discreta, todo se presenta en proporciones perfectamente rígidas desde la escala más alta hasta el infinitamente pequeño. En la ley de poder continuo, todo se distribuye de manera perfectamente aleatoria. Casi todo lo que se asemeja en realidad es una mezcla de estos dos . "

jueves, 15 de noviembre de 2018

Barabási y colegas cuantifican y predicen el éxito en el arte

Cuantificando la reputación y el éxito en el arte

Samuel P. Fraiberger 1,2; , Roberta Sinatra 3,1,4,5; Magnus Resch 6,7; Christoph Riedl 1,2*, Albert -László Barabási 1,3,8,9* 
1. Instituto de Ciencias de la Red, Northeastern University, Boston, MA, EE. UU.2. Instituto Harvard de Ciencias Sociales Cuantitativas, Cambridge, MA, EE. UU.3. Departamento de Matemáticas y sus aplicaciones y Centro de Ciencia de Redes, Universidad de Europa Central, Budapest, Hungría.4. Complexity Science Hub, Viena, Austria.5. ISI Fundación, Turín, Italia.6. Universidad de St Gallen, St. Gallen, Suiza.7. Zagreb Escuela de Economía y Gestión, Zagreb, Croacia.8. División de Medicina de la Red, Departamento de Medicina, Harvard Medical School, Boston, MA, EE. UU.9. Departamento de Redes y Ciencia de Datos, Universidad de Europa Central, Budapest, Hungría. 
En áreas de actividad humana donde el rendimiento es difícil de cuantificar de manera objetiva, la reputación y las redes de influencia desempeñan un papel clave en la determinación del acceso a los recursos y las recompensas. Para comprender el papel de estos factores, reconstruimos la historia de la exposición de medio millón de artistas, trazando un mapa de la red de coexposición que captura el movimiento del arte entre instituciones. La centralidad dentro de esta red capturó el prestigio institucional, lo que nos permite explorar la trayectoria profesional de artistas individuales en términos de acceso a instituciones codiciadas. El acceso temprano a instituciones centrales de prestigio ofreció acceso de por vida a lugares de alto prestigio y una tasa de deserción reducida. Por el contrario, al comenzar en la periferia de la red se produjo una alta tasa de abandono, lo que limita el acceso a las instituciones centrales. Un modelo de Markov predice la trayectoria profesional de artistas individuales y documenta el sólido camino y la dependencia de la historia de la valoración en el arte.



   

sábado, 17 de febrero de 2018

No hay tanta evidencia de redes libre de escala en la realidad



Escasa evidencia de leyes de potencia encontradas en redes del mundo real

Un nuevo estudio desafía una de las ideas más celebradas y controvertidas en la ciencia de redes.

Erica Klarreich | Quanta Magazine



Un artículo publicado en línea el mes pasado ha reavivado un debate sobre una de las afirmaciones más antiguas y sorprendentes en la era moderna de la ciencia de redes: la proposición de que las redes más complejas en el mundo real, desde la World Wide Web hasta proteínas interactuando en una célula, están "libres de escala". Hablando en términos generales, eso significa que algunos de sus nodos deberían tener muchas más conexiones que otras, siguiendo una fórmula matemática llamada ley de poder, de modo que no haya una sola escala que caracterice a la red.

Las redes puramente aleatorias no obedecen las leyes de poder, así que cuando los primeros defensores del paradigma sin escalas comenzaron a ver leyes de poder en las redes del mundo real a fines de la década de 1990, las vieron como evidencia de un principio de organización universal subyacente a la formación de estos diversos redes. La arquitectura de la ausencia de escalas, argumentaron los investigadores, podría proporcionar información sobre cuestiones fundamentales, como la probabilidad de que un virus cause una epidemia, o qué tan fácilmente los hackers pueden deshabilitar una red.

En las últimas dos décadas, una avalancha de artículos ha afirmado la ausencia de escala de cientos de redes del mundo real. En 2002, Albert-László Barabási - un físico convertido en red científico que fue pionero en el paradigma de redes sin escala - escribió un libro para una audiencia general, Linked, en el que afirmaba que las leyes de poder son omnipresentes en redes complejas.

Las redes del mundo real exhiben una rica diversidad estructural que probablemente requerirá nuevas ideas y mecanismos para explicar.
Anna Broido y Aaron Clauset

"Las leyes naturales increíblemente simples y de largo alcance rigen la estructura y la evolución de todas las redes complejas que nos rodean", escribió Barabási (que ahora se encuentra en la Universidad Northeastern de Boston) en Linked. Más tarde agregó: "Descubrir y explicar estas leyes ha sido una atracción fascinante de la montaña rusa durante la cual hemos aprendido más sobre nuestro mundo complejo e interconectado de lo que se conocía en los últimos cien años".

Pero a lo largo de los años, otros investigadores han cuestionado tanto la omnipresencia de la ausencia de escala como la medida en que el paradigma ilumina la estructura de redes específicas. Ahora, el nuevo artículo informa que pocas redes del mundo real muestran evidencia convincente de la ausencia de escala.

En un análisis estadístico de casi 1.000 redes extraídas de la biología, las ciencias sociales, la tecnología y otros dominios, los investigadores descubrieron que solo el 4 por ciento de las redes (como ciertas redes metabólicas en las células) superaban las pruebas más sólidas del documento. Y para el 67 por ciento de las redes, incluidas las redes de amistad de Facebook, las redes alimentarias y las redes de distribución de agua, las pruebas estadísticas rechazaron una ley de poder como una descripción plausible de la estructura de la red.

"Estos resultados socavan la universalidad de las redes sin escala y revelan que las redes del mundo real exhiben una rica diversidad estructural que probablemente requerirá nuevas ideas y mecanismos para explicar", escribieron los autores del estudio, Anna Broido y Aaron Clauset de la Universidad de Colorado. Boulder


Aaron Clauset ha descubierto que las redes libres de escala son de naturaleza rara, contrariamente a la creencia popular.
Universidad de Colorado, Boulder

Los científicos de redes están de acuerdo, en general, en que el análisis del artículo es estadísticamente sólido. Pero cuando se trata de interpretar sus hallazgos, el documento parece funcionar como una prueba de Rorschach, en la que tanto los defensores como los críticos del paradigma libre de escala ven lo que ya creían que era cierto. Gran parte de la discusión se ha desarrollado en vigorosos debates de Twitter.

Los partidarios del punto de vista libre de escala, muchos de los cuales llegaron a la ciencia de la red a través de la física, argumentan que la ausencia de escala pretende ser un modelo idealizado, no algo que captura precisamente el comportamiento de las redes del mundo real. Muchas de las propiedades más importantes de las redes libres de escala, dicen, también son válidas para una clase más amplia llamada "redes de cola pesada" a la que pueden pertenecer muchas redes del mundo real (estas son redes que tienen centros significativamente más conectados que la red aleatoria tiene, pero no necesariamente obedece una ley de poder estricta).

Los críticos objetan que términos como "sin escalas" y "colas pesadas" se mencionan en la literatura de ciencias de la red de manera tan vaga e inconsistente como para hacer que las afirmaciones centrales del sujeto sean infalsificables.

El nuevo documento "fue un intento de tomar un enfoque basado en datos para ordenar esta cuestión", dijo Clauset.

La ciencia de la red es una disciplina joven -la mayoría de sus trabajos datan de los últimos 20 años- y la conflictividad que rodea al periódico y el vocabulario propio de la ausencia de escala se deriva de la inmadurez del campo, dijo Mason Porter, matemático y científico de redes de la Universidad. de California, Los Angeles. La ciencia de la red, dijo, "todavía está en el Salvaje Oeste".

¿Una ley universal?

Muchas redes, desde celosías perfectamente ordenadas hasta redes puramente aleatorias, tienen una escala característica. En una retícula cuadrada bidimensional, por ejemplo, cada nodo está conectado exactamente a otros cuatro nodos (por lo que los matemáticos dicen que el "grado" del nodo es cuatro). En una red aleatoria, en la que cada par de nodos tiene alguna probabilidad constante de estar conectado entre sí, los diferentes nodos pueden tener diferentes grados, pero estos grados sin embargo se agrupan bastante cerca de la media. La distribución de grados tiene aproximadamente la forma de una curva de campana, y los nodos con un número desproporcionadamente grande de enlaces nunca ocurren, así como la distribución de las alturas de las personas se agrupa en un rango de 5 a 6 pies y nadie es un millón ( o incluso 10) pies de altura.

Pero cuando un equipo dirigido por Barabási examinó una muestra de la World Wide Web en 1998, vio algo muy diferente: algunas páginas web, como las páginas principales de Google y Yahoo, se vincularon con mucha más frecuencia que otras. Cuando los investigadores trazaron un histograma de los grados de los nodos, parecía seguir la forma de una ley de potencia, lo que significa que la probabilidad de que un nodo dado tuviera un grado k era proporcional a 1 / k elevado a una potencia. (En el caso de los enlaces entrantes en la World Wide Web, este poder fue de aproximadamente 2, informó el equipo).


Revista Lucy Reading-Ikkanda / Quanta

En una distribución de la ley de poder, no hay una escala característica (por lo tanto, el nombre "sin escala"). Una ley de poder no tiene ningún pico: simplemente disminuye para grados más altos, pero de forma relativamente lenta, y si amplía las secciones de su gráfico, se verá similar. Como resultado, aunque la mayoría de los nodos aún tienen un grado bajo, los centros con una enorme cantidad de enlaces aparecen en pequeñas cantidades, en todas las escalas.

El paradigma libre de escala en las redes surgió en un momento histórico en el que las leyes de poder habían adquirido un papel de gran envergadura en la física estadística. En los años sesenta y setenta, desempeñaron un papel clave en las leyes universales que subyacen a las transiciones de fase en una amplia gama de sistemas físicos, un hallazgo que le valió a Kenneth Wilson el Premio Nobel de Física de 1982. Poco después, las leyes de poder formaron el núcleo de otros dos paradigmas que se extendieron por el mundo de la física estadística: los fractales y una teoría sobre la organización en la naturaleza llamada criticidad autoorganizada.

Para cuando Barabási estaba centrando su atención en las redes a mediados de la década de 1990, los físicos estadísticos estaban preparados para ver leyes de poder en todas partes, dijo Steven Strogatz, un matemático de la Universidad de Cornell (y miembro del consejo asesor de Quanta). En física, dijo, hay una "religión de ley de poder".

Hubo un efecto de vagón en el que la gente hacía cosas indiscriminadamente.Mason Porter

El equipo de Barabási publicó sus hallazgos en Nature en 1999; un mes después, Barabási y su entonces estudiante de posgrado Réka Albert (ahora un científico de la red en la Universidad Estatal de Pensilvania) escribieron en Science, en un documento que ha sido citado más de 30,000 veces, que las leyes de poder describen la estructura no solo del World Wide Web pero también de muchas otras redes, incluida la red de colaboración de actores de cine, la red de energía eléctrica del oeste de los Estados Unidos y la red de citas de artículos científicos. La mayoría de las redes complejas, afirmó Barabási unos años más tarde en Linked, obedecen una ley de poder, cuyo exponente suele ser entre 2 y 3.

Un simple mecanismo llamado "fijación preferencial", argumentaron Albert y Barabási, explica por qué aparecen estas leyes de poder: cuando un nuevo nodo se une a una red, es más probable que se conecte a un nodo llamativo y de alto grado que a un oscuro y oscuro grado nodo. En otras palabras, los ricos se hacen más ricos y los centros se vuelven más exclusivos.

Las redes libres de escala, escribió el equipo de Barabási en el número del 27 de julio de 2000 de Nature, tienen algunas propiedades clave que las distinguen de otras redes: son robustas al mismo tiempo contra fallas en la mayoría de los nodos y vulnerables a los ataques dirigidos contra los centros. La portada de Nature pregonó esta última propiedad como el "talón de Aquiles de internet" (una caracterización que desde entonces ha sido disputada rotundamente por expertos en Internet).

El trabajo de Barabási electrizó a muchos matemáticos, físicos y otros científicos, y fue instrumental en el lanzamiento del campo moderno de la ciencia de redes. Desató un torrente de papeles que afirmaban que una red del mundo real tras otra no tenía escalas, una especie de vínculo preferencial en el que los primeros artículos de Barabási se convirtieron en los centros neurálgicos. "Hubo un efecto de vagón (efecto de red) en el que las personas estaban haciendo cosas indiscriminadamente", dijo Porter. La emoción se extendió a la prensa popular, con palabras sobre leyes universales de la naturaleza e historias de portada en Science, New Scientist y otras revistas.


Albert-László Barabási ha sido un campeón del paradigma de red sin escala. Su artículo de 1999 en Science argumentando que las redes libres de escala se encuentran ampliamente en la naturaleza ha sido citado más de 30,000 veces.

Desde el principio, sin embargo, el paradigma libre de escala también atrajo retrocesos. Los críticos señalaron que el apego preferencial está lejos del único mecanismo que puede dar lugar a leyes de poder, y que las redes con la misma ley de poder pueden tener topologías muy diferentes. Algunos científicos de redes y expertos en el campo arrojan dudas sobre la ausencia de escala de redes específicas como redes eléctricas, redes metabólicas y la internet física.

Otros se opusieron a la falta de rigor estadístico. Cuando una ley de poder se grafica en un "diagrama de registro y registro" (en el que los ejes xey tienen escalas logarítmicas) se convierte en una línea recta. Entonces, para decidir si una red estaba libre de escalas, muchos de los primeros investigadores simplemente observaron un diagrama log-log de los grados de la red. "Incluso bizqueábamos la pantalla de la computadora desde un ángulo para tener una mejor idea si la curva era recta o no", recuerda el científico de redes Petter Holme del Instituto de Tecnología de Tokio en una publicación de blog.

"Debe haber un millar de papeles", dijo Clauset, "en los que las personas planifican la distribución de títulos, la trazan y dicen que no tiene escalas sin realmente hacer un trabajo estadístico cuidadoso".

En respuesta a estas críticas, a lo largo de los años algunos de los físicos que estudiaban la ausencia de escalas cambiaron su enfoque a la clase más amplia de redes de cola pesada. Aun así, un flujo constante de artículos continuó afirmando que no hay escala para una creciente gama de redes.

Y la discusión quedó empañada por la falta de coherencia, de un periódico a otro, sobre lo que realmente significaba "sin escala". ¿Era una red sin escala una que obedecía a una ley de poder con un exponente entre 2 y 3, o una en la cual esta ley de poder surgía de un vínculo preferencial? ¿O fue solo una red que obedece a alguna ley de poder, o sigue una ley de poder en algunas escalas, o algo aún más impresionista?

"La falta de precisión del lenguaje es una frustración constante", dijo Porter.

Clauset, quien es activo en los esfuerzos de divulgación, ha descubierto que muchos de los estudiantes con los que interactúa todavía piensan que la omnipresencia de las leyes de poder es ciencia establecida. "Me llamó la atención la cantidad de confusión que había en la próxima generación de científicos acerca de las redes libres de escala", dijo.

La evidencia contra la falta de escalabilidad estaba dispersa en la literatura, con la mayoría de los documentos examinando solo unas pocas redes a la vez. Clauset estaba bien posicionado para hacer algo mucho más ambicioso: su grupo de investigación ha pasado los últimos años seleccionando un compendio gigante en línea, el Índice de Redes Complejas de Colorado (ICON), que comprende más de 4.000 redes extraídas de economía, biología, transporte y otros dominios

"Queríamos tratar la hipótesis como falsable, y luego evaluar la evidencia en todos los dominios", dijo.

Barriendo la suciedad y el polvo

Para probar el paradigma sin escalas, Clauset y Broido, su estudiante de posgrado, sometieron a casi un millar de las redes de ICON a una serie de pruebas estadísticas cada vez más estrictas, diseñadas para medir qué definiciones de escalabilidad (si es que las hay) podrían ser plausibles explicar la distribución de grados de la red. También compararon la ley de poder con varios otros candidatos, incluyendo una distribución exponencial (que tiene una cola relativamente delgada) y una distribución "logarítmica normal" (que tiene una cola más pesada que una distribución exponencial, pero una cola más ligera que una ley de poder )

No hay una teoría general de redes.

Alessandro Vespignani

Broido y Clauset descubrieron que, en cerca de dos tercios de las redes, ninguna ley de poder encaja lo suficientemente bien como para explicar de manera plausible la distribución de grados. (Eso no significa que el tercio restante necesariamente obedezca una ley de poder, solo que no se descartó una ley de poder). Y cada una de las otras distribuciones candidatas superó a la ley de poder en muchas redes, con el registro normal superando al poder ley en el 45 por ciento de las redes y, esencialmente, vincular con él en otro 43 por ciento.

Solo alrededor del 4 por ciento de las redes cumplió con la prueba más fuerte de Broido y Clauset, lo que requiere, en términos generales, que la ley de poder sobreviva a su prueba de bondad de ajuste, tenga un exponente entre 2 y 3 y supere las otras cuatro distribuciones.

Para Barabási, estos hallazgos no socavan la idea de que la falta de escalabilidad subyace a muchas o más complejas redes. Después de todo, dijo, en las redes del mundo real, un mecanismo como el afecto preferencial no será lo único que ocurre: otros procesos a menudo empujarán a la red lejos de la pureza, haciendo que la red falle las pruebas de Broido y Clauset. Los científicos de la red ya han descubierto cómo corregir estos otros procesos en docenas de redes, dijo Barabási.

"En el mundo real, hay tierra y polvo, y esta suciedad y polvo estarán en sus datos", dijo Alessandro Vespignani de Northeastern, otro físico convertido en científico de la red. "Nunca verás la ley de poder perfecta".

Como una analogía, observó Barabási, una roca y una pluma caen a velocidades muy diferentes a pesar de que la ley de la gravedad dice que deberían caer a la misma velocidad. Si no supiera sobre el efecto de la resistencia del aire, dijo, "concluiría que la gravitación es incorrecta".

Clauset no encuentra esta analogía convincente. "Creo que es bastante común para los físicos que están entrenados en mecánica estadística ... usar este tipo de analogías de por qué su modelo no debe mantenerse a un nivel muy alto".


Anna Broido es coautora del nuevo artículo.

Si observaras 1,000 objetos que caen en lugar de solo una roca y una pluma, dijo Clauset, surgiría una imagen clara de cómo funcionan tanto la gravedad como la resistencia al aire. Pero su análisis y el de Broido de casi 1,000 redes no han arrojado una claridad similar. "Es razonable creer que un fenómeno fundamental requeriría un trabajo de detective menos personalizado" de lo que pide Barabási, escribió Clauset en Twitter.

"La suposición tácita y común de que todas las redes están libres de escalas y depende de nosotros descubrir cómo verlas de esa manera, eso suena como una hipótesis no infalsificable", dijo.

Si algunas de las redes rechazadas por las pruebas involucran un mecanismo libre de escala superpuesto por otras fuerzas, entonces esas fuerzas deben ser bastante fuertes, dijeron Clauset y Strogatz. "Al contrario de lo que vemos en el caso de la gravedad ... donde los efectos dominantes son realmente dominantes y los efectos más pequeños en realidad son pequeñas perturbaciones, parece que lo que sucede con las redes es que no hay un solo efecto dominante", dijo Strogatz. .

Para Vespignani, el debate ilustra un abismo entre las mentalidades de físicos y estadísticos, quienes tienen perspectivas valiosas. Los físicos están tratando de ser "los artistas de la aproximación", dijo. "Lo que queremos encontrar es algún principio de organización".

El paradigma libre de escala, dijo Vespignani, brinda una valiosa intuición sobre cómo debería comportarse la clase más amplia de redes de cola pesada. Muchos de los rasgos de las redes sin escala, incluida su combinación de solidez y vulnerabilidad, son compartidos por redes de cola pesada, dijo, por lo que la pregunta importante no es si una red es precisa o no, sino si tiene una cola pesada. "Pensé que la comunidad estaba de acuerdo con eso", dijo.

Pero Duncan Watts, un científico de redes de Microsoft Research en la ciudad de Nueva York, objetó en Twitter que este punto de vista "realmente está cambiando las metas". Al igual que con "sin escala", dijo, el término "cola pesada" se usa de diferentes maneras en la literatura, y los dos términos a veces se combinan, lo que dificulta la evaluación de los diversos reclamos y pruebas. La versión de "cola larga" que está lo suficientemente cerca como para "escalar" para que muchas propiedades se transfieran no es una clase de redes especialmente amplia, dijo.

La ausencia de escala "en realidad significó algo muy claro una vez, y casi con certeza esa definición no se aplica a muchas cosas", dijo Watts. Pero en lugar de que los científicos de la red retrocedieran y retractaran las primeras afirmaciones, dijo, "el reclamo simplemente se transforma lentamente para ajustarse a toda la evidencia, al mismo tiempo que mantiene su factor sorpresa de etiqueta de marca. Eso es malo para la ciencia ".

A Porter le gusta bromear que si las personas quieren discutir algo polémico, deberían dejar de lado la política de EE. UU. Y hablar sobre las leyes de poder. Pero, dijo, hay una buena razón por la cual estas discusiones son tan tensas. "Tenemos estos argumentos porque los problemas son difíciles e interesantes".

Clauset ve su trabajo con Broido no como un ataque, sino como un llamado a la acción para los científicos de la red, para examinar un conjunto más diverso de posibles mecanismos y distribuciones de grados de lo que han estado haciendo. "Tal vez deberíamos considerar nuevas ideas, en lugar de intentar forzar viejas ideas para que encajen", dijo.

Vespignani está de acuerdo en que hay trabajo por hacer. "Si me preguntan, '¿Están todos de acuerdo en cuál es la verdad del campo?' Bueno, todavía no hay verdad", dijo. "No hay una teoría general de las redes".

lunes, 27 de febrero de 2017

Propiedades estructurales de la solidez de una red a ataques

Tolerancia de errores y ataques de redes complejas

Nature 406, 378-382 (27 July 2000) |
doi:10.1038/35019019;
Received 14 February 2000; Accepted 7 June 2000

Réka Albert, Hawoong Jeong & Albert-László Barabási

Department of Physics, 225 Nieuwland Science Hall, University of Notre Dame, Notre Dame, Indiana 46556, USA
Correspondence to: Albert-László Barabási Correspondence and requests for materials should be addressed to A.-L.B. (e-mail: Email: alb@nd.edu).

Muchos sistemas complejos muestran un sorprendente grado de tolerancia frente a errores. Por ejemplo, los organismos relativamente simples crecen, persisten y se reproducen a pesar de las drásticas intervenciones farmacéuticas o ambientales, una tolerancia de error atribuida a la robustez de la red metabólica subyacente1. Las complejas redes de comunicación2 muestran un sorprendente grado de robustez: aunque los componentes clave regularmente fallan, los fallos locales raramente llevan a la pérdida de la capacidad global de transmisión de información de la red. La estabilidad de estos y otros sistemas complejos se atribuye a menudo al cableado redundante de la red funcional definida por los componentes de los sistemas. Aquí se demuestra que la tolerancia de error no es compartida por todos los sistemas redundantes: sólo se muestra por una clase de redes no homogéneas, denominadas redes sin escala, que incluyen las redes World Wide Web3, 4, 5, Internet6, redes sociales7 y células8. Encontramos que tales redes muestran un grado inesperado de robustez, la capacidad de sus nodos para comunicarse no siendo afectada incluso por tasas de fracaso realistas. Sin embargo, la tolerancia de errores tiene un alto precio ya que estas redes son extremadamente vulnerables a ataques (es decir, a la selección y remoción de algunos nodos que juegan un papel vital en el mantenimiento de la conectividad de la red). Tal tolerancia de error y vulnerabilidad de ataque son propiedades genéricas de las redes de comunicación.


La creciente disponibilidad de datos topológicos sobre las grandes redes, ayudada por la informatización de la adquisición de datos, ha llevado a grandes avances en nuestra comprensión de los aspectos genéricos de la estructura y el desarrollo de la red9,10,11,12,13,14,15,16. Los resultados empíricos y teóricos existentes indican que las redes complejas pueden dividirse en dos clases principales basadas en su distribución de conectividad P (k), dando la probabilidad de que un nodo en la red esté conectado a k otros nodos. La primera clase de redes se caracteriza por un P (k) que alcanza un pico en una valla de cerca de valla media derecha y disminuye exponencialmente para k grande. Los ejemplos más investigados de tales redes exponenciales son el modelo de gráfico aleatorio de Erdös y Rényi9, y el modelo de Watts y Strogatz11 de pequeño mundo, que conduce a una red bastante homogénea, en la que cada nodo tiene aproximadamente el mismo número de enlaces, K sime fencekright cerca de la izquierda. Por el contrario, los resultados obtenidos en la World Wide Web (WWW) 3, 4, 5, Internet6 y otras grandes redes17,18,19 indican que muchos sistemas pertenecen a una clase de redes no homogéneas, denominadas redes libres de escala, para las cuales P (K) decae como una ley de potencia, que es P (k) aproximadamente k-gamma,  P( kapprox k libre de una escala característica. Mientras que la probabilidad de que un nodo tenga un número muy grande de conexiones (k doble mayor que la cerca de valla de cerca izquierda) está prácticamente prohibida en redes exponenciales, los nodos altamente conectados son estadísticamente significativos en redes libres de escala.-gamma




A, La red exponencial es homogénea: la mayoría de los nodos tienen aproximadamente el mismo número de enlaces. B, La red libre de escala es no homogénea: la mayoría de los nodos tienen uno o dos enlaces, pero unos pocos nodos tienen un gran número de enlaces, lo que garantiza que el sistema está totalmente conectado. Rojo, los cinco nodos con el mayor número de enlaces; Verdes, sus primeros vecinos. Aunque en la red exponencial sólo el 27% de los nodos son alcanzados por los cinco nodos más conectados, en la red libre de escala se alcanzan más del 60%, lo que demuestra la importancia de los nodos conectados en la red libre de escala. Nodos y 215 enlaces ((left fencekright fence  = 3.3). La visualización de la red se realizó utilizando el programa Pajek para el análisis de redes de gran tamaño: valla izquierda http://vlado.fmf.uni-lj.si/pub/networks/pajek/pajekman.htmright fence.

Comenzamos por investigar la robustez de los dos modelos básicos de distribución de conectividad, el modelo Erdös-Rényi (ER) 9, 10 que produce una red con cola exponencial y el modelo libre de escala17 con una cola de poder-ley. En el modelo ER primero definimos los N nodos, y luego conectamos cada par de nodos con la probabilidad p. Este algoritmo genera una red homogénea (Fig. 1), cuya conectividad sigue una distribución de Poisson que alcanzó un pico en la valla de cerca de valla izquierda y que se desintegra exponencialmente para k doble mayor que k double greater than left fenceright fence.

La distribución de conectividad no homogénea de muchas redes reales es reproducida por el modelo libre de escala17, 18 que incorpora dos ingredientes comunes a las redes reales: el crecimiento y el apego preferencial. El modelo comienza con nodos m0. En cada paso de tiempo t se introduce un nuevo nodo, que está conectado a m de los nodos ya existentes. La probabilidad Pii de que el nuevo nodo está conectado al nodo i depende de la conectividad ki del nodo i tal que  Pii = k i/Sigmajk j. Para t grande la distribución de conectividad es una ley de potencia que sigue P(k) = 2 m2/k3..

La interconexión de una red se describe por su diámetro d, definido como la longitud media de los caminos más cortos entre dos nodos cualesquiera de la red. El diámetro caracteriza la habilidad de dos nodos para comunicarse entre sí: cuanto menor es d, más corta es la trayectoria esperada entre ellos. Las redes con un número muy grande de nodos pueden tener un diámetro bastante pequeño; Por ejemplo, el diámetro de la WWW con más de 800 millones de nodos20 es alrededor de 19 (ref.3), mientras que se cree que las redes sociales con más de seis mil millones de individuos tienen un diámetro de alrededor de seis21. Para comparar correctamente los dos modelos de red, hemos generado redes que tienen el mismo número de nodos y enlaces, de modo que P (k) sigue una distribución de Poisson para la red exponencial y una ley de potencia para la red libre de escala.

Para abordar la tolerancia de error de las redes, se estudian los cambios de diámetro cuando se elimina una pequeña fracción f de los nodos. El mal funcionamiento (ausencia) de cualquier nodo en general aumenta la distancia entre los nodos restantes, ya que puede eliminar algunos caminos que contribuyen a la interconexión del sistema. En efecto, para la red exponencial el diámetro aumenta monotónicamente con f (figura 2a); Así, a pesar de su cableado redundante (Fig. 1), es cada vez más difícil para los nodos restantes para comunicarse entre sí. Este comportamiento se basa en la homogeneidad de la red: puesto que todos los nodos tienen aproximadamente el mismo número de enlaces, todos ellos contribuyen igualmente al diámetro de la red, por lo que la eliminación de cada nodo causa la misma cantidad de daño. Por el contrario, observamos un comportamiento drásticamente diferente y sorprendente para la red libre de escala (figura 2a): el diámetro permanece sin cambios bajo un nivel creciente de errores. Así, incluso cuando el 5% de los nodos fallan, la comunicación entre los nodos restantes de la red no se ve afectada. Esta robustez de las redes libres de escala está enraizada en su distribución de conectividad extremadamente inhomogénea: debido a que la distribución de la ley de potencia implica que la mayoría de los nodos tienen sólo unos pocos enlaces, los nodos con conectividad pequeña serán seleccionados con mucha mayor probabilidad. La eliminación de estos nodos "pequeños" no altera la estructura de la ruta de los nodos restantes, y por lo tanto no tiene ningún impacto en la topología de red general.


(a) Comparación entre los modelos de red exponencial (E) y libre de escala (SF), cada uno de los cuales contiene N = 10.000 nodos y 20.000 enlaces (es decir, valla de cerca de valla izquierda = 4). Los símbolos azules corresponden al diámetro de las redes exponenciales (triángulos) y las redes libres de escala (cuadrados) cuando una fracción f de los nodos se elimina aleatoriamente (tolerancia de error). Los símbolos rojos muestran la respuesta de las redes exponenciales (diamantes) y las redes libres de escala (círculos) a los ataques, cuando se eliminan los nodos más conectados. Determinamos la dependencia f del diámetro para diferentes tamaños de sistema (N = 1.000; 5.000; 20.000) y encontramos que las curvas obtenidas, además de una corrección de tamaño logarítmico, se superponen con las mostradas en a, indicando que los resultados son independientes del Tamaño del sistema. Observamos que el diámetro de la red sin perturbaciones (f = 0) libre de escala es menor que el de la red exponencial, lo que indica que las redes libres de escala utilizan los enlaces disponibles para ellos de manera más eficiente, generando una red más interconectada. B, Los cambios en el diámetro de Internet bajo fallos aleatorios (cuadrados) o ataques (círculos). Utilizamos el mapa topológico de Internet, que contiene 6.209 nodos y 12.200 enlaces (left fencekright fence = 3.4), recopilados por el National Laboratory for Applied Network Research, cerca de la izquierda fencehttp: //moat.nlanr.net/Routing/rawdata/right fence. C, error (cuadrados) y ataque (círculos) de supervivencia de la World Wide Web, medido en una muestra que contiene 325.729 nodos y 1.498.353 enlaces3, de tal manera que left fencekright fence  = 4.59.

Un agente informado que intenta dañar deliberadamente una red no eliminará los nodos al azar, sino que preferentemente se dirigirá a los nodos más conectados. Para simular un ataque primero retiramos el nodo más conectado y continuamos seleccionando y eliminando nodos en orden decreciente de su conectividad k. Al medir el diámetro de una red exponencial bajo ataque, se observa que, debido a la homogeneidad de la red, no existe diferencia sustancial si los nodos se seleccionan aleatoriamente o en orden decreciente de conectividad (Figura 2a). Por otro lado, se observa un comportamiento drásticamente diferente para las redes libres de escala. Cuando se eliminan los nodos más conectados, el diámetro de la red libre de escala aumenta rápidamente, duplicando su valor original si se elimina el 5% de los nodos. Esta vulnerabilidad a los ataques está enraizada en la inhomogeneidad de la distribución de conectividad: la conectividad es mantenida por unos pocos nodos altamente conectados (Figura 1b), cuya eliminación altera drásticamente la topología de la red y disminuye la capacidad de los nodos restantes para comunicarse con cada uno otro.

Cuando los nodos se eliminan de una red, los clústeres de nodos cuyos vínculos con el sistema desaparecen pueden ser cortados (fragmentados) del clúster principal. Para entender mejor el impacto de los fallos y los ataques en la estructura de la red, investigamos a continuación este proceso de fragmentación. Medimos el tamaño del mayor grupo, S, que se muestra como una fracción del tamaño total del sistema, cuando una fracción f de los nodos se eliminan aleatoriamente o en un modo de ataque. Encontramos que para la red exponencial, a medida que aumentamos f, S muestra un comportamiento de tipo umbral tal que para f > fec = 0.28 tenemos S sime 0. Se observa un comportamiento similar cuando se monitorea el tamaño medio de  left fencesright fence de los aislados (Es decir, todos los conglomerados excepto el más grande), encontrando que left fencesright fence aumenta rápidamente hasta que  left fencesright fence sime 2 en  fec, después de lo cual disminuye  left fence sright fence = 1. Estos resultados indican el siguiente escenario de desglose ( Fig. 3a). Para los pequeños f, sólo los nodos individuales se separan, a  left fencesright fence sime 1, pero a medida que f aumenta, el tamaño de los fragmentos que caen del grupo principal aumenta, mostrando un comportamiento inusual en  fec. Cuando el sistema se desmorona; El racimo principal se rompe en pedazos pequeños, llevando a S sime 0, y el tamaño de los fragmentos, valla cerrada a la izquierda, picos. A medida que continuamos eliminando los nodos (f > fec ), fragmentamos estos grupos aislados, lo que conduce a una cerca decreciente de la cerca derecha. Debido a que el modelo ER es equivalente a la percolación dimensional infinita22, el comportamiento umbral observado es cualitativamente similar al punto crítico de percolación.



El tamaño relativo del mayor grupo S (símbolos abiertos) y el tamaño promedio de los grupos aislados dejó la valla cerrada (símbolos rellenos) en función de la fracción de nodos eliminados f para los mismos sistemas que en la Fig. 2. El tamaño S se define como la fracción de nodos contenidos en el grupo más grande (es decir, S = 1 para f = 0). A, Fragmentación de la red exponencial bajo fallos aleatorios (cuadrados) y ataques (círculos). B, Fragmentación de la red libre de escala bajo fallos aleatorios (cuadrados azules) y ataques (círculos rojos). El recuadro muestra las curvas de tolerancia de error para toda la gama de f, indicando que el racimo principal se descompone sólo después de haber sido completamente desinflado. Observamos que el comportamiento de la red libre de escala bajo errores es consistente con una transición de percolación extremadamente retardada: a tasas de error alto no realistas (fmax sime  0,75) observamos un pico muy pequeño en la valla de fencesright izquierda left fencesright fence (left fence smaxright fence sime1,06 ) Incluso en el caso de fallas aleatorias, lo que indica la existencia de un punto crítico. Para a y b se repitió el análisis para sistemas de tamaños N = 1.000, 5.000 y 20.000, encontrando que las curvas de cerca S y de valla izquierda superpuestas se superponen con la que se muestra aquí, indicando que el escenario de agrupamiento global y el valor de la Punto es independiente del tamaño del sistema. C, d, Fragmentación de Internet (c) y WWW (d), utilizando los datos topológicos descritos en la Fig. 2. Los símbolos son los mismos que en b. La valla de fencesright izquierda en d en el caso de ataque se muestra en una escala diferente, dibujada en el lado derecho del marco. Considerando que para f pequeño hemos dejado la cerca fencesright de la cerca 1.5, en fwc = 0.067 el tamaño medio del fragmento aumenta repentinamente, pico en   left fences maxright fence sime  60, después decae rápidamente. Para la curva de ataque en d ordenamos los nodos en función del número de enlaces salientes, kout. Observamos que mientras que las tres redes estudiadas, el modelo libre de escala, Internet y la WWW, tienen diferentes gamas, vallas de cerca y coeficientes de agrupamiento11, su respuesta a ataques y errores es idéntica. De hecho, encontramos que la diferencia entre estas magnitudes cambia sólo fc  y la magnitud de dS and left fencesright fence pero no la naturaleza de la respuesta de estas redes a las perturbaciones.

Sin embargo, la respuesta de una red libre de escala a los ataques y fallos es bastante diferente (Fig. 3b). Para los fracasos aleatorios no se observa un umbral para la fragmentación; En cambio, el tamaño del grupo más grande disminuye lentamente. El hecho de que  left fencesright fence approximately 1 para la mayoría de los valores de f indica que la red es deflactada por los nodos que se rompen uno por uno, el nivel de error creciente que conduce al aislamiento de solo nodos solamente, no racimos de nodos. Por lo tanto, en contraste con la fragmentación catastrófica de la red exponencial en fe c, la red libre de escala permanece unida como un cluster grande para valores muy altos de f, proporcionando evidencia adicional de la estabilidad topológica de estas redes bajo fallos aleatorios. Este comportamiento es consistente con la existencia de un punto crítico extremadamente retrasado (Fig. 3) donde la red se descompone sólo después de que el racimo principal haya sido completamente desinflado. Por otra parte, la respuesta al ataque de la red libre de escala es similar (pero más rápida) a la respuesta al ataque y al fallo de la red exponencial (figura 3b): en un umbral crítico fsfc sime 0.18, menor que el valor  fec sime 0.28  observado para la red exponencial, el sistema se deshace, formando muchos grupos aislados (Fig. 4).


a-f, La distribución de tamaños de clúster para varios valores de f cuando una red libre de escala de parámetros dada en la Fig. 3b está sujeto a fallos aleatorios (a-c) o ataques (d-f). Los paneles superiores, las redes exponenciales bajo fallos y ataques aleatorios y las redes libres de escala bajo ataques se comportan de manera similar. Para f pequeños, los grupos de diferentes tamaños se descomponen, aunque todavía hay un grupo grande. Esto es apoyado por la distribución de tamaño de clúster: aunque vemos algunos fragmentos de tamaños entre 1 y 16, hay un gran grupo de tamaño 9.000 (el tamaño del sistema original es 10.000). En un fc crítico (ver Fig. 3) la red se rompe en fragmentos pequeños entre los tamaños 1 y 100 (b) y el grupo grande desaparece. A mayor aún f (c) los grupos se fragmentan más en nodos individuales o grupos de tamaño dos. Los paneles inferiores, las redes libres de escala siguen un escenario diferente bajo fallos aleatorios: el tamaño del grupo más grande disminuye lentamente como primeros nodos individuales, y luego se rompen grupos pequeños. De hecho, en f = 0,05 sólo los nodos simples y dobles se rompen (d). En f = 0.18, la red está fragmentada (b) bajo ataque, pero bajo fallas el gran grupo de tamaño 8.000 coexiste con grupos aislados de tamaños 1 a 5 (e). Incluso para una tasa de error de f = 0,45, el clúster grande persiste, el tamaño de los fragmentos rotos no excede 11 (f).


Aunque se están realizando grandes esfuerzos para diseñar componentes tolerantes a errores y de bajo rendimiento para los sistemas de comunicación, poco se sabe sobre el efecto de los errores y los ataques a la conectividad a gran escala de la red. A continuación, investigamos el error y la tolerancia de ataque de dos redes de creciente importancia económica y estratégica: Internet y la WWW.

Faloutsos et al.6 investigaron las propiedades topológicas de Internet en el nivel de enrutador e inter-dominio, encontrando que la distribución de conectividad sigue una ley de potencia,  P(kapprox k-2.48. En consecuencia, esperamos que debe mostrar la tolerancia de error y la vulnerabilidad de ataque predicho por nuestro estudio. Para probar esto, hemos utilizado la última encuesta de la topología de Internet, dando a la red en el nivel inter-dominio (sistema autónomo). De hecho, encontramos que el diámetro de Internet no se ve afectado por la eliminación aleatoria de hasta 2,5% de los nodos (un orden de magnitud mayor que la tasa de fallos (0,33%) de los enrutadores de Internet23), mientras que si el mismo porcentaje De los nodos más conectados son eliminados (ataque), d más que triples (figura 2b). De forma similar, el clúster grande conectado persiste para altas tasas de eliminación de nodos aleatorios, pero si los nodos se eliminan en el modo de ataque, el tamaño de los fragmentos que se rompen aumenta rápidamente, apareciendo el punto crítico a fIc sime 0.03 (Figura 3b).

La WWW forma un enorme grafo dirigido cuyos nodos son documentos y los bordes son los hipervínculos de URL que apuntan de un documento a otro, su topología determinando la capacidad de los motores de búsqueda para localizar información sobre él. La WWW es también una red libre de escala: las probabilidades Pout (k) y Pin (k) que un documento tiene k enlaces salientes y entrantes siguen una ley de poder sobre varios órdenes de magnitud, es decir, P(kapprox k -gamma, con gammain = 2.1 y gamma out = 2.453, 4, 24, Ya que no existe un mapa topológico completo de la WWW, limitamos nuestro estudio a un subconjunto de la red que contiene 325.729 nodos y 1.469.680 enlaces (left fencekright fence = 4.59 ) (Referencia 3). A pesar de la dirección de los enlaces, la respuesta del sistema es similar a las redes no dirigidas que investigamos anteriormente: después de un ligero incremento inicial, d permanece constante en el caso de fallas aleatorias y aumentos para ataques (Figura 2c). La red sobrevive como una agrupación grande bajo altas tasas de fracaso, pero el comportamiento de la cerca cercada por la izquierda indica que bajo ataque el sistema se desmorona abruptamente en fw c  = 0.067 (Figura 3c).

En resumen, encontramos que las redes libres de escala exhiben un sorprendentemente alto grado de tolerancia contra fallos aleatorios, una propiedad no compartida por sus contrapartes exponenciales. Esta robustez es probablemente la base de la tolerancia de error de muchos sistemas complejos, que van desde células8 a sistemas de comunicación distribuidos. También explica por qué, a pesar de los frecuentes problemas del enrutador23, rara vez experimentamos cortes de red globales o, a pesar de la indisponibilidad temporal de muchas páginas web, nuestra capacidad de navegar y localizar información en la web no se ve afectada. Sin embargo, la tolerancia de error se produce a expensas de la supervivencia de ataque: el diámetro de estas redes aumenta rápidamente y se rompen en muchos fragmentos aislados cuando se atacan los nodos más conectados. Esta disminución de la capacidad de supervivencia de los ataques es útil para el diseño de fármacos8, pero es menos alentadora para los sistemas de comunicación, como Internet o la WWW. Aunque generalmente se piensa que los ataques a redes con administración de recursos distribuidos son menos exitosos, nuestros resultados indican lo contrario. Las debilidades topológicas de las actuales redes de comunicación, enraizadas en su distribución de conectividad no homogénea, reducen seriamente su capacidad de supervivencia de ataque. Esto podría ser explotado por aquellos que buscan dañar estos sistemas.