Mostrando entradas con la etiqueta PageRank. Mostrar todas las entradas
Mostrando entradas con la etiqueta PageRank. Mostrar todas las entradas

miércoles, 27 de marzo de 2019

Cómo conquistar al/a la inalcanzable: Consejos desde el ARS

Cómo salir con alguien fuera de tu alcance

La minería de datos sugiere por qué las parejas tienden a coincidir en la deseabilidad y cómo mejorar sus probabilidades cuando persiguen a alguien más arriba en la escala.
por Tecnología Emergente del arXiv




Una observación curiosa sobre las asociaciones humanas es que las parejas tienden a coincidir en términos de edad, educación, actitudes e incluso atractivo físico.

Los sociólogos y los biólogos evolutivos han discutido durante mucho tiempo acerca de cómo sucede esto, con las teorías que caen en dos campos. En un campo está la hipótesis de juego. Esta es la idea de que las personas de alguna manera saben cuán deseables son y eligen un compañero al mismo nivel.

En el otro campo está la hipótesis de la competencia. Esto supone que todos, independientemente de la deseabilidad, buscan el socio más deseable. El resultado es que las personas más deseables se emparejan, seguidas de las siguientes más deseables, y así sucesivamente.

Estas dos hipótesis producen resultados similares de tipos de comportamiento completamente diferentes. La única manera de separarlos es estudiar en detalle el comportamiento de apareamiento. Eso siempre ha sido demasiado difícil de hacer en la escala necesaria.

Hoy, eso cambia, gracias al trabajo de Elizabeth Bruch y Mark Newman en la Universidad de Michigan, que han extraído los datos de un popular sitio de citas en línea para romper el punto muerto. Su avance es una forma nueva y objetiva de medir la deseabilidad y clasificar a las personas en consecuencia.

El trabajo proporciona un nuevo prisma poderoso a través del cual se puede ver el comportamiento de de las citas exitosas. Los investigadores dicen que muestra que la competencia por parejas crea una jerarquía pronunciada en la deseabilidad y que tanto hombres como mujeres buscan consecuentemente parejas más deseables que ellas mismas. También apunta a una estrategia simple que podría mejorar las posibilidades de éxito para la mayoría de las personas.




Primero, el método objetivo de Bruch y Newman para medir la deseabilidad: dicen que las personas más populares son claramente las que reciben el mayor interés en los sitios de citas, según lo cuantificado por la cantidad de mensajes que reciben.

Según esta medida, la persona más popular en el estudio es una mujer de 30 años de Nueva York, que recibió 1,504 mensajes durante el mes en que Bruch y Newman realizaron su estudio. "[Eso es] equivalente a un mensaje cada 30 minutos, día y noche, durante todo el mes", dicen.

Pero la deseabilidad no se trata solo de la cantidad de mensajes recibidos, sino de quiénes son esos mensajes. "Si te contactan personas que son deseables, entonces presumiblemente eres más deseable", afirman los investigadores.

Si este tipo de enfoque le suena familiar, es porque se basa en el famoso algoritmo PageRank de Google. Esto se ha utilizado para clasificar todo, desde páginas web hasta ganadores del Premio Nobel.

En este escenario, el algoritmo PageRank proporciona un enfoque objetivo, basado en la red, para clasificar a hombres y mujeres por su deseabilidad. Y una vez hecho esto, resulta sencillo probar las hipótesis de concordancia y competencia al monitorear si las personas buscan parejas con un nivel similar de deseabilidad o no.

Los resultados hacen para la lectura interesante. "Encontramos que tanto los hombres como las mujeres buscan parejas que en promedio son aproximadamente un 25% más deseables que ellos mismos", dice Bruch y Newman. “Mensajería de parejas potenciales que son más deseables que uno mismo no es solo un acto ocasional de ilusiones; Es la norma ".

Este enfoque no está sin sus trampas. La probabilidad de recibir una respuesta disminuye dramáticamente a medida que aumenta la brecha de deseabilidad. Es fácil imaginar que las personas que contactan a parejas más deseables harían esto más a menudo para aumentar sus posibilidades de obtener una respuesta.

"De hecho, hacen lo contrario: la cantidad de contactos iniciales que un individuo realiza se reduce rápidamente a medida que aumenta la brecha y son las personas que se acercan a los socios menos deseados los que envían la mayor cantidad de mensajes", dicen Bruch y Newman.

Así que las personas obviamente adoptan diferentes estrategias para acercarse a parejas potenciales con alta y baja deseabilidad. De hecho, los investigadores dicen que las personas dedican más tiempo a elaborar mensajes más largos y personalizados para socios más deseables: un enfoque de calidad sobre la cantidad.

El equipo también estudió el contenido de estos mensajes utilizando el análisis de sentimientos. Curiosamente, encontraron que las mujeres tienden a usar más palabras positivas en los mensajes a los hombres deseables, mientras que los hombres usan menos palabras positivas.

Ese puede ser el resultado del aprendizaje por experiencia. "Los hombres experimentan tasas de respuesta ligeramente más bajas cuando escriben mensajes redactados de manera más positiva", dicen Bruch y Newman.

Si estas diferentes estrategias funcionan está lejos de ser claro. "La variación en la recompensa de las diferentes estrategias es bastante pequeña, lo que sugiere que, en igualdad de condiciones, el esfuerzo puesto por escribirlo más largo o más mensajes positivos puede desperdiciarse", dicen.

Es un trabajo interesante, pero tiene menos relevancia para las citas fuera de línea. Las citas en línea ofrecen un gran volumen de parejas potenciales con un umbral bajo para enviar un mensaje, que es bastante diferente del mundo sin conexión.

Sin embargo, los resultados proporcionan algunas ideas importantes. Con respecto a las hipótesis de coincidencia y competencia, la evidencia sugiere que las personas usan ambas. "Son conscientes de su propia posición en la jerarquía y ajustan su comportamiento en consecuencia, mientras que al mismo tiempo compiten modestamente por compañeros más deseables", dicen Bruch y Newman.

"Nuestros resultados son consistentes con el concepto popular de "ligas" de citas, como se refleja en la idea de que alguien puede estar "fuera de tu liga" o "fuera de tu alcance".

Los hallazgos también sugieren una estrategia obvia para atraer a un compañero que está "fuera de su liga". Bruch y Newman dicen que las posibilidades de recibir una respuesta de un socio altamente deseable son bajas, pero no son nulas.

Por lo tanto, la mejor estrategia debería ser enviar más mensajes a socios altamente deseables y estar preparados para esperar más tiempo para recibir una respuesta. "Mensajear a 2 o 3 veces más parejas potenciales para obtener una cita parece una inversión bastante modesta", dicen los investigadores.

Si alguien que busca un compañero tiene tiempo libre, inténtelo y díganos cómo le va.


Ref: arxiv.org/abs/1808.04840 : Aspirational Pursuit Of Mates In Online Dating Markets


viernes, 13 de mayo de 2016

Marketing: Usando Gephi para tareas de SEO


SEO y sitio web para ver: ir más allá con Gephi
Simon Georges | Makina Corpus


Podemos diagnosticar muchos problemas de SEO durante la visualización de una página web con Gephi, siempre que sean metódica.

La visualización es ahora una necesidad para un SEO (véase, por ejemplo este artículo) y esta es una razón para el aumento de las herramientas de Saas reservadas. Usando Gephi (OSS de visualización de redes) es especialmente frecuente para múltiples usos, incluyendo la visualización y optimización de la red interna.

Sin embargo, lo que hace que la visualización término SEO era un poco revolucionado recientemente por Cocon. Esta su visión circular.


Motivado por la herramienta durante la presentación del video SearchCast Laurent Bourrelly, quería tratar de replicar algunas de las visualizaciones disponibles en esta herramienta sólo usando Gephi.
Atención en el resto del artículo, las fórmulas se dan para Libre Office (viva el software libre!). Por lo tanto, hay que adaptarse a Excel, incluyendo el reemplazo de "Data.A1" con "datos! A1".

La base: los enlaces internos y PageRank

Esta parte no será una sorpresa para quienes están familiarizados con Gephi que pueden ir directamente a la URL de vista u orugas Vista: presento en efecto el mismo que el conjunto de tutoriales sobre el uso Gephi para SEO: visualización de los enlaces internos del sitio.

En primer lugar vamos a preparar los datos que necesitaremos: Así que empieza explorando el sitio usando Screaming Frog. Vamos a copiar el rastreo completo de los datos en una hoja de cálculo, que llamaremos ficha "Datos". A continuación, exportar los enlaces internos en una pestaña segundo "Enlaces":




  • Primer paso: calcular el PageRank y, posiblemente, la modularidad, a partir de los enlaces internos. Para esto :
    • No tener en exportación de enlaces internos que href líneas de tipo y sólo las columnas que contienen URLs (origen y destino), y cambiar el nombre de la "Fuente" y "destino";
    • Exportar hoja de CSV.
    • Gephi abierta, crear un nuevo proyecto, vaya a la pestaña "Laboratorio de Datos" e importar el archivo recién creado (por lo general, se detecta sólo que son enlaces, y todas las opciones son correctas).
    • A continuación, puede cambiar a la primera pestaña ( "Información general"). A continuación, ver una visualización de su sitio en la forma de un gráfico no organizada ninguna:




  • Antes de ver, vamos a utilizar las funciones de estadísticas Gephi:



Aquí vamos a iniciar directamente el cálculo de los 2 algoritmos que nos va a interesar: Modularidad y PageRank.



El PageRank determina la probabilidad de llegar en la página independientemente de la página en su sitio donde se llega, vamos a decir que es importante que su sitio proporciona una página (atención aquí, sólo hablamos de enlaces , la popularidad interno y externo no se tiene en cuenta).

La modularidad es un concepto puramente "red" no se utiliza en SEO: la modularidad rompe una red en subredes. Si todo va bien, esto hará que los valores de "conglomerados" de páginas de su sitio.


  • Ahora vamos a utilizar estos cálculos para mejorar la visualización:




    • El primer icono al lado de "nodos" y "bordes" representa el color: haga clic en "Atributos", elegir el "modularidad" atributo (que no está presente si no se ha iniciado el cálculo), y haga clic "Aplicar": su visualización debe iluminar.
    • Al hacer clic en el icono al lado de usted puede elegir la opción "PageRank", como atributo de tamaño. Elegir un rango de tamaño que se adapte a usted (yo uso 30 a 150, por ejemplo), y haga clic en "Aplicar" página debe empezar a diferenciarse.
  • A continuación, puede jugar con algoritmos de organización espacial para representar mejor su sitio.



No conseguimos nada satisfactoria: surge ningún clúster, hay demasiados enlaces internos en el sitio para analizar cualquier cosa, desde este punto de vista (pero contras, ya podemos pensar que abogará una racionalización de los enlaces internos).

Ahora vamos a tratar las visualizaciones más específicos, con la esperanza de identificar otros problemas del sitio.

La vista "URL"

Cocon.se ofrece una vista "URL", que muestra una vista en la que el padre es el URL de la página principal. A partir de los datos que ha copiado del ScreamingFrog, es bastante fácil de encontrar al padre de un URL de la página: crear una nueva hoja. En la segunda columna, utilice la fórmula

= Data.A1

en la celda A1 y, a continuación, copiar toda la columna. En la primera columna de esta hoja, a continuación, utilizar la fórmula

= LEFT (B1; FIND ( "/ [^ /] * $", B1) -1)

Tendrá una columna rellena con la url "padre" de la página. Trate de mantener sólo los enlaces a páginas web (archivos de extraer), que será más eficaz en términos de visualización.

Tenga en cuenta que algunos sistemas, tendrá que añadir final "/" porque las direcciones URL de su sitio contienen (que alcanzó los límites de la automatización, y no siempre se ajustará algunas URL).

Si se utiliza la hoja de trabajo que ha creado como fuente de "enlaces" en Gephi (después de eliminar los enlaces importados en el párrafo anterior, pero manteniendo los nodos para mantenerlos involucrados y colores), se obtiene una representación las direcciones URL de la estructura del sitio, una especie "humana" de la visión de cómo el sitio fue diseñado.



En este ejemplo, no es completamente grupos separados: esto es porque en algunos casos no existiera la página "padre". Aquí está un sitio Drupal con el módulo de reescritura de URL (Pathauto) en su configuración por defecto, todas las URL de las páginas están en "/ content / [titulo-de-la-página]", y no hay página "/ contenido" en el sitio (el bloque en la parte superior izquierda). Este problema es, por supuesto manchado directamente de los datos de rastreo, pero permite la visualización de ilustrar de manera efectiva al cliente.

El bloque inferior de la derecha representa las páginas de "etiquetas", la estructura no se integra bien con el resto de la página web o bien (sin página "/ tag", mientras que todas estas URL son "/ tag / [tag-name]." se podría proponer una URL reescritura, tal vez podría proporcionar ventajosamente una simple supresión de estas páginas (excepto tal vez de los que se PageRank interna es significativa, probablemente merece ser convertido en la sección "real" de la página).

Finalmente, la última observación, todos los colores se mezclan en este punto de vista, lo que indica que los enlaces internos no tienen nada que ver con la estructura de URL, por lo que no hay silos de la organización.

La vista "Crawler"

Cocon.se también ofrece una visión "orugas", destacando el primer enlace que llevó al descubrimiento de una página. Para simular este punto de vista con Gephi, vamos a reanudar nuestro fichero de identificación de los enlaces internos, pero esta vez vamos a cruzar los datos con el "nivel" de la columna Screaming Frog datos que muestran el número de clics necesarios para acceder a la página.

Al lado de cada columna "Fuente" y "destino", utilizo la fórmula

= BUSCARV (A2; Datos $ A $ 2. Datos $ Z $ 1000; 26; 0).

buscará el contenido de la celda A2 de mi hoja actual en la primera columna indica el área I (A2 -> Z1000), de manera que la columna A es que las direcciones URL, y una vez que el valor encontrado, me conviene devolver el valor de la columna 26 columnas a la derecha (columna Z aquí) la columna del "nivel": entonces consigo el nivel de profundidad de cada una de las páginas interiores que participan en mis prisiones.

Última operación, vamos a filtrar los enlaces para mantener sólo aquellos con "nivel" de la fuente es directamente debajo del punto de destino (mediante la creación de una fórmula que contiene colone

= (B2 + 1 = D2)

y mantener sólo las filas cuya célula es "TRUE").

más vamos a borrar la tabla de enlaces Gephi a utilizar estos nuevos datos como "mesa de enlace", y jugar un poco con los algoritmos espaciales, obtenemos una representación completamente diferente:



Aquí, dos cosas son rápidamente destacaron:

  • La mayoría de las páginas se descubren a través de la página de mapa del sitio (el gran redondel central verde en el centro del bloque);
  • Muchas páginas no están ligados: son páginas descubrimientos a través de las etiquetas "canónicos" o páginas cuyas URL contener parámetros que he suprimido para ejecutar diferentes fórmulas). Cabe aquí probablemente adaptar nuestras fórmulas para dar cuenta de estos casos. Sin embargo, se identificaron una fuente potencial de problemas: las páginas no canónicos directamente o muchos de paginación (el parámetro suprimirse en relación con una paginación) que se rastree e indexe.

En caso de que no se elimina el parámetro de búsqueda, es también por este punto de vista se puede identificar canales de búsqueda (como largas cadenas de nodos), o "trampas" para el robot (generaciones muchas de las páginas dinámicas que no devuelven ningún contenido (incluso la identificación gráfica que las cadenas de paginación)).

Una vez más, esto también es identificable en la lectura de los datos de rastreo, pero no necesariamente como de inmediato, y se puede utilizar para ilustrar la situación de su cliente.

Conclusión

Se lograron los objetivos iniciales: podemos identificar los problemas directamente de visualizaciones, e ilustrar a nuestros clientes para entender mejor.

Está claro que contra Cocon.Se pone mucho más las cosas hacia adelante, especialmente para todos los problemas de "fuga" capullos semánticas: aquí podemos obtener un resultado que se acerca la observación de los colores que intervienen en cada grupo, porque las clases modulares deben corresponder normalmente a los capullos.

Dicho esto, los resultados obtenidos por nuestro método nos encontramos hoy en día, aunque los técnicos de agradecimiento Cocon.Se por empujarme a mano Gephi visualización de la pregunta fundamental.

Si usted tiene otras ideas de análisis o visualización, por favor hágamelo saber!

domingo, 15 de marzo de 2015

Pagerank descubre el mejor equipo de fútbol de todos los tiempos

El algoritmo Pagerank revela el máximo equipo de fútbol de todos los tiempos
La red creada por los resultados de los equipos que juegan entre sí puede ser clasificado en la misma forma que los sitios web, dicen los científicos de la computación.
MIT Technology Review



El algoritmo PageRank de Google se ha convertido en uno de los más famosos de la informática. Fue diseñado originalmente para clasificar los sitios web de acuerdo a su importancia al suponer que un sitio es importante si se vincula a otros sitios importantes.

El algoritmo funciona contando los enlaces a un sitio web y la importancia de los sitios de estos vienen. A continuación, utiliza este para calcular la importancia del sitio original. A través de un proceso de iteración, el algoritmo se le ocurre un ranking.

Desde los fundadores de Google, Larry Page y Sergei Brin, desarrollaron el algoritmo a mediados de la década de 1990, los investigadores han comenzado a usarlo para clasificar nodos en otras redes. Una idea ha sido la de utilizarlo para clasificar documentos científicos que utilizan la red de enlaces en las referencias que contienen. Otra es la de usarla para las elecciones en las que todo el mundo es un candidato y pueden votar por nadie más.

Hoy en día, Verica Lazova y Lasko Basnarkov en la Universidad Cyril y Methodius de Macedonia han encontrado otro uso para el algoritmo de PageRank. Estos chicos lo han utilizado para crear un ranking de los equipos nacionales de fútbol del mundo de todos los tiempos utilizando los resultados de los 20 torneos de la Copa Mundial que se han producido desde 1930. Su hipótesis es que un equipo debe altamente clasificado si se ha golpeado a otros equipos altamente clasificados .

El método es sencillo. Se llevan a los resultados de más de 7.000 partidos jugados entre 210 países desde 1930. Durante estos juegos, los equipos anotaron más de 20.000 goles en un promedio de 4.3 por partido.

Lazova y Basnarkov van a crear una red en la que los equipos son nodos y existe un vínculo entre ellos si han jugado uno contra el otro. El peso y la polaridad de este enlace depende de los resultados, que ha vencido a quién y así sucesivamente.

Finalmente, se aplican el algoritmo Pagerank durante un número de iteraciones para determinar un ranking.

Los resultados serán una lectura interesante para cualquier aficionado al fútbol. El equipo mejor clasificado es Brasil, que no es de extrañar teniendo en cuenta que ha ganado el torneo un récord de 5 veces, más que cualquier otra nación. También ha jugado más partidos que cualquier otro equipo, ganado más partidos y marcado más goles.

Después de Brasil vienen de Italia, Alemania, Holanda, Argentina, Inglaterra, España, Francia y Checoslovaquia, en ese orden.

Lazova y Basnarkov luego comparar su clasificación a la lista de todos los tiempos creado por órgano rector internacional del fútbol, ​​la FIFA. Esto tiene Brasil en la parte superior, seguido por Alemania y luego Italia. Argentina es el equipo clasificado cuarto con España quinto y sexto Inglaterra.

Eso es similar a la lista Pagerank pero hay algunas diferencias notables también. Los Países Bajos son el lugar número 8 en la lista de la FIFA, pero cuarto en la lista Pagerank. Dinamarca es el 17 en la lista de Pagerank pero sólo 25 de la FIFA de. Y Checoslovaquia no aparece en absoluto en la lista de la FIFA, después de haber dejado de existir como país en 1993.

Eso es un enfoque interesante que muestra la utilidad del Pagerank en ser capaz de clasificar los nodos en más o menos cualquier tipo de red. Es evidente que el mismo enfoque podría funcionar para el fútbol americano, béisbol, baloncesto, cricket y más o menos cualquier otro deporte. Si algún científico de la computación tiene algo de tiempo libre para realizar estos rankings, él o ella podría ganar los corazones y las mentes de innumerables fans que estarán esperando ansiosamente el resultado de la clasificación de Pagerank de sus equipos.


jueves, 24 de octubre de 2013

ARS 101: Centralidad de PageRank

PageRank


Google ordena los resultados de la búsqueda utilizando su propio algoritmo PageRank. A cada página web se le asigna un número en función del número de enlaces de otras páginas que la apuntan, el valor de esas páginas y otros criterios no públicos.

PageRank es una marca registrada y patentada1 por Google el 9 de enero de 1999 que ampara una familia de algoritmos utilizados para asignar de forma numérica la relevancia de los documentos (o páginas web) indexados por un motor de búsqueda. Sus propiedades son muy discutidas por los expertos en optimización de motores de búsqueda. El sistema PageRank es utilizado por el popular motor de búsqueda Google para ayudarle a determinar la importancia o relevancia de una página. Fue desarrollado por los fundadores de GoogleLarry Page (apellido, del cual, recibe el nombre este algoritmo) y Sergey Brin, en la Universidad de Stanford.
PageRank confía en la naturaleza democrática de la web utilizando su vasta estructura de enlaces como un indicador del valor de una página en concreto. Google interpreta un enlace de una página A a una página B como un voto, de la página A, para la página B. Pero Google mira más allá del volumen de votos, o enlaces que una página recibe; también analiza la página que emite el voto. Los votos emitidos por las páginas consideradas "importantes", es decir con un PageRank elevado, valen más, y ayudan a hacer a otras páginas "importantes". Por lo tanto, el PageRank de una página refleja la importancia de la misma en Internet.

Algoritmo

El algoritmo inicial del PageRank lo podemos encontrar en el documento original donde sus creadores presentaron el prototipo de Google: “The Anatomy of a Large-Scale Hypertextual Web Search Engine":2

{\rm PR}(A) = (1-d) + d  \sum_{i=1}^n {{\rm PR}(i) \over C(i)}
Donde:
  • {\rm PR}(A) es el PageRank de la página A.
  • d es un factor de amortiguación que tiene un valor entre 0 y 1.
  • {\rm PR}(i) son los valores de PageRank que tienen cada una de las páginas i que enlazan a A.
  • C(i) es el número total de enlaces salientes de la página i (sean o no hacia A).
Algunos expertos aseguran que el valor de la variable d suele ser 0,85.3 Representa la probabilidad de que un navegante continúe pulsando links al navegar por Internet en vez de escribir una url directamente en la barra de direcciones o pulsar uno de sus marcadores y es un valor establecido por Google. Por lo tanto, la probabilidad de que el usuario deje de pulsar links y navegue directamente a otra web aleatoria es 1-d.4 La introducción del factor de amortiguación en la fórmula resta algo de peso a todas las páginas de Internet y consigue que las páginas que no tienen enlaces a ninguna otra página no salgan especialmente beneficiadas. Si un usuario aterriza en una página sin enlaces, lo que hará será navegar a cualquier otra página aleatoriamente, lo que equivale a suponer que una página sin enlaces salientes tiene enlaces a todas las páginas de Internet.
La calidad de la pagina y el numero de posiciones que ascienda se determina por una "votación" entre todas las demás páginas de la World Wide Web acerca del nivel de importancia que tiene esa página. Un hiperenlace a una página cuenta como un voto de apoyo. El PageRank de una página se define recursivamente y depende del número y PageRank de todas las páginas que la enlazan. Una página que está enlazada por muchas páginas con un PageRank alto consigue también un PageRank alto. Si no hay enlaces a una página web, no hay apoyo a esa página específica. El PageRank de la barra de Google va de 0 a 10. Diez es el máximo PageRank posible y son muy pocos los sitios que gozan de esta calificación, 1 es la calificación mínima que recibe un sitio normal, y cero significa que el sitio ha sido penalizado o aún no ha recibido una calificación de PageRank. Parece ser una escala logarítmica. Los detalles exactos de esta escala son desconocidos.
Una alternativa al algoritmo PageRank propuesto por Jon Kleinberg, es el algoritmo HITS.

Manipulación

Debido a la importancia comercial que tiene aparecer entre los primeros resultados del buscador, se han diseñado métodos para manipular artificialmente el PageRank de una página. Entre estos métodos hay que destacar el spam, consistente en añadir enlaces a una cierta página web en lugares como blogs, libros de visitas, foros de Internet, etc. con la intención de incrementar el número de enlaces que apuntan a la página.
A principios del 2005 Google implementó un nuevo atributo para hiperenlaces rel="nofollow" como un intento de luchar contra el spam. De esta forma cuando se calcula el peso de una página, no se tienen en cuenta los links que tengan este atributo.

Antecedentes

PageRank ha tomado su modelo del Science Citation Index (SCI) elaborado por Eugene Garfield para el Instituto para la Información Científica (ISI) en los Estados Unidos durante la década del 50. El SCI pretende resolver la asignación objetiva de méritos científicos suponiendo que los investigadores cuyo factor de impacto (número de publicaciones y/o referencias bibliográficas en otros trabajos científicos) es más alto, colaboran en mayor medida con el desarrollo de su área de investigación. El índice de citación es un elemento determinante para seleccionar qué investigadores reciben becas y recursos de investigación.

Bibliografía

Notas al pie de página

Enlaces externos


Wikipedia

jueves, 12 de septiembre de 2013

El (confuso) algoritmo EdgeRank de Facebook

Dejen de llamar ‘EdgeRank’ al algoritmo de alimentación de noticias de Facebook News 
por JD Rucker



Hace poco más de un año, dejé de usar el término "EdgeRank" cuando me refiero al algoritmo que Facebook utiliza para determinar cuándo y en qué parte del servicio de noticias que aparecen los mensajes. Alguien en Facebook me había dicho que ya no se usa, así que dejé de hablar de ello.

Con el tiempo, se deslizó de nuevo en mi lengua vernácula. No es que nada haya cambiado - el nuevo sistema, más complejo aún estaba bien en su lugar - pero se hizo confundir a los clientes y prospectos cuando llamé "el algoritmo de clasificación de noticias RSS Facebook". Era aún más confuso cuando se trata de hablar con los que estaban lo suficientemente informados para preguntar sobre EdgeRank. En esas situaciones, yo solía pasar varios minutos explicando que EdgeRank ya no existía en su forma original, pero que los tres factores que influyen en la primaria todavía formaban parte de la ecuación.

Como resultado de ello, empecé simplemente llamándolo EdgeRank nuevo. Ahora, es el momento de corregir oficialmente que por supuesto y lo llaman lo que es, un algoritmo de clasificación sin nombre y excepcionalmente compleja que juega dentro de sí mismo, a veces para determinar si y cuando un envío hecho por un individuo o una página puede aparecer en las noticias de un individuo alimentarse. Los factores de edad todavía están allí... junto con un rumoreado 100,000 otros factores.

Es bueno empezar a utilizar la terminología correcta de nuevo. Siempre me sentí un encogerse interno cada vez que lo dije, pero pasé.

Hay algo en el algoritmo que me ha intrigado desde que empecé a jugar con él más de 2 años. Mi carrera de marketing comenzó en búsqueda y el todopoderoso algoritmo de ranking de búsqueda de Google siempre ha sido una batalla constante para los que estamos persiguiendo dominarlo completamente. Sin embargo, tan complejo como el algoritmo de Google es, no tiene nada en el algoritmo de Facebook. Las complejidades son intensas y los efectos que tiene sobre la visibilidad de los mensajes hace que sea mucho más difícil que cualquier otra cosa en la tierra de esta categoría.

Cualquiera que juegue en la búsqueda y social en el mundo es probable que en el temor de las formas cambiantes que ambos algoritmos juegan con nuestras emociones, pero al final del día es el algoritmo de Facebook que es más de una obra de arte. Sin ánimo de ofender, Google.