Mostrando entradas con la etiqueta Google. Mostrar todas las entradas
Mostrando entradas con la etiqueta Google. Mostrar todas las entradas

jueves, 7 de diciembre de 2017

Análisis de datos y sitios para funciones de SEO

SEO: cómo los datos pueden revelar errores y oportunidades ...
Virgile Juhan | JDN





La explotación de datos para mejorar el SEO fue uno de los principales temas de SEO Camp'us. Al final del día, dos retroalimentaciones instructivas, incluida la de Priceminister..

La explosión de datos también concierne a los SEO, y la explotación de este depósito de información está comenzando a madurar y tiene un fuerte impacto en la gestión del SEO. Esta es una de las lecciones que se pueden aprender de SEO Camp'us, el evento estrella de SearchBridge el 9 y 10 de marzo de 2017, del cual JDN fue socio.

"Los datos pueden provenir de Google y sus herramientas, como su webmaster. Pero también hay herramientas de terceros, tales Botify, Yooda o Majestic que puede proporcionar aún más datos. Cruzarlos a continuación, utilizando todos estos datos se utiliza para salir de una lógica empírica para la construcción de las estrategias impulsadas por datos-, "observó Olivier Tassel, consultor de NetBooster en su precisión en base a este tema de la conferencia (" empíricamente SEO a SEO de datos centrada en cómo su estrategia corporativa en 2017? "). Este especialista también señala que todos estos datos pueden ser monitorizados con soluciones personalizables de cuadros de mando muy flexibles y potentes, además de código abierto, como Superserie, desarrollado por Airbnb. Arriba: hábilmente explotados todos estos datos se pueden alimentar los sistemas de aprendizaje automático, y por lo tanto abierto a la senda predictiva.

Un DataViz para la detección de un fallo de funcionamiento

Para tomar un ejemplo la primera base, los datos de una herramienta útil SEO pueden ser explotadas por una solución DataViz para extraer rápidamente la atención a un problema importante. El caso fue presentado por Simon Georges, consultor de Makina Corpus. Este experto SEO Drupal y utilizó por primera vez el rastreo Screaming Frog herramienta para navegar por un sitio como Google haría. Gritando rana está en la lista que incluye las direcciones URL visitadas dentro de este sitio web. entonces esta lista se ha subido a la herramienta DataViz Gephi de código abierto. Y luego, sorpresa: si el sitio se supone que tiene tres secciones, una cuarta apareció muy claramente en el gráfico. la respuesta del propietario del sitio: "se ve como un tumor". Y eso es todo, de hecho.


DataViz realizado por Gephi que muestra 4 colores correspondientes a las cuatro partes de un sitio ... que se supone que hace que el recuento 3! © Simon Georges

Lo que pasa es que el sitio de la casa incluye un calendario de eventos. En esta agenda, no eran tan absolutamente clásico, un enlace "próximo mes" y "mes anterior". El rastreador se vio envuelto en un sinfín de estos enlaces. Volvió décadas atrás, y lo mismo antes. Esta es la cuarta sección del sitio, que aparece muy visual (púrpura aquí-contra) en Gephi, y por lo tanto en realidad corresponde a ... un calendario. "Luego, cuando se estudió el verdadero rastreo robot de Google, se confirmó que estaba tomando exactamente el mismo camino que el robot Screaming Frog. Por lo tanto, Google desperdiciando su tiempo para rastrear páginas sin ningún interés, mientras que para otras páginas con un gran potencial de SEO fueron descuidados o no del todo exploradas", lo que lleva Simon Georges.

SEO predictivo en PriceMinister

También hay ejemplos mucho más avanzadas en el campo de la minería de datos, predictivo y tendiendo a. SEO Priceminister Cecile Beroni, ha compartido su trabajo en el campo de datos grandes. Su entorno es uno de los sitios con alto volumen, un sitio con no menos de 24 millones de páginas, incluyendo 17 millones indexadas en Google. Por supuesto, SEO es altamente estratégica, con 30 a 40% de las visitas SEO (excluyendo consultas decir "marca", navegación).


Cécile Beroni, Priceminister SEO para SEO Camp'us © 2017 JDN

"Queríamos utilizar los primeros datos disponibles para mejorar la indexación de Google. El propósito era específicamente para aumentar el número de páginas indexadas o mejorar la rotación de URL rastreadas," resume SEO. Para este primer proyecto, el rastreo de Google es estudiado en profundidad, y cambios en el sitio para ayudar a guiar robots de Google ayudaron mucho mejor predecir qué páginas serán cubiertos. Un algoritmo de casa, confidencial, se ha desarrollado.

"Ahora sabemos que el 80% de las URL que Google rastree, mientras que en el principio era el 61%," dice SEO. "Al final, el número de páginas que se arrastró en realidad no ha aumentado. Especialmente la rotación viajó URL que ha sido mejorado." PriceMinister puede entonces "empujar" y almacenar millones de URL estratégicas - una cifra que tiende a limitar su caché solución sin barniz. "Anteriormente, Google podría obtener más de seis meses para recorrer todo el catálogo, ahora Google puede tener acceso a un mayor número de direcciones URL en un tiempo bastante corto. Este fue nuestro principio", recuerda Cécile Béroni.

Luego fue el blanco de una mejor predicción de palabras clave estratégicas "las principales palabras clave",. Para este proyecto, el sitio era capaz de confiar en un equipo interno (SEO, inteligencia de negocios, grandes volúmenes de datos), sino también en un proveedor de servicios externo, Authoritas, que proporciona gran cantidad de datos. Entre ellos: las palabras clave sobre la que se colocan Priceminister con su volumen de búsquedas y competidores que también están en sus resultados de búsqueda, entre otros. "Era necesario poner de relieve las oportunidades", dijo Seo. Ellos tomaron la forma de una lista bastante cruda de 2,4 millones de palabras clave que podrían apuntar sitio de comercio electrónico.

"A continuación, tuvo que trabajar en la lista, respondiendo a varias preguntas: ¿Tenemos el producto afectado por palabra clave ¿Cuál es la competencia para esa palabra clave, la presencia de Google Shopping también puede dar pistas interesantes de este tema ", detalla el empleado PriceMinister. Una vez que estos filtros producen, 1,4 millones de nuevas páginas de destino fueron creados o mejorados. El resultado anunciado por el sitio del comerciante es espectacular: 40% más de visibilidad en los resultados de reensamblaje de Google, según la herramienta de Searchmetrics.

sábado, 25 de febrero de 2017

Distintas redes de coautorazgo en patentamiento distinguen a Apple de Google

La diferencia real entre Google y Apple
Google y Apple son empresas hiper-exitosas, pero trazando sus patentes uno tiene firmas de innovación completamente diferentes.
Mark Wilson - Fast CoDesign




Steve Jobs se ha concedido 347 patentes en la última década, muchos concedidos póstumamente. Por el contrario, Google Sergey Brin y Larry Page sólo tienen un 27 combinado en el mismo período.

Es una estadística reveladora sobre cómo Apple y Google funcionan de manera diferente. Apple está impulsado principalmente por una estructura de desarrollo centralizada, derivada de su fabuloso estudio de diseño, mientras que Google tiene un enfoque más distribuido y de código abierto para los nuevos productos. Y para obtener una imagen real de cómo esto funciona de manera organizativa, el Periscopic, un estudio de visualización de datos con sede en Portland, creó una serie de visualizaciones personalizadas para Co.Design, que compara las "firmas de innovación" en los últimos 10 años de patentes presentadas en Apple y Google .



Izquierda: Apple, Derecha: Google

Para entender lo que estás viendo, sé que cada gota es un inventor de patentes, y como muchas patentes tienen múltiples inventores, cada línea es un enlace entre un inventor y los co-inventores.

Desde este punto de vista, Apple se parece a una gran bola de juguete redondos, mientras que Google es una red celular monótona más parecido a los Borg. Y mientras que usted puede decir tan mucho de la estructura de una compañía de apenas sus patentes, Periscopic cree que ha manchado una narración clara en las imágenes.
"En los últimos 10 años Apple ha producido 10.975 patentes con un equipo de 5.232 inventores, y Google ha producido 12.386 con un equipo de 8.888", escribe Wes Bernegger, explorador de datos en Periscopic. Esos números son, francamente, bastante similares en términos de proporción. "La diferencia más notable que vemos es la presencia del grupo de super inventores altamente conectados y experimentados en el núcleo de Apple en comparación con la estructura de innovación más uniformemente dispersa en Google", continúa. "Esto parece indicar un sistema de control centralizado de arriba hacia abajo, en Apple, frente a potencialmente más independencia y empoderamiento en Google".

Apple (detalle)

La teoría tiene mucho sentido. El laboratorio de diseño secreto de Apple, liderado por Jonathan Ive, ha dado a luz a los muy pocos productos de la compañía, muy rentables. Y dentro de la huella de innovación de Apple, verás Ive, junto con los nombres de básicamente todos los diseñadores sub-celebrados en el círculo interno, incluyendo Eugene Whang, Christopher Stringer, Bart Andre y Richard Howarth, que ahora lidera el desarrollo de hardware en Apple y Es en gran parte responsable del diseño de cada iPhone que hayas visto.


Google (detalle)

Google, por otro lado, tiene una estructura organizativa relativamente plana de muchos pequeños equipos llenos de personas con poder. (La compañía incluso intentó borrar toda la gestión en 2002, pero desde que se restableció la idea.) Todo esto se puede ver en su firma de innovación, por supuesto. Por patentes, los Googlers parecen bastante iguales, dispersos relativamente uniformemente.

Dicho esto, Bernegger insiste en que en realidad hay más "conectividad y colaboración" en Apple que en Google. "El número promedio de inventores que figuran en una patente de Apple es de 4.2. En Google, es 2.8", explica. "Estos efectos combinados significan que un inventor en Apple ha producido, en promedio, más del doble de patentes que uno en Google. Nueve contra cuatro".

No podrían parecer más diferentes, pero mirar más de cerca la estructura de la patente, y se puede detectar una gran similitud entre las dos empresas. A saber, tanto Apple y Google tienen un anillo de membrana que rodea toda la estructura. ¿Quiénes son estos fabricantes de patentes que desarrollan cosas en relativo aislamiento? ¿Y cómo están afiliados con las empresas?




En el caso de Google, tenemos una pista. Uno de los inventores más grandes de la compañía vive allí, en la periferia, desconectado de otros productos. Ese inventor es Kia Silverbrook, que vendió la compañía 269 patentes concedidas en cámaras e impresoras en 2013. Obviamente las patentes que se han adquirido recientemente, más bien que desarrolladas en casa, carecerían de las interconexiones con otros empleados que centralizan las burbujas más grandes. Además, estos anillos exteriores podrían representar las contribuciones de cualquier cosa, desde invenciones únicas de un empleado al azar, hasta las contribuciones secretas de los laboratorios de skunkworks y de las compañías de shell, trabajando fuera del equipo principal. Pero eso requeriría más investigación para confirmar.


Apple

Mientras que estos gráficos fueron hechos específicamente para esta historia, provienen de PatentsView, un visualizador Periscopic ayudó a desarrollar para los institutos americanos para la investigación y el USPTO. Es un sistema accesible al público que transforma la base de datos de patentes que hemos tenido durante años -una base de datos de búsqueda de Internet temprana que extrae algunas exploraciones de patentes en formato JPEG- en una red visible de conexiones. Usted puede mirar las patentes dentro de las empresas, como se ha visto anteriormente, o clasificar por creador o tema, también.

"Nuestra intención detrás de PatentsView era crear interfaces que pudieran inspirar al público a explorar datos de patentes", dice el cofundador de Periscopic, Dino Citraro. "Parte de eso fue hacer un acceso simplificado a los datos de patentes para personas como abogados de patentes que necesitan investigarlo, pero queríamos abrazar este esfuerzo de gobierno abierto y decir, 'Esta es información pública, es interesante. '"

De hecho, Apple y Google sólo puede ser un comienzo. Probablemente podría escribir un libro sobre las estructuras organizativas corporativas revelado en PatentsView -información que ha sido pública durante un siglo, pero que sólo ahora es fácilmente transparente ahora.

jueves, 24 de octubre de 2013

ARS 101: Centralidad de PageRank

PageRank


Google ordena los resultados de la búsqueda utilizando su propio algoritmo PageRank. A cada página web se le asigna un número en función del número de enlaces de otras páginas que la apuntan, el valor de esas páginas y otros criterios no públicos.

PageRank es una marca registrada y patentada1 por Google el 9 de enero de 1999 que ampara una familia de algoritmos utilizados para asignar de forma numérica la relevancia de los documentos (o páginas web) indexados por un motor de búsqueda. Sus propiedades son muy discutidas por los expertos en optimización de motores de búsqueda. El sistema PageRank es utilizado por el popular motor de búsqueda Google para ayudarle a determinar la importancia o relevancia de una página. Fue desarrollado por los fundadores de GoogleLarry Page (apellido, del cual, recibe el nombre este algoritmo) y Sergey Brin, en la Universidad de Stanford.
PageRank confía en la naturaleza democrática de la web utilizando su vasta estructura de enlaces como un indicador del valor de una página en concreto. Google interpreta un enlace de una página A a una página B como un voto, de la página A, para la página B. Pero Google mira más allá del volumen de votos, o enlaces que una página recibe; también analiza la página que emite el voto. Los votos emitidos por las páginas consideradas "importantes", es decir con un PageRank elevado, valen más, y ayudan a hacer a otras páginas "importantes". Por lo tanto, el PageRank de una página refleja la importancia de la misma en Internet.

Algoritmo

El algoritmo inicial del PageRank lo podemos encontrar en el documento original donde sus creadores presentaron el prototipo de Google: “The Anatomy of a Large-Scale Hypertextual Web Search Engine":2

{\rm PR}(A) = (1-d) + d  \sum_{i=1}^n {{\rm PR}(i) \over C(i)}
Donde:
  • {\rm PR}(A) es el PageRank de la página A.
  • d es un factor de amortiguación que tiene un valor entre 0 y 1.
  • {\rm PR}(i) son los valores de PageRank que tienen cada una de las páginas i que enlazan a A.
  • C(i) es el número total de enlaces salientes de la página i (sean o no hacia A).
Algunos expertos aseguran que el valor de la variable d suele ser 0,85.3 Representa la probabilidad de que un navegante continúe pulsando links al navegar por Internet en vez de escribir una url directamente en la barra de direcciones o pulsar uno de sus marcadores y es un valor establecido por Google. Por lo tanto, la probabilidad de que el usuario deje de pulsar links y navegue directamente a otra web aleatoria es 1-d.4 La introducción del factor de amortiguación en la fórmula resta algo de peso a todas las páginas de Internet y consigue que las páginas que no tienen enlaces a ninguna otra página no salgan especialmente beneficiadas. Si un usuario aterriza en una página sin enlaces, lo que hará será navegar a cualquier otra página aleatoriamente, lo que equivale a suponer que una página sin enlaces salientes tiene enlaces a todas las páginas de Internet.
La calidad de la pagina y el numero de posiciones que ascienda se determina por una "votación" entre todas las demás páginas de la World Wide Web acerca del nivel de importancia que tiene esa página. Un hiperenlace a una página cuenta como un voto de apoyo. El PageRank de una página se define recursivamente y depende del número y PageRank de todas las páginas que la enlazan. Una página que está enlazada por muchas páginas con un PageRank alto consigue también un PageRank alto. Si no hay enlaces a una página web, no hay apoyo a esa página específica. El PageRank de la barra de Google va de 0 a 10. Diez es el máximo PageRank posible y son muy pocos los sitios que gozan de esta calificación, 1 es la calificación mínima que recibe un sitio normal, y cero significa que el sitio ha sido penalizado o aún no ha recibido una calificación de PageRank. Parece ser una escala logarítmica. Los detalles exactos de esta escala son desconocidos.
Una alternativa al algoritmo PageRank propuesto por Jon Kleinberg, es el algoritmo HITS.

Manipulación

Debido a la importancia comercial que tiene aparecer entre los primeros resultados del buscador, se han diseñado métodos para manipular artificialmente el PageRank de una página. Entre estos métodos hay que destacar el spam, consistente en añadir enlaces a una cierta página web en lugares como blogs, libros de visitas, foros de Internet, etc. con la intención de incrementar el número de enlaces que apuntan a la página.
A principios del 2005 Google implementó un nuevo atributo para hiperenlaces rel="nofollow" como un intento de luchar contra el spam. De esta forma cuando se calcula el peso de una página, no se tienen en cuenta los links que tengan este atributo.

Antecedentes

PageRank ha tomado su modelo del Science Citation Index (SCI) elaborado por Eugene Garfield para el Instituto para la Información Científica (ISI) en los Estados Unidos durante la década del 50. El SCI pretende resolver la asignación objetiva de méritos científicos suponiendo que los investigadores cuyo factor de impacto (número de publicaciones y/o referencias bibliográficas en otros trabajos científicos) es más alto, colaboran en mayor medida con el desarrollo de su área de investigación. El índice de citación es un elemento determinante para seleccionar qué investigadores reciben becas y recursos de investigación.

Bibliografía

Notas al pie de página

Enlaces externos


Wikipedia

miércoles, 2 de octubre de 2013

La demografía de redes sociales digitales

Social Media Demographics: The Surprising Identity Of Each Major Social Network



Each social media platform has cultivated a unique identity thanks to the demographics of the people who participate in the network. Some platforms are preferred by young adults, who are most active in the evening, others by high-income professionals, who are posting throughout the workday.
We explained in a recent report why many brands and businesses need platform-focused social media strategies, rather than a diluted strategy that aims to be everywhere at once.
In a new report from BI Intelligence, we break down the demographics of each major social media platform to help brands and businesses decide which networks they should prioritize. Being able to identify the demographics of social media audiences at a granular level is the basis for all targeted marketing and messaging. The report also spotlights the opportunities that lie ahead for each social network, how demographics affect usage patterns, and why some platforms are better for brands than others. 
Here are some of our surprising findings: 
  • Facebook still skews young, but the 45- to 54-year-old age bracket has seen 45% growth since year-end 2012. Among U.S. Internet users, 73% with incomes above $75,000 are on Facebook (compared to 17% who are on Twitter). Eight-six percent of Facebook's users are outside the U.S.
  • Instagram: Sixty-eight percent of Instagram's users are women.
  • Twitter has a surprisingly young user population for a large social network — 27% of 18 to 29-year-olds in the U.S. use Twitter, compared to only 16% of people in their thirties and forties. 
  • LinkedIn is international and skews toward male users. 
  • Google+ is the most male-oriented of the major social networks. It's 70% male.
  • Pinterest is dominated by tablet users. And, according to Nielsen data, 84% of U.S. Pinterest users are women.
  • Tumblr is strong with teens and young adults interested in self-expression, but only 8% of U.S. Internet users with incomes above $75,000 use Tumblr.

Business Insider