Mostrando entradas con la etiqueta journal. Mostrar todas las entradas
Mostrando entradas con la etiqueta journal. Mostrar todas las entradas

viernes, 10 de julio de 2020

"La revista REDES en 7 minutos" - Isidro Maya

Presentación titulada "La revista REDES en 7 minutos" realizada por Isidro Maya. En el marco de las Jornada de Redes 2020 – Red Hispanoamericana, realizado el 7 de Julio del 2020 de forma online.


viernes, 17 de abril de 2015

Redes de citas en revistas estadísticas

Red de revistas de estadísticas 
16 de abril 2015
 Por Julyan Arbel - R bloggers
(Este artículo fue publicado por primera vez en la satisfacción »R, y amablemente contribuyó a R-bloggers)

Amistad revistas de Estadística (clic para el formato SVG)

Xian escribió en su blog recientemente en el RSS entrante leer papel: Statistical Modelling of Citation Exchange Between Statistics Journals, por Cristiano Varin, Manuela Cattelan y David Firth. Después de la última trabajo de JRSS B leído por uno de nosotros! Los datos que se utilizan en el papel (y se pueden descargar aquí) son bastante fascinante para nosotros, los académicos fascinados por graduaciones académicas, para bien o para mal (irónico aquí). Consisten en citas cruzadas cuenta ) durante 47 Estadísticas revistas (ver la relación y abreviaturas página 5):  es el número de citas de artículos publicados en la revista j en 2010 a artículos publicados en la revista i en la década 2001-2010. La elección de la lista de revistas se discute en el papel. Las principales revistas desaparecidos incluyen Bayesian Analysis (publicado a partir de 2006), The Annals of Applied Statistics (publicados desde 2007).
Miré a la proporción del total de citas recibidas por Total de citas hechas. Esta es una estadística descriptiva super simple que le suceda a parecer algo similar a la figura 4, que representa gráficamente la exportación Decenas de modelo de Stigler (no puedo decir más sobre él, no lo he leído en detalle). Los cinco primeros es el mismo modulo el canje entre Annals of Statistics y Biometrika. Por supuesto una gran diferencia es que la relación Citado / Cita no está dotado de una medida de la incertidumbre (abajo a la izquierda es mi decisión, derecho está Fig. 4 en el papel).



 Me sorprendió no ver una representación gráfica / red de los datos en el documento. Da la casualidad de que quería probar el software Gephi para dibujar gráficos, utilizados por ejemplo por François Caron y Emily Fox en su papel grafos dispersos. Tengo el gráfico anterior, donde:
  • para los datos, he utilizado la matriz de citas C renormalizado por el número total de citas que se hacen, que denotamos por  . Esta es una manera de explicar el tamaño (número de trabajos publicados) de la revista. Esto es sólo una aproximación, aunque ya el número real de artículos publicados por la revista no está disponible en los datos. Sin esa corrección, CSDA está por delante de todos los demás.
  • el tamaño de los nodos representa la relación Citado / Citando
  • la anchura del borde representa la renormalizado . No estoy seguro de lo que Gephi hace aquí, ya que convierte mi grafo dirigido en un grafo no dirigido. Supongo que sólo muestra el más grande de los dos bordes  y .
  • para una mejor visibilidad Seguí sólo el primer decil de bordes más pesadas.
  • los grupos identificados por cuatro colores son clases modularidad obtenidos por el método de Lovaina.

Algunas observaciones

Las dos revistas de software incluidos en el conjunto de datos son valores atípicos bastantes:

  • Journal of Statistical Software (JSS) es desconectado de los otros, lo que significa que no tiene citaciones normalizadas  en el primer decil. A excepción de sus autocitas que son bastante grandes y lo convierten en el factor de impacto cuarto de la lista total en 2010 (y al parecer el primero en 2015).
  • el mayor  es el autocitas del STATA Diario (StataJ).

Centralidad:


  • CSDA es la revista más central en el sentido de la más alta (no ponderado) grado.

Algunos pensamientos más

Todo lo que es sólo por el gusto de hacerlo. Como se ha mencionado por los autores, el número de citas son de cola pesada, lo que significa que sólo unos papeles representan gran parte de las citas de una revista mientras que la mayoría de los periódicos representan pocas citas. Como cuestión de hecho, el total de citas recibidas se debe principalmente a unos cuantos papeles de super-citado, y también es la  matriz  de Citado / Citas que utilizo en todo para la construcción de la gráfica. Una de las razones se podría plantear sobre por qué jrss B lo hace tan bien es los trabajos de lectura: por ejemplo, Spiegelhalter et al. (2002), DIC, recibieron solo el 11,9% de todas las citas JRSS B en 2010. ¿Quién iba a apostar el número de citas de este nuevo trabajo de lectura (JRSS A) recibirá?

viernes, 12 de julio de 2013

Factor de impacto en los journales: ¿Para que sirven?

Journal impact factors: what are they good for?



The ISI journal impact factors for 2012 were released last month. Apparently 66 journals were banned from the list for trying to manipulate (through self-citations and “citation stacking”) their impact factors.

There’s a heated debate going on about impact factors: their meaning, use and mis-use, etc.  Science has an editorial discussing impact factor distortions.  One academic association, the American Society for Cell Biology, has put together a declaration (with 8500+ signers so far)–San Francisco Declaration on Research Assessment (DORA)–highlighting the problems caused by the abuse of journal impact factors and related measures. Problems with impact factors have in turn led to alternative metrics, for example see altmetrics.
I don’t really have problems with impact factors, per se.  They are one, among many, measures that might be used to measure journal quality.  Yes, I think some journals indeed  are better than others.  But using impact factors to somehow assess individual researchers can quickly lead to problems.  And, it is important to recognize that impact factors assume that articles within the journal are homogeneous, though within-journal citations of course are radically skewed.  Thus a few highly-cited pieces essentially prop up the vast majority of articles in any given journal. Citations might be a better measure, though also highly imperfect.  If you want to assess research quality: read the article itself.
On the whole, article effects trump journal effects (as Joel Baum’s article also points out, see here).  After all, we all have one-two+ favorite articles, published in some obscure journal no one has ever heard of.  Just do interesting work and send it to journals that you read.  OK, that’s a bit glib.  I know that all kinds of big issues hang in the balance when trying to assess and categorize research: tenure and promotion, resource flows, etc. Assessment and categorization is inevitable.
A focus on impact factors and related metrics can quickly lead to tiresome discussions about which journal is best, is that one better than this, what are the “A” journals, etc.  Boring.  I presented at a few universities in the UK a few years ago (the UK had just gone through its Research Assessment Exercise), and it seemed that many of my interactions with young scholars devolved into discussing which journal is an “A” versus “A-” versus “B.”  Our lunch conversations weren’t about ideas – it was disappointing, though also quite understandable since young scholars of course want to succeed in their careers.
Hopefully enlightened departments and schools will avoid the above traps and focus on the research itself.  I think the problems of impact factors are well-known by now and hopefully these types of metrics are used sparingly in any form of evaluation, and only as one imprecise datapoint among many others.
[Thanks for Joel Baum (U of Toronto) for sending me some of the above links.]