Ir al contenido principal Responsive Header
Biblioteca
Logo Universidad de Lima Universidad de Lima

Altmétricas o métricas alternativas

Métricas no tradicionales que buscan medir la influencia, atención e impacto de la investigación científica.

Agregadores de altmétricas

Los agregadores de altmétricas son herramientas que se encargan de recopilar datos de diferentes fuentes como medios sociales, revistas, bases de datos y agrupar las distintas métricas que se obtienen sobre un ítem para presentar un informe global sobre su impacto mediático y científico en la Web. Ejemplos de estos agregadores son: Almetrics, y Plum X, Crossref Event Data (CED) e ImpactStory. En opinión de Ortega (2018), los tres primeros se caracterizan por tener una cobertura global, es decir no se limitan a editores, disciplinas y regiones específicas. Es importante precisar que cada agregador o plataforma establece sus propias métricas e indicadores siendo esto una de las causas de la diversificación de criterios para concebirlos.

Principales agregadores

Fue el primer proveedor de altmetrics y se lanzó en el 2011, con el apoyo de Digital Science. Altmetric basa sus datos en 15 fuentes:  Cubre no solo artículos de revistas, sino también libros y capítulos de libros, conjuntos de datos, ensayos clínicos y muchos otros tipos de resultados de la investigación. Asimismo, rastrean, aparte del DOI, otros identificadores persistentes como los ID de: PubMed, Arxiv, ADS, RePEC, URN, Handles e ISBN (Barcelos, J, y otros, 2019). Su indicador almétrico esta representado por la “rosca” o círculo coloreado:


Los colores del círculo representan una fuente de datos determinada, por ejemplo el azul se refiere a Twitter, el amarillo a Blogs, etc. Debajo del círculo aparece el detalle de todas las interacciones por cada medio o canal social para un trabajo. El número que aparece en el interior del círculo es el denominado Altmetric Attention Score, que es una cifra ponderada del alcance e impacto de un trabajo en función de la repercusión que ha tenido en medios sociales. A mayor Attention Score, mayor impacto mediático. Esta puntuación viene determinada por tres factores: 
 

Volumen: cada vez una única persona menciona un artículo, su puntuación aumenta. Ello hace que sucesivas menciones de una misma persona sean ignoradas.

Autores: se tiene en cuenta también el hecho de quién ha mencionado un artículo y con qué frecuencia participa en las redes sociales. Así pues, las cuentas (por ejemplo, de revistas o institucionales) que comparten automáticamente artículos tienen menos valor que las de usuarios particulares.

Fuentes: cada tipo de fuente aporta una valoración diferente.

PlumX es un proveedor de métricas alternativas creado en el 2012 por Andrea Michalek y Michael Buschman de Plum Analytics. Este producto se dirige al mercado institucional y ofrece recuentos métricos alternativos de publicaciones para instituciones específicas. En el 2017, Elsevier adquirió Plum Analytics y ahora rastrea la presencia en línea de cualquier artículo en la base de datos Scopus, Scient Direct y Mendeley. También ofrece a clientes un API para extraer datos. Esta herramienta web proporciona datos sobre el uso e impacto de la investigación y los productos académicos. Pertenece a la pequeña pero cada vez más influyente comunidad de proveedores de métricas alternativas. Las métricas que proporciona estan distribuidos en 5 categorías: Citations, Usage, Captures, Mentions y Social media.

Presentación y categorias de PlumX:


CITATIONS
(Citaciones) 

Tiene en cuenta el índice de citas, citas patentes, citas clinicas, citas políticas.
Fuentes: CrossRef, PubMed Central, PubMed Central Europa, RePEc, Scielo, Scopus


USAGE
(Uso)

Evalúa la usabilidad del documento, teniendo en cuenta elementos como clics, descargas, vistas, reproducciones en video.
Fuentes: Bepress, CABI, DSpace, EBSCO, ePrints, RePEc, SciELO, Bitly, OJS, Journals, PubMed Central, Airiti. 


CAPTURES
(Capturas)

Indicador de futuras citas, considerando en su medición la exportación de documentos 
Fuentes: Mendeley, Vimeo, Citeulike, SSRN


MENCIONS
(Menciones)

Son las menciones que ha recibido el documento en publicaciones de blogs, comentarios reseñas de wikipedia y medios de comunicación.
Fuentes: Good reads, Amazon, Source Forge, Wikipedia



SOCIAL MEDIA
(Redes sociales) 

Es la suma de los tweets y retweets, me gusta, etc. que se realizó en interacciones de un documento a través de redes sociales (si no se comparte un identificador - doi, url, orcid- no suma en la métrica) se obtienen datos de cuantas personas dieron clic a los identificadores. se detecta perfiles de autores de revistas de instituciones
Fuentes: Twitter, Facebook, Youtube, Vimeo

Impactstory es una herramienta web de código abierto que proporciona otra perspectiva de lo que significa comparar la producción académica sobre la base de altmetrics. En lugar de asignar una puntuación de impacto integral a una contribución académica determinada (identificada por los autores que crean "colecciones" de elementos para medir con la herramienta), Impactstory asigna percentiles a cada contribución dentro del marco de una única altmetric. Por ejemplo, cuando Impactstory recupera la cantidad de lectores que tiene un artículo académico sobre Mendeley, también calculará cómo se clasifica este número en comparación con la cantidad de lectores recuperados para otros artículos que rastrea Impactstory. Un artículo con 73 lectores sobre Mendeley podría incluir una alerta de que, dentro de Impactstory , se encuentra en el percentil 91 del número de lectores de Mendeley. Los percentiles se proporcionan en una amplia gama de submétricas de Impactstory y se resaltan con una serie de distintivos como "Citado" y "Muy citado" (basado en datos de Scopus); "Guardado" y "Altamente guardado" (basado en datos de Mendeley y Delicious); “Discutido” y “Muy Discutido” (basado en datos de Twitter); y "Visto" y "Muy visto" (basado en Figshare y datos internos de Impactstory ). 

El perfil de un investigador en ImpactStory se organiza en 4 categorias: 

  1. Vista general (Overview): resumen del resto de las opciones. El investigador puede subir una foto identificativa e incluso presentar unas cuantas líneas sobre su actividad académica. Junto a esto, también tiene la posibilidad de incluir enlaces a Google Scholar, ORCID o Twitter. 
  2. Logros (Achievements) relacionados con, por ejemplo, el número de países donde se descargan las publicaciones o cuántos trabajos tiene un investigador en acceso abierto.
  3. Cronología (Timeline) del número de menciones, así como dónde y cuándo se han efectuado.
  4. Publicaciones (Publications) recopiladas de ORCID. Estos materiales tienen una descripción básica con título, fecha y fuente. También se hace alusión al hecho de si el documento está en abierto o no, y qué tipo de material es a través de una serie de iconos. Por último, muestra el número de menciones en redes sociales y un icono de las mismas.

Crossref Event Data (CED) fue creado en 2016 y aún se encuentra en fase beta. Es un servicio reciente en comparación a PlumX y Almetric.com., pero a diferencia de estos dos sitios comerciales, CED no cobra por el acceso a sus datos y ofrece una API pública gratuita. Sin embargo, CED no proporciona métricas, sino que solo presenta información sobre eventos altmétricos vinculados a un identificador DOI. Por ejemplo, muestra detalles sobre la mención de un artículo en Twitter, como la fecha, el usuario y el tweet, pero no presenta un recuento de la cantidad de tweets. Debido a esta diferencia, los datos de CED deberían ser procesados para poder compararse con los de otros servicios. Es importante señalar que el acceso a este proveedor solo es posible a través de su API.