Blog

 17 minute read.

Mejorando la visibilidad a través de los metadatos: una mirada desde Editorial CSIC

Click here for the version in English

Hablamos con Nacho Pérez Alcalde, Vicedirector Técnico de Editorial CSIC, la editorial al mando de ´Boletín Geológico y Minero’, ganadora del Crossref Metadata Award en la categoría de Metadata Enrichment. Miembro de Crossref desde 2008, Editorial CSIC publica 41 revistas en acceso abierto Diamante, y juega un papel esencial en la diseminación del conocimiento científico a nivel internacional. Exploramos lo que este premio ha significado para Editorial CSIC y qué planes para el futuro tienen para seguir mejorando la calidad y uso de sus metadatos.

El ‘Boletín Geológico y Minero’ ha recibido el primer premio de Crossref al enriquecimiento de vuestros metadatos ya que en tan solo dos años, ha visto la cobertura de los metadatos pasar del 1 al 40%. ¿Cuáles han sido las motivaciones que han llevado a esta revista a ver una mejora tan grande en sus metadatos?

Editorial CSIC publica 41 revistas científicas, todas ellas presentes en los principales indexadores. Son revistas de prestigio que ofrecen, desde hace muchos años, contenidos revisados de alta calidad. Sin embargo, hoy en día, no es ya suficiente para una revista científica ofrecer contenidos de calidad, hoy en día es necesario ofrecer también una alta calidad en los metadatos generados por esas publicaciones. Algo que hace no muchos años veíamos como un servicio de valor añadido se ha convertido en algo imprescindible.

En un entorno de trabajo electrónico y en Internet, los metadatos son claves para la difusión de los contenidos, la identificación de revistas, autores/as, instituciones editoras, entidades financiadoras… Para un editor es fundamental poder transmitir esa información según unos procedimientos técnicos y unos protocolos estandarizados para garantizar su compatibilidad con las máquinas que cosechan, almacenan y distribuyen datos favoreciendo la visibilidad y la descubribilidad de nuestras revistas.

¿Seguis alguna estrategia? ¿Cómo decidís qué elementos priorizar?

Llevamos años trabajando con metadatos y, de forma periódica, vamos revisando y ampliando el número de elementos que convertimos en metadatos. Damos prioridad siempre a lo que es ya un estándar claramente identificado (por ejemplo el ORCID) y también a aquellos metadatos alineados con las políticas editoriales que consideramos prioritarias (por ejemplo la licencia CC by que aplicamos).

El flujo de trabajo requiere como primer paso la identificación, por parte del editor, de los datos que se quieren obtener y de cómo se van a pedir. Una vez se integran todos ellos en la política de envío de originales a la revista, es imprescindible la colaboración de los autores que son los que aportan los datos que, en una fase posterior son revisados por un editor técnico especializado en metadatos (diferente al revisor de texto). Por último, es imprescindible contar con una herramienta que permita automatizar la transferencia de metadatos y aquí es muy importante contar con personal técnico especializado. Nosotros trabajamos con la plataforma OJS, yo he pasado años depositando metadatos en Crossref con los archivos XML que generábamos, uno a uno. Con 1.000 artículos publicados de media al año, la creación del Módulo de exportación CrossRef XML de OJS para el depósito automatizado desde la plataforma fue de gran ayuda para nosotros porque aligera bastante el trabajo, asegura una mayor fiabilidad y nos permite dedicar nuestro tiempo a mejorar otras cosas.

También nos da una mayor flexibilidad a la hora de revisar nuestras políticas de datos, por ejemplo, nos ha permitido abordar un depósito masivo para actualizar todas nuestras referencias para corregir errores recurrentes.

¿Cómo habéis integrado esto en vuestra estrategia de metadatos?

El Crossref Metadata Enrichment Award ha sido concedido en concreto a la revista Boletín Geológico y Minero por haber experimentado una gran mejora en sus metadatos en los últimos años. Esta revista era editada por otra institución y cuando Editorial CSIC se hizo cargo de ella le aplicamos los mismos estándares que venimos utilizando en el resto de nuestras revistas desde hace años. Nos sentimos por ello especialmente orgullosos, porque entendemos este premio como el aval a una política de metadatos que llevamos años desarrollando y que ha permitido una mejora importante para esta revista en un tiempo relativamente corto.

Para ello fue clave la colaboración de la dirección científica de la revista, nosotros explicamos primero qué datos deben ser solicitados a los autores, por qué y para qué, y luego nos ocupamos de confirmar que se han ido integrando en los artículos y de implementarlos en la plataforma OJS para proceder después a su depósito en Crossref pero también a su integración en otras vías de difusión de metadatos.

A nivel de impacto, ¿cómo veis que una buena cobertura de los metadatos afecta a vuestra organización? ¿Beneficia de alguna manera vuestro trabajo editorial? O cualquier otro aspecto de vuestra actividad?

Más allá de sus beneficios obvios como potenciar la visibilidad de nuestras publicaciones y contribuir a manejar una información controlada y de calidad, en última instancia deberían ayudarnos a posicionarnos como grupo profesional. Nuestra función esencial es publicar contenido científico revisado y de calidad y transmitirlo a la comunidad científica y, cada vez más, a toda la sociedad. Sin embargo, hoy en día, deberíamos aspirar a ser identificados también como proveedores de datos. Y eso, en “la era del dato”, es mucho decir. Debemos ser capaces de extraer los metadatos de nuestras publicaciones aportados por los autores (palabras claves, filiación, bibliografías…) pero también debemos ser capaces de generar nosotros otros metadatos y de transmitirlos y difundirlos.

Las revistas científicas deben seguir contando con un editor que haga una revisión ortotipografía y de pruebas, pero también deben contar con un editor de metadatos, alguien que sepa qué es FundRef y sepa dónde y cómo hay que introducir los datos en la plataforma para garantizar que se conservan y transfieren de manera correcta y eficiente.

Por ello, quiero aprovechar esta ocasión para reivindicar el papel del editor como generador y proveedor de datos. Los editores somos la fuente de datos, hay agentes como las bibliotecas e indexadores que los cosechan, archivan, transmiten y procesan para, por ejemplo, generar nuevos contenidos o servicios, pero solo nosotros tenemos la capacidad de generarlos.

¿Habéis encontrado dificultades a la hora de mejorar y manejar vuestros metadatos? En ocasiones los autores se quejan de que se les piden muchos datos, por ejemplo, el uso de ORCID es obligatorio en nuestras publicaciones y muchos autores, sobre todo de ámbitos no europeos, se han quejado porque no saben qué es y para qué sirve o, por motivos personales, no quieren registrar ese identificador personal. Son motivos respetables, por supuesto, pero para nosotros prima la necesidad de identificar correctamente a cada autor y creemos que el ORCID ayuda a ello.

Otro problema habitual es que muchos autores, al citar una fuente de financiación, utilizan el nombre de la entidad financiadora pero a veces no lo ponen completo, o no incluyen el acrónimo o lo que es peor, ponen el nombre pero no el código de la institución o del proyecto. Los autores están acostumbrados a escribir pensando en los lectores “humanos” y no en las máquinas que van a procesar después toda esa información. Nuestro papel, como editores de metadatos, pasa por informarles, de forma didáctica, de la importancia de aportar esos códigos y pedírselos si vemos que no los han incluido en su manuscrito.

Y con respecto a vuestra comunidad, ¿se ha visto beneficiada de vuestro esfuerzo para tener unos metadatos completos y de alta calidad? ¿Están los autores, editores o lectores al tanto de estos esfuerzos o lo valoran?

Para el editor técnico es más sencillo valorarlo, nosotros sabemos cómo funciona el entorno, lo importante que es la interoperabilidad de las plataformas, la rapidez y amplitud de transmisión que puede alcanzar un dato y lo importante que es que esté correcto desde su origen porque luego puede ser muy, muy difícil corregirlo y controlarlo. Somos conscientes también de su posible impacto porque sabemos cómo los sistemas de información se alimentan unos de otros y comparten información, una información que generamos nosotros.

Los editores científicos, autores y lectores suelen valorarlo menos y no siempre son conscientes de su relevancia, aunque no se puede generalizar. Y de hecho, aunque creo que todos deberían tener al menos unas nociones básicas de cómo funciona, creo que los autores ya están bastante saturados con todos los requerimientos que les pedimos para entregar sus manuscritos como para que les pidamos, además, formación específica en metadatos. Para eso (entre otras cosas) estamos los editores, para indicarles qué datos y cómo los deben aportar.

No obstante, hoy en día todo el mundo está familiarizado con lo que son y lo que se puede hacer con los datos, todos consumimos productos muy diversos a través de internet y tenemos al menos nociones de lo que son los metadatos, los datos personales, los algoritmos… Hace años era mucho más complejo hacer didáctica de esto, pero hoy en día cualquiera lo entiende fácilmente y más en un ámbito científico y tecnológico como el de nuestras publicaciones.

Con la vista puesta en el futuro, tenéis algún plan para seguir construyendo sobre lo ya creado? ¿Algún elemento que queráis seguir implementando o prácticas que queráis incorporar en vuestra manera de trabajar?

En editorial CSIC, desde que comenzamos a publicar en formato electrónico y a distribuir nuestras revistas electrónicas en línea, hace ya casi 20 años, siempre estamos tratando de innovar en diseños, plataformas de gestión, formatos de archivo… Hablando de cosas concretas, hemos ampliado el uso obligatorio de ORCID y DOI a las contribuciones que no son puramente artículos científicos (hasta ahora nuestras reseñas, obituarios y textos similares no los tenían) y estamos valorando la implementación de identificadores ROR para organizaciones de investigación.

¿Qué consejos darías a aquellas organizaciones que están comenzando a mejorar la calidad de sus metadatos?

Para aquellos editores que están empezando a reforzar sus metadatos me atrevería a indicar algo aparentemente lógico y sencillo pero que creo que no siempre se hace: que planifiquen con calma y en detalle una política editorial de datos basada en identificar y seleccionar los datos que consideren prioritarios e implementar, después, protocolos para solicitarlos a sus autores e integrarlos en las plataformas editoriales y, por último, configurar correctamente dichas plataformas para asegurar una correcta exportación.

El metadato requiere de una cadena en la que trabajan diversas personas con distintos perfiles, hay que tener recursos para afianzar esa cadena y hay que tener en cuenta que no basta con pedir los datos a los autores, hay que seguir el recorrido de los datos desde su origen hasta donde podamos y eso no termina cuando los depositamos en Crossref: podemos depositarlos de manera adicional en otros sitios, podemos darles otras salidas y, además, debemos volver sobre ellos si detectamos algún error sistemático que podamos corregir.

Los Metadata Excellence Awards fueron entregados en mayo de 2025, en el contexto del encuentro anual de Crossref con su comunidad. Os dejamos el vídeo de aceptación del premio por parte de la revista Boletín Geológico y Minero, editada por Editorial CSIC.

Y ahora disfruta de este vídeo de aceptación.

Version in English

We spoke with Nacho Pérez Alcalde, Technical Deputy Director of Editorial CSIC, the publisher behind ‘Boletín Geológico y Minero’, recipient of the Crossref Metadata Award in the Metadata Enrichment category. A Crossref member since 2008, Editorial CSIC publishes 41 Diamond Open Access journals and plays a key role in scholarly communication at the international level. We explore what this award has meant for Editorial CSIC and what plans they have for the future to continue improving the quality and use of their metadata.

What motivates your team to work towards high-quality metadata? What objectives does it support for your organisation?

Editorial CSIC publishes 41 scientific journals, all of which are included in major indexing databases. These are prestigious journals that have offered high-quality, peer-reviewed content for many years. However, today, it is no longer enough for a scientific journal to provide quality content alone; it is now also essential to deliver high-quality metadata associated with those publications. What just a few years ago was considered a value-added service has now become indispensable.

In an electronic and internet-based working environment, metadata is key to content dissemination and to the identification of journals, authors, publishing institutions, and funding organizations. For a publisher, it is crucial to be able to transmit this information through technical procedures and standardised protocols to ensure compatibility with the systems that harvest, store, and distribute data, enhancing the visibility and discoverability of our journals.

Do you have a strategy for complete metadata?

We’ve been working with metadata for years and, periodically, we review and expand the number of elements we convert into metadata. We always prioritise what is already a clearly established standard (for example, ORCID), as well as metadata aligned with editorial policies we consider a priority (such as the CC BY license we apply).

The workflow begins with the editor identifying the data to be collected and how it will be requested. Once this is integrated into the journal’s submission guidelines, the collaboration of authors becomes essential, as they are the ones who provide the data. In a later phase, the data is reviewed by a technical editor specialising in metadata (different from the content reviewer). Finally, it’s crucial to have a tool that enables the automated transfer of metadata, and here, having specialised technical staff is very important.

We work with the OJS platform; I spent years depositing metadata in Crossref using XML files that we generated manually, one by one. With an average of 1,000 articles published per year, the creation of the Crossref XML export module in OJS for automated deposit from the platform was a huge help for us – it significantly lightened the workload, ensured greater reliability, and allowed us to focus our time on improving other aspects.

It also gives us more flexibility when reviewing our data policies. For example, it allowed us to carry out a bulk deposit to update all our references in order to correct a recurring error.

How have you integrated these into your metadata processes?

The Crossref Metadata Enrichment Award was specifically granted to the journal Boletín Geológico y Minero for having shown significant improvement in its metadata in recent years. This journal was previously published by another institution, and when Editorial CSIC took over, we applied the same standards we have been using for our other journals for many years. We are especially proud of this because we see the award as recognition of a metadata policy we’ve been developing over the years, one that has led to significant improvements for this journal in a relatively short time.

The collaboration of the journal’s scientific leadership was key to achieving this. We first explained which data should be requested from authors, why, and for what purpose. Then we ensured that the data was being properly integrated into the articles and implemented it within the OJS platform. From there, we proceeded with depositing the metadata in Crossref and also integrating it into other metadata dissemination channels.

What impact of good metadata can you see for your organisation? Is it supporting the business and/or editorial side of your work?

Beyond their obvious benefits, such as increasing the visibility of our publications and contributing to the management of controlled, high-quality information, they should ultimately help us position ourselves as a professional group. Our essential role is to publish peer-reviewed, high-quality scientific content and deliver it to the scientific community and, increasingly, to society at large. However, today, we should also aim to be recognised as data providers. And that, in the “age of data,” is a significant shift. We must be able to extract metadata from our publications-supplied by authors (keywords, affiliations, bibliographies…). We also need to generate other metadata ourselves, and transmit and disseminate those effectively. Scientific journals must still have editors who perform copy editing and proofreading, but they must also have metadata editors, people who understand what FundRef is, and know where and how to input data into the platform to ensure it is preserved and transferred correctly and efficiently.

That’s why I want to take this opportunity to highlight the role of the editor as a generator and provider of data. Editors are the source of data. There are other actors-like libraries and indexers-who harvest, archive, transmit, and process that data to, for example, create new content or services. But only we have the capacity to generate it.

Have you encountered any challenges in curating or improving your metadata?

Sometimes authors complain about being asked for too much information. For example, the use of ORCID is mandatory in our publications, and many authors, especially those from non-European regions, have complained because they don’t know what it is or what it’s for, or – for personal reasons – they don’t want to register for a personal identifier. These reasons are, of course, valid and understandable, but for us, the priority is to correctly identify each author, and we believe ORCID helps achieve that. Another common issue is that when authors cite a funding source, they often include the name of the funding body, but sometimes don’t write it in full, or they omit the acronym, or worse – they include the name but not the institution or project code. Authors are used to writing with “human” readers in mind, not the machines that will later process all that information. Our role, as metadata editors, involves educating them about the importance of providing these codes and requesting them when we see they’ve been left out of the manuscript.

Have your efforts around metadata led to real benefits for your community? Is this something your editors, authors, or readers are aware of and appreciate? If so, why?

For the technical editor, it’s easier to assess the value of metadata. We understand how the ecosystem works, how important platform interoperability is, how quickly and widely data can be transmitted, and how crucial it is for data to be correct from the very beginning. Once it’s out there, it can be very, very difficult to correct or control. We’re also aware of its potential impact because we know how information systems feed off each other and share information – information that we generate.

Scientific editors, authors, and readers tend to value it less and aren’t always aware of its importance, though of course there are exceptions. While I believe everyone should at least have a basic understanding of how it works, I also think authors are already overwhelmed with all the requirements we ask of them when submitting manuscripts. Editors are here to guide them on what data to provide and how to provide it.

That said, today, everyone is at least somewhat familiar with what data is and what can be done with it. We all consume a wide variety of digital content online and have at least a basic idea of what metadata, personal data, and algorithms are. A few years ago, explaining all this was much more difficult, but nowadays, it’s much easier for people to grasp, especially within the scientific and technological environment in which we publish.

Looking ahead, how are you planning to build on your metadata quality? Are there new elements or practices you’re exploring? And what advice would you give to others just starting to strengthen their metadata?

At Editorial CSIC, ever since we began publishing in electronic format and distributing our journals online, almost 20 years ago, we have consistently sought to innovate in design, management platforms, and file formats. Speaking of specific actions, we have extended the mandatory use of ORCID and DOI to contributions that are not strictly scientific articles (until now, our book reviews, obituaries, and similar texts didn’t have them), and we are currently considering the implementation of ROR identifiers for research organizations.

Do you have any advice for organisations that are making an effort to improve the quality of their metadata?

For editors who are just beginning to strengthen their metadata, I would suggest something that seems logical and simple, but is not always put into practice: take the time to calmly and thoroughly plan a data policy. This should be based on identifying and selecting which data elements are most important, then implementing protocols to request them from authors and integrate them into editorial platforms, and finally, configuring those platforms correctly to ensure proper export.

Metadata involves a chain of tasks carried out by people with different profiles. You need to have resources to strengthen that chain. It’s good to remember that it’s not enough to simply ask authors for data – you have to follow the data along its entire path from the source as far as possible. That journey doesn’t end when we deposit it in Crossref: we can also deposit it in other repositories, find additional ways to disseminate it, and we must revisit it if we detect any recurring errors that can be corrected.

And now enjoy this acceptance video.

Further reading

Page maintainer: Nacho Pérez Alcalde
Last updated: 2025-August-14