Polvo, sudor y hierro - BiblogTecarios

Polvo, sudor y hierro

El año 2001, cuando yo era director de la Biblioteca de Menéndez Pelayo, se celebró en Santander un foro de debate sobre el Libro, las bibliotecas y los archivos en España a comienzos del tercer milenio. Tuvo lugar los días 12 a 15 de noviembre de 2001, organizado por una Sociedad Estatal denominada España Nuevo Milenio, a la que presenté una comunicación titulada Perspectivas tecnológicas en el libro y las bibliotecas del futuro que puede consultarse en E-LIS. El 27 de septiembre de 2010 Francisca Hernández y yo impartimos una lección inaugural en el Master en Bibliotecas y Servicios de información digital de la Universidad Carlos III titulado Bibliotecas digitales: los bibliotecarios y el paradigma biblioteca digital 2020 que, muy comentado en las redes sociales, fue bautizado por nuestro común amigo y compañero Francisco José Diago como “El espíritu de Colmenarejo”, aludiendo así al lugar de la Sierra madrileña donde está ubicado el “Instituto de Estudios Avanzados”, llamémosle así, de la Universidad Carlos III y en el que se hacía referencia a los hechos que presumiblemente y a la vista de todas las indicaciones iban a producirse a lo largo del año 2011 y que iban a constituir, como decía el título de la conferencia, un auténtico cambio de paradigma. Buena parte de lo afirmado en Colmenarejo había sido predicho en la comunicación que he citado al principio, en la que, por otra parte, tampoco escaseaban los errores y las omisiones. De hecho, la certeza de que iba a producirse este cambio sistémico, por utilizar una palabra tan de moda en estos momentos y por razones bien tristes, fue lo que nos impidió tanto a Francisca Hernández como a mí convertir nuestro extensísimo artículo La biblioteca virtual: concepto y función en un libro, pues sabíamos que iba a quedar completamente anticuado en muy poco tiempo. Ahora es el momento de hacerlo y ese es uno de los objetivos que nos hemos fijado los dos para este año.

Libros digitalesEn suma, toda la filosofía, o si queremos ser un poquito pedantes, la propedéutica, está basada en el principio de Ranganathan save the time of the user y ha quedado refrendado, al menos desde mi punto de vista, por los estudios que la OCLC publica con el título que traduzco libremente por “Bibliotecas ¿qué es lo que el usuario quiere y qué es lo que el bibliotecario quiere?” en la que se observan tan importantes divergencias. Porque está claro, a la vista de estos estudios, que lo que el usuario quiere es fundamentalmente acceder al libro, me niego a llamar documento a los objetos digitales o no que gestionamos en las bibliotecas y entiendo, por supuesto, por libro cualquier tipo de material bibliográfico.

La digitalización ha traído, por fin, a las bibliotecas un medio para satisfacer ese deseo del lector. Es decir, una vez localizado el libro en el catálogo, sencillamente el lector quiere, haciendo clic, frotando con la yema del dedo la pantalla o quién sabe si guiñándole un ojo, o simplemente sonriendo, proceder a leer (y a muchas cosas más) el texto que tiene delante. Tal vez si Linked Open Data se aplica en las bibliotecas será un gesto de asombro más que una sonrisa lo que se dibujará en la cara del lector (también me niego a llamar usuario a nuestros amados lectores y lectoras), pues el sistema habrá sido capaz de encontrar otros libros análogos al que el lector buscaba, aplicando técnicas cada vez más avanzadas, concretando las posibilidades de la Web Semántica y aproximándose a la inteligencia artificial.

El primero de los cambios es radical y afecta a las capas más superficiales de la información, pero aún así tiene un hondo calado. La interfaz que el usuario debe manejar debe estar basada en HTML5, CSS3 y JavaScript. Observe el lector que Flash está omitido por completo y que por lo tanto esas vistosas aplicaciones que tanto gustan a quienes toman las decisiones políticas y aprueban los presupuestos y dan luz verde a los proyectos, han de ser desterrados por nosotros puesto que sencillamente la Web no lo reconocerá. Y cuando al Adobe Flash veas pelar, pon el PDF a remojar. Qué duda cabe que PDF fue un gran avance, pero la edición en HTML5 permite de una manera mucho más ágil y sencilla todo tipo de hipervínculos e incrustaciones de objetos digitales, configurando mash-ups cada día más frecuentes.

Ayer volaba yo desde Estambul e iba leyendo en mi iPad un libro digital sobre la película Yellow Submarine, naturalmente era posible acceder a alguna de las canciones, abrir otra página relacionada, cambiar las posiciones de las columnas y del texto, ampliar la letra y, sobre todo, introducir un maquetado de diseño muchísimo mucho más sofisticado y versátil (vaya par de anglicismos) de una manera que ciertamente es compleja de conseguir en un PDF. Por otra parte, XML se entiende con HTML5 de una manera admirablemente sencilla y permite abrir los datos de modo que resulten de la máxima utilidad para el lector, ahorrando el tiempo, siempre un bien escaso como bien sabía el sabio bibliotecario hindú.

Hay que introducir aquí una diferenciación conceptual clara. No es lo mismo Open Access que Open Data, aunque lo que voy a decir a continuación no se corresponde exactamente con la realidad, me parece a mí que va a resultar mucho más inteligible. El Open Access es un problema, una solución dirán otros, para solventar un escollo económico, una dificultad administrativa. En principio si las suscripciones a las revistas electrónicas fueran extraordinariamente bajas, digamos por debajo de un euro al año, hubiera sido difícil que el movimiento Open Acces se hubiera puesto en marcha. Sin embargo, Open Data es algo completamente diferente. Que los datos estén abiertos no significa únicamente que sean accesibles, sino que su estructura permita manejarlos mediante determinadas tecnologías, con todo tipo de objetivos. Es decir, podemos tener un artículo de una revista al que le hemos asignado ni una materia, ni un descriptor, sino un SKOS y ya sé que estoy hablando impropiamente, pero es intolerable que en el siglo XXI se siga discutiendo entre tesauros y encabezamientos de materia, cuando hace muchos años que la tecnología borró las diferencias que podrían existir, si es que las había. Podemos, pues, asignarle un SKOS, siglas de Simple Knowledge Organization System, y ese SKOS nos introducirá, como su nombre indica, en todo un sistema de organización que podrá estar perfectamente vinculado con otros que, a su vez, también estarán asignados a otros datos también abiertos. Por ejemplo, si los encabezamientos de materia que se utilizan en las bibliotecas públicas españolas, las muy conocidas LEM, en lugar de estar en un campo 650 de un registro bibliográfico o en un 150 de un registro de autoridad, utilizasen la edición en Linked Open Data [http://id.sgcb.mcu.es], cada registro podría estar, literalmente, vinculado con centenares, con miles de libros que tuvieran aplicada esta misma tecnología y este mismo sistema. Como además las actuales LEM están vinculadas con las LCSH, con RAMEAU o con las SWD, todo el acervo bibliográfico inglés, francés y alemán estaría, sin necesidad de efectuar nuevas búsquedas y navegaciones, accesible para nuestro lector que tal vez se quedara con la boca abierta, como me ocurre a mí cada vez que utilizo el lenguaje SPARQL en aquellos datasets y bases de datos editadas correctamente en Linked Open Data. Tal vez la boca abierta sería un signo facial que el sistema futuro interpretaría como desencadenante de todas esas búsquedas. Lo maravilloso de todo ello es que podemos acabar, o para ser más precisos, el sistema puede ayudarnos a llegar a, por ejemplo, lo que el New York Times tenga que decir al respecto de la materia del libro o del autor que lo ha escrito, sin descartar que el sistema nos lleve a los archivos de la BBC, verdaderamente extraordinarios, con lo que el lector es difícil que no quedara perfectamente satisfecho.

No son muchos en España los programas capaces de llevar a cabo funcionalidades así y eso que solo he citado SKOS, puesto que también se podría mencionar el Virtual International Authority File, GeoNames o GeoLinkedData, el OWL-Time o, sobre todo, la DBpedia, es decir, la suma de todas las Wikipedias que en lenguaje RDF ocupa el centro de Linking Open Data Cloud Diagram. Si alguien quiere tener una idea de lo que es posible hacer en España quizá no haría mal si consultara la Escuela de Salamanca, una de las Bibliotecas Virtuales FHL que, implementada sobre un sistema DIGIBIB, utiliza una gran parte de esas funcionalidades.

Ello es así porque, como puede leerse en los seis números ya publicados de DIGICLIC que abarcan 3 años, es el camino que ha emprendido la red y el que profesionalmente yo he querido seguir y participar en él. Y también y, sobre todo, por Europeana. No voy a hablar aquí de los ya antiguos Principios de Lund, ni de las respuesta francesa a Google Books, sino de un proyectos que reúne 20 millones de objetos digitales y que para 2015 tendrán que ser 30, según prevé su Plan Estratégico y que están relacionados entre sí por estructuras de información basadas cada vez más en Linked Open Data. Habría sido muy difícil llegar a Linked Open Data con cerca de 2.000 proveedores de datos y muy distintos niveles de capacidad técnica, de normalización bibliotecaria, archivística o museológica, más de 20 lenguas, decenas de vocabularios controlados… y, por eso se ha seguido un paso corto y controlado. El primer modelo de datos, el Europeana Semantic Elements, era un Dublin Core cualificado, el ‘tripling core’ del que hablaba yo en 2001, pero ya el Europeana Data Model buscaba justamente la interrelación semántica, pero también espacial o temporal entre todos esos millones de objetos digitales.

Probablemente la última semana del mes de octubre de 2011 permanecerá en la memoria de los bibliotecarios europeos para siempre. En la misma semana aparecieron cuatro documentos de Europeana, el Europeana Data Model Primer, el Europeana Data Model Mapping Guidelines, el Europeana Data Model Factsheet, los tres el 26 de octubre, y uno importantísimo el 31 de octubre en el que de nuevo Stefan Grandman, autor del primer White Paper verdaderamente clarificador sobre las funciones de Europeana, expone la Final Technical & Logical Architecture and future work recommendations. Toda esta información y mucha, mucha más puede encontrarse en el nuevo recurso http://pro.europeana.eu en cuya lectura y consulta frecuente debo insistir dada su enorme utilidad. Pero es que el día 25 había aparecido, por fin, el Informe final del Library Linked Data Incubator Group, acompañado por otros dos documentos dedicados respectivamente a Casos de Uso y a los Conjuntos de datos, Vocabularios de valores y Conjuntos de Elementos de Metadatos. Dado que la Biblioteca Virtual de Polígrafos, una de las Bibliotecas Virtuales FHL, con el nombre inglés de Polymath Virtual Library figuraba como caso de estudio entre los 12 referidos a datos bibliográficos y la Ontología del Patrimonio de Cantabria, que dirige Francisca Hernández Carrascal, que figuraba junto a Europeana, por cierto, entre los casos de uso de información miscelánea, el W3C nos ha asignado la traducción de estos textos que hemos llevado a cabo junto con otros especialistas en este dominio, intentando coordinar la terminología y que pronto podrán consultarse en la página Web de la Fundación Ignacio Larramendi. Cuando digo pronto, digo a este mes de enero.

Para cerrar esa semana especialísima tuvo lugar el 21 de octubre la firma de un convenio de cooperación entre la Digital Public Library of America -que dirige la biblioteca de la Universidad de Harvard que cuenta con tres pilares que son nada menos que la Library of Congress, el Smithsonian Institution y los National Archives- y Europeana por el cual la DPLA comenzará a utilizar, entre otros puntos técnicos, MINT, una herramienta de integración de metadatos desarrollada por Europeana. No debe olvidarse, por cierto, que 4,5 millones de registros de Europeana están editados ya en Linked Open Data, como podrá comprobar el lector consultando http://pro.europeana.eu y que el 40 % de ellos procede de Hispana, en concreto de tres sets de Hispana que no sólo demuestra así lo perfeccionado de su diseño y estructura de información, sino que en otro lugar, el Registry of Open Access Repositories, figura en primera posición por encima de bases de datos tan importantes como PubMed de MEDLINE.

También, las bibliotecas virtuales del Ministerio de Cultura y buena parte de las que configuran y dan volumen a Hispana, en la actualidad el cuarto proveedor de datos de Europeana, utilizan el MARC 21 en su actualización número 13, lo que implica la catalogación en RDA. Todo ello es posible gracias a que utilizan el mismo programa ya mencionado para las Bibliotecas Virtuales FHL. La adopción de las RDA es un cambio inexcusable que habrán de emprender todas las bibliotecas españolas y, si fuera posible, haciéndolas coincidir con la entrada en producción de la Library of Congress, la National Library of Medicine (MEDLINE) y la National Library of Agriculture, todo lo cual tendrá lugar el 1 de enero de 2013 y para lo cual existen todo tipo de magnos proyectos de formación de bibliotecarios en las nuevas reglas, como hubo que hacer en España, a partir del año 1985 cuando se editaron las vigentes reglas de catalogación basadas en las ISBD, pero sobre todo en las AACR2. Podríamos decirse que llevamos ya, y aún no hemos empezado, un considerabilísimo retraso en este aspecto como ocurre con la sustitución de Z39.50 por SRU, la aplicación sistemática de recolectores y repositorios OAI-PMH, la utilización de METS para el intercambio de ficheros de metadatos y de datos, especialmente de objetos digitales, por no hablar de la preservación digital a largo plazo que utilizando el Diccionario de datos PREMIS y el modelo de referencia OAIS, ISO 14721.

Toda esta información digital en un porcentaje elevadísimo es gratuita y me limito a mencionar los 20 millones de objetos digitales de Europeana o los 3 millones de objetos de Hispana, que no todos están en Europeana, que pueden ponerse a disposición de los lectores, bien a través de las pantallas de las bibliotecas o, de forma creciente, realizando la edición en libros electrónicos, bien sea en formato EPUB, bien sea en formato MOBI, o en ambos, pues también de una forma que sin duda es la tendencia más potente de la red, el número de smartphones se multiplicará por 20 en cinco años y prácticamente no habrá nadie, e incluyo desde luego al tercer mundo, que no disponga de uno de estos dispositivos que le permitirán de forma prácticamente gratuita tener acceso a un volumen de información como jamás pudo soñarse. Pero, no debe olvidarse que información no es conocimiento y aunque los bibliotecarios podemos jugar un importante papel en todas las técnicas de alfabetización informacional es el sistema educativo el que debe integrar de una forma plena en los planes de estudio, los horrísonamente llamados itinerarios o diseños curriculares, la correcta utilización de las fuentes de información, de los textos, de la música, del arte, de la ciencia, de todo lo que la Web nos ofrece de forma cada vez más abierta y de manera cada vez más vinculada, enseñando al alumno que no basta con una consulta a un único buscador -por favor haga usted la prueba de hacer la misma pregunta en este otro buscador, o de consultar la Wikipedia, ¿ha manejado usted esta base de datos referida específicamente al tema que le interesa?- pues de lo contrario es muy de temer que caigamos en el bizantinismo y seguramente lo digo por lo cerca que tengo ese recuerdo.

Algunos bibliotecarios afirman que con la Web nuestra función biblioteconómica va a dejar de tener sentido ¡Qué equivocados están! Para que todo lo anteriormente dicho sea posible, es necesario un esfuerzo enorme por parte de toda la profesión, e incluyo aquí a los archiveros y a los museólogos, tanto de formación continua como de estructuración de los objetos digitales de modo tal que estos se relacionen entre sí y sean cada vez más ricos, tengan lo que en ese informe de la OCLC que he mencionado al principio, valoran tanto los lectores: muchos accesos conceptuales, resúmenes, índices, vínculos…

Polvo, sudor y hierro necesitan los bibliotecarios y las bibliotecarias españolas para que nuestras bibliotecas, que no son nuestras sino de los lectores, cabalguen.


Xavier Agenjo BullónXavier Agenjo Bullón. Miembro del Cuerpo Facultativo de Bibliotecarios, Archiveros y Arqueólogos en excedencia. Entre 1985 y 1989 fue jefe del Servicio del Catálogo Colectivo de Patrimonio Bibliográfico, desarrollando labores fundamentales para la puesta en marcha de su automatización. Jefe de la Unidad de Coordinación Informática de la Biblioteca Nacional de España de 1989 a 1993, bajo su dirección se desarrolló su sistema de gestión ARIADNA. Entre 1993 y 1996 fue jefe del departamento de Acceso al Documento y a la Información de la citada Biblioteca Nacional, dirigiendo la automatización de los catálogos de materiales especiales y el Museo del Libro. Desde 1996 a 2002 fue director de la Biblioteca de Menéndez Pelayo, puesto desde el que informatizó la mencionada Biblioteca. Desde 2002 es director de Proyectos de la Fundación Ignacio Larramendi, impulsando la creación de una serie de bibliotecas virtuales relacionadas con el pensamiento histórico y la repercusión de la ciencia y la filosofía hispánicas.
Primer investigador de Proyecto EDILIBE, miembro del Comité Ejecutivo del LIX Congreso de la IFLA, Secretario del Punto Focal Español del Plan de Acción de Bibliotecas de la Comunidad Europea, del Comité Permanente de Tecnología de la Información de la IFLA, del Comité de Gestión de Sistemas Telemáticos (TMC), del Consorcio del proyecto europeo Contemporary Virtual Archives in XML (COVAX)…

The following two tabs change content below.

Firmas invitadas

Firmas invitadas de Biblogtecarios

Latest posts by Firmas invitadas (see all)

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *