ESB Forum ESB Forum
ISSN: 2283-303X

Digitising journals: conference on future strategies for European Libraries, Copenhagen, 13-14 March 2000


di Antonella Farsetti (in linea da agosto 2000)


INDICE

  • User Landscape: needs and visions of users / Jeanne Pierre Bourguignon

  • Digitising journals and the eLib programme / Astrid Wissemburg

  • DELTA (Retrospective digitisation of journals) / Patricia Alkhoven

  • Digizeit / Norbert Lossau and Stefan Cramme

  • DIEPER / Werner Schwartz

  • Standards for images and full text / Hamid Mehrabi and Henrik Laursen

  • Metadata and identifiers for e-journals / Juha Hakala

  • Digitising journals: Highlights from the JSTOR's experience / Kevin Guthrie

  • Digitisation - technical issue: production at the GDZ / Norbert Lossau

  • Permanent access: Preserving electronic journals / Niel Beagrie

  • Three stories from the future / Jens Thorhauge

  • Selecting journals for digitisation: Piecing together the puzzle to create a European model / Hazel Woodward

  • Economy - Some models for sustaining innovative content-based services / Niel Beagrie

  • A European model: Organisation / Esko Hakli

  • Conclusions and recommendations / Ann Matheson

  • Riferimenti bibliografici


    Lo scorso 13 e 14 marzo a Copenhagen si è svolto il convegno Digitising journals: conference on future strategies for European Libraries. Il congresso, organizzato da LIBER, dal Denmark's research library programme in collaborazione col progetto europeo DIEPER (DIgitising European PERiodicals), l'americano JSTOR ed il progetto NORDINFO (Nordic Council for Scientific Information), ha analizzato la digitalizzazione di periodici, cioè la retroconversione in formato digitale, dell'edizione a stampa e le problematiche connesse. Erano presenti 95 partecipanti da 22 paesi europei e quattro dagli Stati Uniti, come rappresentanti del progetto JSTOR.

    L'apertura del congresso è stata fatta dal presidente della Denmark Electronic Research Library (DEF), che ha introdotto il concetto della digitalizzazione parlando del progetto danese DEF al quale partecipano 56 biblioteche danesi di ricerca e le 16 biblioteche della Danish National Library Authority. Il progetto, finanziato dal Ministero della cultura, della ricerca e istruzione si prefigge la creazione della "società dell'informazione per tutti".

    Il fatto che DEF sia un progetto su scala nazionale è stato evidenziato come particolarmente positivo. Ciò è stato reso possibile anche dal fatto che la Danimarca sia una nazione relativamente piccola e questo ha permesso al ministero della cultura di finanziare il progetto con una quantità di fondi elevata in proporzione alla quantità di materiale da recuperare.

    User Landscape: needs and visions of users / Jeanne Pierre Bourguignon

    Il primo intervento è stato di Jeanne Pierre Bourguignon, docente di matematica all'Institut des Hautes Etudes Scientifiques.

    Bourguignonn si è presentato come insegnante, ricercatore ma soprattutto come utente e tecnico esperto di digitalizzazione. Egli ha infatti partecipato attivamente alla scansione di documenti usando software OCR (Optical Character Recognition) nell'ambito del European Mathematical Information Service.

    Uno dei primi aspetti da analizzare quando ci si avvicina alla digitalizzazione di documenti è sicuramente la selezione del materiale. Bourguignon da esperto matematico, ha affrontato l'argomento dal punto di vista dell'utente specializzato.

    Quali documenti digitalizzare? Di quale utilità saranno all'utente che cerca di reperire informazioni in questo settore? Ed inoltre, come reperire un punto preciso del documento nel quale si trova la definizione o il teorema che interessa l'utente in questione?

    Le pagine di un periodico, benché contengano testo, divengono immagini se il testo non è strutturato in modo tale da poter permettere la ricerca all'interno di questo. Quale utilità si può avere quindi dalla sola scansione di documenti?

    La sola scansione può essere utile nel caso di materiale la cui disponibilità di consultazione è pressoché inesistente, basti pensare ai volumi antichi, ai manoscritti. Quando però, si tratta di periodici, per i quali il reperimento dell'informazione contenuta, è legato alla ricerca ipertestuale, l'immagine da sola non basta.

    Gli altri aspetti sottolineati da Bourgiugnon sono stati:

    • Gli standard
    E' molto sentita la necessità di standard comuni da seguire, a livello europeo ed anche più ampio. Gli standard devono essere aperti all'evoluzione tecnologica perché se la digitalizzazione è interpretata anche come metodo di conservazione del patrimonio culturale dell'umanità, questa non può andare perduta o rischiare di non poter essere utilizzata dalle future generazioni per incompatibilità tra i software.

    Attenzione deve essere posta anche alla competitività degli standard, che devono anche prendere in considerazione i bisogni degli utenti e quindi devono essere impostati soprattutto su di loro.

    • L'accesso
    Bourguignon ha affrontato questo seconda parte da un punto di vista etico. L'accesso alle risorse digitali non potrà essere universale. I paesi poveri, con scarsa capacità di acquisto, rimarranno tagliati fuori dall'informazione globale. Quindi per non creare un 'terzo mondo' dell'informazione, Bourguignon auspica l'accesso libero a qualunque tipo di TOC o di reference bibliografico che possa essere creato nell'ambito dei progetti di digitalizzazione di periodici.Tale accesso, col passare del tempo, potrebbe anche essere esteso al full-text del materiale pregresso. "In the long term one should introduce a principle of free access to sufficiently old data as part of the human legacy" (Bourguignon, 2000)

    • La selezione
    La selezione del materiale da digitalizzare non è compito facile, poiché gli studiosi, in questo caso i matematici, sono tentati dal retroconvertire tutto. La difficoltà sta nel far capire loro che non bisogna decidere tra cosa gettare e cosa conservare; la scelta riguarda la selezione di quella parte di materiale da fare 'emergere', rendendolo più accessibile all'utente. B. ribadisce inoltre che l'interesse per i periodici digitali, relativi ad annate pregresse, non è solo appannaggio delle discipline umanistiche, ma coinvolge anche discipline scientifiche come la matematica.

    La seconda parte della mattinata ha riguardato la presentazione di alcuni progetti europei nell'ambito dei quali è stata, ed è tuttora, sperimentata la digitalizzazione dei periodici.

    Digitising journals and the eLib programme / Astrid Wissemburg

    Estremamente più pragmatico e meno idealistico del precedente, possiamo definire l'intervento di Astrid Wissemburg, coordinatrice del Information Services and Systems, del King's College di Londra.

    Nella sua presentazione Wissemburg ha illustrato gli sviluppi avuti nel Regno Unito, durante gli ultimi 4/5 anni, dai vari progetti di digitalizzazione sostenuti dal Joint Information System Committee (JISC) facendo particolare riferimento al programma Elib (Electronic Library Programme) (http://www.ukoln.ac.uk/elib/)

    Elib inizia nel 1995 con un finanziamento di circa 15.000.000 di sterline per le fasi I e II, distribuite su un arco di tempo di tre anni (1995-1999). La terza fase (1998-2001) è finanziata con circa 5.000.000 di sterline.

    Le fasi I e II hanno incluso circa 60 progetti, relativi a vari aspetti della biblioteca elettronica, tra i quali: promozione e sviluppo dell'accesso alle risorse elettroniche, la digitalizzazione, il document delivery elettronico, i periodici elettronici, pre-prints, 'on demand publishing', la ricerca della qualità nella fornitura del servizio, il training per l'utente e lo staff.

    La terza fase, attualmente in corso, include vari progetti relativi alla biblioteca ibrida (hybrid library) e la stessa Wissemburg si chiede se questa sia una fase transitoria oppure no.

    Legandosi alla transitorietà o meno, della coesistenza del formato elettronico e cartaceo, AW ha stupito un po' tutti, affermando che una buona parte della documentazione riguardante la storia dei progetti da lei illustrati, è ormai perduta, perché non è stata convertita su carta né archiviata in formato elettronico.

    Questo aspetto della sua esposizione, la possibile transitorietà del digitale, sarà ripreso nella discussione finale del convegno, durante la quale sarà posta l'attenzione sulla validità di questo formato come mezzo di archiviazione/conservazione. Questo possibile uso del formato digitale sarà indicato da alcuni, proprio per la conservazione del patrimonio culturale di ogni paese.

    Illustrando la fase III di Elib, la Wissemburg fa riferimento ad alcuni progetti inerenti la digitalizzazione di periodici e di materiale affine, quali:

    Ma perché mai digitalizzare? In alcuni casi per archiviare e conservare il materiale, però il formato digitale presenta ancora delle notevoli incertezze in fatto di conservazione nel tempo, secondo Wissemburg. Forse per creare semplicemente un archivio locale, privato del singolo editore. Una problematica molto sentita rimane quella del copyright.

    Come gestire la digitalizzazione di documenti recenti verso i quali cresce un sempre maggiore interesse ?

    In tutto questo viene auspicata la collaborazione con gli editori e/o con associazioni professionali, anche di ricerca, che coproducano e magari finanzino i piccoli progetti che possono nascere a livello locale. Il proliferare di molti progetti locali, senza un coordinamento centrale, anche a livello europeo, può creare dissonanza tra i vari metodi di scansione, risoluzione e indicizzazione utilizzati.

    Gli standard suggeriti da AW sono:

    Scansione del documento:

    • a 600 dpi (minimo 300 dpi). Anche nel successivo intervento di Kevin Gutrie di JSTOR, lo standard minimo suggerito sarà 600 dpi.
    • 300 dpi per un buon 'image delivery'

    Il formato dei file:

    • archiviazione in formato TIFF o PDF
    • fornito all'utente in formato PDF con testo nascosto

    Una dettagliata analisi dei costi è stata inoltre fornita, partendo dal presupposto che la scansione è relativamente economica e che i costi lievitano grazie alle correzioni che devono essere apportate. Inoltre una variabile di costo estremamente incerta, non definita ancora, è la fornitura di accesso permanente alle risorse.

    Wissemburg ha riportato esempi di costi per pagina digitale:

    • scansione: sterling 0.20
    • scansione più catalogazione: sterling 0.75
    • scansione più proof reading: sterling 3.00
    • tutto il processo inclusi i costi di gestione: sterling 4.20
    • accesso permanente (annuale): sterling 0.03
    • archiviazione (annuale): sterling 0.02

    Molte iniziative sono state promosse per rendere i periodici più accessibili a livello di costo e di servizio, agli studenti ed ai docenti delle università inglesi. Una di queste è NESLI (National Electronic Site Licence Initiative) (1998-20002) http://www.nesli.ac.uk che nasce dal Pilot Site Licence Initiative conclusosi nel 1999 e sviluppato grazie al supporto finanziario del governo britannico.

    NESLI è un servizio sorto per promuovere l'uso dei periodici elettronici nelle università inglesi, ed è previsto che sia autofinanziato. Infine, citiamo il Distributed National Electronic Resource, http://www.jisc.ac.uk/pub99/dner_vision.html

    Concludendo, Wissemburg definisce le biblioteche universitarie inglesi come biblioteche ibride dove stanno nascendo nuovi servizi, anche grazie alla fantasia dei bibliotecari, che hanno saputo sfruttare le potenzialità delle nuove tecnologie per creare servizi alternativi e più efficienti. Nonostante questo continuo sviluppo, sono ancora tanti i quesiti cui rispondere.

    La spirale dei costi continua a crescere per poter istituire e mantenere accesso permanente alle risorse elettroniche, la proliferazione di interfacce diverse ripropone il problema degli standard comuni da seguire, l'archiviazione su formato elettronico presenta ancora incertezze sulla conservazione a lungo termine.

    DELTA (Retrospective digitisation of journals) / Patricia Alkhoven

    Per il progetto DELTA, la cui presentazione è saltata per improvvisa indisposizione della relatrice, viene riportata traduzione dell' abstract fornito durante il congresso.

    Il progetto DELTA (Dutch Electronic Library Technology Association) è partito il 1 settembre 1998 su iniziativa di PICA. Il suo obbiettivo è quello di istituire una Biblioteca virtuale di ricerca elettronica in cooperazione con le biblioteche universitarie danesi e al Koninklijke Bibliotheek (KB). Il progetto mira a costruire servizi integrati per l'utente finale, che rendano possibile collegare record bibliografici a documenti full-text. Il contenuto sarà costituito sia da documenti 'nati' digitali e acquistati presso gli editori, sia da materiale digitalizzato retrospettivamente.

    La KB è stata strettamente coinvolta nel lavoro di definizione e selezione delle collezioni , e nella definizione di linee guida e raccomandazioni tecniche per la digitalizzazione. In collaborazione con le altre biblioteche partecipanti, sono stati scelti cinque periodici da digitalizzare.

    Questa presentazione è incentrata sul background del progetto Delta, la definizione delle collezioni e la selezione per la digitalizzazione, ed il processo stesso di digitalizzazione.

    Basandosi sulla vasta esperienza della KB, è stato scelto un approccio ibrido per le questioni tecniche ed i costi della digitalizzazione. Prima si è microfilmato il materiale per la conservazione e poi si sono digitalizzati i microfilm.

    Un modello organizzativo è stato creato per un approccio comune, ma distributivo, per costruire una biblioteca virtuale dei periodici universitari olandesi.

    Gli altri aspetti che saranno trattati sono gli accordi di licenza con gli editori ed il modo in cui i documenti full-text saranno 'linkati'. Sarà inoltre affrontato il problema dell'archiviazione a lungo termine e della conservazione del formato digitale.

    Digizeit / Norbert Lossau and Stefan Cramme

    Norbert Lossau, con il suo intervento relativo a Digizeit (Digitalizzazione di periodici), ha illustrato questo nuovo progetto tedesco finanziato dalla Deutsche Forschungsgemeinschaft (DFG) (German research foundation) che dal 1997 ha dato inizio ad un programma di finanziamento per la digitalizzazione retrospettiva di materiale librario. Attualmente 35 progetti tedeschi ricevono fondi da questa istituzione, che eroga dai tre ai quattro milioni di marchi all'anno, per tutti i progetti in corso in Germania. Gli obiettivi di questo programma nazionale sono stati così identificati:

    • fornire accesso a collezioni ritenute rilevanti per la ricerca e conservate nelle biblioteche;
    • fornire accesso parallelo a fonti informative frequentemente usate, ma ancora in formato cartaceo;
    • rendere accessibili collezioni la cui consultazione è solitamente sottoposta a regole restrittive, dovute alla particolare deteriorabilità del materiale;
    • promuovere l'uso di collezioni poco conosciute ma importanti per la ricerca.

    Gli obiettivi di Digizeit si inseriscono perfettamente in questo contesto, infatti il progetto si propone di:

    • fornire e facilitare l'accesso ai periodici più utilizzati degli editori tedeschi;
    • migliorare l'infrastruttura del ciclo informativo;
    • migliorare la 'visibilità' dei periodici scientifici tedeschi fornendo un accesso in linea.

    La biblioteca dell'Università statale di Goettingen ha iniziato uno studio di fattibilità di Digizieit, nel febbraio 1999, che terminerà nell'autunno 2000. Infine, a dicembre 2000, sarà presentata la richiesta di finanziamento alla DFG. I partner di questo progetto sono al momento attuale, 9 biblioteche universitarie tedesche:

    • Staatsbibliothek zu Berlin
    • Universitats-und Landesbibliothek Bonn
    • Sachsische Landesbibliothek -Staats- und Universitatsbibliothek Dresden
    • Stadt-und Universitatsbibliothek Frankfurt am Main
    • Universitatsbibliothek der TU Bergakademie Freiberg
    • Niedersachsische Staats und Universitatsbibliothek Goettingen
    • Bibliothek des Instituts fur Weltwirtschaft - Deutsche Zentralbibliothek fur Wirtschaftswissenchaften Kiel
    • Universitats und Stadtbibliothek Koln
    • Bayerische Staatsbibliohek Munchen

    In una seconda fase, saranno accettate altre biblioteche tedesche che volessero partecipare. I periodici scelti per essere digitalizzati sono 57 suddivisi in 14 aree tematiche: Studi anglo americani, economia, demografia, biblioteconomia, geologia, storia, arte (dopo il 1945), filologia moderna, giurisprudenza, sociologia, economia, ecc. E' stato valutato che questo porterà alla scansione di circa 3.000.000 di pagine.

    Il progetto prenderà come modello il JSTOR americano, scandendo la collezione completa dei periodici scelti, terminando 3 anni prima del corrente.

    L'idea del modello JSTOR sembra incontrare anche il favore degli editori, implicati direttamente nel progetto. Poiché questo può fornire gli editori stessi con la versione elettronica delle loro pubblicazioni arretrate, senza grossi costi aggiuntivi. Il primo incontro con gli editori è stato il 2 marzo a Goettingen, e la maggior parte di essi ha dato risposte affermative. E' stata infatti concordata la creazione di un primo server prototipo per l'autunno del 2000.

    Uno degli obiettivi del progetto è quello del coinvolgimento di tutti gli attori del processo di creazione e diffusione dell'informazione scientifica: autori, editori, biblioteche ed utenti. Uno dei vantaggi più grandi per gli utenti sarà dato dal fatto di poter avere a disposizione in linea, periodici che al momento sono reperibili solo su formato cartaceo.

    Essendo Digizeit nella fase iniziale, molti sono ancora i nodi da sciogliere. Devono essere stabiliti accordi sulle licenze d'uso, la legislazione tedesca sul copyright riconosce il diritto all'uso delle risorse digitali sul sito dell'editore, solo per le annate recenti, per l'uso del pregresso devono essere presi accordi direttamente con gli autori. Un possibile partner per le negoziazioni è stato individuato nel Verwertungsgesellchaft Wort.

    Lossau ha infine analizzato il modello organizzativo del progetto, che presenta ancora vari quesiti aperti come, la possibilità di costruire una organizzazione non profit e il problema dell'accesso, fornito tramite il server di un provider esterno, oppure utilizzando le potenzialità esistenti all'interno della biblioteca?

    Devono ancora essere stabilite, anche le condizioni di fruibilità del materiale. Sono state valutate varie possibilità, tra le quali, richiedere un abbonamento alle varie università e biblioteche interessate, probabilmente su base annuale per far fronte alle spese di gestione e permettere l'ampliamento del progetto. Ancora una volta è stato preso come probabile modello di attuazione, l'americano JSTOR.

    Per ciò che concerne l'accesso, è prevista la creazione di una unica interfaccia che permetta la ricerca sia nel retrospettivo che all'interno delle altre risorse elettroniche disponibili, sarà fornita la possibilità di ricerca all'interno del full text (probabilmente usando un software OCR).

    Alcuni aspetti tecnici devono essere ancora definiti, tuttavia AGORA è tenuto come punto di riferimento. Un demo server sarà implementato con volumi scelti a campione. Lossau ha terminato il suo primo intervento, augurandosi cooperazione e suggerimenti da altre istituzioni europee che volessero partecipare al progetto, che sta già cooperando con JSTOR, DELTA e DIEPER

    DIEPER / Werner Schwartz

    L'intervento di Werner Schwartz (Goettingen State and University Library), è arrivato al cuore del tema del congresso illustrando il progetto DIEPER (Digitised European Periodicals). A questo progetto, supportato dalla Comunità Europea, partecipano 11 paesi europei, tra i quali l'Italia, con l'Università di Siena.

    DIEPER si prefigge di creare un unico accesso per i periodici digitalizzati in tutta Europa, in modo da permettere la ricerca su siti multipli. Sarà creato un database contenente informazioni relative a tutti i periodici che sono stati già retroconvertiti in formato digitale, in Europa ed altrove, ed a quelli che sono in procinto di esserlo. Questo database potrà essere utilizzato per evitare la duplicazione dei titoli e per connettersi all'archivio digitale contenente il periodico già retroconvertito. Sarà inoltre possibile consultare direttamente il full-text (in relazione alla politica di accesso adottata dai vari archivi correlati).

    Un motore di ricerca permetterà la ricerca in full-text attraverso archivi multipli. La ricerca potrà essere attuata tramite Tocs, autore/titolo, parola chiave all'interno dell'articolo. Lo stesso motore di ricerca permetterà di fare ricerche in modo esaustivo sia a livello 'articolo', sia restringendo il campo ad una certa disciplina.

    Questo database (definito anche Registro dei periodici) sarà uno degli strumenti che permetterà di poter implementare progetti per la digitalizzazione in linea con le altre iniziative già in corso in ambito internazionale. Tutto questo sarà reso possibile solo dall'uso di standard comuni per i formati elettronici usati.

    DIEPER auspica l'uso di standard già esistenti ed usati in precedenza, quali:

    • Scansione immagine (minimo 600 dpi di risoluzione, salvata in TIFF; conversione in GIF, PNG o JPEG per la visualizzazione sul Web)
    • Utilizzo di matadata creati in XML/RDF
    • Archiviazione del file di testo creato con OCR in XML, 'marcato' secondo TEI
    • Ogni documento elettronico avrà un unico identificatore (DOI o URN) che permetterà il reperimento del documento all'interno del Web senza URL fisse.

    Nonostante il progetto sia alla fase iniziale, sono già stati scelti sei periodici campione, relativi all'ambito della matematica su un arco di tempo che va dal diciottesimo secolo ad oggi. Gli standard scelti , nonostante fossero già stati utilizzati in altri progetti, sono stati tutti testati in relazione ai seguenti parametri:

    • Cattura dell'immagine,
    • Indicizzazione,
    • Struttura e gestione del documento.

    Il Database di DIEPER sarà uno strumento di ricerca per l'utente finale ma anche uno strumento di lavoro per i bibliotecari, poiché conterrà schede bibliografiche compatibili con i formati USMARC e UNIMARC, dove saranno riportate, oltre alle informazioni bibliografiche del formato cartaceo, le informazioni relative al formato elettronico ed alla sua produzione. Il prototipo sarà pronto per metà 2000.

    I prossimi sviluppi di DIEPER prevedono quindi l'installazione del motore di ricerca che permetterà il reperimento dell'informazione negli archivi dei partecipanti al progetto, l'implementazione del prototipo, un'analisi del problema copyright, in modo da assicurare un uso fluido del materiale digitale da parte degli utenti. Dovrà infine essere esaminato lo sviluppo di un modello economico da poter utilizzare in futuro, dato che si prevede che l'interesse per la retroconversione digitale continui per almeno altri 10 anni.

    Schwartz termina il suo intervento dicendo che dobbiamo ricordare di essere "retrospective but prospective" quando parliamo di standard per il retrospettivo. I formati usati dovranno essere compatibili con gli siluppi della tecnologia poiché DIEPER mira ad un migliore accesso ai documenti ma anche alla loro conservazione.

    Digitising journals: Highlights from the JSTOR's experience / Kevin Guthrie

    Il presidente del progetto JSTOR, Kevin Guthrie, propone una panoramica su questo progetto americano che ha fatto storia nel campo della retroconversione in digitale.

    JSTOR (http://www.jstor.org/) nasce per iniziativa della Mellon Foundation sperimentando la conversione in formato digitale delle annate pregresse di periodici molto consultati. Gli obiettivi di JSTOR sono di, aiutare la comunità accademica a trarre vantaggio dalla tecnologia, sviluppare un archivio di pubblicazioni periodiche di ambito accademico, implementare un sistema di cooperazione tra biblioteche, editori ed autori.

    Nel 1995 JSTOR diviene una organizzazione no profit, indipendente. JSTOR si avvale della collaborazione di 670 biblioteche di cui 543 statunitensi. La disponibilità del materiale in linea è pari a 117 titoli per un totale di 4.647.682 pagine. Queste cifre sono effettivamente impressionanti se pensiamo che all'interno dell'intero processo le pagine vengono controllate, una per una. (Guthrie, 2000:33)

    La struttura organizzativa di JSTOR è capillare ed efficiente. Le biblioteche e gli editori che partecipano fornendo materiale hanno uso gratuito. Guthrie ribadisce più volte che la collezione è completamente usata e che aumentano gli utenti interessati a più di una disciplina.

    La fase produttiva prende vita con la selezione del materiale, che deve riscontrare l'interesse dei futuri potenziali utenti/clienti. Cosa si intende per periodico importante? Secondo Guthrie, il criterio seguito da JSTOR è assimilabile a quello della selezione degli acquisti all'interno di una biblioteca universitaria.

    Una volta acquisito il materiale, generalmente dagli editori, perché le biblioteche non sono così entusiaste di prestare intere collezioni per un anno intero, si passa all'utilizzo dei tools. JTRACK che contiene le informazioni iniziali come l'ISSN, si passa poi a JSOURCE tramite il quale si riesce a delineare la storia del 'titolo'.

    Guthrie sottolinea che le esperienze in-house possono essere percorribili ma bisogna dotarsi di una buona attrezzatura tecnica per evitare di scandire le pagine da fotocopie che danno risultati veramente mediocri. I tecnici di JSTOR controllano la risoluzione di ogni pagina, quelle danneggiate vengono sostituite o corrette. Il file immagine ed il file OCR vengono visualizzati uno accanto all'altro in modo da poter correggere le imprecisioni nate da OCR. I principi di produzione sono così elencati da Guthrie:

    • La forma è in conseguenza della funzione;
    • La scala è estremamente importante;
    • I tools sono importanti: sono alla base di un lavoro fatto bene;
    • Se vuoi presentare bene il contenuto, devi anche conoscerlo.

    All'interno dell'organizzazione ci sono dei bibliotecari che lavorano alla ricostruzione della storia del periodico. La trasposizione in formato digitale è fedele all'originale anche nell'immagine.Viene ribadita tra le finalità di JSTOR anche quella di archivio in formato digitale.

    L'autenticazione dell'utente viene generalmente attuata tramite indirizzo IP, oppure username/password. E' stato inoltre elaborato un tool che permette alle biblioteche di creare le proprie statistiche.

    JSTOR è riuscito a sviluppare un modello economico che lo ha reso indipendente. Attualmente le persone che vi lavorano sono 40, di cui 15/20 lavorano alla scansione. La produzione di ogni pagina costa circa 3USD di media.

    Standards for images and full text / Hamid Mehrabi and Henrik Laursen

    Henrik Laursen della Royal Library di Copenhagen ha aperto la seconda parte della prima giornata, iniziando la sessione sugli aspetti tecnici della digitalizzazione.

    Il suo breve intervento ha trattato l'importanza della qualità iniziale del lavoro di scansione dell'immagine. Se un'immagine scandita a bassa risoluzione può sembrare qualitativamente buona, una volta che su questa è stato usato OCR, le differenze tra immagine di bassa e alta qualità sono molto evidenti.

    Sull'immagine scandita a bassa risoluzione OCR non da i risultati migliori, ed è quindi necessario intervenire manualmente per apportare le dovute correzioni. L'incidenza sul costo finale, di questo lavoro aggiuntivo può essere molto alta. Questo per stabilire che lo standard di scansione consigliato è 600 dpi (usato anche in JSTOR) quando si voglia poter applicare un software di information retrieval sul full-text.

    Quando invece trattiamo volumi, che non necessitino di ricerca ipertestuale, ma per i quali sia sufficiente fornire all'utente finale, la loro immagine digitale (manoscritti, libri rari), uno standard di 300/400 dpi è considerato sufficiente. "For your own good take some good pictures. For the user's good use standard markup language" (Laursen and Mehrabi, 2000: 46)

    Metadata and identifiers for e-journals / Juha Hakala

    Juha Hakala della Biblioteca Universitaria di Helsinki, inizia il suo intervento dando una definizione del termine 'metadata' come, "descrizione strutturata di una risorsa". Con questa definizione anche gli OPAC delle biblioteche divengono metadata alla stregua dei metadata basati su Dublin Core, forniti dagli autori o editori stessi.

    Nell'ambito dell'accesso ai periodici elettronici sono evidenziati dal relatore, tre metodi di creazione dell'accesso al documento: la catalogazione tradizionale in formato MARC, l'indicizzazione del full-text , oppure l'uso di embedded metadata, che è anche la scelta fatta dal progetto DIEPER

    Nel processo catalografico tradizionale i periodici ricevono un ISSN che ha ormai regole di attribuzione chiare e sperimentate. Ogni periodico cartaceo ha quindi il suo identificatore univoco nel numero ISSN attribuitogli. Secondo il Centro Internazionale del ISSN, anche i periodici digitali dovrebbero ricevere un proprio ISSN. Questo coincide anche con le scelte fatte da DIEPER.

    Tuttavia, la catalogazione dei periodici elettronici presenta delle sfide non indifferenti da affrontare. I periodici sul Web tendono ad essere molto meno stabili di quanto non lo siano su carta. Non solo possono cambiare titolo ma addirittura sparire, se non sono stati precedentemente archiviati dalla biblioteca nazionale in un proprio archivio digitale.

    Dal punto di vista del reperimento dell'informazione però, non ci possiamo limitare al livello titolo, su quale si basa l'ISSN, ma dobbiamo scendere a livello dell'articolo se vogliamo che la ricerca degli utenti sia agile e dia i risultati sperati.

    Sempre in relazione alla catalogazione, DIEPER ha deciso di utilizzare il formato MARC per ogni articolo digitalizzato. Tuttavia questo tipo di approccio richiede un impiego di risorse umane notevole, e le singole biblioteche aderenti al progetto non possono prescindere da una catalogazione cooperativa e più avanzata. Al momento attuale i periodici di DIEPER sono 6 ma gli articoli da catalogare potranno diventare decine di migliaia in futuro.

    Quindi non si può prevedere di fare affidamento solo su catalogazione manuale. Una volta trasformato il testo in immagine scandita, si procederà all'indicizzazione del full-text. A questo punto Hakala fornisce una panoramica su quelli che sono i trend di mercato.

    • Oracle (http://www.oracle.com/intermedia/) che è stato arricchito con un modulo chiamato Intermedia. Questo permetterà di poter archiviare e rendere disponibili ogni tipo di documento incluso quello multimediale.
    • Voyager (http://www.endiinfosys.com/new/emcompass.htm) che può fornire accesso alle collezioni digitali ed allo stesso tempo al catalogo tradizionale già presente in biblioteca.

    Questo permette di affermare che l'accesso all'informazione tramite un'unica interfaccia per l'utente finale sarà possibile utilizzando relational database e sistemi bibliotecari costruiti su di loro.

    L'attenzione viene portata sulla qualità del prodotto fornito all'utente. Che tipo di qualità offre la ricerca fatta su materiale convertito tramite OCR? La presenza di errori di conversione è estremamente frequente. Tuttavia grazie a strumenti di ricerca molto avanzati come, Excalibur Retrieval Ware (http://www.excalib.com/products/rw /index.shtml) che offre la possibilità di attuare 'fuzzy searching', il problema viene largamente arginato. Questa affermazione è basata però sugli esperimenti fatti usando la lingua finlandese, che consta di molte parole lunghe.

    L'applicabilità alla lingua inglese è sicuramente più difficile. I programmi di indicizzazione dovrebbero archiviare sia la parola stessa sia tutte le sue possibili forme varianti. Quindi sono necessari tools linguistici. In Finlandia sono già stati usati i prodotti di Lingsoft (http://www.lingsoft.fi/) nella versione sperimentale del Nordic Web Index, sembra con buoni risultati.

    La tecnologia non si limita però alla linguistica, va ben oltre, fino a portarci a tools per la gestione della conoscenza (Knowledge management tools). Quindi non ci si ferma alla forma ma si entra nella ricerca del contenuto. (rif. Bourguignon)

    Autonomy (http://www.autonomy.com/) è presentato come un tool capace di estrarre il significato dalla massa di dati archiviati al suo interno. E' comunque impossibile secondo Hakala stabilire adesso se Autonomy diverrà "the Oracle of unstructured data".

    Il futuro dei "linguistic and Knowledge management tools" si presenta denso di interessanti sviluppi. D'altra parte anche le collezioni che devono essere gestite con questi strumenti stanno crescendo in modo esponenziale.

    A questo punto Hakala conclude che l'uso del formato MARC per la catalogazione richiede un sforzo di risorse troppo alto per essere usato al livello dell' articolo. Nonostante ciò, ancora non ci possiamo basare solo sul full-text indexing automatico.

    Il relatore passa quindi a trattare gli 'embedded metadata' come alternativa fondamentale per le nuove esigenze di reperimento dell'informazione. L'uso di embedded metadata è efficace se la risorsa è strutturata e quindi è possibile inserire (to embed) i metadata.

    Nel progetto DIEPER è stato deciso di utilizzare linguaggio XML/RDF poiché i documenti così strutturati sono ritenuti estremamente elastici nell'uso di applicativi di ricerca. Secondo Hakala un documento in linguaggio XML ed in formato RDF è leggibile e comprensibile dagli automatismi per la ricerca, senza nessun intervento aggiuntivo.

    Avendo premesso questo, DIEPER utilizzerà il Dublin Core Metadata Element Set (http://purl.org/dc/) per inserire i metadata negli articoli dei periodici digitali. Hakala ha inoltre, brevemente illustrato lo sviluppo del Dublin Core Metadata Element Set, nato dall'iniziativa di un gruppo di bibliotecari, informatici e specialisti del settore che hanno partecipato nel 1995 a quella che è oggi chiamato il primo Dublin Core Metadata Workshop (http://purl.org/dc/about/workshop.html). Dublin Core con i suoi 15 elementi è un formato molto semplice, ma anche ricco allo stesso tempo, poiché con l'uso di qualificatori può essere reso tanto complesso quanto necessario per ogni uso locale.

    E' stato proposto all'interno del progetto DIEPER di aggiungere agli elementi che saranno usati di Dublin Core, un Itemnumber, ItemNumberSorting, SerialsNumbering, PlaceOfPublication, FormatSourcePrint e SizeSourcePrint. Non è detto che gli altri progetti di digitalizzazione si adeguino a ciò che è stato deciso per DIEPER, tuttavia è auspicato e suggerito l'uso di Dublin Core come minimo comun denominatore.

    In ogni progetto che tratta di risorse elettroniche c'è la necessità di produrre identificatori per ogni risorsa che possa essere reperita. Quindi gli identificatori sono i legami tra i metadata esterni e la risorsa stessa. Un record metadata può quindi contenere legami (pointers) con varie risorse.

    Hakala ricorda che esistono almeno tre, identificatori tradizionali, quali ISSN, SICI (Serial Item and Contribution Identifier) e National Bibliography Numbers. DIEPER prevede di usare sia ISSN che SICI. Il numero ISSN può e dovrebbe essere attribuito anche alle annate pregresse di periodici digitalizzati. Secondo il centro ISSN, la versione digitale deve prendere il numero standard della versione a stampa.

    Tuttavia questo è un identificativo valido solo a livello 'titolo' poiché il suo eventuale uso a livello più basso, può indubbiamente causare un eccessivo rumore nel reperimento dell'informazione e quindi essere controproducente.

    La soluzione di questo si ha con lo standard SICI (Serial Item and Contribution Identifier Standard, ANSI/NISO Z39.56-1996 Version 2) che fornisce la possibilità di avere un unico identificatore a livello 'titolo' e 'fascicolo' o 'articolo', senza essere legato al formato di distribuzione, carta, microfilm, elettronico... L' identificativo SICI offre anche il vantaggio di poter essere creato automaticamente da un testo strutturato.

    L'ultima parte della presentazione di Hakala ha affrontato il problema della stabilità del legame alla risorsa digitale che può essere probabilmente risolto usando i "sistemi ad ombrello" URN e DOI.

    DOI (Digital Object Identifier) deriva dall'iniziativa di alcuni editori ed è stato sviluppato dalla International DOI Foundation. Il suo obiettivo è quello di creare una struttura per gestire il contenuto intellettuale del materiale pubblicato in rete. Ogni DOI è composto da: prefisso/suffisso (separati da uno slash). Il suffisso può essere qualunque cosa, non ci sono indicazioni precise in merito, mentre il prefisso indica: l'editore + dove trovare un resolution service. Per ogni DOI assegnato è previsto il pagamento di una quota annuale, il cui ammontare deve ancora essere stabilito.

    Al contrario di DOI, URN (Uniform Resource Name) non comporta nessun costo, e nasce direttamente da Internet. URN è composto da: string urn, Namespace identifier (NID) e Namespace specific string (NSS).

    Nell'ambito di DIEPER saranno usati identificativi URN, ISSN/SICI.

    Digitisation - technical issue: production at the GDZ / Norbert Lossau

    Lossau con il suo secondo intervento ha illustrato il processo di produzione dei periodici digitali all'interno del progetto DigiZeit portato avanti al Goettingen Digitisation Centre (GDZ).

    Il GDZ, fondato dalla Deutsche Forschungsgemeinschaft è un centro nazionale del quale si avvalgono biblioteche ed istituzioni accademiche. Negli obiettivi del GDZ c'è il coordinamento a livello nazionale dei tentativi di standardizzazione per la digitalizzazione, dalla cattura dell'immagine al controllo di qualità. E' inoltre impegnato nello sviluppo di tools e tecniche per la conversione del testo (OCR), descrizione bibliografica, descrizione della fonte, gestione del documento, e fornitura di accesso via Web. GDZ ha cooperato allo sviluppo di un software per la scansione SRZ Proscan Book, allo sviluppo di AGORA, un sistema di gestione del documento, sviluppo di interfacce (JAVA) tra AGORA ed i cataloghi in linea già esistenti di varie biblioteche, sta inoltre collaborando alla sperimentazione per applicare il software OCR al testo con caratteri gotici. Attualmente il centro è impegnato in vari progetti di digitalizzazione, tra i quali DIEPER.

    Al GDZ è stato curato lo sviluppo di SRZ Porscan Book, software per la scansione di volumi, si è partecipato alla progettazione di AGORA, un document management system che lo stesso centro usa all'interno del processo di digitalizzazione, sono state sviluppate intefacce JAVA tra i cataloghi già esistenti ed AGORA in modo da permettere il reperimento dei peridici digitali e la ricerca nel full-text. Uno dei problemi che è in corso di studio è l'uso di software come OCR su volumi con caratteri gotici, poiché OCR non riconosce i caratteri gotici.

    I documenti cartacei vengono scanditi con risoluzione a 600 dpi, 1 bit b/w per il testo. La scansione viene fatta da microfilm (tramite fornitore esterno) mentre quella attuata dall'originale viene fatta in-house con scanners Minolta PS 7000, Zeutschel OS 7000. Il software di scansione usato è SRZ Proscan Book ed il lavoro viene affidato a personale pagato per quantità di pagine scandite.

    Il controllo della qualità dell'immagine viene effettuato dallo staff interno al centro o da studenti collaboratori, usando processore Pentium su Windows NT, schermo a 21" e software ACDSee. La ricerca all'interno del full-text viene resa possibile tramite metadata in XML/RDF.

    Niel Beagrie direttore del Arts and Humanities Data Service del King's Collegge di Londra, ha chiuso la prima giornata di lavori, con un intervento dal titolo:

    Permanent access: Preserving electronic journals / Niel Beagrie

    Secondo Beagrie le biblioteche vivranno una realtà 'ibrida' per moltissimo tempo, forse per sempre poiché la quantità di letteratura su carta non accenna a diminuire (+6% negli ultimi annni), nonostante il grande sviluppo che le pubblicazioni elettroniche hanno subito negli ultimi anni. La grande sfida dei prossimi anni non sarà quindi sostituire la carta con il digitale, ma mantenere le pubblicazioni elettroniche e permettere un continuo accesso a queste.

    Il mantenimento dell'accesso comporta costi ingenti, anche in relazione alla veloce obsolescenza delle attrezzature e dei software usati. In questo contesto viene ribadita nuovamente la fondamentale importanza dell'uso di standard condivisi, dell'uso di metadata per garantire un accesso a lungo termine. Come esempi vengono citati i progetti NLA, CEDARS (http://www.leeds.ac.uk/cedars/) e NEDLIB (http://www.kb.nl/coop/nedlib/).

    Quanto esposto non è solo preoccupazione del fornitore di prodotti informativi, ma anche dell'utente finale che può veder minato il proprio diritto ad una informazione permanente.

    Beagrie è l'unico che affronta, anche se velocemente, il problema del copyright, illustrando la pericolosità del formato elettronico che si presta a facili manipolazioni. Gli editori stessi secondo B. sono interessati a sottoscrivere accordi con chi vuole convertire in formato elettronico le risorse cartacee . Quale modello di licenza per l'accesso al formato digitale viene ancora una volta citato NESLI.

    Il processo di creazione e diffusione delle risorse digitali viene visto da B. come un ciclo continuo, le cui fasi sono evidenziate nella creazione, gestione e conservazione, uso, aspetti legali e commerciali. Come modello strategico di gestione viene citato http://ahds.ac.uk/manage/framework.htm

    Beagrie sposta l'attenzione dal contesto della biblioteca universitaria e di ricerca, a quello delle biblioteche nazionali, che sono viste dal relatore come conservatrici della nostra memoria collettiva.

    Questo tema sarà ripreso ed ampliato nella seconda giornata del congresso.

    Durante la seconda giornata del congresso vengono illustrati e discussi alcuni modelli economici ed organizzativi, guardando al futuro della digitalizzazione dei periodici su scala europea.

    Three stories from the future / Jens Thorhauge

    Il primo intervento è di Jens Thorhauge, che delinea tre scenari possibili per il futuro, come conseguenza delle decisioni che i vari paesi europei intraprenderanno in relazione ai periodici digitali, nell'immediato futuro.

    Il primo scenario promuove l'uso della carta per i periodici meno diffusi, perché il costo elevato della digitalizzazione farà sì che sia sostenuto solo per materiale raro e con funzioni di conservazione. L'uso del materiale cartaceo nelle biblioteche resterà stabile specialmente per quanto riguarda i libri. Sarà sempre più diffuso il prestito interbibliotecario ed il document delivery anche grazie all'aumentare dei cataloghi in linea che renderanno trasparenti le informazioni. Ogni paese europeo lo attuerà all'interno di una cooperazione di print-on-demand.

    Il secondo scenario prevede che l'uso dell'informazione professionale sia quasi interamente su formato elettronico. Quindi per promuovere l'uso dell'informazione scientifica e di ricerca saranno istituiti progetti di digitalizzazione in tutti i paesi europei, secondo le possibilità di ognuno.

    Sarà istituito il Centro di Digitalizzazione Europeo con funzione di coordinamento e di selezione dei documenti da digitalizzare secondo standard comuni.

    La terza ipotesi prevede la digitalizzazione dei TOCs fatta dai paesi europei più poveri ed il full-text dai ricchi. I periodici in lingua inglese saranno comunque digitalizzati. Varie politiche nazionali saranno stabilite al fine di selezionare i più importanti e più usati periodici su carta per essere scanditi.

    Nessuna delle tre ipotesi è, ovviamente, auspicata dal relatore ma ognuna presenta degli aspetti che, se uniti, potrebbero portare grandi vantaggi alla comunità dell'informazione.

    Selecting journals for digitisation: Piecing together the puzzle to create a European model / Hazel Woodward

    Woodward con il suo intervento affronterà l'aspetto della selezione dei periodici da digitalizzare su scala europea. La selezione dei periodici secondo la Woodward, viene al momento attuale intrapresa da singole istituzioni, consorzi regionali o tematici, organizzazioni ed istituti su scala nazionale e da progetti internazionali. Come far convergere tutte queste iniziative in un unico modello europeo?

    La selezione del materiale è raramente influenzata da una strategia nazionale e questo aumenta la difficoltà di una gestione europea. Quale principio basilare per guidare i criteri di selezione del materiale la Woodward si ispira ai principi portati avanti dal Arts and Humanities Data Service , secondo i quali ogni istituzione che svilupperà collezioni digitali dovrà avere una precisa missione e contesto organizzativi, entro i quali definirà le proprie attività, i criteri e le strategie di selezione, acquisto, e sviluppo delle collezioni.

    Lo scenario attuale è molto variegato, si va da una situazione locale, dove i periodici vengono scelti e digitalizzati con procedure 'in-house', scegliendo magari importanti riviste pubblicate anche all'interno della stessa struttura universitaria, ad uno scenario a larga scala come può essere quello del progetto BUILDER o del Glasgow digital library project .

    La selezione dei periodici digitali all'interno di progetti ad ampio respiro, quali quelli appena citati, è influenzata dalla necessità di spendere bene i soldi dei finanziatori, che spesso derivano da sponsor esterni. Le proposte di selezione sono spesso sottoposte a 'peer review' che sottintende anche un monitoraggio del materiale già pubblicato a livello internazionale, quindi è più facile prevenire inutili duplicazioni. Sono state portate come esempio le linee guida scelte dallo SCOAP (Selection Committe on Online Australian Publications) per la selezione delle pubblicazioni australiane da mettere in linea. Queste devono:

    • trattare temi relativi all'Australia;
    • essere scritte da un australiano di riconosciuta fama;
    • trattare un argomento di rilevanza sociale, politica, culturale, religiosa, scientifica o economica;
    • avere una valenza scientifica che si reputa durare nel tempo.

    All'interno di questa panoramica internazionale AW ha fatto riferimento anche al progetto di digitalizzazione della National Library of Canada http://www.nlc-bnc.ca/pubs/irm/eneppg.htm ed all'importanza che riveste in Inghilterra i JISC (Joint Information System Committee) che coordina la maggior parte dei progetti di digitalizzazione attualmente in corso.

    I progetti principali a livello europeo ricorda HW che sono, DELTA, DIEPER e DigiZeit. L'americano JSTOR è considerato sempre un punto di riferimento per tutti. Alla base della creazione di un modello europeo di cooperazione per la digitalizzazione dei periodici, è affermata di nuovo da AW la necessità di una struttura di coordinamento strategico e progettuale su scala europea. C'è la necessità di coinvolgere sia le biblioteche nazionali che gli altri enti implicati nella fornitura di risorse elettroniche.

    La Woodward infine auspica la creazione di una organizzazione a livello europeo che raccolga informazioni sul materiale disponibile in formato digitale, e ove possibile fornisca anche l'accesso a questo, che guidi nella stipula di accordi per la retroconversione con gli editori, che riunisca esperti di digitalizzazione, che crei prototipi di interfaccia per l'accesso unico e che gestisca le licenze d'uso. In fondo questi sono gli intenti di DIEPER.

    Niel Beagrie nel suo secondo intervento illustra alcuni modelli economici ritenuti applicabili a questo nuovo contesto :

    Economy - Some models for sustaining innovative content-based services / Niel Beagrie

    L'analisi di Beagrie si basa sulla realtà inglese e americana, tuttavia egli stesso sostiene che certi aspetti sono ormai comuni a tutta l'Europa. Gli interventi di digitalizzazione nel panorama europeo sono in larga scala finanziati da fondi pubblici, almeno nella fase iniziale. D'ora in poi si farà sempre più pressante l'esigenza delle istituzioni che portano avanti tali progetti, di poter ottenere un riscontro economico dai loro prodotti, in modo da poter mantenere e sviluppare ulteriormente l'offerta di informazione digitale.

    Allo stesso tempo anche le organizzazioni commerciali stanno investendo abbondantemente in questo settore. Quindi si delineano sostanzialmente due modelli, uno pubblico e l'altro privato.

    I modelli commerciali e pubblici, sono così suddivisi da Beagrie:

    commerciali:

    • Aggregatori e servizi di e-publishing, che investono sulla quantità dell'informazione e si basano sulla vendita degli abbonamenti per contenuti di proprietà o su licenza, offrono grandi quantità di contenuti su specifiche aree tematiche ed offrono servizi di valore aggiuntivo dove possibile
    • Portal services, che investono sull'uso dell'informazione ed offrono servizi di valore aggiuntivo fornendo un accesso efficiente ad una vasta quantità di risorse Internet. Generano un vasto uso promuovendo e fornendo servizi di 'advertising' e 'email alerting services'.
    Entrambi ottengono entrate grazie alla vendita dei servizi offerti.

    pubblici :

    • BIDS sostenuto inizialmente da fondi pubblici, si sviluppa in ambito disciplinare ristretto, riguarda di solito l'ambito accademico, quella letteratura detta di 'nicchia', è assimilabile in un certo senso a JSTOR, che è stato inizialmente finanziato dalla Mellon Foundation e solo in seguito si è sviluppato attraverso un servizio a pagamento
    • AHDS investimenti pubblici condivisi per i servizi più richiesti. Il Arts and Humanities Data Service è composto da collezioni di alto valore qualitativo per la ricerca, assemblate per soggetto. Può fornire servizi a gruppi di utenti selezionati chiedendo il solo rimborso delle spese sostenute.
    • RDN economia mista. Sono definiti da Beagrie, portali verso risorse di alta qualità strutturate a soggetto basati su investimenti pubblici. Sono generalmente organizzazioni not-for-profit, possono stipulare accordi con servizi commerciali che necessitano della descrizione di risorse Internet come servizio di valore aggiunto, sviluppano il proprio contenuto ed i propri servizi in collaborazione con organizzazioni commerciali e non.
    • RLG, DLF, OCLC, ad economia mista o 'membership model'. Prodotti e servizi strettamente di 'nicchia', si basano sulle quote sociali dei membri, sulle quote di abbonamento e di altri servizi offerti a pagamento.
    • Collezione culturale significativa. Questo modello sfrutta le collezioni e le esperienze a livello locale, per digitalizzare le collezioni e fornirle come prodotto. Questa fornitura può essere gratuita se esegue un preciso mandato nazionale, regionale o anche solo culturale, a pagamento se il prodotto è diffuso come pubblicazione elettronica.
    Questo modello si basa su:
    • investimenti iniziali condivisi da tutte le istituzioni partecipanti,
    • investimenti iniziali di capitale da rifondere tramite la vendita di 'valore-aggiunto' e pubblicazioni,
    • partecipazione strategica con servizi portale e/o editori elettronici ed aggregatori.

    Beagrie conclude dicendo che la digitalizzazione dell'informazione culturale, benché di valore, non è in sé stessa una via commerciale percorribile. Gli investimenti sullo sviluppo, mantenimento e fornitura di questo prodotto non potranno essere sostenuti solo dalla vendita di servizi di valore aggiuntivo e da iniziali finanziamenti pubblici. Lo sviluppo ed il mantenimento dei servizi di informazione culturale e di istruzione è molto probabilmente al di sopra delle possibilità e dell'interesse del solo settore pubblico.

    L'ultimo intervento, prima del dibattito conclusivo, è di Esko Hakli, ex presidente di Liber e direttore della Helsinki University Library.

    A European model: Organisation /Esko Hakli

    L'Europa è un'entità multilingue e multiculturale. Le attività illustrate finora devono essere basate sul contributo di ogni paese europeo, poiché il mondo della ricerca in un contesto culturale europeo, ha bisogno di avere accesso alla eredità culturale di tutti i paesi membri. Grazie alla tecnologia le frontiere possono essere superate all'interno di uno spazio culturale europeo comune. Questo crea interdipendenza tra i soggetti che agiscono in questo contesto. Uno degli obiettivi da raggiungere insieme deve essere quello dell'accesso unico alle risorse informative europee, dovunque queste siano conservate o pubblicate. La biblioteca virtuale europea potrà diventare una realtà solo grazie all'uso di standard comuni, ed a politiche di finanziamento a livello nazionale.

    La digitalizzazione deve essere attuata a livello nazionale e diffusa tramite un accesso comune a risorse distribuite entro lo spazio digitale europeo. Come tutto questo può essere organizzato?

    Attraverso: un catalogo unico delle risorse digitali europee, coordinati schemi di produzione, un comune accesso alle risorse, un database europeo per le risorse digitali in full-text.

    L'accesso permanente a queste risorse è visto da Hakli come materia ben più complessa. Non è chiaro se le pubblicazioni digitali siano soggette al deposito legale. Solo la Danimarca sembra avere già una legge nazionale che sottopone a deposito legale tutte le pubblicazioni edite in formato digitale.

    La chiave di volta, secondo EH, sta nel coordinamento a livello europeo delle soluzioni legislative intraprese a livello locale. A livello europeo dovrà essere organizzato lo sviluppo di una politica comune per la standardizzazione, la selezione, l'accesso e l'archiviazione, nonché la tutela del copyright. Vengono proposti tre modelli di accesso:

    • gratuito come GALLICA in Francia, finanziato dallo stato,
    • a pagamento, sviluppato da editori privati,
    • il modello di JSTOR.

    Anche se l'attenzione è sempre focalizzata sull'accesso, non dobbiamo dimenticare che il formato digitale è visto anche come metodo di archiviazione. Di nuovo EH ribadisce l'importanza di standard comuni se vogliamo garantire una fruibilità del materiale ai posteri.

    Come gestire, infine, le licenze d'uso su scala europea? EH ricorda che la licenza è riservata ad un gruppo, solitamente omogeneo, di utenti e che l'applicazione di questo concetto a livello internazionale genera molti interrogativi. Si dovrà tenere conto in un prossimo futuro di questa necessità e stabilire degli standard internazionali da seguire, anche per le licenze.

    L'intervento di Hakli sfocia in un dibattito, che porta alla conclusione del congresso.

    Conclusions and recommendations / Ann Matheson

    Le conclusioni sono esposte da Ann Matheson della National Library of Scotland, la quale sottolinea l'importanza dello scambio di esperienze che si augura porti ad una cooperazione a livello europeo. Le fondamenta sono già gettate dai progetti in corso, e la `mission' delle biblioteche europee in questo settore sarà a lungo termine.

    Innanzi tutto perché cooperare?

    Per gli utenti che hanno grandi aspettative verso l'uso che i gestori dell'informazione, e quindi anche le biblioteche, faranno delle nuove tecnologie.

    Per la missione delle biblioteche che viene così delineata da AM:

    • migliorare l'accesso alle collezioni;
    • fornire accesso parallelo al materiale molto usato;
    • promuovere l'uso del materiale meno conosciuto;
    • aumentare la `visibilità' del materiale che sottolinea l'eredità culturale di ogni paese europeo.

    Per il materiale stesso per la sua conservazione nonostante l'accesso sia comunque di primaria importanza

    In risposta a fattori esterni, quindi per rispondere ad una esigenza di mercato in seguito a richieste da parte di fondazioni ed istituti interessati

    L'attenzione da parte di coloro che hanno interesse a digitalizzare il materiale, secondo Matheson deve partire da una accurata selezione del materiale da parte delle biblioteche universitarie, ma anche dalle biblioteche nazionali.

    Al fine di soddisfare i bisogni degli utenti deve essere posta particolare attenzione alle politiche di accesso ai documenti che devono essere aperte e compatibili agli sviluppi che la tecnologia avrà nei prossimi anni, per questo gli standard comuni da adottare devono almeno essere:

    • scansione immagine a 600 dpi;
    • metadata creati in XML/RDF;
    • full text creato usando OCR in XML/TEI;
    • unico identificatore per localizzare il full text (URN o DOI).

    I fattori economici sono purtroppo fondamentali. E' importante bilanciare le valutazioni di spesa con il valore di ciò che si crea. Gli aspetti legali andranno considerati attentamente, anche basandosi sulle esperienze fatte da JSTOR e DIEPER nei rapporti con gli editori.

    L'uso di un comune database, che sarà sviluppato da DIEPER permetterà una oculata gestione delle scelte di selezione ed eviterà duplicazioni a livello globale. Inoltre la possibilità di vedere inserite in questo database dei periodici digitali europei, anche le iniziative che stanno per essere intraprese in tale settore, permetterà una comunicazione più trasparente.

    L'accesso permanente dovrà infine essere pianificato e gestito, e non sarà compito facile anche perché i fattori economici incideranno molto. Tutto questo per concludere che l'archiviazione dei dati digitali richiede standard comuni legati alla cooperazione tra le parti. Le biblioteche sono chiamate a cooperare e ad essere indipendenti ed interdipendenti, dovranno condividere:

    • le decisioni relative alla selezione;
    • alcune scelte con gli utenti;
    • le informazioni;
    • le esperienze;
    • i tools senza doverne reinventare di nuovi in Europa;
    • gli obiettivi con gli editori;
    • la responsabilità di mantenimento per l'accesso e l'archiviazione a lungo termine.

    Ann Matheson infine conclude con il seguente motto: "Think it through! ... Be prepared - the unexpected always happens!" (Matheson, 2000:93)


    Riferimenti bibliografici

    Alkhoven, Patricia, "DELTA: Retrospective digitisation of journals": [Abstract], Digitising journals: conference on future strategies for European Libraries, Copenhagen, 13-14 march 2000, [non pubblicato]

    Beagrie, Niel (2000),"Permanent access: preserving elecgtronic journals", Digitising journals: conference on future strategies for European Libraries, Copenhagen, 13-14 march 2000,[presentazione disponibile in rete],http://www.sub.uni-goettingen.de/gdz/dieper/slides.html#papers

    Beagrie, Niel (2000a),"Economy some models for sustaining innovative content-based services", Digitising journals: conference on future strategies for European Libraries, Copenhagen, 13-14 march 2000, [presentazione disponibile in rete], http://www.sub.uni-goettingen.de/gdz/dieper/slides.html#papers

    Bourguignon, Jeanne-Pierre, (2000), "User-landscape: needs and visions of users", Digitising journals: conference on future strategies for European Libraries, Copenhagen, 13-14 march 2000, [disponibile in rete], http://www.deflink.dk

    CEDARS, http://www.leeds.ac.uk/cedars/

    CLIC, www.ch.ic.ac.uk/clic/

    DEF, http://www.deflink.dk

    DIEPER http://www.sub.uni-goettingen.de/gdz/dieper/princip.htm

    Digitising journals: conference on future strategies for European Libraries, Copenhagen, 13-14 march 2000, [disponibile in rete], http:// www.deflink.dk

    DigiZeit,http://www.sub.uni-goettingen.de/ebene_1/1_projek-e.htm

    Distributed National Electronic Resource http://www.jisc.ac.uk/pub99/dner_vision.html

    DOI, http://www.doi.org/

    Dublin Core Metadata Element Set, http://purl.org/dc/

    Elib, http://www.ukoln.ac.uk/elib/

    Excalibur Retrieval Ware, http://www.excalib.com/oriducts/rw/index.html

    Gallica, http://gallica.bnf.fr

    Guthrie, Kevin, (2000), "Digitising journals: Highlights from the JSTOR's experience", Digitising journals: conference on future strategies for European Libraries, Copenhagen, 13-14 march 2000, [disponibile in rete], http:// www.deflink.dk

    Hakala, Juha, (2000), "Metadata and identifiers for e-journals", Digitising journals: conference on future strategies for European Libraries, Copenhagen, 13-14 march 2000, [disponibile in rete], http:// www.deflink.dk

    Hakli, Esko, (2000), "A European model: organisation", Digitising journals: conference on future strategies for European Libraries, Copenhagen, 13-14 march 2000, [disponibile in rete], http:// www.deflink.dk

    HERON, http://www.stir.ac.uk/infoserv/heron/

    Internet Library of Early Journals, www.bodley.ox.ac.uk/ilej/

    Journals and transactions of the Institute of British Geographers (The) www.ingentajournals.bids.ac.uk/Pub-info/rgs.html

    JSTOR, http://www.jstor.org/about/board.html

    LAMDA, http://lamdaweb.mcc.ac.uk

    Laursen, Henrik and Mehrabi, Hamid (2000), "Standards for images and full text", Digitising journals: conference on future strategies for European Libraries: Proceedings, Copenhagen, 13-14 march 2000, [disponibile in rete], http://www.deflink.dk

    Lingsoft, http://www.lingsoft.fi/

    Lossau, Norbert, (2000), "Digitisation - technical issues: production at the Goettingen Digitisation Center (GDZ)", Digitising journals: conference on future strategies for European Libraries, Copenhagen, 13-14 march 2000, [disponibile in rete], http://www.deflink.dk

    Lossau, Norbert - Cramme, Stefan (2000), "DigiZeit: Digitisation of journals", Digitising journals: conference on future strategies for European Libraries, Copenhagen, 13-14 march 2000, [disponibile in rete], http://www.deflink.dk

    Matheson, Anne (2000), "Conclusions and recommendations", Digitising journals: conference on future strategies for European Libraries, Copenhagen, 13-14 march 2000, [disponibile in rete], http://www.deflink.dk

    Midland History, www.builder.bham.ac.uk/midlandhistory/

    National Library of Canada Networked electronic publications policy and guidelines, http://www.nlc-bnc.ca/pubs/irm/eneppg.htm

    NEDLIB, http://www.kb.nl/coop/nedlib/

    NESLI, www.nesli.ac.uk

    Oracle, http://www.oracel.com/intermedia/

    Schwartz, Werner, (2000), "DIEPER: providing web access to retro-digitised periodicals at multiple sites", Digitising journals: conference on future strategies for European Libraries, Copenhagen, 13-14 march 2000, [disponibile in rete], http://www.deflink.dk

    SCOAP, http://www.nla.gov.au/scoap

    SICI, http://sunsite.berkeley.edu/SICI/

    Superjournal project, http://www.superjournal.ac.uk/sj/

    Thorhauge, Jens, (2000), [Introduzione al congresso], Digitising journals: conference on future strategies for European Libraries, Copenhagen, 13-14 march 2000, [non pubblicata]

    Thorhauge, Jens, (2000a), "Three stories from the future", Digitising journals: conference on future strategies for European Libraries, Copenhagen, 13-14 march 2000, [disponibile in rete], http://www.deflink.dk

    Voyager, http://endinfosys.com/new/encompass.htm

    Wissemburg, Astrid (2000), "Digitising journals and the eLib programme", Digitising journals: conference on future strategies for European Libraries, Copenhagen, 13-14 march 2000, [disponibile in rete], http://www.deflink.dk

    Woodward, Hazel, (2000), "Selecting journals: piecing together the puzzle to create a European model", Digitising journals: conference on future strategies for European Libraries, Copenhagen, 13-14 march 2000, [disponibile in rete], http://www.deflink.dk

  • | © ESB Forum | a cura di Riccardo Ridi |