DHLU 2009 Simposio “La storia contemporanea all’era digitale”

L’Università del Lussemburgo (Master in Storia europea contemporanea) e il Centre Virtuel de la Connaissance sur l’Europe (CVCE) hanno organizzato il 15 e 16 ottobre 2009 un simposio internazionale dal tema «L’histoire contemporaine à l’ère digitale »

Il resoconto delle due giornate, fitte d’interventi, permette di verificare lo stato dell’arte della ricerca accademica nel campo dell’informatica umanistica dedicata alla storia contemporanea, ma anche le varie sperimentazioni partite direttamente da esigenze pratiche di ricerca. Il simposio ha dato la possibilità d’intervento a studiosi e storici dell’area contemporanea provenienti da molte zone del globo, includendo esperienze prodotte in Europa, Sudamerica, Stati Uniti, Canada, Australia e Nuova Zelanda. Notiamo purtroppo un “digital divide” rilevante da parte delle zone geografiche assenti.

Dopo l’introduzione istituzionale da parte di Rolf Tarrach, rettore dell’università del Lussemburgo e di Marianne Backes, direttrice del “Centre Virtuel de la Connaissance de l’Europe”, il direttore del Master in Storia Europea Contemporanea, René Leboutte ha presentato i temi proposti ai discussant.

La difficile definizione del concetto di “digital humanities” incontra lo scetticismo tecnologico degli storici. Ma per il professore Leboutte lo spirito critico deve rimanere identico anche di fronte ad un corpo di dati piuttosto consistente come quelli che si possono incontrare nelle nuove ricerche. Questo senso critico rimane punto focale del lavoro di storico, sia che si utilizzi le nuove tecnologie collegate ad internet e al mondo delle digital humanities, sia che si rimanga in un ambito più tradizionale della ricerca scientifica. Paradossalmente, con l’uso delle tecnologie digitali questo senso critico acquisisce nuova importanza. Leboutte s’interroga invece su i mutamenti avvenuti nella scrittura della storia durante gli ultimi 10/15 anni.

La crescente riflessione scientifica sul mondo digitale in ambito storico cresce e si amplia quotidianamente non solo in riguardo alla ricerca ma anche circa le potenzialità dell’insegnamento della storia contemporanea. Leboutte si augura che l’evento del simposio si possa ripetere su base biennale, in modo di allargare il confronto e la condivisione delle singole esperienze prodotte.

Il primo keynote speaker, Marin Dacos, direttore del “Centre pour l’édition électronique ouverte” (CLEO), con il suo intervento intitolato “Histoire 2.0. Vers une Cyberinfrastructure au cœur de la discipline historique” ricorda il caso “Orwell” del lettore ebook Kindle. Il direttore e inventore di revues.org e hypothese.org s’interroga sull’autonomia nel mondo digitale. I finanziatori della ricerca sono piuttosto scettici riguardo alla produzione scientifica “aperta” o “openaccess”. Per Dacos è fondamentale invece porre la questione della condivisione delle fonti. Cita l’esempio dell’archeologia che da sempre archivia e condivide le proprie fonti, limitando l’oggetto del proprio studio in funzione della progressione della ricerca. Nel settore storico invece non esiste una vera tradizione della condivisione delle fonti. Dacos critica i ricercatori che appropriandosi di un gruppo di fonti impediscono, di fatto, l’accesso ad altri. Non è raro, secondo Dacos, incontrare fonti studiate da un solo storico. E’ invece fondamentale infondere la necessità della condivisione e dell’accessibilità alle fonti per permettere uno scambio dialettico e un arricchimento dei punti di vista. Il problema del “genio” deve essere sorpassato rendendo disponibili le materie prime della ricerca e non solamente l’articolo o le conclusioni dell’autore. Ciò non è ovviamente facile ma deve essere fatto in modo da veramente interfacciare le fonti e le ricerche tra di loro. Forse la soluzione potrebbe essere un ipotetico deposito “legale” delle fonti, si chiede Dacos.

Ulteriore problema da affrontare è la rapida obsolescenza delle tecnologie e la susseguente obsolescenza delle tecnologie di lettura dei dati. Il problema della perdita dei dati on-line deve far parte delle tematiche da tenere sempre sotto controllo. Molte pagine non mantenute finiscono per diventare “errore 404” (pagina non esistente). Altre ricadono nella “torre di babele” dei vari applicativi ormai desueti. La manutenzione e il rinnovamento dei dati e delle tecniche di supporto digitale devono essere affrontate anche con costi elevati, secondo Dacos. Da qui l’importanza dei metadati che permettono di sfruttare documenti più a lungo rispetto a documenti che ne sono privi. La qualità dell’informazione deriva essenzialmente dalle descrizioni dai meta tag, precisi e puntuali. Senza questi dati si rischia di navigare con la “sindrome dell’arcipelago”, persi in una gigantesca via lattea digitale senza cartografia. Senza connessione tra di loro i dati perdono importanza e diventano in sostanza impossibili da gestire e manipolare. Diventa allora fondamentale interconnettere tra loro i dati e le fonti digitali attraverso veri e propri tunnel di meta tag.

Altro problema affrontato da Dacos è la “privatizzazione” delle scienze e dei dati. Il rischio di concentrarsi esclusivamente su ciò che porta profitto deve spronare il settore pubblico a svolgere un ruolo di maggiore tutela dei settori più a rischio della ricerca scientifica. Molte banche dati bibliografiche sono già passate in mano a privati. Se però l’azienda reputa non avere sufficiente beneficio la banca dati sparisce. Nell’ottica di una “strategia etica”, le pubblicazioni scientifiche non devono essere lasciate ai soli editori. E’ dunque necessaria una cyber-infrastruttura umanistica nella quale ricercatori e storici possano avvicinarsi agli ingegneri e sviluppatori. Queste nuove piattaforme sollevano alcuni problemi che scientifici e tecnici devono affrontare insieme. Necessitano spesso di grandi mainframes e richiedono gestioni avanzate dei dati. Dacos cita il progetto ISIDORE per le scienze umane che permette di interconnettere fonti, banche dati e utenti dell’informatica umanistica. Queste cyber-infrastrutture devono permettere non solo di sviluppare e utilizzare le applicazioni del web 2.0 (wiki, liste, calendari…) ma anche sapere trarre il massimo d’informazioni dalle fonti sia qualitativamente sia quantitativamente. Ne è un esempio il software Trideux elaborato dal sociologo Philippe Cibois. Il software permette di svolgere inchieste utilizzando tecniche di calcolo statistico, incrocio dei dati, analisi fattoriale, regressione lineare etc…

Le cyber-infrastrutture devono essere concepite per durare nel tempo e richiedono personale dedicato. Devono anche sapere proporre alla propria comunità scientifica software liberi. Dacos solleva il problema suscitato dalle attività del Dublin Core Metadata Initiative e dei protocolli non ancora condivisi. Dall’esempio dei 20 server del portale Revues.org che supportano le API- CMS, che sono compatibili Dublin Core ma che spesso ci si interoga su come interpretare le norme di applicazione. Forse TEI risolverà il problema? Nasce la necessità di utilizzare dei protocolli d’interoperabilità. Soluzioni sono suggerite con il Open Archives Initiative metadata harvesting protocol (OAIPMH), il Open Publication Distribution System (OPDS), l’identificazione Unicode per ogni oggetto (simile all’isbn per i libri) e le norme di archiviazione che seguono lo standard Iso-OAIS. (Open Archivla Information System).

Dacos torna in seguito sul tema fondamentale dell’utilizzo da parte dei ricercatori e degli utenti più generici, che secondo lui dovrebbero sempre essere al centro del sistema che utilizzano. Citando Flickr, ne esalta la buona funzionalità in base alla domanda sociale e l’aggiustamento rapido e continuo della piattaforma in base alle richieste degli utenti. Dacos ricorda il fondamentale volume di Pierre Lévy “L’intelligenza collettiva” ma anche la necessità di riscoprire forse un certo artigianato industriale. In un ambito nel quale gli ingegneri hanno enorme potere sulla tecnica, è sempre più necessario per l’umanista e dunque lo storico di appropriarsi dei mezzi di produzione e delle tecnologie necessarie allo sviluppo della disciplina. Secondo Dacos non è possibile delegare questa “appropriazione tecnologica” ad altri. Esiste una “guerra” tra ricercatori e ingeneri che coinvolge gerarchie di potere ed evidenzia sistemi di valori diversi.

Per Dacos, altro tema importante è la “governance” mondiale dei dati scientifici e affronta il problema legato al DOI e agli identificatori di proprietà intellettuale. Descrive il servizio statunitense Crossreference e la sua interoperabilità che permette una comunicazione tra volumi, note, etc… (anche se esistono troppe norme che riguardano le note) Per l’Italia lo stesso servizio è fornito da Medra.

Dacos suggerisce nel campo delle scienze umane di utilizzare un metodo “incrementale”, senza nessun progetto faraonico. Ogni progetto d’informatica umanistica dovrebbe essere creato esclusivamente in funzione degli utilizzi. Dacos propone la creazione di un manifesto per le digital humanities creato dai ricercatori stessi in base alle proprie necessità così come anche un digital humanities camp sul modello dei numerosi barcamp online. Per Dacos forse è venuta l’ora di creare una nuova figura, “l’ingegnere in scienze umane”.

René Leboutte interviene a seguito della conclusione dell’intervento di Dacos ponendo l’accento sulla possibile frattura nord-sud e tra ricercatori di diverse formazioni tecniche evocando il pericolo del digital divide e propone a sua volta la formazione di una scuola dottorale in Digital humanities.

Il secondo keynote speaker è stato Gino Roncaglia. Professore presso l’università degli studi della Tuscia in Informatica applicata alle discipline umanistiche, Roncaglia ha posto l’accento su i nuovi strumenti disponibili per la ricerca con un intervento intitolato “Web 2.0 and the future of research: new tools for research networks”.

Anche se esistono ambienti digitali dedicati alla ricerca, questi non sono ancora sufficientemente ricchi di strumenti o dati per i ricercatori.

Roncaglia elenca gli otto punti fondamentali della ricerca digitale in ambito web 2.0:User Generated Contents / Semantics / Collaborative filtering / Rss / Mash-up / Social networks / Page interaction / Interface design.

Le piattaforme sociali per la lettura mostrano idee interessanti ma spesso mancano di utilities. Roncaglia cita il volume controverso di Fabio Metitieri “La grande frode del web 2.0” e la teoria non condivisa dell’invenzione commerciale.

Al primo punto, gli “user generated content”, contenuti creati dagli utenti producono l’ormai famoso movimento di “croudsourcing” nel quale si possono scambiare non solo idee, risultati parziali di ricerche, bozze… così come ogni processo e momento della ricerca. Il secondo punto “semantics” rimanda alle ontologie formali, al web 3.0 o web semantico che permette di aggiungere semantica seria e utile al web. In questo senso il “social tagging” deve seguire certe regole ed essere insegnato in modo appropriato per evitare delle semantiche prive di senso o inutili. Cercare di unire il social tagging e le ontologie formali non è certamente facile ma ne sono un buon esempio gli “openarchive”.Spesso le parole chiave non sono controllate ma si possono utilizzare dei livelli di normalizzazione con il suggerimento di parole chiave soprattutto se in locale. Il portale di documenti digitalizzati riguardanti l’Europa, Europeana, talvolta lo permette. Il terzo punto, “collaborative filtering”, propone l’esempio di Amazon e dei suggerimenti raffinati che propone agli utenti come esempio dell’uso ottimale del filtraggio collaborativo per aiutare nella ricerca d’informazioni e del fattore d’impatto (impact factor). Altro esempio è Google Scholar che sfrutta l’idea di potere utilizzare informazione razionale per misurare le connessioni al propria ricerca visto che colleziona anche le open archives. Quarto punto sono i “rss feed” (really simple syndication) che permettono di condividere informazione al di fuori del sito di produzione. Sono il cuore dei social network. Quinto punto è il concetto di “embedding, re-use, mash-up” esplicabile sia nei contenuti sia negli strumenti. Utilizzare e riutilizzare informazioni, inglobare altri media e altri supporti, raccogliere in collezioni e condividere con altri i propri risultati sembrano essere azioni indissolubili dal comunicare la propria ricerca. Gli archivi rimasti statici risultano per questo motivo meno utilizzabili. Roncaglia cita gli esempi di Issu o Scribbed, due piattaforme di pubblicazione online che possono incorporare file pdf, così come la piattaforma Youtube che permette di pubblicare e scambiare video e informazioni relative. Sesto punto, forse il più discusso su twitter, è quello dedicato ai social network. Per Roncaglia, l’informazione viene “fatta girare” all’interno della rete e si vanno a creare relazioni tra persone e informazioni a vari livelli. Enfatizza l’importanza della “collezione di relazioni” e sottolinea che da poco i social network sono più utilizzati che le email. Paradossalmente i social network generici sono più efficienti di quelli specifici e permettono di condividere maggiormente idee, informazioni e relazioni. I social network, e Facebook in particolare, hanno avuto il pregio di riunire in un unico spazio le idee e le persone. Esistono social network specifici per la ricerca come Researchgate e Accademia, ma tendono ad essere meno popolati e con meno strumenti. Ciò li rende più “noiosi” e dunque meno efficienti. Settimo punto è destinato all’interazione tra le pagine. Roncaglia cita Ajax, le “web applications” in generale e i widgets. Tutti strumenti che permettono di mettere in relazione le informazioni disponibili su vari software destinati al web. Ottavo e ultimo punto riguarda il punto meno preso in considerazione dal mondo accademico e della ricerca in generale ossia il design delle interfacce. Interfacce disegnate seguendo linee guida di ergonomicità e di una piacevole estetica hanno più volte dimostrato il loro appeal, superiore a quello di interfacce “brutte” o scarne. Ne consegue un maggiore piacere nell’utilizzo dello strumento e un’usabilità più facile. La seconda parte della presentazione ha visto Roncaglia descrivere i pregi e limiti di alcuni strumenti utili per i ricercatori. Per quanto riguarda la lettura collaborativa sono stati citati Shelfari, We read e Library thing. Per le annotazioni collaborative e la condivisione di documenti Zotero e Footnotes. Roncaglia propone di creare una piattaforma simile a quest’ultime per quanto riguarda le tesi e ricerche in corso. Un accenno a Google wave come strumento nuovo e potenzialmente molto utile alla comunità scientifica come anche Digital texts 2.0 che raccoglie e ordina gruppi di testi elettronici anche da Facebook. Sempre riguardo Facebook, viene citata l’applicazione I remember, uno strumento assai interessante che permette di ricordare personalità scomparse creando archivi di dati e documenti collegati. In questo caso i limiti sono ovvi, tenendo conto delle problematiche legate alla privacy e al copyright.

In conclusione Roncaglia specifica che l’ambiente di ricerca sarà l’ambiente del futuro a patto che si arrivi a formulare un protocollo comune per la conservazione dei dati elettronici. In questo senso l’uso dei metadati all’interno delle Open archive permettono di condividere ma anche di conservare. L’uso comune di API e di protocolli standard aiuterà senz’altro la conservazione. L’enorme sforzo della conservazione dei documenti elettronici in posti diversi e supporti diversi utilizzando tecnologie differenti deve essere intrapreso, pena la perdita delle informazioni. I progetti che ruotano intorno alle licenze Creative Commons e al copyright dei metadata ne sono un esempio. Il Worldcat il tentativo più riuscito.

Andrea Bagias del CARDOC (European Parliament Archive and Documentation Centre) interviene sull’organizzazione degli archivi del parlamento europeo e della commissione europea che ospitano il simposio. Si sofferma sull’obbligo istituzionale di aprire gli archivi ma anche sul paradossale obbligo sulla privacy che rende in concreto impossibile visualizzare i documenti sensibili. Il CARDOC contiene oltre 823000 documenti archiviati e digitalizzati disponibili esclusivamente nella intranet istituzionale per un totale di un terrabyte d’informazione elettronica. Vi lavorano 25 funzionari stabili e 12 collaboratori esterni. I documenti conservati sono dibattiti, rapporti parlamentari, bozze di risoluzioni, petizioni, fondi provenienti dai vari gabinetti dei presidenti, etc… I documenti sono divisi per supporti (testi, audio, video) e per lingua (11 lingue al momento presenti negli archivi). La lingua di ricerca dell’archivio elettronico rimane l’ormai storicamente “diplomatico” francese. L’archivio è stato pensato e costituito esclusivamente per difendere gli interessi del Parlamento europeo e vige una dicotomia non indifferente tra pubblico vero e pubblico interessato. L’opacità del sistema né è il limite più grande. La complessità delle norme e delle procedure di accesso ne fanno di fatto un archivio chiuso al pubblico e riservato all’ambito amministrativo legale anche per via del carattere tecnico della maggior parte dei documenti. Per questo è stato coniato il termine “comitologia” che definisce il tipo di documento da inserire in base alle ricadute giuridiche possibili. L’ambiente e il contesto diventano fondamentali nel caso in cui bisogna render accessibili i contenuti non solo dal punto di vista giuridico ma anche dal lato intellettuale. Il processo di digitalizzazione e archiviazione che svolge il CARDOC è poi reso accessibile al pubblico attraverso l’operato del CVCE.

Segue l’intervento di Annick Batard (Università Paris 13 e membro della Société pour l’Histoire des Médias) intitolato “La presse écrite généraliste française sous l’emprise du web : une ressource de l’histoire culturelle contemporaine ?”Cita il caso di un quotidiano francese “La Provence” che decide di interrompere il proprio abbonamento all’agenzia di stampa Agence France Presse per via dei costi ma soprattutto perche non utilizzata da parte dei suoi giornalisti. Al posto sono sorti negli ultimi anni una serie di Blog personali dei vari giornalisti e collaboratori del quotidiano. Fatto che si riscontra su tutte le grandi testate e in ogni paese dove è massicciamente presente la carta stampata. I blog diventano dunque strumenti ibridi a metà strada tra giornalismo professionale e diario di bordo. Batard evoca Twitter come fonte ormai assodata per gran parte dei giornalisti professionisti e la frammentazione degli accessi ai media tradizionali e virtuali con uno spazio pubblico in frantumi. Tsouriel Rashi (Lifshitz College of Education) ha presentato un intervento su “The Media Memory Agenda and the Struggle against Holocaust Deniers”. Citando una frase di Bernard Cohen: “The press may not be successful much of the time in telling people what to think, but it is stunningly successful in telling its readers what to think about” (The press and foreign policy, Bernard Cohen, PUP, 1963, pg 120.) il relatore pone l’accento sull’importanza che i media hanno accordato alla memoria legata agli avvenimenti storici. Riporta i dati relativi agli archivi dello Yad Vashem e al suo processo di digitalizzazione. 125 milioni di pagine e 420.000 fotografie popolano la banca dati che contiene anche oltre 3 milioni di nome con relative schede identificative. Tsouriel Rashi propone una “certificazione” di fiducia o di qualità per i documenti e strumenti presenti sul web dopo essersi interrogato sul rapporto mutevole tra realtà e media in epoca digitale.

Aurore François (Università cattolica di Louvain, Belgio) presenta il progetto portale Just-his.be relativo alla storia sociopolitica dell’amministrazione giudiziaria belga (1795-2005). Il portale CMS Joomla è basato su linguaggio Perl e Hxm, sfrutta Apache 2.0 con mysql server e script php. Il portale in fase di sperimentazione propone un “text repository” (deposito dei testi digitalizzati) disponibile su Eprints. Questo portale interuniversitario si propone come aggregatore di risorse provenienti da fonti e sistemi diversi.

Patrick Peccatte (Soft Experience) presenta il progetto PhotosNormandie presente su Flickr. La presentazione è disponibile su Slideshare. Peccatte ha anche proposto un articolo per questo numero di Officina ma comunque vale la pena accennare qualche dettagli della sua presentazione. L’archivio di foto storiche relative allo sbarco di Normandia (1939-45) ha saputo trovare sulla piattaforma Flickr un valido supporto alla ri-documentazione delle singole fotografie, tramite un notevole arricchimento dei metadati. Le fotografie fanno parte degli archivi nazionali canadesi e statunitensi. In generale sono fotografie realizzate dall’Usarmy e in particolare furono scattate dai “signal corps”. Sono presenti 2738 fotografie in totale. Il successo del ripopolamento dei metadati si può verificare con il numero di visite della sezione (in media 2300 visite al giorno). L’iniziativa è sostenuta da 45 membri e da una decina di persone che vi lavorano attivamente.

Segue in intervento di Stéfan Halikowski-Smith (Swansea University) dal titolo “European National Libraries and Digitization in History” che riprende i temi legati al copyright e alle sfide lanciate da Sribbed o Wrapped.

Eva Deak (Central European University, Ungheria) propone l’intervento “Study, store and share unpublished primary sources: the example of the Parallel Archive”. La Parallel Archive è uno spazio collaborativo creato da e per gli universitari nel quale potere caricare, condividere e discutere documenti d’archivio scannerizzati. Sviluppato dall’Open Society Archives (OSA, laboratorio degli archivi della Central European University di Budapest) solleva non pochi problemi legati al copyright. Il progetto riposa sugli open standard di Handle.net e sull’iniziativa Crosslinking. Il progetto propone di accedere a documenti riguardanti il periodo contemporaneo della storia ungherese, con una particolare attenzione ai temi legati ai diritti umani. 
Parallel Archive permette di avere accesso a tre aree distinte all’interno del portale: un archivio dove sono consultabili i documenti caricati dagli utenti, uno spazio personale per ogni singolo utente e uno spazio collaborativo per gruppi di ricercatori riuniti intorno ad un certo numero di documenti. Utilizzando le URL fornite da Handle.net si identifica in modo unico l’insieme dei documenti e se ne facilita la citazione all’internodelle ricerche.

Genaro Oliveira (University of Auckland) presenta “How image editing software and Web development tools currently available on personal computers can be used as interactive/multimedia narrative resources contributing new ways to the writing and communicating of History”. Oliveira pone l’accento sulla didattica della storia tramite l’uso di strumenti digitali e rileva la necessita non soltanto di insegnare la storia ai suoi allievi ma anche di potere toccare un pubblico più vasto tramite l’uso del web design. Con strumenti di elaborazione grafica si può ripensare la storia in nuovi e avvincenti modi. Per Oliveria è fondamentale ottimizzare l’iperspazio tenendo conto della “metafora del fax” di Cohen ossia che il web non deve essere un altro modo di comunicare lo stesso testo ma deve diventare un altro modo di pensare la storia. Gli storici sono sempre stati riconosciuti come scrittori di testi capaci di mutare idee in scritti plausibili. Ne nasce l’idea profonda che si deve scrivere la storia con parole e frasi. Anche per Munslow (Narrative and history, Palgrave Macmillan, 2007) la storia è una costruttiva rappresentazione narrativa. Per Oliveira la storia è un media e inventa appositamente il neologismo di “historiomediography” nel quale ingloba il concetto di scrittura multimediale della storia. Solleva un tema finora mai affrontato nel dibattito del simposio ossia le specificità della scrittura digitale in storia citando l’opera di E.H. Carr “what is history” così come la “metafora dello zucchero” elaborata da Turkel e MacEachern nel loro volume “the programming historian”. La metafora dello zucchero paragona le nuove tecnologie allo zucchero, sconosciuto nel 600, poco utilizzato nel 700 e commercializzato mondialmente nell’800. Oggi presente ovunque, lo zucchero è indispensabile. Per Oliveira è necessario che lo storico abbia piena autonomia nella scrittura e nell’utilizzo degli strumenti informatici ecco perché suggerisce di imparare i linguaggi di programmazione più utilizzati (cita Python) in modo da dare maggior rilievo ad ogni specifica ricerca. Oliveira si chiede se esistano più forme di scrittura in storiografia. La storia visuale deve in ogni caso mostrare l’opacità della realtà, come la “carioca” dalla pelle mutevole che propone lo storico brasiliano. Per evidenziare le opacità storiche Oliveira ha sfruttato la suite Adobe (Illustrator, Photoshop e Flash). Termina specificando che non esistono corsi di storia digitale o informatica umanistica in Nuova Zelanda dove insegna oggi.

Gerben Zaagsma (University College London) presenta “Contemporary European Jewish History on the Internet” facendo il punto sulla storia ebraica europea presente online. Inizia con il jewish history sourcebook e la wolf lewkowicz collection. Sono anche citati due progetti di digitalizzazione paralleli, il Geniza project di Princeton e il Friedberg genizah project. Altri progetti di digitalizzazione e conservazione di volumi in lingua ebraica riguardanti la storia, la cultura e la religione si trovano presso il Judaica sammlung frankfurt e la Steven Spielberg digital library. Altri progetti hanno digitalizzato e messo a disposizione degli studiosi i quotidiani e giornali delle varie comunità ebraiche europee. Uno dei più completi è senz’altro il sito in lingua tedesca Compact memory oppure l’historical jewish press che permette un’impressionante ricerca “full text”. Altri siti contengono fonti miste come Centre for jewish history che propone una collezione digitale dei testi e documenti. Zaagsma cita anche alcuni esempi di biblioteche digitali polacche che racchiudono numerosi volumi circa la storia ebraica europea (digital library framework dlibra, cbn polona, warsaw university library). Alcune risorse online possono creare controversie perché propongono dati ancora sensibili coma la collezione Holocaust collection del NARA in collaborazione con Footnotes.com. Esistono anche alcuni centri specializzati nelle raccolte digitali come il Leo Baeck institute e il suo archivio digitale Digibaeck e il Yivo institute for jewish research. Zaagsma termina chiedendosi se il mondo digitale porti a una comprensione migliore rispetto al passato. Secondo lui non è necessariamente riscontrato. Le nuove possibilità non fanno che aumentare il lavoro dello storico che deve comunque interpretare e ricreare il passato.

Olivier Le Deuff (Université Lyon 3) propone “Nouveaux outils et science: l’archéologie pour faire « sens »”. Cita come apertura Michel Foucault e la sua archeologia del sapere, che ritiene necessario osservare meglio gli oggetti tecnici per acquisire una cultura tecnica migliore. Con questa tecnica si potrà capire meglio il documento in ogni sua dimensione. Nel mondo Web 2.0 le strategie marketing la fanno da padrone, ma è forse ora di pensare al Web squared? Le Deuff affronta i delicati problemi filosofici e ontologici che riguardano il web. Pone la differenza tra autorevolezza e popolarità di un documento presente anche nei cosiddetti “blog scientifici”, sempre difficili da definire. Si chiede se bisogna avere timore di entrare in concorrenza con siti di amatori generici rimandando a una perennità della scrittura storica.

La storia fatta in tempo reale sarebbe forse una versione beta perpetua? Che ne diventa del sapere “stabile” necessario all’insegnamento? Come riuscire a trasmettere saperi se ci si trova davanti a controversie permanenti? A conclusione cita il filosofo Gilbert Simondon e i suoi studi su tecnica e percezione. La presentazione completa è consultabile sul sito Le guide des égarés.

Tito Menzani (Università di Bologna) presenta “When the web is useful for scientific output. The case of Italian historiography on the cooperative movement”. Menzani presenta la digitalizzazione e l’analisi dei dati dell’archivio delle cooperative del sito del Centro Italiano di Documentazione sulla Cooperazione e l’Economia Sociale. La banca dati delle pubblicazioni sul movimento cooperativistico contiene 427 titoli e 311 autori. Un questionario sull’utilità del sito ha permesso di analizzare quanto fosse effettivamente utilizzato e sfruttato dai suoi utenti, in prevalenza ricercatori e accademici. Questo questionario permise anche di tracciare in un certo senso un’analisi dell’impatto delle singole ricerche. I dati confortanti permettono di essere ottimisti e di considerare questa banca dati una “success story” italiana nell’utilizzo di documenti digitali.

Alain Michel (Université d’Évry) e Shadia Kilouchi (CN2SV) propongono “l’atelier C5 de renault-billancourt à l’ère digitale: reconstruire une ligne de travail à la chaine en 1922.” In questo intervento si presenta il progetto di ricostruzione totale, in modo virtuale, di una intera catena di montaggio. Il progetto ha potuto beneficiare dell’aiuto di tre grandi istituzioni francesi CNRS, ANR, LHEST. La ricostruzione totale prevedeva non solo la renderizzazione dei locali ormai andati perduti ma soprattutto la visualizzazione dei vari processi dell’intera linea di produzione.Un breve riepilogo del progetto è disponibile online, anche se l’intero progetto non è ancora disponibile al pubblico. Il problema della ruderizzazione degli ambienti architettonici industriali e della perdita di memoria visiva sta alla base di questa ricerca. Per ricreare l’officina di montaggio è stato necessario interpellare più fonti come foto, video, disegni tecnici e illustrazioni di giornali. La ricostruzione digitale ha permesso d’inglobare metadati che rispettassero gli IPTC Photo Metadata Standards con l’utilizzo di XnView. Il progetto di ricostruzione delle officine Citroen entra così a far parte del repertorio nazionale Archegrid che riunisce tutte le ricostruzioni 3d realizzate a fini scientifici, come ad esempio, numerosi progetti legati all’archeologia classica (Ausonius). La creazione 3d permette secondo Michel di capire meglio lo svolgimento del lavoro all’interno della fabbrica. La piattaforma Mysql (html & Xml-mind editor) utilizza un modulo OAI-PMH. Il motore di ricerca è basato su xml/EAD ISAD(G) standard. Il sito internet in costruzione al momento del simposio prevederà un blog del progetto e un accesso libero ai risultati della ricerca, così come la possibilità di visitare la catena di montaggio virtuale e parallelamente di avere accesso ai documenti che hanno permesso la ricostruzione. Il prossimo progetto, finanziato da altri organismi, è quello di ricreare il movimento degli operai all’interno della linea di produzione.

Philippe Rygiel (Paris I) discute sul tema “La diffusion du savoir historique à l’âge du web 2.0. La « valorisation » de l’enquête « Histoire et mémoire de l’immigration en régions »”. Rygiel propone l’inchiesta e la sua valorizzazione tramite il web 2.0. Cita Koutoshs, un progetto in Perl, che permette di elaborare statistiche umanistiche e la digitalizzazione del catasto parigino. Per l’autore, gli storici sono grafomani di banche dati, di trascrizioni, di note. Essi sono sempre in relazione con le tracce materiali del passato. Rygiel cita “l’Archeologia del sapere” di Foucault, sostenendo che spesso aiuta a prendere tempo. In realtà si preoccupa della trasformazione dei testi in formato digitale. Qualsiasi testo, anche una foto, dovrebbe essere sempre disponibile in formati opensource. Descrive il grande progetto nazionale di mappare le migrazioni all’interno dei territori francesi. Per realizzare questo nuovo progetto è fondamentale guardare e analizzare le statistiche legate al territorio ma anche sfruttare tutti gli strumenti utili come conferenze multimediali, wiki o pubblicazioni online). Secondo l’autore manca tuttavia una validazione univoca dei dati e una collaborazione effettiva che ancora difetta la ricerca. L’organizzazione sociale non è “a punto” e la formazione scientifica è ancora molto bassa tra gli storici. Cita l’esempio paradossale di storici che non sanno creare tabelle excell, basilari per qualsiasi analisi quantitativa e statistica. Rygiel propone di pensare allo storico come a un insieme di funzioni e non più come ad un unico individuo.

David Bodenhamer (Indiana University Purdue University Indianapolis) interviene con “The Spatialization of History: A New Web Paradigm Comparison”. Partendo dall’assunto che siamo tutti ignoranti, ma in campi diversi, Bodenhamer sostiene la necessità di collaborare alla raccolta dei dati necessari alla geolocalizzazione delle informazioni. I GIS (geographic information systems) sono fondamentali per le tecnologie mobili. Possono essere utilizzate con le applicazioni web per servire le necessità della ricerca storica. Il web permette, in questo ambito, di tessere interrelazioni tra luoghi, tempi, persone e qualsiasi documento disponibile online. Tenendo conto della “tirannia del tempo”, si può definire il fattore temporale come essendo costituito da una serie di sistemi superposti. Esistono terreni online che uniscono i fattori spaziotemporali connettendoli tra di loro e riproponendo la profonda contingenza della vita sociale vista come un tutt’uno. I GIS integrano luoghi e tempo attraverso la visualizzazione delle mappe dinamiche multimediali. All’interno di queste mappe sono annidati testi e video per una migliore comprensione narrativa. Nasce così un altro neologismo “Neogeography”. All’interno di queste mappe potenziate sono inseriti dati creati da utenti come le Volunteer geographic information (VGI). Gli utenti diventano sia consumatori che produttori dei dati. Globi virtuali, API’s, mash-up, e social networks (wikimapia, flickr, vgimash-up,..) permettono di intravedere una futura ricerca semantica. Esistono già nuovi strumenti per migliorare la georappresentazione (gis, som, tag clouds, geobrowser, geovis, treemaps…) che permettono un’immersione visiva dell’utente nella “nuova realtà”.

Con il concetto di “deep mapping” (mappatura profonda) si utilizzano vari media sovrapponendoli in più strati (multiplayer). Questi strumenti hanno il pregio di aumentare il potenziale dell’argomentazione storica. Nasce così un nuovo modo di fare storia e una nuova forma rappresentativa. Tempo e spazio rientrano entrambi nell’esperienza visiva rendendola sperimentale, contingente e infinita. Questo modo alternativo di vedere uno spazio concettuale va di pari passo con la scrittura accademica che non descrive solo spazi ma relazioni spaziali.

Paul Arthur (Umeå University) propone con il suo intervento “Digital History in Australia and New Zealand: An International Comparison” di tracciare uno stato dell’arte della storia digitale in Australia e Nuova Zelanda con una selezione di progetti locali. Arthur premette che le istituzioni sono spesso divise tra spazi reali e virtuali. Lo spazio virtuale necessità tuttavia di diversi tipi di testualità e deve proporre nuovi modi di narrare la storia, non solamente sul web ma anche su cd, dvd e istallazioni museali. Annuncia che è nata una nuova posizione accademica in Australia, quella di “e-history professor all’Università del Queensland”. Arthur spiega che nel suo corso tutti i materiali sono disponibili online. Sottolinea la potenza della ricerca online che permette di scambiare informazioni e peer reviews. L’innovazione risiede al livello del codice, dei metadati. I concetti di background/backend sono ulteriormente importanti.

Arthur presenta una serie di progetti particolarmente interessanti e disponibili online. Primo fra tutti è il “Midland railway workshops” realizzato nell’ambito del laboratorio “Intervactive histories research” presso la Murdoch University nel quale si traccia la storia di una officina ferroviaria di Perth e del vicino tessuto urbano. Altro progetto della stessa università è intitolato “Nidja beeliar boodjar noonookurt: a Nyungar interpretive history of the use of boodjar (country) in the vicinity of Murdoch University” e propone una ricostruzione del mondo aborigeno e del concetto particolare di territorio. Altro progetto “Voices of the west end” ripercorre la storia e la vita culturale della città di Fremanlte. “EMelbourne the city past&present”, basata su schema enciclopedico, propone la storia della città di Melbourne attraverso una serie di categorie consultabili online. Parallelamente è stato realizzato il “Dictionnary of Syndney”. Altro progetto particolarmente interessante è l’enciclopedia della Nuova Zelanda intitolata TeAra.

Arthur si interroga su i limiti dei prodotti digitali e sull’informazione che veicolano che possono a volte essere sfocate. Bisogna sempre tenere in mente la distinzione che intercorre tra informazione e interpretazione.

Per quanto riguarda i progetti GIS, propone l’esempio del progetto enciclopedico “Virtual Perth” al quale egli stesso ha lavorato. Arthur ha anche collaborato alla creazione online del “Australian dictionary of biography” disponibile online. In questo caso pone l’accento su come sia interessante verificare la superposizione delle vicende umane. Attraverso la consultazione del dizionario bibliografico persone diverse s’incrociano in tempi e luoghi diversi, in un complesso intreccio sociale. L’uso del dizionario è particolarmente interessante se si tiene in mente che l’Australia è terra di migrazioni pressoché globali. Altro progetto che riguarda le comunità aborigene è “Ara irititja archive” che raggruppa fonti di storia orale delle varie lingue locali.

Tutti questi progetti esplorano e cercano di comunicare la complessità del passato, attraverso l’utilizzo di materie creative, ponendo l’accento sulla narrativa visiva. La navigazione in alcuni casi prende il sopravvento sulla narrazione.

Il problema più preoccupante secondo Arthur è rappresentato dalla possibilità di perdere il materiale digitale creato in ambito accademico, ciò che lui chiama gli “anni digitali buii” (digital darkages). Il design dell’interfaccia e la cura grafica rimangono forse un modo coerente di dare continuità ai progetti ritenuti speciali. Altro grande problema è costituito dal mancato riconoscimento da parte delle istituzioni accademiche e dal mondo universitario in generale. A questo proposito è utile consultare la pagina wiki dedicata alla “Digital history” e il blog di Arthur.

Marie-Pierre Besnard (IUT de Saint-Lô) “Renouveler l’expérience muséale à l’heure du Web : le e-musée” propone una riflessione sul mondo dei musei virtuali. Secondo l’autrice la storia è “parente povera” del museo. Cita l’esempio della Normandia, dove esiste una miriade di piccoli e piccolissimi musei sulla seconda guerra mondiale, principalmente legati allo sviluppo turistico. L’idea della creazione di un museo nazionale solleva l’interrogativo che sta alla base di qualsiasi celebrazione storica ossia: a chi spetta scrive la storia nazionale ufficiale? Altro interrogativo che si pone Besnard è quello relativo alla digitalizzazione del patrimonio immateriale. Molti musei sono online senza però essere veri musei virtuali. Sono piuttosto degli annuari digitali. Cita l’esempio del “Musée airborne.com” che non ha permesso lo sviluppo del suo progetto parallelo su Second life. In ogni caso il museo virtuale non deve ripetere quello già esistente ma proporre qualcosa di nuovo per il pubblico. Le nuove tecnologie secondo Besnard hanno certamente limiti ma danno anche nuove possibilità per rilanciare il dibattito storiografico. Per terminare cita il volume di Olivier Donnat “Pratiques culturelles et usages d’Internet» (2007), disponibile online e il progetto “Plan de Rome” dell’Università di Caen.

Cristina Blanco Sio-Lopez (CVCE) e Milagros Garcia Perez (Biblioteca Municipal de Estudios Locales Lacoruna) hanno presentato “Interacting localities: The case of the BMEL and its projects on collaborative online library systems for the study of Contemporary History”. Hanno proposto il progetto di digitalizzazione della biblioteca municipale Lacoruna e del suo wiki biografico. Un sistema online e collaborativo della biblioteca utile alla storia contemporanea spagnola che fa parte della rete delle biblioteche della Galicia e partecipa al catalogo collettivo del patrimonio bibliografico spagnolo (CCPB). In questo contesto è nato il progetto di digitalizzazione di materiali cartacei vari (poster, biglietti, cartoline, bandi, volantini, programmi di eventi culturali vari, pubblicità, etc…) disponibili nel catalogo della biblioteca ma difficilmente prestabili e perfino poco mostrabili. Tutto il materiale è stato scannerizzato ad alta definizione tramite Docushare della Xerox. Ne è stato realizzato oltre che l’archivio digitale anche una pubblicazione cartacea riassuntiva.

Gregory Miura (Bordeaux 3/OMNSH) presenta “L’archéologie du web, science auxiliaire d’une histoire du temps présent”. Per Miura il web è sia strumento sia fonte. Per esempio, l’INA di Parigi ha una sezione di conservazione degloi oggetti multimediali. Presenta l’OMNSH (observatoire des mondes numeriques en sciences humaines), un collettivo informale di giovani ricercatori interessati al mondo digitale in modo pluridisciplinare. (dai giochi video a qualsiasi altro oggetto multimediale) L’autore si chiede quale sia la prospettiva storica da dovere scegliere visto che il fenomeno non è ancora terminato. Propone un approccio storico simile a quello che Roger Chartier utilizza nelle sue analisi della storia del libro. Intanto esiste il deposito legale presso l’INA, consultabile solo nei locali della BNF. Dal punto di vista internazionale esiste netpreserve.org e internet archive che mirano a conservare parti del “web storico”. Un nuovo standard nell’archiviazione dei documenti multimediali è WARK, ora diventato norma iso. Cita webatlas come portale francese dell’innovazione particolarmente interessato all’archiviazione dei file multimediali presenti online. Propone il sito aharef.info che analizza visivamente i contenuti di una pagina o di un sito web. Questo strumento è particolarmente utile per dare l’idea dei contenuti da un punto di vista strettamente sensoriale. Altri strumenti per l’analisi dei contenuti online sono alexa.com e goggle analytics. Miura sostiene però che sussiste una grande difficoltà ad archiviare il “deep web”, ossia tutto ciò che non riesce ad essere ripescato dai motori di ricerca. Una pagina con i dettagli di Miura è disponibile online.

Richard Haken (Brigham Young University) presenta “Online Primary Documentation of Contemporary History: Trends and Changes in the Past Twelve Years”. Cita Walter Benjamin e approccia il mondo dei quotidiani digitalizzati e dei video online come Digital Pathe che contiene filmati originali in formato digitale della società British Pathé o C-span.org che accoglie tutti i materiali multimediali del campidoglio statunitense. Cita altri progetti/strumenti di raggruppamento di fonti multimediali e fonti a stampa digitalizzati come “The berlin air lift”, “The scottish devolution within uk”, cvce, europeana, world digital library of Unesco, www virtual library history, OAIster, open Doar.

Haken si interroga su altre fonti d’informazione come e-mails, applicazioni per smartphones, twitter… La loro mancanza di credibilità è forse data dalla “tirannia” dell’accesso istantaneo? In effetti ciò che è volatile non è verificabile. Secondo uno studio della Standford University, che ha stilato una lista di priorità riguardo alla credibilità di un sito, il design occupa il primo posto mentre l’informazione occupa solo il 10° posto della classifica. Rimane il dubbio circa i numerosi “digital incunabula” come definiti da Jean Guidon ossia quei siti statici che replicano una realtà cartacea senza sfruttare al meglio le tecnologie online. Haken si chiede se il web 2.0 alimenta la democrazia o se affama la cultura, livellando, di fatto, una storia “piatta”. I devices sono ormai diventati locali, personali e mobili. Basta guardare alla quantità di materiale inviato durante le ultime elezioni europee attraverso blog e social networks. Haken si chiede come archiviare questo tipo d’informazione creata con devices mobili (smartphones, blackberry, iPhones, netbooks…). Allo storico rimane l’insegnamento del pensiero critico avvalendosi anche di strumenti digitali di come crittografia e “watermarks”. Haken cita lo H-bot (automated historical fact finder) creato dal Center for history and new media che testa l’accuratezza dei documenti su base statistica. L’autore presenta anche il progetto belga erfgoed 2.0 creato da IBBT (Interdisciplinary Institute for Broadband Technology) che permette un viaggio nella storia attraverso l’uso di smartphone e mappe interattive. Per Haken il dialogo tra vari media e tecnologie è alla base dello sviluppo storico. Il problema dei “vuoti” di fonti deve essere affrontato come gli storici medievisti, formulando ipotesi di ricerca.

Elodie Nowinski (IEP Paris) con il suo intervento “Last nite deezer saved my life” spiega come utilizzare al meglio gli strumenti del web 2.0 nella preparazione di un corso universitario (in particolare il suo corso di storia del Rock). Utilizzando strumenti nati per un uso generalistico è possibile raccogliere informazioni insolite e radunare nuovi tipi di documenti difficilmente trovabili in archivi come brani musicali bootleg, flyer, documenti relativi ai concerti, campagne pubblicitarie di vario tipo… Questi documenti nuovi vanno trattati come qualsiasi altra fonte per quanto riguarda la loro credibilità”.Nowinski fa l’esempio di Deezer, la piattaforma di “music & video on demand” che permette di avere accesso ad una galassia di conoscitori e stimatori del mondo musicale contemporaneo. Nell’ambito dei Cultural studies la ricerca delle fonti si effettua in modo trasversale e richiede una certa dose di “acculturazione” tecnica. Il problema più grande incontrato dall’autrice è stato provare la propria ricerca al proprio collegio, anche di fronte a materiali non necessariamente “fisici”. Per Nowinski è necessario oltrepassare la questione del copyright per utilizzare a pieno i materiali online, soprattutto per quanto riguarda il campo musicale. Lo streaming in questo senso si rivela tecnologia vincente. La comunicazione che si crea all’interno dei Social Network rende possibile lo scambio di materiale e degli archivi personali (in questo caso dei fan).Siti come Deezer esistono anche per quanto riguarda altre lingue, come ad esempio per il rock russo. Un modo nuovo di affrontare la caduta del muro ma anche di potere accennare le teorie di Weber e di Benjamin ai propri studenti.

Enrica Salvatori (Università di Pisa) con “Listening, watching, living and (at the end) learning history: in and out the web” propone la presentazione dei podcast storici. Cita Dan Carlin’s Hardcore History Podcast come un esperimento riuscito e mai banale, collegato and una ricca collezione di documenti. Cita altri podcast come quelli museali del Arizona State Museum che permettono di approfondire i percorsi storici proposti dal museo o quelli editoriali della Laterza, quelli culturali dell’Auditorium di Roma o accademici come quelli dell’Università di Princeton. Per tutte queste realizzazioni se le tecniche di comunicazione non sono efficienti, non ci saranno ascoltatori e non ci sarà, di fatto, comunicazione. Alcuni podcast storici sono disponibili anche sulla piattaforma iTunes. Salvadori presenta il primo e più ascoltato podcast storico italiano Historycast. Per Salvadori oltre che ascoltare la storia con i podcast è anche possibile vedere la storia grazie a strumenti ormai noti come famosi Flickr, Wiki commmons, Youtube, Current tv ma anche grazie ai videopodcast come ad esempio BMA blackmedia archive. E’ possibile comunicare il passato e non soltanto con le fonti classiche come lo stabilisce la Carta di Londra (The London charter) che punta alla visualizzazione 3d e informatizzata del passato e della storia. La Carta delinea i concetti fondamentali per la scientificità della rappresentazione virtuale: trasparenza dei processi, documentazione, standard da seguire, sostenibilità, accesso, coesione, integrità delle fonti di ricerca, contesti disciplinari… Il prossimo passo sarà senz’altro l’uso dei Muves come nel Project wonderland nel quale è possibile creare ambienti virtuali dedicati alla didattica. Sono disponibili software di creazione virtuale come Unity 3d che permette la realizzazione di giochi anche didattici come anche Realxtend, la piattaforma gratuita che interconnette più mondi virtuali.

Salvadori ribadisce, in chiusura, che la qualità dei contenuti è strettamente collegata alla qualità della comunicazione. L’importanza del contesto è dunque fondamentale. In tempo di crisi economica, la reazione culturale è di tornare a soggetti più tradizionali con modi decisamente tradizionalisti nella ricerca di una rassicurante sicurezza.

Il simposio si chiude con Bakes che interviene sull’idea di Dacos a proposito della creazione, auspicata da tutti, di un Manifesto condiviso. Sembra necessario, a questo punto, definire quali siano le competenze tecnologiche necessarie alla ricerca storica. Il desiderio dei partecipanti di rimanere in contatto ne è sicuramente una prova tangibile.

Sono online le registrazioni video del Simposio

Print Friendly, PDF & Email

Leave a Reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *