Frammenti e connessioni. Il WorldWideWeb come ambiente informativo e il ruolo delle Digital Humanities

Il libro e il web

Nelle numerose discussioni intorno alle criticità di Internet e del World Wide Web come ambiente informativo sempre più frequentemente – in particolare nel decennio appena trascorso – compare come termine di paragone il libro. Se quest’ultimo viene descritto come apollineo, ordinato e circoscritto, l’altro è al contrario dionisiaco, entropico e in continua espansione. Alla combinazione oggetto-libro/forma-libro – un parallelepipedo composto da fogli sovrapposti e rilegati da un lato contenente una sequenza testuale lineare, non inferiore a una determinata lunghezza e in cui i contenuti sono strutturati gerarchicamente – vengono attribuiti pregi e virtù mentre l’oggetto-web/forma-web – una rete telematica di tipo client/server caratterizzata da un’architettura software distribuita in grado di memorizzare, elaborare e visualizzare i dati la cui struttura topologica a grafo permette collegamenti unidirezionali tra contenuti eterogenei per forma e contenuto – da strumento di progresso e libertà viene accusato di essersi trasformato nella sua stessa nemesi[1], annullando in poco meno di un decennio tutte le previsioni ottimistiche accumulatesi a partire da Vannevar Bush e Ted Nelson.

Voler attribuire a priori una superiorità strutturale e conoscitiva al libro, in particolare da un punto di vista informativo, significherebbe come un qualsiasi prodotto tipografico sia automaticamente preferibile ad un contenuto digitale. Questa affermazione risulta molto debole nel momento in cui si prende in considerazione un controesempio come Wolfram Alpha[2], il noto motore di ricerca semantico che ha al suo cuore un serbatoio di dati accuratamente selezionati e raffinati insieme alla capacità di effettuare inferenze logiche e procedimenti algoritmici.

Limitando l’ambito a casi in cui l’aspetto computazionale non è così preminente, un altro controesempio valido è la Stanford Encyclopedia of Philosophy[3], un’enciclopedia online incentrata sulla filosofia che a marzo del 2018 contava quasi milleseicento voci, ognuna delle quali soggetta ad un accurato controllo editoriale e qualitativo[4]. Oppure, andando su contenuti non solo testuali ed educativi, il MIT Open Courseware[5], che rende disponibile il materiale didattico dei corsi del noto Massachusetts Institute of Technology, arrivando per più di cento di essi ad includere le registrazioni audiovisive delle lezioni.

Spostandosi verso l’aspetto narrativo, spicca la categoria del digital journalism, di cui un insigne rappresentante è Snow Fall del New York Times[6], servizio incentrato sulla valanga avvenuta nel febbraio del 2012 a Tunnel Creek nella Catena delle Cascate nello stato di Washington e che ha avuto una grossa eco mediatica. Premiato nel 2013 con il premio Pulitzer, Snow Fall è stato giudicato come il capostipite di un nuovo modo di fare giornalismo, in quanto in grado di rappresentare la complessità degli eventi, la dinamica e le persone coinvolte, in maniera altrimenti non possibile tramite la sola carta stampata. Insieme agli entusiasmi non sono mancate le critiche, in particolare per quello che riguarda le diverse competenze e l’impegno necessario per realizzare un tale prodotto[7], ma ciò nonostante il digital journalism ha continuato a diffondersi, sfruttando il potere della multicodicalità e dei dati per creare narrazioni coinvolgenti ed esaurienti su questioni complesse, come dimostrato ogni anno dai vincitori dell’Online Journalism Awards[8].

L’accento posto sulle competenze necessarie, editoriali e tecnologiche, è un’indicazione utile non solo riguardo alla creazione di questi prodotti, ma più in generale per l’utilizzo degli ambienti informativi digitali. Trattandosi di un ruolo di fruizione più che di competenze, sarà opportuno parlare di una certa sensibilità verso queste tematiche. Quando invece verranno presi in considerazione dei casi specializzati, come nella digitalizzazione delle risorse culturali, queste stesse competenze andranno specializzate a loro volta: dall’ambito editoriale si passerà a quello filologico/testuale in caso di un approccio documento-centrico e biblioteconomico se data-centrico. L’aspetto tecnologico dovrà invece includere quello computazionale, che ne è alla base.

Questa combinazione tra componente editoriale e tecnologica era già presente nel saggio di Nelson di metà anni ’60 in cui venne coniato per la prima volta il termine hypertext[9]. Un’innovativa tipologia di file con la possibilità di effettuare collegamenti diventa la base per poter realizzare sistemi informativi in grado di gestire la complessità in maniera superiore rispetto alla carta stampata. Seppure non esplicitamente, Nelson pone l’enfasi su due fattori. Il primo è la rilevanza data al processo rispetto al prodotto, percepibile negli esempi riportati: una gestione della documentazione in grado di includere, oltre alla versione principale, il sommario, lo schema generale, le varianti e le fonti, e – estendendo questo stesso approccio e al tempo stesso anticipando di diversi decenni il libro a strati di Darnton[10] – un sistema per la redazione di libri di storia con la capacità di organizzare le varie parti costituenti: citazioni bibliografiche, note testuali, riproduzioni anastatiche delle fonti, annotazioni e cronologie, fino ad arrivare alla struttura concettuale.

Il secondo fattore è il nucleo di competenze necessarie, editoriali in senso lato in quanto si estendono all’organizzazione della conoscenza, per utilizzare proficuamente questi sistemi. Il termine chiave è complessità: «complex file structures […] make possible the creation of complex and significant new mediam (sic), the hypertext»[11]. La flessibilità della struttura teorizzata da Nelson, «that can be shaped into various forms […] in accordance with the user’s changing need»[12] è alla base delle potenzialità dei sistemi ipertestuali, e al tempo stesso demanda la responsabilità agli utenti. Dinamicità, intesa come focus sul processo, e complessità, sulla cui definizione ci soffermeremo in seguito, sono tratti distintivi dell’ipertesto sin dalla sua origine. Parimenti, il rapporto tra componente editoriale e tecnologica sembra suggerire come sia necessario adottare un approccio simile anche per superare la contrapposizione tra libro e web per farli entrare in un circolo virtuoso[13].

Frammenti e complessità

Contro il colonialismo digitale di Roberto Casati e L’età della frammentazione di Gino Roncaglia[14] sono due monografie che affrontano il rapporto tra il libro come supporto conoscitivo e le conseguenze socioculturali dei mutamenti tecnologici relativi alla diffusione e alla pervasività dell’informazione digitale. Nonostante il tema comune e diversi punti di contatto i due volumi si differenziano principalmente per l’atteggiamento di fondo. Se per Casati l’oggetto-libro, nella sua declinazione cartacea, è lo strumento migliore per sviluppare determinate abilità, mentre le risorse digitali possono essere un utile e interessante contorno, Roncaglia sposta l’accento sulla forma-libro e la sua ri-mediazione in un contesto di rete oltre che digitale, sia contestualizzato sia collegato con contenuti altri, in modo da superare la dimensione frammentata e riduttiva dei contenuti granulari per rispondere alla sfida principale educativa, in senso lato, dei nostri giorni, quella della complessità.

Un punto comune ai due autori – entrambi con una formazione filosofica e radicata nella galassia Gutenberg, sebbene collocabile in una fase in cui la dimensione computazionale iniziava ad estendersi oltre i confini specialistici – è la rilevanza data alle istituzioni scolastiche e in particolare alle biblioteche. Nonostante ne venga sottolineata una necessaria rimodellazione, queste ultime vengono indicate come asset strategico e luoghi deputati allo sviluppo di quelle abilità richieste dall’attuale ecosistema informativo, al tempo stesso necessarie e di non semplice collocazione curriculare a causa della loro trasversalità, soprattutto in contesti di studi primari e secondari. Ciò pone al centro tutte quelle questioni relative all’organizzazione della conoscenza precedentemente citate e da sempre appannaggio di queste strutture, focalizzando l’attenzione sui servizi e sulle persone[15].

Un ulteriore fattore condiviso, stavolta sul piano dell’espressione e non del contenuto, è l’impianto dei due testi: ogni capitolo è una lettura agile e incisiva che va a comporre progressivamente un disegno coerente e organizzato. Sorprende non poco perciò scoprire, leggendo le note, come diversi capitoli – opportunamente rivisti – provengano da materiali già pubblicati autonomamente e in sedi molto diverse tra loro. Chiunque abbia una minima familiarità con la scrittura sa benissimo come questo processo sia tutto tranne che lineare. Soprattutto questo si ricollega a due idee centrali nei ragionamenti di Roncaglia, rispettivamente quelle di frammento e di complessità. La prima è abbastanza intuitiva, in quanto indica un qualcosa di incompleto, condizione che nel tempo, in particolare a partire dal Romanticismo, ha acquisito valore di per sé, in quanto caratterizzata da un potenziale conoscitivo[16].

La seconda è di non semplice definizione, ed è alla base di un approccio transdisciplinare definito come Complexity Theory[17]. Un aiuto viene dalle discipline computazionali in cui la complessità è quel il fattore che caratterizza i problemi difficilmente risolvibili, in quanto i casi da esaminare crescono esponenzialmente a partire dagli elementi di base, come nella scomposizione di un numero in fattori primi o nel calcolo del miglior percorso in un grafo in cui i nodi possono essere attraversati solo una volta[18].

Quest’ultimo esempio introduce un elemento ulteriore, quello di collegamento che, è proprio il caso di dirlo, fa da ponte tra i concetti di frammento e di complessità, in quanto permette di connettere e di mettere in relazione sia ciò che è frammentato sia ciò che è di per sé completo, ma suscettibile di ulteriori correlazioni, così da ottenere un disegno d’insieme e un valore informativo superiore alla somma delle singole parti. Come ricorda Lyotard nel descrivere i progressi conoscitivi nella condizione postmoderna «la meilleure performativité […] résulte d’un nouvel arrangement des données […]. Ce nouvel arrangement s’obtient le plus souvent par la mise en connexion de séries de données tenues jusqu’alors pour indépendantes»[19]. Naturalmente, come la teoria dei grafi insegna, all’aumentare del numero dei nodi aumenta rapidamente il numero delle potenziali connessioni, insieme alle relative possibilità di organizzazione e presentazione. La sfida è quella di riuscire a individuare, senza dover esaminare tutti i casi possibili, i collegamenti proficui escludendo quelli inutili se non dannosi. Questo elemento cruciale, paragonabile alla continua selezione delle informazioni sul Web, non è certo di tipo numerico/quantitativo, ma si basa su di una componente qualitativa, al tempo stesso critica e immaginativa: «On peut appeler imagination cette capacité d’articuler ensemble ce qui ne l’était pas»[20]. Se questo approccio creativo può apparire più centrale nelle scienze umane, è altrettanto prezioso in quelle esatte.

Certo, nelle scienze umane – e in particolare nel caso di cui ci stiamo occupando, la scrittura argomentativa – è presente una maggiore libertà rispetto alle scienze esatte, connaturata alle piene potenzialità espressive del linguaggio naturale[21]. In base a queste premesse la riscrittura di un testo può essere vista come una scomposizione, tutt’altro che automatica o lineare, dei suoi elementi costitutivi, andando ad individuare i punti più sensibili in cui è possibile inserire nuove connessioni ed eliminarle di altre.

Le piattaforme di pubblicazione elettronica danno la possibilità di gestire efficacemente un tipo di approccio genetico-documentale. HyperNietzsche, la prima versione dell’edizione critica digitale delle opere del filosofo tedesco, prevedeva una modalità ‘rizomatica’ tramite la quale era possibile visualizzare graficamente l’evoluzione di un aforisma dalle prime stesure manoscritte fino alla pubblicazione a stampa[22]. Questa necessità di una consapevolezza, oltre che di una gestione, del testo multiplo non è limitata ai contesti storico-filologici, ma si estende anche alle pratiche più generaliste di editoria digitale. Complex Tv di Jason Mittell[23], monografia incentrata non a caso sulla complessità nella narrazione seriale televisiva, è anch’esso un testo composto da articoli già pubblicati in altre sedi, tradizionali e non, come riviste scientifiche o i post del suo blog personale[24]. Una prima versione è stata pubblicata su Media Common Press – piattaforma editoriale open access di Media Commons, una rete accademica di digital scholarship – in forma aperta e soggetta ad un open peer-review, con i commenti strutturati per capoversi, insieme alle eventuali risposte dell’autore[25]. Oltre a questa edizione e a quella commerciale pubblicata dalla NYU Press, la pluralità di Complex TV include una versione arricchita realizzata tramite la piattaforma Scalar che contiene degli estratti del testo giustapposti agli spezzoni video delle serie tv cui l’autore fa riferimento[26].

Gli esempi fino a qua riportati vanno nella direzione delle tesi di Roncaglia. Certo, un’osservazione facilmente prevedibile è come quest’ultimo si sia affidato ad una forma tradizionale di disseminazione, la monografia, avvalorando così indirettamente la posizione di Casati. Riprendendo il discorso della complessità e dell’argomentazione, è necessario ricordare quanto ogni affermazione sia suscettibile di contestualizzazioni e raffinamenti successivi.

La scelta di Roncaglia di affidare ad una monografia cartacea le sue riflessioni sull’informazione digitale va considerata come uno script act e contestualizzata in una rete di relazioni[27]. Come prodotto questa scelta può essere dovuta a diversi motivi, non ultimo la diffusione di idee riguardo alla rilevanza e alle criticità dell’informazione digitale anche tra chi per mentalità e tradizione è fortemente radicato nella dimensione tipografica. Come processo, questo libro è una tappa significativa di un percorso che include sia un avantesto sia un post testo digitale: oltre alla distinzione tra testo e paratesto queste categorie vanno estese per includere contenuti multicodicali: diversi articoli pubblicati dall’autore sulla sua rubrica su Il Librario[28] appartengono all’avantesto de L’età della frammentazione; al post testo, e nello specifico all’epitesto, è possibile ascrivere i video della presentazione del libro presso la Scuola Nazionale dell’Amministrazione con interventi di studiosi quali Francesco Sabatini e Derrick de Kerckhove, oltre che dell’autore stesso[29].

Testo e computer

Proseguendo su questa linea di pensiero, trovare testimonianze e riflessioni a favore dell’utilizzo del digitale per gestire, modellare e manipolare la complessità, soprattutto testuale, non è certo difficile; testimonianze e riflessioni che sono tanto più rilevanti quanto più ascrivibili a figure non annoverabili tra i tecno-entusiasti o gli integralisti dell’informatizzazione a tutti i costi. Durante una conferenza tenuta all’Università degli Studi della Tuscia nel marzo 2018 sull’importanza e il ruolo della poesia, Valerio Magrelli, noto poeta, scrittore e docente di letteratura francese, ha parlato anche del suo ruolo di direttore della serie Trilingue, all’interno della collana Scrittori tradotti da scrittori, in cui un testo letterario veniva pubblicato con a fronte due traduzioni, permettendo di scoprire relazioni singolari ma significative, come nel caso delle poesie di William Blake, tradotte in francese da Georges Bataille e in italiano da Ungaretti, o Beckett che traduce se stesso dal francese all’inglese[30]. Magrelli, nel sottolineare come – ben lungi dall’essere un vezzo accessorio – questa disposizione comparativa permetta di mostrare chiaramente i processi creativi al cuore stesso della letteratura, e di conseguenza la complessità sottostante, ha aggiunto con un inciso come realizzare un prodotto editoriale di questo tipo fosse stato possibile solo grazie alle procedure informatiche di impaginazione; sebbene non certo irrealizzabile è però del tutto proibitivo basandosi esclusivamente sulle tecnologie analogiche.

Seppure non vengano nominati esplicitamente, Magrelli fa riferimento ai software di DeskTop Publishing, che permettono di impaginare un qualsiasi prodotto editoriale sullo schermo di un computer e diffusisi a partire dalla metà degli anni ’80. Il cuore di questi programmi è l’utilizzo dei cosiddetti Page Description Languages, veri e propri linguaggi di programmazione in grado di riprodurre la forma di una pagina tipografica, di cui il più diffuso è il PostScript, alla base del più noto formato PDF. Per quanto fondamentale, in questo caso l’elaborazione informatica è al servizio del supporto cartaceo, e perciò questa tipologia di linguaggi si ferma al lato presentazionale, senza addentrarsi nella struttura dei contenuti. Questo passo ulteriore nella direzione indicata da Magrelli, relativa alla necessità e proficuità di stabilire relazioni tra i fenomeni testuali e alla base dei bisogni conoscitivi di ogni studioso, si ottiene con la codifica testuale. Grazie alla possibilità di inserire nel testo degli elementi diacritici è possibile esplicitarne la struttura e stabilire relazioni come quelle esistenti tra versioni, edizioni e traduzioni diverse, oppure inserire annotazioni, commenti e metadati[31].

Lo standard più diffuso per questo tipo di codifica è quello elaborato a partire dalla fine degli anni ’80 dalla Text Encoding Initiative e basato sui linguaggi di marcatura descrittivi, SGML prima e XML poi, per rappresentare digitalmente i testi letterari e linguistici. Nei vari capitoli delle Guidelines viene descritto il vocabolario della TEI e il modo in cui è possibile utilizzare questa codifica per vari scopi, tra cui segmentare, annotare e collegare le varie parti di un testo, registrare le varianti testuali in un apparato critico, annotare linguisticamente i contenuti o esplicitare i riferimenti storici, toponomastici e antroponimi[32]. Tutte queste attività implicano una separazione, o se si preferisce frammentazione, e va da sé come risulti fondamentale la granularità, il poter individuare una porzione specifica di un testo. La successiva pubblicazione, sempre basata su strumenti digitali di questa codifica, implementerà delle funzioni altrimenti impossibili da ottenere con l’oggetto libro, sfruttando così a pieno sia il potenziale esplicitato nella codifica sia l’integrazione con altri fonti informative.

Un esempio tra i tanti possibili è il Perseus Project[33], biblioteca digitale incentrata principalmente sui testi e sulla cultura classica. Sulla base della codifica TEI, che ne rappresenta il livello dei dati, è stato costruito un sistema informativo il cui cuore è un ambiente di lettura in cui il testo in questione viene arricchito da tutta una serie di strumenti e collegamenti. Nella versione dell’Odissea resa disponibile[34], oltre al testo originale greco proveniente da un’edizione del 1919 pubblicata dall’Harvard University Press, sono presenti: le note del commento realizzato nel 1886 da Merry, Riddell e Monro; due traduzioni in inglese, una di Samuel Butler del 1900 e un’altra del 1919; un elenco di riferimenti ipertestuali bidirezionali a note testuali e riferimenti incrociati con altri testi presenti nelle varie collezioni; un vocabolario con un elenco dei termini presenti e relativa traduzione; un elenco delle entità geografiche, storiche o culturali identificate, con la possibilità di visualizzare su di una mappa quelle geografiche o di identificare la presenza di una specifica entità all’intera collezione o a tutta la biblioteca digitale. Ogni termine greco e latino è inoltre collegato a un analizzatore morfologico in grado di dare una serie d’informazioni linguistiche, lessicografiche e statistiche.

I testi sono pubblicati sfruttando ciò che in gergo viene chiamato chunking: un unico documento XML viene navigato nelle sue unità strutturali, ossia spezzettato a diversi livelli di contenuto, libri, versi, sezioni, atti, scene, in modo da mostrare a schermo solo la porzione selezionata, favorendone così l’usabilità e la contestualizzazione con le informazioni collegate: granularità e frammentazione sono qui al servizio della gestione della complessità. La codifica testuale è al tempo stesso il punto di arrivo di procedimenti sia manuali sia automatici che quello di partenza su cui si basa tutta l’architettura e i servizi della biblioteca digitale[35].

Figura 1.   L’edizione digitale dell’Odissea di Omero nel Persus Project.

Il Perseus Project è una fucina in cui si fondono competenze e discipline diverse. L’informatica è la base su cui si innestano organizzazione della conoscenza, tramite l’utilizzo di ontologie e thesauri[36], recupero delle informazioni, linguistica computazionale, filologia e biblioteconomia[37]. E non a caso viene teorizzata la figura del corpus editor, in grado di effettuare quella combinazione citata in precedenza tra competenze editoriali e informatiche, risalendo laddove necessario alle loro radici culturali, la filologia e la matematica.

Di fronte a questo esempio l’idea del digitale, inteso sia come strumento di creazione sia di fruizione di contenuti complessi, sembra cancellare qualsiasi accusa di semplificazione e banalizzazione di ciò che, al contrario, la tradizione a stampa ha così accuratamente tramandato e preservato. Difficilmente si potrebbe descrivere il Perseus Project se non come una cattedrale informativa digitale, per usare l’efficace metafora di Roncaglia. Inoltre, nonostante sia un’iniziativa accademica, viene da tempo utilizzata anche da un pubblico più vasto e generalista per finalità educative e culturali[38].

Certo, il Perseus Project è il risultato di uno sforzo editoriale e tecnologico non banale, che dura ormai da venticinque anni e che è passato attraverso una serie continua di cambiamenti. I testi, prima codificati in SGML e successivamente in XML, sono la parte più stabile e il cuore dei vari sistemi che sono stati di volta in volta sviluppati. La prima versione risale al 1987, resa disponibile su Cd-Rom tramite Hypercard, una piattaforma di sviluppo per il sistema operativo Apple Macintosh per la creazione di ipertesti, per passare successivamente al Web, con un continuo rinnovamento delle tecnologie e dell’architettura sottostante, fino ad arrivare alla versione attuale, la 4.0, rilasciata nella metà degli anni 2000[39].

L’architettura del Perseus Project è sia complicata – dal punto di vista del prodotto, per quello che riguarda le singole tecnologie utilizzate – sia complessa – per il modo in cui queste stesse tecnologie sono state applicate e combinate nel tempo: il tema della complessità è ricorrente nel parlare di biblioteche digitali, in quanto questa particolare tipologia di sistema informativo implica necessariamente l’avere o il dover sviluppare una certa dimestichezza con questa tematica, sia a livello di progettazione e realizzazione sia, socialmente più rilevante, di utilizzo[40].

I contenuti di questa biblioteca digitale affondano le proprie radici nel mondo gutenberghiano, chirografico e addirittura orale. Come la maggior parte delle iniziative appartenenti alle Digital Humanities e nello specifico al cultural heritage, l’informazione di cui si occupa ha un’origine analogica, stratificatasi e arricchitasi con il passare del tempo. La comunità scientifica appartenente a questo settore è ben conscia da un lato delle capacità di modellazione del computer e dall’altro dell’importanza dei contenuti modellati, della loro tradizione e storia, delle possibili interpretazioni. A prima vista il digitale sembrerebbe perciò avere senso solo in funzione del recupero di un’informazione che non gli appartiene nativamente. Ironicamente, l’informazione ‘nativa digitale’ potrebbe sembrare soffrire degli stessi problemi che affliggono la generazione classificata come tale.

Fortunatamente così non è: se il cuore dello strumento computazionale è l’applicazione di una particolare struttura, e relative funzionalità, in grado di valorizzare il potenziale informativo di un contenuto, nel caso della digitalizzazione del patrimonio culturale ciò risulta più rilevante in quanto si tratta di materiale che è frutto di un accurato processo di selezione e che nel tempo è entrato a far parte stabilmente di una rete di conoscenza[41]. Oltre ai già citati casi di digital journalism, un simile atteggiamento critico e costruttivo è riscontrabile anche in chi si occupa di new media, basti pensare all’importante riflessione e distinzione effettuata da Lev Manovich sul rapporto tra database e racconto di fronte alla comparsa e diffusione delle prime narrazioni multimediali e interattive, come i cd-rom o gli stessi siti web[42].

Documenti e cattedrali

La centralità di queste tematiche incoraggia a cercare e creare collegamenti con ciò che a prima vista non sembra essere direttamente in relazione. In quest’ottica, la conferenza di Valerio Magrelli citata in precedenza ha un rapporto di correlazione spaziale con un altro evento che si è tenuto sempre nell’Aula Magna dell’Università degli studi della Tuscia, nel novembre del 2018: una giornata di studio interdipartimentale dal titolo Robot, energie alternative e big data. Innovazione diritto e cultura all’inizio del XIX secolo, e che ha visto gli interventi di ingegneri, giuristi, sociologi e umanisti. Nel cercare di trovare un punto d’incontro tra le varie relazioni, un’interessante riflessione ha sottolineato il fatto che «[diritto, innovazione e cultura] sono tre forze tradizionali della storia occidentale che stanno subendo enormi trasformazioni. Sono anche intrecciate tra di loro nel senso che l’innovazione cambia il diritto e la cultura cambia entrambi»[43]. Partendo da quest’ultima frase e provando a definire ulteriormente questo intreccio, una prima considerazione è su come da un lato la tecnologia, alla base dell’innovazione, faccia parte della cultura e dall’altro le innovazioni tecnologiche provochino, in maniera non deterministica, dei cambiamenti socioculturali; questi cambiamenti si ripercuotono nei rapporti tra i singoli e la collettività: quegli atti sociali che il diritto ha il compito di regolamentare. Manca però ancora un tassello fondamentale al centro di questa intersezione e che si ricollega al discorso di Magrelli: il documento.

Un documento è al tempo stesso un oggetto-prodotto tecnologico e un oggetto-processo culturale, sociale e di conseguenza giuridico[44]. Il prodotto è legato alla natura, all’ontologia, mentre il processo all’utilizzo e all’epistemologia. Natura e utilizzo, ontologia ed epistemologia, sono un’ulteriore astrazione degli aspetti tecnologici ed editoriali da cui eravamo partiti all’inizio di queste riflessioni. Alla base del documento digitale c’è la sua natura computazionale[45], e questo si riflette sui suoi utilizzi, sulla strutturazione delle informazioni e sul tipo di conoscenza che può veicolare, instaurando così un rapporto circolare tra ontologia ed epistemologia. Ciò è dimostrato dall’evoluzione dell’architettura del World Wide Web, che da un insieme di documenti statici è diventato una complessa architettura di applicazioni eterogenee.

Questa doppia natura si ritrova nella definizione delle Digital Humanities in quanto meta-disciplina: il loro lato tangibile è, come abbiamo visto, la realizzazione di sistemi e strumenti in grado di gestire informazioni e produrre conoscenza relativa alle scienze umane in maniera altrimenti non possibile tramite il libro: da una base ontologica si passa a una fase epistemologica. A questa attività si giustappone una continua riflessione metodologica e teorica sugli strumenti, sulla loro realizzazione e sulle possibilità offerte dall’utilizzo delle pratiche computazionali, compiendo così il processo inverso.

Provando a riassumere e a collegare i concetti fino a qua esposti, nonostante la matrice accademica delle Digital Humanities, la loro lezione sembra essere un qualcosa di rilevante e funzionale ad un miglior uso dei contenuti digitali a livello generale. Tutto ciò passando da una maggiore conoscenza della natura dei documenti e del loro essere al tempo stesso processo e prodotto. In quest’ottica, un qualsiasi libro tipografico attualmente realizzato, rarissime eccezioni a parte, va considerato come una particolare tipologia all’interno dell’ecosistema digitale. Oltre alla fase finale di produzione, anche il reperimento delle fonti primarie, la stesura, le varie revisioni e le comunicazioni tra l’autore e gli altri partecipanti al processo editoriale, si basano sempre di più sugli strumenti digitali e sulle reti telematiche. Granularità e frammentazione sono due elementi costituenti di questa attività il cui cuore è la capacità di selezionare, valutare e combinare i contenuti, a loro volta basati su di un medium con delle caratteristiche precipue.

Il passaggio all’età delle cattedrali costituite da contenuti digitali complessi, descritto da Roncaglia, non può prescindere da questa consapevolezza, che era paradossalmente più presente nell’età dei cacciatori-raccoglitori[46]. Questo è necessario in primo luogo per evitare che i futuri abitanti di questi luoghi informativi ne siano semplici utilizzatori passivi, incapaci di comprenderne le funzioni e le potenzialità e di trarne il maggior vantaggio conoscitivo possibile: si troverebbero paradossalmente nella stessa situazione dei loro omologhi delle cattedrali di pietra di fronte al libro. In secondo luogo, per quanto questa tipologia di strutturazione complessa dei contenuti potrà essere diffusa, e abbiamo visto come in alcuni settori specifici già lo sia, sono le caratteristiche stesse del Web a permettere modalità sempre alternative di pubblicazione. Facebook, il cui nome contiene ironicamente l’oggetto cui continuamente viene contrapposto, è un sistema informativo estremamente più complicato e complesso del Perseus Project. Quest’ultimo ha dalla sua una maggiore cura editoriale declinata tecnologicamente attraverso standard di settore, senza considerare l’enorme valore letterario, storico e culturale dei testi su cui si basa; non serve certo tirare in ballo il teorema delle scimmie infinite per dimostrare come anche su Facebook sia possibile trovare testi di un certo interesse e valore, seppure immersi nel rumore informativo. Se manca a monte un criterio di selezione e valutazione dei contenuti, dovrà essere compensato a valle, se non tramite un procedimento formale, almeno da una certa attenzione e sensibilità verso questi temi.

La possibilità di integrare in strutture organizzate, attraverso una fase di selezione, contenuti granulari e frammentati provenienti da fonti terze, implica competenze e caratteristiche ascrivibili a tutte le fasi della metafora evolutiva della rete delineata da Roncaglia: dai cacciatori-raccoglitori alle cattedrali passando per gli insediamenti urbani e l’età del commercio[47]. Più che un passaggio da un paradigma all’altro sembra maggiormente plausibile, oltre che auspicabile, una compresenza di tutte queste fasi, con un rapporto di influenza reciproca. Un parallelo appropriato è con il fenomeno della ri-mediazione, che vede ogni mezzo di comunicazione in un rapporto dialettico con le nuove forme espressive rese possibili dalle innovazioni tecnologiche. Per quanto di non semplice realizzazione, più per aspetti socioculturali, questa potrà essere la vera fase di maturità del Web.


[1] Dylan Matthews, The internet was supposed to save democracy. I asked 4 tech optimists what went wrong, «Vox», 8 giugno 2018, <http://www.vox.com/policy-and-politics/2018/6/8/17202918/internet-democracy-facebook-cambridge-analytica-alec-ross-clay-shirky-jeff-jarvis>.

[2] Wolfram | Alpha: Computational Intelligence, <http://www.wolframalpha.com/>.

[3] Edward N. Zalta (a cura di), The Stanford Encyclopedia of Philosophy (Winter 2012 Edition), <http://plato.stanford.edu/>.

[4] About the Stanford Encyclopedia of Philosophy, <http://plato.stanford.edu/about.html>.

[5]MIT Open Courseware, <http://ocw.mit.edu/>.

[6] John Branch, Snow Fall. The Avalanche at Tunnel Creek, <http://www.nytimes.com/projects/2012/snow-fall/>.

[7] Derek Thompson, ‘Snow Fall’ Isn’t the Future of Journalism. And that’s not a bad thing, «The Atlantic», 21 dicembre 2012, <http://www.theatlantic.com/business/archive/2012/12/snow-fall-isnt-the-future-of-journalism/266555/>.

[8] Online Journalism Awards, <http://awards.journalists.org/>.

[9] Theodor H. Nelson, Complex information processing: a file structure for the complex, the changing and the indeterminate. In: ACM ’65 Proceedings of the 1965 20th national conference. New York, NY: ACM, 1965, p. 84-100, doi:10.1145/800197.806036.

[10] Robert Darnton, The New Age of the Book, «The New York Review of Books», 16 marzo 1999, <http://www.nybooks.com/articles/1999/03/18/the-new-age-of-the-book/>.

[11] Cfr. T. H. Nelson, Complex information processing: a file structure for the complex, the changing and the indeterminate, cit., p. 96.

[12] Ivi, p. 89.

[13] Hugh McGuire, What books can learn from the Web / What the Web can learn from books, «Hugh McGuire», 21 aprile 2016, <http://medium.com/@hughmcguire/what-books-can-learn-from-the-web-what-the-web-can-learn-from-books-64670171908f>.

[14] Roberto Casati, Contro il colonialismo digitale. Istruzioni per continuare a leggere. Roma-Bari: Laterza, 2013; Gino Roncaglia, L’età della frammentazione. Cultura del libro e scuola digitale. Roma-Bari: Laterza, 2018.

[15] Leonard Novy, Libraries are About People, not Media, «Goethe Institut Magazine», giugno 2018, <https://www.goethe.de/ins/ca/en/kul/cfo/nlc/21483051.html>.

[16] Anne Janowitz, The Romantic Fragment. In: A Companion to Romanticism, a cura di Duncan Wu. Oxford, UK: Blackwell Publishing: 1999, p. 479-488, <http://onlinelibrary.wiley.com/doi/abs/10.1002/9781405165396.ch44>, doi: 10.1002/9781405165396.ch44.

[17] Concetto fondamentale di questo approccio è la presenza di interazioni dinamiche non prevedibili anticipatamente tra gli elementi di un sistema. Per un’introduzione vedi Dean Rickles, Penelope Hawe, Alan Shiell, A simple guide to chaos and complexity, «Journal of Epidemiology and Community Health», 61(2007), n. 11, p. 933–937, <https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2465602/>, doi:10.1136/jech.2006.054254.

[18] Per un’introduzione ai problemi risolvibili in linea teorica ma di fatto pressoché impossibili nella pratica, vedi il capitolo Aspettando Godot del volume di Toffalori sugli algoritmi, cfr. Carlo Toffalori, Algoritmi. Bologna: Il Mulino, 2015, p. 113-161.

[19] Cfr. Jean-François Lyotard, La condition postmoderne. Rapport sur le savoir. Paris: Les Éditions de Minuit, 1979, p. 85.

[20] Ibidem.

[21] Cfr. Tullio De Mauro, Prima lezione sul linguaggio. Roma-Bari: Laterza, 2002, p. 62-63.

[22] Philipp Steinkrüger, Review of ‘Nietzschesource’, «RIDE», 1 (2014), <http://ride.i-d-e.de/issues/issue-1/nietzschesource/>, doi: 10.18716/ride.a.1.4.

[23] Jason Mittell, Complex TV: The Poetics of Contemporary Television Storytelling. New York: NYU Press, 2015.

[24] Just TV, <http://justtv.wordpress.com/>.

[25] Jason Mittell, Complex Television, <http://mcpress.media-commons.org/complextelevision/>.

[26] Jason Mittell, Complex Television, <http://scalar.usc.edu/works/complex-television/>.

[27] «By script acts […] I mean every sort of act conducted in relation to written and printed texts, including every act of re production and every act of reading». Cfr. Peter L. Shillingsburg, From Gutenberg to Google: Electronic Representations of Literary Texts. Cambridge: Cambridge University Press, 2006, p. 40.

[28] Gino Roncaglia, author at Il Libraio, <http://www.illibraio.it/author/gino-roncaglia/>.

[29] Libri alla SNA – Presentazione volume “L’età della frammentazione”, <http://vimeo.com/showcase/5193081>.

[30] William Blake. Selected poems. Torino: Einaudi, 1996; Samuel Beckett. Mal visto mal detto. Torino: Einaudi, 1994.

[31] James H. Coombs; Allen H. Renear; Steven J. DeRose; Markup systems and the future of scholarly text processing, «Communications of the ACM», 30 (1987), n. 11, p.933-947, <http://dl.acm.org/citation.cfm?id=32209>, doi:10.1145/32206.32209.

[32] TEI Consortium (a cura di), TEI P5: Guidelines for Electronic Text Encoding and Interchange, 3.6.0, 16 maggio 2019. TEI Consortium. <http://www.tei-c.org/Guidelines/P5/>.

[33] Perseus Digital Library, <http://www.perseus.tufts.edu/>.

[34] Homer, Odyssey, <http://data.perseus.org/texts/urn:cts:greekLit:tlg0012.tlg002>.

[35] Gregory Crane; David Bamman; Alison Jones, ePhilology: When the Books Talk to Their Readers. In: A Companion to Digital Literary Studies, a cura di Ray Siemens, Susan Schreibman. Oxford, UK: Blackwell Publishing: 2013, p. 27-64, <http://onlinelibrary.wiley.com/doi/10.1002/9781405177504.ch2>, doi: 10.1002/9781405177504.ch2.

[36] Alison Babeu; David Bamman; Gregory Crane; Robert Kummer; Gabriel Weaver, Named Entity Identification and Cyberinfrastructure. In: Research and Advanced Technology for Digital Libraries. ECDL 2007, «Lecture Notes in Computer Science», 4675 (2007), a cura di L. Kovács, N. Fuhr, C. Meghini. Berlin, Heidelberg: Springer: 2007, p. 259-270, <http://link.springer.com/chapter/10.1007/978-3-540-74851-9_22>, doi: 10.1007/978-3-540-74851-9_22.

[37] Gregory Crane, Cultural Heritage Digital Libraries: Needs and Components. In: Research and Advanced Technology for Digital Libraries. ECDL 2002, «Lecture Notes in Computer Science», 2458 (2002), a cura di Maristella Agosti; Costantino Thanos. Berlin, Heidelberg : Springer: 2002, p. 626-637, <http://link.springer.com/chapter/10.1007/3-540-45747-X_47>, doi: 10.1007/3-540-45747-X_47.

[38] «Ten year olds read about the ancient Olympics; military officers at foreign posts read Thucydides; bankers examine Greek vases during lunch time pauses in their work, and adult learners in the kitchens of rural homes look up words in our electronic Greek lexicon as they work their way through Plato». cfr. Gregory Crane, The Perseus Project and Beyond, «D-Lib Magazine», gennaio 1998, <http://www.dlib.org/dlib/january98/01crane.html>.

[39] Per un’introduzione all’evoluzione delle tecnologie Web vedi Federico Meschini, Reti, memoria e narrazione. Viterbo: Sette Città, 2018, p. 22-35.

[40] «a humanities digital library has a social obligation to support the development of complex skills, by a wide audience, over a long period of time.» cfr. Gregory Crane, Cultural Heritage Digital Libraries: Needs and Components cit., p. 4.

[41] Vedi Gino Roncaglia, I progetti internazionali di digitalizzazione bibliotecaria: un panorama in evoluzione, «Digitalia», 1 (2006), p. 11-30, <http://digitalia.sbn.it/article/view/311>.

[42] Lev Manovich, Database as a Symbolic Form,«Convergence», 5 (1999), n. 2, p. 80-99.

[43]“I robot sono connessi con diritto, innovazione e cultura”, «TusciaWeb», 5 novembre 2018, <http://www.tusciaweb.eu/2018/11/i-robot-sono-connessi-con-diritto-innovazione-e-cultura/>.

[44] Per il documento come oggetto sociale vedi Maurizio Ferraris, Documentalità. Perché è necessario lasciar tracce. Roma-Bari: Laterza, 2008.

[45] Tony Cahill; Michael G. Hinchey; Liam Relihan, Documents are programs. In: SIGDOC ’93 Proceedings of the 11th annual international conference on Systems documentation. New York, NY: ACM, 1993, p. 43-55, doi:10.1145/166025.166034.

[46] G. Roncaglia, L’età della frammentazione cit., p. 22-34.

[47] Ibidem.

  • author's avatar

    By: Federico Meschini

    Federico Meschini Insegna informatica applicata alle discipline umanistiche, editoria digitale e digital storytelling all’Università degli Studi della Tuscia. Si occupa di Informatica Umanistica dai primi anni duemila con un particolare interesse per i libri e le edizioni elettroniche, le biblioteche digitali e la rappresentazione della conoscenza. È autore di “Reti, memoria e narrazione. Archivi e biblioteche digitali tra ricostruzione e racconto”, Sette Città, 2018. È stato visiting scholar al Wittgenstein Archive dell’Università di Bergen e alla Loyola University di Chicago e membro della Text Encoding Initiative.

  • author's avatar


  • author's avatar

    Reti, narrazioni e complessità

    See all this author’s posts

Print Friendly, PDF & Email