Frammenti e astrazione
Le riflessioni che seguono nascono come risposta nel ruolo di discussant, programmata ma non preparata anticipatamente e perciò legata ad un dimensione orale e performativa, a una relazione di Gino Roncaglia dal titolo Storie in rete: la riconquista della complessità, all’interno di un seminario svoltosi all’Università della Tuscia, e incentrato sul rapporto tra storia e media svoltosi nel novembre 2013. La relazione di Roncaglia, anch’essa caratterizzata da una dimensione orale e coadiuvata da un supporto visivo[1], aveva come argomento di partenza le reti telematiche, tematica a prima vista di “basso livello”, più tecnologico che contenutistico, soprattutto se confrontata con quelle delle altre relazioni, spazianti dal cinema alla radio ai videogiochi ai social network, e nonostante ciò incentrata su due concetti astratti, da un lato la frammentazione e dall’altro la complessità dell’informazione presente in rete.
A rappresentare questa dualità le citazioni letterarie poste all’inizio. La prima è l’incipit di Kubla Khan di Coleridge, simbolo per eccellenza della frammentazione così come riporta lo stesso sottotitolo “Or, a vision in a dream. A Fragment.”, essendo composto da solo cinquanta versi dei trecento sognati originariamente, così come descritto in maniera affascinante ed evocativa nel resoconto che ne fece Borges nel breve saggio El sueño de Coleridge, sulla composizione di questo poemetto e sul potere dei sogni[2]. A fare da contraltare alla condizione ontologica d’incompletezza del poemetto la flessibile e, soprattutto, componibile complessità del meraviglioso palazzo del Khan che, composto da materiali leggeri, veniva periodicamente ricostruito a Xanadu, per poi essere disassemblato. Non è un caso quindi come il nome di questa località della Cina, patrimonio dell’UNESCO, sia stato scelto da Theodore Nelson per il suo progetto di sistema ipertestuale globale. Ideato a partire dal 1960, inaugurando quindi gli studi scientifici sull’ipertestualità, questo sistema è ancora in fase di sviluppo essendone stata rilasciata una prima versione nel 1998 e più recentemente, nel 2014, una successiva denominata OpenXanadu[3]; ritmi tali da far sembrare ben poca cosa i diciannove anni passati tra la composizione e la pubblicazione della prima edizione di Kubla Khan, data la velocità del mondo digitale[4].
Opposta alla visione di Coleridge, e anticipando quella di Nelson, l’evocativa esortazione di E. M. Forster in Howards End, al tempo stesso idealistica e pragmatica, del “only connect!”, del non vivere più in frammenti ma coniugare, esaltandoli, ragionamento e passione, del collegarsi agli altri e quindi a se stessi[5]. Connettere, mettere in relazione ciò che è frammentato così da ottenere un disegno d’insieme e un valore informativo superiore alla somma delle singole parti. Naturalmente all’aumentare del numero dei frammenti, e questo è già un aspetto relativo alla complessità da tenere conto (o perlomeno a un certo tipo di complessità: quella definita come computazionale e ben nota alle discipline informatiche), aumenta molto rapidamente il numero di collegamenti possibili insieme alle relative possibilità di organizzazione e presentazione, come dimostrato dall’approssimazione di Stirling, che dà un’idea della velocità di crescita delle possibili permutazioni, calcolate fattorialmente.
Diòscuro della complessità è l’astrazione, la possibilità di selezionare e modellare gli aspetti ritenuti utili a una determinata finalità in maniera implicita o esplicita, ignorando le componenti giudicate superflue o accessorie, laddove naturalmente in altri contesti potrebbero essere considerate rilevanti, andando così a costruire strutture progressive di conoscenza.
Fattore chiave del pensiero, senza questa capacità, combinabile progressivamente in maniera incrementale, non sarebbe possibile utilizzare un computer ignorandone tranquillamente i concetti di logica matematica e di fisica quantistica alla base del funzionamento dei circuiti elettronici o, allo stesso modo, inviare un’email, un tweet, un messaggio di WhatsApp senza dover avere a che fare con la pila di tecnologie sottostanti[6]; pila che si basa proprio su quei processi incrementali di astrazione cui si faceva riferimento e dove ogni livello, che progressivamente va dalla fisicità del trasporto dei bit alla manipolazione logica dei dati da parte di un’applicazione, rispetto a quello adiacente, superiore o inferiore, utilizza solo ciò che gli interessa e rende disponibile solo ciò che può interessare, nascondendo così la complessità dei dettagli implementativi.
Difatti, diversi dei principi enucleati da Tim O’ Reilly nel definire il Web 2.0, tra cui in particolare The Web As Platform, Data is the Next Intel Inside, Lightweight Programming Models e Software Above the Level of a Single Device[7], sono basati sulla possibilità di creare interfacce software, chiamate in gergo API, Application Programming Interface, che permettono di considerare il programma sottostante come una scatola nera, ignorandone quindi totalmente il funzionamento interno e dando la possibilità di concentrarsi esclusivamente su quelli che sono i dati in entrata e quelli in uscita, basati a loro volta su formati standard d’interscambio; in questo modo un qualsiasi programma può essere utilizzato da terze parti non previste originariamente e combinato in architetture informative modulari e stratificate[8].
In un’ideale classificazione evolutiva di astrazione e complessità, resa possibile dalle capacità di automanipolazione del testo elettronico, se il Web 2.0, una piattaforma di applicazioni distribuite, si posiziona ad un ordine di magnitudine superiore rispetto al Web 1.0, il web dei documenti ipertestuali, allora il Web 3.0, il cui principio fondativo è il collegamento non più tra testi o programmi ma tra dati semantici, lo è rispetto al suo predecessore; e sicuramente così sarà anche per il Web 4.0 in cui l’accento sarà probabilmente posto sugli agenti intelligenti che elaboreranno efficacemente i suddetti dati[9]. Riguardo quest’ultimo aspetto, dopo aver avuto un ruolo preminente nell’ormai seminale articolo di Tim Berners Lee pubblicato su Scientific American nel maggio 2001[10], gli agenti intelligenti sembravano essere ormai caduti nel dimenticatoio e costretti a rimanere rinchiusi nei recinti delle applicazioni specialistiche dell’intelligenza artificiale. Prima con la storica, e di elevato impatto mediatico, partecipazione a Jeopardy di Watson, l’IA sviluppata dalla IBM e discendente di Deep Blue, il computer che nel 1997 batté Kasparov a scacchi, e successivamente con la diffusione degli agenti personali sui dispositivi mobili, come Siri, S Voice o Google Now, il loro utilizzo su larga scala sembra essere solo una questione di tempo.
Le stesse azioni che permettevano a un utente a inizio anni ’90 di passare da un documento HTML, rigorosamente statico, a un altro o di effettuare una ricerca sui primitivi motori di ricerca dell’epoca, ora mettono in moto tutta una serie di interazioni sistemiche di cui è facile apprezzarne il vantaggio competitivo in termini di risultati informativi ma, a causa della loro opacità, difficile comprenderne le ramificazioni architetturali.
Un altro aumento progressivo è quello relativo alla quantità e della qualità, non senza considerare l’inevitabile “rumore”, dell’informazione disponibile[11]. Naturalmente questa progressione non è stata affatto monotonica per ciò che concerne i paradigmi utilizzati, anzi in molti casi è stato necessario effettuare uno o più passi indietro per ridurre la complessità e cercare successivamente, se possibile, di riconquistarla. Rispetto alla teoria ipertestuale dell’epoca il sistema progettato da Tim Berners-Lee era una semplificazione, e neppure troppo ben vista dalla comunità scientifica dell’epoca, difatti la proposta An Architecture for Wide Area Hypertext per la conferenza ACM Hypertext ’91 venne rifiutata dagli organizzatori come paper e accettata solamente come poster; tra i vari aspetti, non prevedeva i collegamenti multipli in cui da un singolo nodo di partenza si diramano più archi verso altrettanti nodi di destinazione, limitandosi a link uno ad uno e unidirezionali[12]; oltretutto, la versione effettivamente implementata era un modello semplificato anche nei confronti del suo stesso progetto originale, in cui gli archi tra i nodi erano tipizzati, idea che verrà ripresa nel Semantic Web[13]. Come se non bastasse, in quella che sembra essere una costante, la diffusione su larga scala di quest’ultimo paradigma, dopo quasi un decennio di ricerche e sperimentazioni, è avvenuta anche in questo caso grazie a una riduzione della complessità della visione originaria, in particolare per quel che riguarda la parte relativa alle ontologie, insieme a una ridenominazione del progetto, o se si preferisce un linguaggio orientato al marketing, un brand makeover.
Forse è proprio la mancanza di un equilibro funzionale tra astrazione e complessità a produrre quel surplus di complicazioni che alla lunga rende un sistema difficilmente usabile, costringendo perciò a queste riduzioni. L’astrazione è quindi ciò che rende maneggiabile la complessità permettendone un uso proficuo, in un sottile rapporto di dipendenza e complicità che ricorda quello tra la leggerezza e il peso descritto nell’incipit della prima delle lezioni americane di Italo Calvino: la stessa lezione in cui questi due aspetti vengono paragonati al rapporto tra software e hardware[14].
Successivamente con un’interessante metafora viene paragonato lo sviluppo del web – e parlando di frammenti informativi è singolare come ad essere decisivo per la sua diffusione sia stato proprio un software denominato Mosaic – all’evoluzione sociale umana: dai pionieristici cacciatori/raccoglitori con strumenti tecnologicamente limitati, citando esplicitamente il Gopher, un sistema a interfaccia testuale per la pubblicazione di documenti su Internet alternativo al WorldWideWeb[15], alla nascita dei primi insediamenti urbani del Web ben rappresentati dalla metafora urbana di Geocities, allo sviluppo dell’artigianato e del commercio con la continua circolazioni dei dati del Web 2.0, per finire con le cattedrali digitali dove al posto di sculture, bassorilievi e mosaici a veicolare informazioni sono i LinkedData¸ con Tim Berners-Lee come loro principale predicatore e che, così come Forster, incoraggia la creazione di relazioni tra i dati come fattore principale dello sviluppo. Nel Ted Talk The Next Web del febbraio 2009 e ormai divenuto virale in cui, a partire da una nota scritta qualche anno prima[16], Tim Berners-Lee rilancia con un altro nome il progetto del web semantico e ricorda inoltre lo scenario precedente di soli due decenni caratterizzato da forti barriere tecnologiche per l’acquisizione e il collegamento delle informazioni (corsivo mio): “They [people from all over the world] brought all sorts of different computers with them. They had all sorts of different data formats, all sorts, all kinds of documentation systems. So that, in all that diversity, if I wanted to figure out how to build something out of a bit of this and a bit of this […] I had to connect to some new machine, I had to learn to run some new program, I would find the information I wanted in some new data format And these were all incompatible.” Così come i mosaici nelle cattedrali erano destinati a una fruizione collettiva, a prescindere dal grado d’istruzione individuale, allo stesso modo i dati non possono essere limitati a una singola applicazione o a un numero ristretto, ma devono poter avere la stessa universalità dell’immagine.
L’utilizzo della metafora delle cattedrali rappresenta a livello informativo un riscatto non da poco per queste ultime dopo che l’arcidiacono Frollo ne aveva profetizzato la morte a causa del libro stampato in Notre-Dame de Paris – con quel “Ceci tuera cela”, tanto stringato quanto incisivo, che nelle riflessioni sui nuovi media come quantità di citazioni è secondo solo al dialogo tra Theut e il faraone Thamus nel Fedro di Platone – ed Eric Raymond le aveva utilizzate come modello negativo, caratterizzato da un eccessivo controllo e gerarchie troppo rigide nello sviluppo del software libero, contrapposto al modello decentrato e libero del bazaar[17]. Questo riscatto dimostra come da una condizione epistemologica di contrapposizione si sia passati, in quella che è stata definita come la condizione post-moderna e rappresentata a livello strutturale dal rizoma[18], a una continua interazione tra opposti, in cui elementi di princìpi tradizionalmente considerati come separati si ritrovano ora combinati ricorsivamente, così come nelle strutture frattali.
Testi e conversazioni
La seconda macrounità, incentrata sulla riconquista della complessità, inizia ricordando le molte forme della testualità digitale e di come questa al momento sia fortemente declinata in processi conversazionali grazie alla diffusione del cosiddetto social web[19].
Che tipo di conversazioni sono non tanto permesse, dato gli spesso discutibili ma non certo orwelliani regolamenti, quanto piuttosto quelle che effettivamente e maggiormente si attuano sui social network? Prendendo Facebook come principale punto di riferimento lo scenario non sembra essere certo dei migliori. Più che un mutuale spirito di collaborazione maieutica orientato a un arricchimento reciproco e al raggiungimento di quell’intelligenza collettiva teorizzata da diversi studiosi[20], la dominante sembra essere un costante arroccamento narcisistico, come se la continua e prolungata condivisione di sprazzi di quotidianità, per evitarne la banalizzazione, debba inevitabilmente divenire esaltazione del sé, sfociando quindi in un’affermazione egotica: “all the social media are a stage”.
Wikipedia, Medium, GalaxyZoo, FoldIt e iniziative simili rispondono principalmente a bisogni informativi, o formativi come nel caso dei MOOC come Coursera o edX, veri e propri depositi universali di conoscenza, e sono una chiara dimostrazione di come l’intelligenza collettiva, data una serie di regole tra cui una chiara, seppure non rigida, distinzione dei ruoli e dei compiti, goda di ottima salute. I social in generale e Facebook in particolare, rispondono in primis a bisogni emotivi e comunicativi e hanno quindi una forte componente dionisiaca ed entropica. La logica del racconto, la consapevolezza di assistere e di far parte di una narrazione continua e polifonica, che non può non ricordare As I Lay Dying di William Faulkner, in cui uno stesso evento viene narrato da quindici punti di vista diversi[21], sembra essere l’unico ponte possibile, e meccanismo di quella inevitabile interazione precedentemente citata, tra questi due estremi.
Un’ulteriore conferma dell’importanza del racconto si ritrova nella forma di fruizione assunta dai dati. Il continuo flusso dei social network è composto da schermate di pochi pollici che in realtà sono solo una porzione momentanea di questo volumen apparentemente infinito, così come il nastro della macchina di Turing. Secondo Lev Manovich questo ritorno alla linearità riavvicina i new media alla narrazione dopo che ad essere considerata predominante era stata la logica del database, contraddistinta dalla spazialità e in cui non è possibile individuare chiaramente un inizio e una fine[22]. La timeline è di fatto solo una delle tante possibili interfacce, sebbene una tra le più usabili, e la presenza di un database è sempre necessaria per strutturare i contenuti; la disposizione lineare di questi ultimi, pubblicati originariamente nei singoli profili, è influenzata dalle azioni degli stessi utenti, registrate dall’algoritmo di volta in volta implementato e utilizzate per selezionare, seppure in modalità probabilistica, ciò che verrà mostrato in futuro[23]. Sui social oltre a creare continuamente il nostro racconto, influenziamo anche ciò che fruiamo e di cui al tempo stesso facciamo parte, in un meccanismo che non può non ricordare il paradosso di Schrödinger.
La fruizione, sincronica e condivisa, dei contenuti di questo flusso, oltre a richiamare la modernità del flâneur, dà una sensazione esperienziale di un eterno presente, la stessa dimensione temporale che contraddistingue le società a trasmissione orale e in cui non a caso proprio il racconto era la forma principale di condivisione e conservazione di tutte quelle regole e informazioni fondamentali per la sopravvivenza sia individuale sia collettiva[24].
Similarmente all’assetto conoscitivo delle società orali, ad essere privilegiati sono i contenuti paratattici, possibilmente con una forte componente visiva, ed è difficile non pensare alla vasta diffusione dei vari social memes, da Willy Wonka ai recenti fenomeni di Osho o del principino George, in cui l’atto comunicativo, così come nella gag umoristica, è di fatto sincronico e beneficia del doppio canale comunicativo testo/immagine, in cui spesso è proprio il contrasto cognitivo ad essere alla base della loro efficacia.
Questa dimensione sincronica dei meme ben si sposa con l’eterno presente dei social che di fatto annulla quell’intervallo temporale fisiologico necessario a far diventare commedia la tragedia; ed ecco perché, rarissime eccezioni a parte riguardanti i tabù invalicabili, anche di fronte ad episodi preoccupanti e complessi, se non addirittura tragici, compaiono immediatamente meme in cui sia l’avvenimento in sé sia le possibili conseguenze vengono sbertucciate e portate a un livello prosastico. Tale fenomeno va anche visto come una forma di difesa emotiva rispetto al gran numero di eventi cui si è collettivamente continuamente sottoposti e su di cui non si ha nessun tipo di controllo; i meme hanno in questo modo una funzione di mediazione , ridimensionamento e accostamento alle esperienze quotidiane e familiari di ciò che è distante e incontrollabile, ma l’indifferenziazione mediatica mostra come prossimo e tangibile. Anche in questo caso una possibile soluzione è una maggiore consapevolezza del racconto, dei suoi meccanismi, dei diversi livelli di granularità o magnitudine di un evento, e di come ogni nodo narrativo sia una combinazione di consequenzialità e contingenza, così da riuscire a collocare nella giusta prospettiva i vari eventi e riconquistare quella dimensione storico/diacronica sottostante ogni forma di progresso.
Anche la ridondanza, ulteriore tratto distintivo delle società orali, è una caratteristica che si ritrova nei social, seppure il fenomeno di condivisione diffusa di uno stesso contenuto, e spesso connotato da diverse interpretazioni, abbia spesso un movimento a onda, con un’intensità elevata concentrata in un breve intervallo temporale cui segue una scomparsa pressoché totale. Infine, il tono degli scambi è prevalentemente agonistico ed enfatico[25].
All’appello tra i tratti distintivi delle società orali sembra mancare l’omeostasi, ma a ben vedere questa condizione si declina a livello individuale piuttosto che collettivo[26]. Il sovraccarico informativo mette in moto dei meccanismi protettivi che schermano il sistema cognitivo individuale, rendendo più difficile l’acquisizione di nuove informazioni, le quali dovranno per non cadere nell’oblio, superare un processo selettivo decisamente più rigoroso rispetto al passato; selezione che idealmente dovrebbe essere basata su un allenato quanto flessibile senso critico. Al momento però sembrano essere decisamente altri i fattori discriminati, principalmente la capacità di confermare e non interferire con ciò che è stato precedentemente incamerato. Di conseguenza, parafrasando un detto sulla scarsa attitudine a controllare i risultati nella seconda pagina di Google, il miglior posto per nascondere un cadavere è tra i post della settimana precedente.
Altra similitudine con la cultura orale, decisamente più preoccupante, è la difficoltà non solo dei cosiddetti nativi digitali, definizione da tempo considerata come semplicistica e riduttiva[27], ma anche da parte di quel sottoinsieme non trascurabile della popolazione adulta classificabile con l’abusata ma efficace etichetta di analfabeti funzionali[28], di comprendere ed effettuare ragionamenti complessi.
Una spedizione di ricerca effettuata negli anni ’30 del secolo scorso nelle remote zone dell’Uzbekistan e della Kirghizia, dimostrò come i contadini analfabeti o a bassa alfabetizzazione fossero in grado di compiere solo ragionamenti contingenti e situazionali, mancando del tutto sia la capacità di astrazione, di cui abbiamo precedentemente sottolineato l’importanza, sia di utilizzo dei più basilari meccanismi logici, come l’uso dei due principali quantificatori, universale ed esistenziale[29]: contingenza e situazionalità sono, non a caso, gli stessi tratti distintivi delle conversazioni sui social media.
Ad essere totalmente diversa, ma rafforzando al tempo stesso questa situazione di continua contingenza, è invece la modalità di fruizione. Nella cultura orale e in quella testuale pre-gutenberghiana la fruizione era fondamentalmente di tipo intensivo – così come dimostrato dal finale di Fahrenheit 451, nell’adattamento cinematografico di François Truffaut, in cui Guy Montag fa la conoscenza degli “uomini libro”, intenti a ripetere continuamente il testo che sono stati incaricati di ricordare, affinché possa essere tramandato – divenendo successivamente estensiva con l’invenzione della stampa[30], ha ora come dominante proprio quella frammentazione di cui ci stiamo occupando. Aforismi, brani di romanzi, spezzoni di film e serie tv sì significativi ma orfani di contesto e integrità: sembra essere questa la specie dominante nell’attuale ecosistema informativo. A ben vedere è una reazione all’information overload: alla sovrabbondanza di scelte possibili, e alle relative risorse necessarie da impiegare di tempo e impegno mentale, si reagisce prediligendo la velocità di fruizione e la sensazione di aver colmato un vuoto informativo, evitando così di rimanere bloccati come l’asino di Buridano o i filosofi a tavola di Dijkstra.
Di fronte a questo scenario non certo incoraggiante è utile ricordare la famosa legge di Sturgeon e il relativo corollario, enunciata dallo scrittore di fantascienza Theodore Sturgeon, sulla proporzione numerica tra ciò che è inevitabilmente spazzatura e ciò che invece è caratterizzato da un effettivo valore qualitativo, tralasciando, per ovvi motivi, i criteri di definizione di tale valore; rapporto purtroppo a sfavore del secondo gruppo con uno squilibrio di nove a uno. Curiosamente, e probabilmente all’insaputa dello stesso Sturgeon, la stessa proporzione era già stata descritta da Benjamin Disraeli quasi novant’anni prima (corsivo mio): “Books are fatal: they are the curse of the human race. Nine-tenths of existing books are nonsense, and the clever books are the refutation of that non-sense. The greatest misfortune that ever befell man was the invention of printing.” [31]
Non è certo impossibile trovare su Facebook discussioni articolate in cui argomenti non banali vengono affrontati con spirito critico non indifferente, e in cui i vari partecipanti beneficiano della possibilità di richiamare contenuti esterni. È sempre presente una certa tendenza verso i due atteggiamenti dominanti e opposti di queste conversazioni sociali, il dating e il flaming. Questa polarizzazione è più facile da capire se si considera l’esposizione sui social come una forma di narrazione più o meno consapevole di sé. Dato questo presupposto, insieme all’impossibilità di un racconto di ammettere contraddizioni, pena la fine del patto implicito riguardo la suspension of disbelief, è ora comprensibile come le uniche alternative possibili siano o andare a supporto di ciò che conferma la nostra narrazione o in caso contrario controbatterla. Tutto ciò senza dimenticare componenti tipici della post-modernità quali il narcisismo e l’autoreferenzialità[32]. Queste appena elencate sono le condizioni necessarie di questo continuo dialogo collettivo, in cui confronti una volta ristretti a circoli culturali, scambi epistolari, o colonne di giornali, sono sì finalmente accessibili, ma inevitabilmente contaminanti con le conversazioni degli imbecilli al bar, per usare il celebre paragone usato da Umberto Eco alla domanda sul ruolo dei social[33].
Tra i tanti casi possibili, due esempi di discussioni non banali sono quelle sviluppatesi sui profili facebook di Alberto Abruzzese e Gino Roncaglia. La prima incentrata della chiusura della rivista Pagina 99 e sulla necessità di scelte culturali più estreme e coraggiose per poter trovare il proprio spazio commerciale in un panorama editoriale sempre più omologato[34]. La seconda parte da una riflessione sui dati Nielsen del 2014 che continuano a riportare cali preoccupanti dei lettori di libri per spostarsi sul tema del rapporto tra lettura e contenuti digitali[35]; da questa discussione è nato poi un ebook, o meglio un instant ebook, che integra una selezione riveduta e corretta dei commenti al post originario con dei materiali scritti appositamente[36].
Sulla base di questi due esempi si può affermare come per i contenuti digitali, e nello specifico social, sembri valere ciò che Scott McCloud scrisse più di vent’anni fa riguardo il medium fumetto in Understanding Comics (corsivo mio): “Sure, I realized that comic books were usually crude, poorly-drawn, semiliterate, cheap, disposable, kiddie fare – but – they don’t have to be!”[37]. Quindi, nonostante la sua tendenza alla velocità e alla granularità – caratteristiche a ben pensarci condivise con il fumetto, di cui non a caso si parla di natura ipertestuale e multisensoriale, oltre alla capacità di bilanciare nella sua forma narrativa quei due aspetti di linearità e spazialità precedentemente citati[38] – l’informazione digitale non è certo costretta a una dimensione frivola della leggerezza, osteggiata da Calvino e dovrebbe bensì tendere verso il suo opposto, la leggerezza della pensosità. Sempre utilizzando le lezioni americane come metro di paragone, Humans of New York[39] è progetto di Brandon Stanton iniziato nel 2010 e tutt’ora in corso, declinato in un blog, una pagina facebook, un profilo twitter e instagram, una web series e un libro, che incarna tutti i punti tratteggiati dal noto scrittore: oltre alla leggerezza, la rapidità, l’esattezza, la visibilità e la molteplicità. Una foto e circa mille battute di testo descrivono di volta in volta una persona diversa tra i milioni di abitanti della metropoli americana. La capacità di Stanton di delineare con efficacia l’unicità di ogni umano di New York ritratto, in quelli che di fatto sono miniracconti, gli ha permesso di raccogliere un notevole seguito e numerosi riconoscimenti[40]. Un aspetto in particolare va sottolineato: nei commenti di ogni post della pagina Facebook di Humans, nell’ordine delle migliaia, la polarizzazione delle opinioni e le discussioni accese sono ridotte al minimo se non del tutto assenti, come se la storia in quel momento collettivamente discussa e condivisa fosse una sorta di collante emotivo in grado di attenuare il bisogno di autoaffermazione e di scontro.
Le caratteristiche intrinseche del medium computazionale possono e devono essere sfruttate per ottenere l’effetto opposto alla sensazione di disordine e incompletezza spesso associatigli; altrimenti non si spiegherebbe come mai l’ipertesto, nel momento della sua diffusione su larga scala, sia stato salutato come lo strumento ideale per rappresentare la complessità delle edizioni critiche, le quali, a causa della loro natura metatestuale, spingono al limite le possibilità dell’oggetto informativo libro. Considerazioni di questo tipo, oltre che oggetto di studio e propugnate da tempo a livello scientifico[41], iniziano a comparire anche nell’editoria generalista. In un articolo pubblicato sul The Guardian Billy Mills scrive (corsivo mio): “The book was, we can now see, crying out for the invention of the web, which would enable the holding of multiple domains of knowledge in the mind at one time that a proper reading requires. […] Maybe Joyce’s multiple concurrent layers of meaning and rejection of linearity need hypertext and online reading habits to open them up to a wider audience.”[42]
Questi continui riferimenti al libro e alla stampa, tratto comune sia all’articolo di Mills sia all’argomento di fondo dei post di Abruzzese e Roncaglia, sembrano però indicare come un utilizzo proficuo del medium digitale possa avvenire solo in presenza di un recupero della galassia Gutenberg, quando al contrario ciò che ci interessa è una sua autonomia conoscitiva e non certo dipendente esclusivamente dal passato. La discriminante sembra essere un’altra, ossia la trasposizione di modelli cognitivi sviluppati precedentemente: in questa fase di transizione chi è in possesso di una formazione basata principalmente sul libro, se supera le ritrosie verso il nuovo mezzo riesce ad utilizzarlo in maniera vantaggiosa. Al contrario chi si basa sul modello televisivo, e in particolare su di un certo tipo di televisione commerciale in cui predominano le logiche mediatiche dell’esagerazione e della prevaricazione, lo replica pedissequamente sui social, trovando in essi sia un terreno fertile sia un pubblico cui precedentemente non aveva possibilità di accesso, e di cui al tempo stesso ne fa parte, passando immediatamente e senza nessuna transizione intermedia e fisiologica, da una posizione di spettatore passivo ad un ruolo attivo.[43]
Dati tutti questi fattori la soluzione ai nodi cruciali, più che problemi, dell’informazione digitale deve passare attraverso una maggiore consapevolezza della complessità sottostante lo strumento computazionale, del suo statuto ontologico. Non a caso quando i computer erano caratterizzati da interfacce utente decisamente meno amichevoli che costringevano a conoscerne i princìpi base, i problemi attualmente associati all’informazione digitale erano decisamente meno rilevanti, certo senza tralasciare fattori come la minore base d’utenti e pervasività d’uso.
A questa consapevolezza va coniugato l’uso di appositi strumenti in grado di gestire e rappresentare la complessità. Durante la relazione da cui siamo partiti sono stati citati Tweetdeck[44], che permette di avere visualizzazioni multiple e personalizzabili della timeline di Twitter, e Storify[45], per creare narrazioni a partire dai contenuti granulari disponibili sulle varie piattaforme, tra cui Facebook, YouTube e il già citato Twitter: non è certo un caso come TweetDeck e Storify corrispondano rispettivamente a quei due princìpi di spazialità e linearità più volte incontrati in queste riflessioni. Uno strumento in grado di coniugare questi due aspetti è Hypothes[46], in quanto permette di annotare una pagina web aggiungendo profondità ai contenuti presenti; si potrebbe obiettare come questa funzione non sia molto diversa dai commenti di Facebook, ma in realtà le differenze sono determinanti. Oltre a richiamare l’attività scientifica del glossare, grazie al plug-in di Hypothes è possibile poter selezionare una porzione specifica di una generica risorsa web testuale, solitamente più stabile di un post e con un maggiore interesse collettivo. Inoltre aiuta non poco come le annotazioni siano guidate più da logiche informative che emotive, in quanto slegate da una diretta rappresentazione di sé. Come esempio significativo, le più di 150 annotazioni presenti sulla versione online del celebre articolo di Nicholas Carr, Is Google Making Us Stupid?sulle conseguenze negative a livello cognitivo sull’uso della rete[47], danno una diversa prospettiva e profondità alle argomentazioni di Carr, che vengono sia espanse e approfondite sia controbattute; ciò conferisce al lettore un ruolo attivo, in quanto spinto ad effettuare una propria personale sintesi tra il discorso del testo principale e le annotazioni, in maniera decisamente più forte di quanto farebbe in assenza di queste ultime.
Conclusioni
Sul rapporto tra il libro a stampa, i nuovi media e la capacità di elaborare ragionamenti strutturati verticalmente, chi scrive vorrebbe concludere ricordando un episodio in particolare: nella primavera del 2009, durante una presentazione di un progetto della British Library all’Università di Leicester, incentrato sulla creazione di uno spazio fisico in cui tutta l’informazione accessibile sarebbe stata digitale, con particolari interfacce di fruizione, da schermi touch ad ambienti immersivi, un professore emerito di letteratura inglese finita la presentazione fece la seguente osservazione: da un lato la generazione per cui il libro è stato il supporto informativo principe è in grado di effettuare ragionamenti complessi ma non riesce a far propri i meccanismi del web, dall’altro i nativi digitali, definizione da usare sempre con cautela, hanno evidenti difficoltà con i suddetti ragionamenti, ma si muovono agilmente nei nuovi spazi informativi. Va da sé come uno scenario che preveda the best of both worlds, ossia una capacità di strutturazione non banale del pensiero, insieme alla possibilità di recuperare rapidamente i tasselli necessari o potenzialmente aggiungibili, valutandone seppure intuitivamente la validità, con quella modalità definita come euristica, è un qualcosa di estremamente auspicabile e su cui i programmi educativi di ogni ordine e grado, per usare un’espressione familiare, dovrebbero concentrarsi.
Vanno perciò individuate quelle caratteristiche, di fatto sottese in tutto questo articolo, che il libro, in particolare nella sua forma-saggio, aiuta a sviluppare, provando a renderle in qualche modo indipendenti da questo medium. Una possibile definizione è come un saggio sia una concatenazione narrativa di argomentazioni basate su determinate premesse con lo scopo di dare una dimostrazione di una teoria o descrivere un particolare fenomeno. Ragionamento e racconto sembrano essere gli ingredienti principali di ciò che il libro veicola e a ben vedere corrispondono a due princìpi alla base della nascita e dell’evoluzione dei calcolatori, ossia la logica da un lato, con Gödel, Turing e la definizione di cosa fosse o no computabile, e la linguistica dall’altro, con le grammatiche di Chomsky e lo sviluppo dei linguaggi di programmazione. Non è forse un caso allora come Vannevar Bush in As We May Think[48] sottolinei l’importanza della logica, partendo dalle ricerche degli scienziati per includere attività come il lavoro degli insegnati, in tutte quelle situazioni in cui si abbia a che fare con macchine in grado di interpretare e produrre dati, descrizione quest’ultima applicabile ad un qualsiasi smartphone. Conoscere i meccanismi logici, i principali operatori e cosa contraddistingue un ragionamento valido da una fallacia, è uno strumento utile in tutte quelle sempre più frequenti occasioni in cui i social vengono utilizzati a scopo propositivo/argomentativo, con un sovente uso di retorica ed enfasi.
Allo stesso modo, acquisire una conoscenza delle strutture e degli artifici del racconto permette di comprendere quando vengono utilizzati per veicolare idee non del tutto corrette, sia dal punto di vista etico sia logico; inoltre, un’ulteriore conseguenza di un’attitudine e di una sensibilità nei confronti del racconto, soprattutto se coniugata a un’attività non solo di fruizione e decodifica bensì creativa, permette di sviluppare una maggiore empatia insieme alla capacità di assumere punti di vista diversi dal proprio.
Logica e narrazione sono perciò quelle abilità di base necessarie per usare proficuamente gli ambienti digitali social senza esserne travolti, e data la natura simbolica e universale della prima e le varie flessioni multicodicali della seconda, in cui ritroviamo il fumetto, sono di fatto indipendenti dall’oggetto libro. Ça va sans dire quest’ultima osservazione va letta come una provocazione, ma se proprio si vuole fare a meno dei libri, tesi a dir poco senza senso, va fortemente incoraggiato lo sviluppo con altre modalità di queste due abilità, insieme al loro uso congiunto, in quanto fondamentali per poter partecipare attivamente e proficuamente al discorso pubblico online, mitigandone le tendenze negative.
Per concludere, è forse proprio il fatto di aver vissuto a cavallo tra le galassie Gutenberg e Google a permettere di apprezzare maggiormente, seppure con tutte le criticità di cui abbiamo parlato, insieme a numerose altre, questa possibilità di accesso informativo istantaneo su dispositivi sempre più maneggevoli e connessi, superando le limitazioni imposte dalla fisicità analogica; caratteristica, quest’ultima, che probabilmente non sarebbe dispiaciuta neppure a Petrarca, in particolare nel novembre del 1352, quando fu costretto ad interrompere il suo viaggio e a tornare a Valchiusa per paura che la forte pioggia rovinasse irrimediabilmente i suoi amati e inseparabili codici.
[1] G. Roncaglia, Storie in rete: la riconquista della complessità, 2013, http://prezi.com/lio2ttf9jtvm/storie-in-rete-la-riconquista-della-complessita/. La presentazione realizzata tramite Prezi, si basa sul quel concetto di infinite canvas teorizzato da Scott McCloud (S. McCloud, Reinventing comics. How imagination and technology are revolutionizing an art form, Perennial Edition, New York 2000 ), e permette perciò di creare spazi navigabili di contenuti superando così il formato delle slide tradizionali. Da un lato le potenzialità di Prezi ben si sposano al concetto di narrazione tramite strumenti digitali, (W. Roush, «Life After PowerPoint: Prezi Zooms Ahead in Digital Storytelling» in Xconomy, 23/5/2013, http://www.xconomy.com/national/2013/05/10/life-after-powerpoint-prezi-zooms-ahead-in-digital-storytelling/., dall’altro declinano quella tensione tra linearità e spazialità che è un forte sottotesto di tutte le riflessioni sul rapporto tra testualità e ipertestualità. Inoltre la possibilità di aumentare o diminuire il dettaglio della presentazione si collega al concetto di frammento e al suo acquisire significati specifici a seconda del contesto.
[2] J. L. Borges, Otras Inquisiciones, Sur, Buenos Aires 1952.
[4] G. Wolf, «The Curse of Xanadu» in Wired, 3.06, 1995, http://www.wired.com/1995/06/xanadu/.
[5] Metà oscura ideale di questa esortazione è il prologo del racconto di H. P. Lovecraft «The Call of Cthulhu» pubblicato nel 1928 sulla rivista The Weird Tales e che illustra efficacemente la visione cosmicista dello scrittore di Providence: “The most merciful thing in the world, I think, is the inability of the human mind to correlate all its contents. […] The sciences, each straining in its own direction, have hitherto harmed us little; but some day the piecing together of dissociated knowledge will open up such terrifying vistas of reality, and of our frightful position therein, that we shall either go mad from the revelation or flee from the light into the peace and safety of a new dark age.”
[6] Il modello ISO/OSI. Vedi http://it.wikipedia.org/wiki/Modello_OSI.
[7] T. O’Reilly, «What Is Web 2.0: Design Patterns and Business Models for the Next Generation of Software» in O’Reilly, 2005, http://www.oreilly.com/pub/a/web2/archive/what-is-web-20.html.
[8] Il sito ProgrammableWeb è una delle guide più complete all’elevato numero di API e relative applicazioni disponibili, fornendo inoltre un servizio di news e di analisi del mercato.
[9] G. Roncaglia, Computer che copiano: test di Turing, web corpora e filtraggio collaborativo, in Per il centenario di Alan Turing fondatore dell’informatica. Convegno (Roma, 22 novembre 2012), a cura di T. Orlandi, Accademia Naz. dei Lincei, Roma 2004.
[10] T. Berners-Lee, J. Hendler, O. Lassila, The Semantic Web» in The Scientific American, maggio 2001, pp. 34-43.
[11] Su questo aspetto è interessante effettuare una riflessione parallela. In una prima fase del Web, all’incirca collocabile nel suo primo decennio di vita, in cui la diffusione della banda larga era limitata e gli strumenti digitali per la creazione di oggetti informativi dotati di scarse se non nulle funzionalità di interscambio dei dati, rispetto al mainstream l’informazione online era quasi esclusivamente connotativa, e denotativa solo nel caso non avesse trovato spazio nei canali ufficiali e perciò generalmente considerata di scarso rilievo se non per nicchie estremamente limitate. Questa distinzione è andata progressivamente scomparendo ed ormai è presente sul Web la quasi totalità dell’informazione attualmente prodotta, sia essa testuale, audio o video; addirittura l’online è la modalità di fruizione preferita di quei contenuti la cui realizzazione ha una componente tecnologica rilevante, come le serie tv. Un’ulteriore conseguenza è come sia ormai difficile separare un qualsiasi oggetto informativo dalla rete in cui è inserito. Allo stesso modo i social network erano in un primo momento connotativi rispetto alla realtà, basti pensare alla possibilità offerta da Facebook, rispetto ad altre piattaforme social, di poter condividere le foto e taggare chi vi fosse ritratto, per diventarne mano a mano parte integrante, rendendo difficile distinguere tra figura e sfondo, causa ed effetto in questo continuo intreccio tra reale e virtuale, fino al paradosso in cui qualcosa succede veramente solo se può essere condivisa online, e più ha valore quanto più è alto il suo indice di gradimento, misurabile oggettivamente tramite il meccanismo delle reactions, tra cui l’ormai celebre like.
[12]G. Landow, Hypertext, Johns Hopkins University Press, Baltimore 1992. Il fondamentale testo di Landow ha avuto due edizioni successive, naturalmente espanse ed aggiornate, con un’aggiunta al titolo del suffisso 2.0 nel 1997 e 3.0 nel 2006.
[13] T. Berners-Lee, Information Management: A Proposal, 1989, http://www.w3.org/History/1989/proposal.html.
[14] “È vero che il software non potrebbe esercitare i poteri della sua leggerezza se non mediante la pesantezza dell’hardware; ma è il software che comanda, che agisce sul mondo esterno e sulle macchine, le quali esistono solo in funzione del software, si evolvono in modo d’elaborare programmi sempre più complessi.” I. Calvino, Lezioni americane. Sei proposte per il prossimo millennio (1988), Mondadori, Milano, p. 12.
[15] Per una descrizione sommaria delle differenze vedi W3 vs WAIS and Gopher.
[16] T. Berners-Lee, The Next Web, TED Talk 2009, http://www.ted.com/talks/tim_berners_lee_on_the_next_web; T. Berners Lee, Linked Data, 2006, http://www.w3.org/DesignIssues/LinkedData.html.
[17] E. S. Raymond, The Cathedral and the Bazaar, O’Reilly Media, New York 1999. Una traduzione italiana del saggio originale, espanso poi in monografia, è disponibile sul sito dell’editore Apogeo.
[18] J. F. Lyotard, La Condition postmoderne. Rapport sur le savoir, Éditions de Minuit, Paris 1979; G. Deleuze, F. Guattari, Mille Plateaux, Éditions de Minuit, Paris, 1980.
[19] Questo aspetto sul rapporto tra processi e conversazioni digitali viene approfondito in G. Roncaglia, «Social network e riconquista della complessità: il ruolo della biblioteche» in Biblioteche Oggi, 5(32), 2014, http://www.bibliotecheoggi.it/rivista/article/view/110.
[20] P. Lévy, L’Intelligence collective. Pour une anthropologie du cyberespace, La Découverte, Paris 1994.
[21] W. Faulkner, As I Lay Dying, Cape & Smith, New York 1930.
[22] L. Manovich, Data stream, database, timeline (part 1), 2012, http://lab.softwarestudies.com/2012/10/data-stream-database-timeline-new.html.
[23] Per un’introduzione agli algoritmi di Facebook vedi la descrizione dell’EdgeRank, l’algoritmo utilizzato fino al 2011.
[24] M. Baldini, Storia della comunicazione, Newton & Compton Editori, Roma 2003, p. 21.
[25] Ivi, p. 15-18.
[26] Ibid.
[27] N. Selwyn, «The digital native – myth and reality», in Aslib Proceedings, 4 (61), 2009, pp. 364 – 379.
[28] T. De Mauro, La cultura degli italiani, Laterza, Roma-Bari 2010.
[29] S. Luija, The Making of Mind: A Personal Account of Soviet Psychology, Harvard University Press, Cambridge (MA) 1979. Vedi in particolare il quarto capitolo, Cultural Differences in Thinking.
[30] M. Baldini, Storia della comunicazione, cit., p. 71.
[31] B. Disraeli, Lothair, Longmans, Green & Co, London 1870, p. 276.
[32] C. Lash, The Culture of Narcissism, Norton, New York 1979.
[33] «Umberto Eco e i social: “Danno diritto di parola a legioni di imbecilli”» in RepTv, 11/05/2015, http://video.repubblica.it/tecno-e-scienze/umberto-eco-e-i-social–danno-diritto-di-parola-a-legioni-di-imbecilli/203952/203032.
[36] AA. VV., Letture, contenuti e granularità, Ledizioni, Milano 2014, http://ledibooks.com/lettura/.
[37] S. McCloud, Understanding Comics, Tundra Publishing, Northampon (MA) 1993, p. 3.
[38] M. Pellitteri, Sense of comics. La grafica dei cinque sensi nel fumetto, Castelvecchi, Roma 1998. Inoltre, nonostante la recente diffusione e interesse per il visual storytelling, le potenzialità del fumetto per contenuti di natura principalmente informativa sono ancora scarsamente utilizzate, a parte rare eccezioni come le collane For Beginners e The Manga Guides.
[40] A. Girolami, «10 motivi per cui Humans Of New York è il miglior sito del mondo» in Wired, 6 novembre 2014, http://www.wired.it/internet/web/2014/11/06/10-motivi-per-humans-of-new-york-miglior-sito-mondo/.
[41] S. Hockey, Electronic Texts in the Humanities, Oxford University Press, Oxford, 2000.
[42] B. Mills, «Finnegans Wake – the book the web was invented for» in The Guardian, 28/4/2015, http://www.theguardian.com/books/booksblog/2015/apr/28/finnegans-wake-james-joyce-modern-interpretations.
[43] N. Postman, Amusing Ourselves to Death: Public Discourse in the Age of Show Business. Methuen Publishing, London 1985.
[47] N. Carr, «Is Google Making Us Stupid» in Atlantic Monthly, luglio/agosto 2008, http://www.theatlantic.com/magazine/archive/2008/07/is-google-making-us-stupid/306868/.
[48] V. Bush, «As We May Think» in Atlantic Monthly, luglio 1945, http://www.theatlantic.com/magazine/archive/1945/07/as-we-may-think/303881/.