Le frontiere del web
Il web 2.0
Il 1° maggio 2007 il sito Digg.com, fondato tre anni prima da Kevin Rose, diffuse la notizia che un codice di sicurezza dei formati DVD ad alta definizione (HD-DVD) e Blu-ray era stato decrittato, identificando implicitamente l’autore della notizia con l’hacker. Ciò determinò una reazione a catena, per cui i circa 80 blog che ne parlavano quella mattina la sera erano diventati 3000. Nel giro di qualche giorno, trecentomila utenti avrebbero visualizzato un video su YouTube riguardante il codice che avrebbe permesso di eludere la protezione dei nuovi DVD. Tale evento contribuì alla crescita e alla diffusione del sito, che nello stesso anno raggiunse i 200 milioni di utenti.
Le maggiori società video, coinvolte nel progetto di quei formati, insorsero e la direzione di Digg.com venne accusata legalmente di diffondere informazioni che avrebbero leso i loro affari. Rose, dopo averla rimossa subitaneamente nel timore di contenziosi gravosi, ripropose la news sostenendo che il sito era solo uno spazio di pubblicazione di notizie votate dagli utenti, e pertanto non aveva infranto nessun codice e nessun copyright, né tantomeno invitato qualcuno a farlo.
La notizia, ormai rimbalzata su molti blog e social networks, consentiva a milioni di utenti l’accesso a quel codice. La causa legale dell’associazione che ne tutelava i diritti sarebbe diventata troppo complessa e onerosa, e perciò venne ritirata. Il popolo della rete aveva siglato un successo contro le multinazionali.
Questo caso ha riproposto in misura minore, ma più efficace rispetto ai nuovi ambienti del web (blog e social networks), uno scontro simile avvenuto nel 1999, quando venne pubblicato Napster, l’applicativo che permetteva la condivisione di file musicali tra utenti della rete, e che avrebbe inaugurato la stagione del download di beni protetti da copyright. In quel contesto, la situazione fu ancora più complessa, anche perché Napster dette luogo a una miriade di imitazioni. Tuttavia l’esito fu analogo e, pur continuando le case discografiche a promuovere e revisionare cause legali, più del 90% dello scambio di materiale in rete oggi avviene fuori dal controllo di chi ne detiene i diritti.
La grande differenza rispetto ai casi tradizionali di conflitti tra una multinazionale e un piccola azienda, o una piccola collettività, è che nel web le dimensioni di una comunità non sono misurabili, in quanto il successo di un programma o di una notizia può in brevissimo tempo estenderla notevolmente. Basti pensare che la rete Internet ha oggi più di 1,2 miliardi di utenti, e si stima una crescita che consentirà di raggiungere i 2 miliardi prima del 2015. Queste cifre stravolgono sia le leggi del mercato sia quelle della giurisprudenza, inventando nuovi ruoli e nuove formule sociali e culturali che, da un lato, frenano il potere dei colossi dell’industria informatica e dell’intrattenimento e, dall’altro, alimentano anche epifenomeni tipici della cultura di massa.
Gli esempi qui segnalati seguono i dettami delle nuove parole chiave del web, partecipazione e collaborazione, che consentono e favoriscono le dinamiche di diffusione e aggregazione di risorse. In sintesi, quello che è stato definito il web 2.0, un’espressione diventata in poco tempo di uso comune.
Il termine è stato coniato da Dale Dougherty e Craig Cline, e diffuso in un famoso intervento alla O’Reilly media web 2.0 conference del 2004 (uno dei più importanti incontri annuali dedicati alle tendenze della rete, e presieduto dallo stesso guru del web Tim O’Reilly). Secondo questa accezione, il web 2.0 non nasce tanto dall’applicazione di tecnologie rivoluzionarie (ed è questo il punto maggiormente sottoposto ai critici che non credono in una divisione con il web precedente, o 1.0), ma da un diverso modo di vivere e di interpretare la rete, come nel caso dell’evento descritto in apertura. Certo, queste nuove modalità presuppongono nuovi strumenti, tendenti a valorizzare le forme e i contenuti tipici del web 2.0, ma non si tratta di invenzioni radicalmente nuove.
Forse, l’unica vera rivoluzione del web 2.0, o meglio di tutta la piattaforma di rete in cui è inserito, è quella di aver promosso una convergenza tra la rete e l’altro grande nuovo medium degli ultimi decenni: il cellulare. Una convergenza tecnologica che sta provocando diversi sconvolgimenti nelle strategie di molte multinazionali, alla ricerca di contenuti e servizi opportuni che siano tangenziali e comuni ai diversi assets. Un fenomeno ancora confuso, in cui non è ben chiaro se sia opportuno conservare alcuni caratteri dei vecchi media, oppure creare hopeful monsters, ossia mutazioni imprescindibili dalla nuova nicchia tecnico-evolutiva, nella quale, tuttavia, saranno essenzialmente esaminate le trasformazioni dei media tradizionali della comunicazione e dell’informazione, ovvero quelli che, seppur arricchiti di video e immagini, sono ancora legati al testo, inteso come risorsa fondamentale. Una caratteristica che la rete ha reso mutabile e interattiva, pur conservandola ancora oggi come nucleo centrale di molte sue applicazioni (si pensi ai motori di ricerca o all’enciclopedia Wikipedia capofila delle risorse condivise). L’informazione in rete si è comunque stratificata: fino agli anni Novanta del 20° sec. esisteva fondamentalmente un’informazione generalista, nei siti dei quotidiani on-line, e una specialistica nei newsgroups, molto particolareggiata e divisa per argomento. Quest’ultima, sebbene continui a resistere e sia ancora molto seguita, specialmente nei domini hobbistici (per es., nei videogame e nell’informatica), ha lasciato i volumi maggiori di visite ai blog. Si tratta della cosiddetta blogosfera (che comprende, oltre ai blog, forum, newsgroups e social networks), bacino d’intervento dei singoli utenti che si sta evolvendo verso aggregati più strutturati: le comunità virtuali, il fenomeno più controverso e di moda del web 2.0. Piuttosto sfuggenti per natura a una definizione, tali comunità (social networks) comprendono sia ambienti che accolgono gruppi di persone che interagiscono tra loro (per es., Facebook), sia aggregatori di risorse condivise (per es., YouTube per i video, Flickr per le immagini) sia portali di tipo corporative, in cui la comunità è quella raccolta attorno a un prodotto o agli interessi di una società che la incentiva e la sostiene.
Denominatore comune di tutti i social networks è la partecipazione, che esprime una tendenza dell’utente a essere meno passivo nei confronti del web e a usufruire delle informazioni in maniera più sistematica e cosciente. Per es., mentre nel web 1.0 l’utente cercava informazioni e persone attraverso motori di ricerca generici, nei social networks l’informazione, o meglio il bene, è già accessibile a tutti all’interno dell’ambiente stesso (può essere un servizio, come l’ascolto di un brano musicale, oppure un bene economico, come i linden dollars nell’economia di Second life, una comunità virtuale di avatar in 3D). Entrare a far parte di una comunità significa già avere la speranza di essere accolto da un circolo di persone candidate a condividere gli stessi interessi. È un po’ come recarsi al bar del quartiere, a una mostra d’arte o a un concerto, con alcune differenze e vantaggi che giocano a favore del mondo virtuale, dove il contatto è meno casuale e meno disturbato dal rumore di fondo della vita reale. Senza dubbio, esistono fattori riduttivi ben visibili tra la vita reale e quella virtuale, ma occorre tener conto che molti social networks nascono già come complemento ed estensione della prima, per cui la rete fondamentale del gruppo di amicizie di un utente è già stata stabilita e semmai viene allargata. La comunità diventa, in questa maniera, un serbatoio di comunicazione simile al telefono o alla macchina del caffè dell’ufficio: ossia il privato che apre dei varchi all’interno del pubblico, con in più la possibilità di condividere in diretta nuove scoperte musicali, trailer di nuovi film o altro, ossia di interagire con tutte le risorse multimediali che mette a disposizione la rete.
Un altro aspetto fondamentale del web 2.0 è quello di avere a disposizione una vasta quantità di contenuti testuali (libri, news, enciclopedie), video e audio, in formato elettronico. Questi contenuti sono altresì raggiungibili molto più agevolmente rispetto al passato, specialmente grazie a connessioni wireless, gratuite in diversi spazi pubblici (significativa, per es., la grande copertura del progetto WILMA, Wireless Internet and Location Management Architecture, del Comune di Trento, che comprende le vie principali della città). Fondamentalmente, nel web 2.0 si possono trovare molte somiglianze con i servizi che tradizionalmente appartengono alla società reale; basti pensare agli sportelli virtuali aperti al cittadino dei siti di e-government, all’accesso ai cataloghi di molte biblioteche e servizi pubblici, o ancora alle modalità per accedere a finanziamenti collettivi. Significativi, da questo punto di vista, i contributi alla campagna elettorale del 2008 di Barak Obama negli Stati Uniti, e la nascita di organizzazioni non-profit per combattere il cosiddetto digital divide (il divario tecnologico tra Paesi dominanti ed emergenti), sostenute da enti internazionali come l’UNESCO (United Nation Educational Scientific and Cultural Organization) e da multinazionali private dell’informatica.
Sei gradi di separazione
Questa estensione delle comunicazioni del mondo reale dà l’impressione che ognuno si possa mettere in contatto con tutti, non solo teoricamente, ma anche in maniera concreta. Un fenomeno che pone l’interrogativo se questo sia un miraggio della rete, oppure se nel mondo reale ne esistano già le condizioni. La questione è stata affrontata da diversi punti di vista, dapprima in ambito sociologico e poi socioeconomico e sociomatematico, e si denomina con esplicito riferimento alla pièce teatrale Six degrees of separation (1990) di John Guare, portata poi sul grande schermo dall’omonimo film diretto da Fred Schepisi (1993; Sei gradi di separazione). In queste due opere viene esplorata la congettura che ognuno nel mondo possa relazionarsi con qualsiasi altro, attraverso una catena composta al massimo da sei livelli di congiunzione. L’opera teatrale, con un misto di ironia e dissacrazione, trattava anche di due fenomeni secondari, ma che sarebbero emersi nel web: il cambiamento d’identità e la simulazione di parentele con personaggi famosi, giocata sulla casualità degli incontri.
L’affermazione della rete ha dato nuovo impulso agli studi sociologici sulla comunicazione che avevano attraversato tutto il secolo scorso, a partire dalle utopie degli anni Venti sulla potenza connettiva della radio. La crescita degli studi sulla comunicazione globale aveva avuto un picco alla fine degli anni Sessanta, in un periodo in cui, grazie alla diffusione dei voli intercontinentali e delle immagini via satellite, veniva predetto un mondo incredibilmente connesso. Le analisi si focalizzavano sul concetto di rete sociale, social network (quello reale ovviamente, da cui prende spunto il nome dato al fenomeno virtuale attuale): valutazioni di strutture sociali in cui individui, gruppi o organizzazioni fossero legati tra loro da qualche tipo di interdipendenza (per es., politica, amicale, professionale, geografica). Coadiuvate da nuove teorie matematiche sui grafi (informalmente una rete di nodi dotati di connessioni in tutte le direzioni), le teorie sui social networks predicevano alcuni aspetti interessanti: tramite una piccola moltiplicazione locale dei legami, era infatti possibile ridurre molto le distanze tra punti remoti. In sintesi, se nel nostro gruppo di amicizie locali conosciamo qualcuno in più, si è avvantaggiati nella possibilità di entrare in contatto con persone utili ad ampliare i nostri orizzonti, ossia con persone che ci potrebbero consentire, per es., la conoscenza di un eschimese o del presidente degli Stati Uniti.
L’idea di far parte di un mondo, latentemente molto più connesso di quanto si creda, ha avuto conferme nel cosiddetto esperimento del piccolo mondo (small world experiment), grazie al quale il sociologo Stanley Milgram (1933-1984) dimostrò che, nonostante ognuno tenda ad avere prevalentemente relazioni con pochi altri, questo non impedisce di ottenerne nuove con qualsiasi altro elemento di una rete sociale (J. Travers, S. Milgram, An experimental study of the small world problem, «Sociometry», 1969, 32, 4, pp. 425-43).
L’esperimento consisteva nel mettere in contatto persone scelte casualmente in due città degli Stati Uniti (Omaha, in Nebraska e Wichita, in Kansas) con altre residenti in una città lontana sia geograficamente sia socialmente (Boston). I mittenti avrebbero cercato di spedire lettere a un certo numero di destinatari: nel caso già li conoscessero, avrebbero dovuto scrivere loro direttamente (1° livello di separazione), altrimenti avrebbero dovuto scrivere a chi, nella cerchia dei loro amici e parenti, avrebbe potuto più facilmente entrare in contatto con i destinatari. E così via fino a giungere a destinazione. Molte lettere non arrivarono mai al termine della catena (l’80% di quelle spedite), ma quelle che arrivarono detenevano una media di 5,5 passaggi tra il primo mittente e l’ultimo destinatario.
Nel 2001 Duncan J. Watts, professore alla Columbia university, usò la posta elettronica per simulare, trent’anni dopo, l’esperimento di Milgram, potendo contare questa volta su numeri ben più grandi: 60.000 mittenti, 18 destinatari finali, sparsi in 13 città diverse. Anche questo esperimento dimostrò che il numero dei passaggi era tra 5 e 7 (il nuovo esperimento aggiunse anche importanti informazioni rispetto alla tipologia dei legami e rispetto ai livelli socioculturali delle persone coinvolte; P.S. Dodds, R. Muhamad, D.J. Watts, An experimental study of search in global social networks, «Science», 2003, 301, 5634, pp. 827-29). Inoltre, una cifra sempre vicina a sei è stata riscontrata in molte reti di tipologia diversa (per es., reti autostradali, pipelines petrolifere ecc.).
Sebbene siano state mosse diverse critiche alla scientificità di questi esperimenti – come la scelta della lunghezza dei percorsi, o la possibilità di usufruire di un ragionamento da parte delle persone che sceglievano i nodi promettenti – il fatto che il numero sei rimanga stabile anche quando entrano in gioco nodi non umani, ma solo costruiti dall’uomo, rimanda a una regola euristica di una certa affidabilità e utilità. Nel mondo reale, dove regnano vincoli quali il tempo e lo spazio, e dove le persone muoiono o si allontanano, la congettura dei six degrees presuppone il vincolo che le azioni siano sì estese ma limitate nel tempo. E tutto ciò offre resistenza in termini di copertura (le ‘lettere mai arrivate’ del primo esperimento). Le prestazioni invece migliorano in una rete logica progettata per funzionare in maniera praticamente sincrona (tutti, in ogni luogo, sono connessi contemporaneamente) come il web. Questa, a proprio vantaggio, non detiene soltanto tempi di navigazione molto brevi, ma anche tempi di progettazione e realizzazione molto più rapidi rispetto a reti fisiche come quella stradale o quella dell’energia elettrica, le quali rispondono a loro volta alla congettura citata in precedenza (per es., un nuovo raccordo permette di raggiungere molto più in fretta un’autostrada). Nelle reti delle relazioni umane il fenomeno è ovviamente più complesso, sia perché possono esistere link positivi e negativi (conoscere una persona ‘sbagliata’ può creare difficoltà a entrare in contatto con quelle ‘giuste’) sia perché i percorsi non sono quelli sottesi da una rete fisica, come quella di un oleodotto, ma sfumati e dotati di molti più gradi di libertà. Tuttavia, l’aspetto che emerge, e che il web conferma, è circostanziato da quelle macrocaratteristiche medie, che permettono sia la veloce espansione di alcuni fenomeni sia altresì la loro regolarizzazione, sebbene presi uno a uno siano diversi tra loro e apparentemente casuali. Wikipedia, l’enciclopedia collaborativa che ha iniziato a diffondersi nel 2004, offre un interessante esempio di questi principi.
L’aspetto cruciale di Wikipedia è che ognuno può scrivere o correggere una voce dell’enciclopedia. Per farlo, non occorre essere membro di una redazione o di un comitato scientifico, che esiste solo con funzioni di alto livello. Si sarebbe invitati a pensare, utilizzando il senso comune, che ognuno possa scrivere quel che vuole, con il risultato di far perdere ogni credibilità alle voci. Ma questo non è accaduto. Per quanto ampiamente criticata come modello rischioso di organizzazione della conoscenza, e sebbene le voci di Wikipedia siano spesso essenziali e scritte con lo stile asettico dei manuali di informatica, queste mantengono una qualità accettabile di attendibilità.
È stato statisticamente rilevato che una nuova voce, piena di errori e incongruenze, viene corretta nel giro di poche ore, o comunque segnalata, grazie a qualcuno che la rileva e ha tempo e preparazione sufficienti per intervenire, correggerla o magari informare il comitato del quantitativo eccessivo di errori. Il correttore interviene in quanto vincolato dalla legge dei sei gradi di separazione, che in Wikipedia agisce a più livelli: quello della rete dei nodi delle voci (e dei mutui rimandi tra esse) e quello della rete degli utenti che collaborano, a sua volta costituitasi come social network. La proliferazione dei link tra le voci diminuisce le distanze, per cui è più probabile che il revisore si imbatta nella voce da correggere. D’altro canto, la moltiplicazione dei contatti tra gli utenti delle comunità che stanno fiorendo all’interno di Wikipedia coopera verso lo stesso obiettivo.
Tutto questo non sembrava possibile nel decennio scorso, sebbene le tecnologie di base fossero già tutte disponibili (Wikipedia non ha bisogno di nuove infrastrutture né di grande banda di trasmissione). Fondamentalmente mancavano il numero di utenti connessi, quindi quello dei possibili redattori, e la cultura collaborativa, tipica dei social networks. Per concludere, una volta nate le condizioni, è stato sufficiente uno strumento software di editoria collaborativa, semplice e maneggevole come il wiki (l’unità funzionale e redazionale di Wikipedia, che ne controlla lo sviluppo), per consentire a una rete casuale di utenti di formare un network con un progetto comune.
A questo punto sorgono due interrogativi, che hanno rilevanza (specialmente il primo) per gli eventi più importanti del web nella sua crescita degli ultimi anni: qual è la soglia oltre la quale un social network cresce a dismisura sfruttando la legge dei six degrees, mentre molti non raggiungono la soglia minima di crescita, per morire in breve tempo? E quale è invece la soglia di collasso, raggiunta la quale l’organizzazione attuale non è più sufficiente a far fronte all’innesto di nuovi nodi e connessioni?
Le domande non hanno una risposta semplice né assoluta; tuttavia, alcuni fenomeni del web possono essere sufficientemente formalizzati da potersi tradurre in leggi matematiche. Albert-László Barabási è un fisico e matematico diventato famoso proprio per le sue ricerche innovative nello studio delle reti di tipo real-world come il web (ossia di grande interazione con il mondo reale, e con forti implicazioni sociali ed economiche). Secondo questo autore, la rete è governata dalla cosiddetta legge di potenza, in base alla quale moltissimi nodi (nello specifico, pagine web) hanno pochi link, mentre pochi hubs (ossia siti concentratori con moltissimi link in entrata/uscita come i classici portali di directory dei motori di ricerca) ne hanno moltissimi (Barabási 2002). La rete cresce senza collassare perché è regolata da una curva di stabilità strutturale tra gli hubs e i nodi comuni. E queste regolazioni seguono un andamento tipico di comportamenti di ampio spettro: da quelli biologici nelle colonie di microrganismi, alle relazioni sociali umane. Le leggi di potenza rappresentano il ritorno all’ordine della casualità statistica rappresentata matematicamente dalla curva a campana gaussiana. Facciamo un esempio: il rapporto tra nodi e link della rete, nel suo sviluppo primordiale, ubbidiva a leggi distributive casuali, e si sarebbe presto involuto se non fossero stati ideati i nodi concentratori, per raccogliere in un elenco gli altri nodi (ossia gli hubs) che hanno rappresentato l’ossatura portante del web. Non c’è da stupirsi che si sia pensato a siti che collezionavano gruppi di indirizzi suddivisi per tema. La storia del commercio è ricca di questi interventi: basti pensare agli elenchi telefonici, sorti alla fine dell’Ottocento, per supplire alla crescita del numero di utenti, o ai cataloghi di prodotti venduti per corrispondenza sempre in quel periodo. La rete però aveva una marcia in più: ogni elenco di possibili connessioni (indirizzi) rappresentava a sua volta una risorsa di connessione. Questo avveniva grazie alla struttura logica di una pagina web: poter puntare a N altre pagine ed essere puntata da M altre; ossia la corretta struttura a grafo necessaria alla rete per potersi espandere molto velocemente. Cosa che non avevano le strutture precedenti della rete Internet fino ai primi anni Novanta, ossia i nodi BBS (Bulletin Board System) e gli alberi di nodi Gopher, che ne avevano consentito un’espansione molto lenta.
Queste leggi astratte devono, comunque, confrontarsi con schemi concreti di carattere economico: un fattore fondamentale per la sopravvivenza di un sito è, banalmente, quello di sostenere i propri costi di gestione e di arricchire i proprietari. In altre parole, possedere un valido modello di business. In un mondo come il web, che si sostiene in gran parte su proventi pubblicitari e su strategie finanziarie di investimento per nuovi progetti, rivenduti in seguito a prezzi basati sulle potenzialità future di fatturato, molte iniziative indipendenti hanno breve durata, a meno che non siano assorbite da grandi gruppi. Mentre Wikipedia sembra essere dotata di un modello economico di autosostentamento (sovvenzioni, finanziamenti, ma soprattutto bassi costi di gestione), questo non avviene per molti social networks collaborativi del web 2.0, in particolare quelli che propongono filmati video condivisi (in cui ognuno può inserire risorse video sia amatoriali sia filmati professionali).
Questa situazione può essere esemplificata attraverso i problemi che affliggono il portale YouTube, nato nel 2005 non tanto grazie a idee rivoluzionarie, quanto a investimenti di decine di milioni di euro ottenuti da venture capitalists, che hanno sostenuto gli elevati costi tecnologici dell’iniziativa nella sua fase di start up. La spiegazione di questi costi di gestione è l’utilizzo di tecnologia video sharing e video streaming (ossia la possibilità che molti utenti vedano contemporaneamente e con continuità i video del sito): essenzialmente un’enorme banda di trasmissione. Costi che, in questi anni, sono unitariamente diminuiti di poco, mentre il sito è cresciuto molto. Se poi si aggiungono i pagamenti del copyright di molti video ufficiali, l’instabilità della situazione è evidente: più utenti usano YouTube, che è gratuito, più cresce il rapporto tra costi e guadagni (dovuti essenzialmente alla pubblicità degli investitori che, in questo caso, non copre i costi di gestione). Il modello economico che YouTube attua oggi è in deficit di circa mezzo miliardo di dollari l’anno.
Questi aspetti, a seguito anche della recessione in corso dal 2008, hanno frenato in parte gli entusiasmi sugli investimenti attorno ai portali delle comunità virtuali, il cui modello di business è sostanzialmente quello di persuadere gli utenti a navigare per creare traffico all’interno della propria comunità. Del resto, le opportunità commerciali ottenute dai contenuti (non durevoli) a pagamento, così comuni e abituali nel mondo reale, come l’acquisto del quotidiano o l’abbonamento pay per view a una TV satellitare, non sembrano ancora oggi avere grandi esiti sul web, se non in settori particolari.
La carta contro il bit
L’episodio di Napster, citato in apertura del saggio, che ha dato avvio alla possibilità di scaricare abusivamente contenuti digitali protetti da copyright, ha dimostrato che tali contenuti, almeno a lungo termine, non hanno più un valore economico in sé. Inoltre, hanno svelato una realtà implicita nella volatilità stessa di ogni contenuto digitale: il supporto fisico non è più necessario. Sebbene, negli anni Ottanta e Novanta, i contenuti dei CD fossero già digitali, e teoricamente fruibili senza la vendita del supporto fisico (il disco ottico), quest’ultimo rimaneva indissolubilmente legato alla memorizzazione delle informazioni. Il fattore che sosteneva questa evidenza era la separazione tra il player (ossia lo strumento per ascoltare la musica o visualizzare un video) e il disco (o il nastro): si trattava di oggetti fisici distinti e beni economici di mercati dipendenti. Una divisione ereditata da tutte le tecnologie locali di ascolto e visione che hanno attraversato il secolo scorso (dove locale era sinonimo di durevole e permanente, mentre remoto lo era di volatile e non riutilizzabile, come ben dimostrano radio e televisione). Nel 21° sec. queste regole non valgono più.
La grande scommessa della sottrazione del puro contenuto dal suo supporto nativo non ha accompagnato l’avvento del digitale negli anni Ottanta, ma è stata lanciata vent’anni dopo. Tanto è stato necessario perché siano diventate efficienti due tecnologie del mondo dell’informatica: le memorie di massa a basso costo (hard disk) e le linee di comunicazione veloce. Questi aspetti, sommati alla diffusione del nuovo formato MP3, e alla conseguente vendita di lettori MP3 più piccoli, capienti e robusti del vecchio lettore portatile CD, forniranno definitivamente ai contenuti musicali uno statuto proprio e indipendente. Di qui a qualche anno sarà la volta di quelli video, e i tempi sembrano in parte pronti per dividere il primigenio dei supporti dal più antico dei contenuti, ossia la carta dal testo.
La notizia pubblicata il 16 marzo 2009 dal «Financial times» riguardo la morte di alcune testate storiche del giornalismo statunitense, e alla crisi economica in cui versano molti quotidiani, tra cui il «The New York times», non è che il capitolo più recente di una progressiva decadenza della carta stampata causata dai nuovi orientamenti del pubblico: testate on-line, blog e, molto più limitatamente, free press. Di sicuro, il monitor di un PC non è adatto a letture impegnative, ma soddisfa mediamente le esigenze di una rassegna veloce, considerando che l’informazione on-line ha diversi vantaggi: è gratuita, può disporre di strumenti automatici di ricerca, ed è capace di adeguarsi alla cultura di massa diffusa dal web, che ha miniaturizzato il tempo di lettura dell’informazione, riducendola al formato di un post (l’unità delle news all’interno di un blog).
Sebbene non si possa parlare di una radicale separazione tra editoria cartacea ed editoria on-line, il web dell’ultimo decennio, soprattutto a causa dell’aumento di dimensioni dell’utenza abbonata alla rete, ha portato notevoli cambiamenti. Sono così sorte le versioni gratuite dei quotidiani on-line, più fashion e immediate da fruire: un mélange tra notizia ridotta, estensione alla blogosfera, una discreta dose di video-gossip, fino a sfruttare nuove occasioni come quella dello shopping on-line. Ma i cambiamenti sono più profondi, specialmente se estendiamo la panoramica anche al mondo dei libri. Nel settore editoriale del web si sono aggiunti nuovi operatori, come gli editori che oltrepassano tutte le fasi di realizzazione, distribuzione e vendita tradizionali, offrendo agli autori la possibilità immediata di pubblicare le proprie opere. Queste vengono proposte in una vetrina virtuale sia per la vendita sia per la stampa nella formula del print on demand (con la quale non è più necessario stampare un numero di copie iniziali, e distribuirle presso le librerie, in quanto è lo stesso acquirente a richiederne direttamente la stampa, la quale gli viene poi recapitata a domicilio). La stessa formula del print on demand si presta, inoltre, a essere integrata con altri nuovi servizi diffusi di recente dal web: il recommending e la customization.
Il primo consiste nel suggerimento automatico degli oggetti che potrebbero ricadere nella sfera dei gusti dell’utente (una strategia commerciale che ha fatto la fortuna del più grande bookshop on-line, Amazon). Il secondo implica, essenzialmente, la personalizzazione della risorsa (per es., molti social networks adattano le pagine alle caratteristiche dei profili degli utenti). Per tornare al discorso sui quotidiani, la personalizzazione comporterebbe la selezione degli articoli o delle rubriche mirate agli interessi di un particolare lettore. E la raccomandazione implicherebbe la scelta pubblicitaria dei soli prodotti che potrebbero interessarlo. Due iniziative che il gruppo statunitense Media news ha già annunciato nella formula print on demand.
La scelta di un quotidiano a uso e consumo del singolo utente, che in campo editoriale è ancora sperimentale, sfrutta un’opportunità che il web 2.0 ha diffuso: i feeds. Si tratta di modalità di formattazione nate per uniformare certi contenuti, in origine disomogenei perché rispondenti al formato proprietario del sito (per es., le news di «la Repubblica» rispetto a quelle del «Financial times»).
Grazie ai feeds (i più diffusi sono quelli di tipo RSS, Really Simple Syndication) è possibile raccogliere notizie appartenenti a canali multipli, aggiornarle automaticamente e integrarle nel proprio browser di navigazione (in breve, chiunque può montarsi il proprio giornale elettronico a partire da notizie derivate da fonti diverse). Il loro funzionamento è semplice a tal punto che c’è da stupirsi che non abbiano avuto un forte impatto già agli albori del web. Consideriamo un caso tipico: un servizio di informazioni, per es. un giornale on-line, rilascia il contenuto della pagina web da navigare in due formati, quello standard e, tramite un indirizzo URL (Uniform Resource Locator), un formato (xml) meno invitante per essere visualizzato, ma senza dubbio più semplice per essere trattato. L’unità minima di questo formato è il feed (che corrisponde a una news o una sua parte). Un aggregatore di feeds, che può essere sia un applicativo locale sia un servizio web, raccoglie questi contenuti gestendone l’aggiornamento e l’eliminazione. Molti aggregatori permettono, ormai, una personalizzazione dell’interfaccia utente (per es., nella formula dashboard) in maniera tale che l’utente stesso possa decidere cosa vedere, in che ordine, e con quali opzioni grafiche.
La facilità di manipolazione di un giornale elettronico, però, non corrisponde oggi a un’altrettanta praticità ed economicità d’uso del corrispettivo cartaceo, che rimane vincolato alle vecchie leggi. Una stampante efficiente per il print on demand ha ancora prezzi elevati (per il singolo utente), e il controllo dell’impaginazione e della qualità di stampa non è ancora un processo completamente automatico. Del resto, i vantaggi del mondo on-line si riducono se vengono fatti affiorare i limiti delle tecnologie di visualizzazione usate, LCD (Liquid Crystal Display) o Plasma, inadatte a una lettura facile e riposante, oltre che vincolate a uno schermo e a un’unità di controllo che, sebbene ormai piatti e leggeri, rimangono sempre delicati e ingombranti, quindi poco pratici nell’uso portatile.
Dopo alcuni tentativi di scarso esito commerciale alla fine degli anni Novanta, i tempi appaiono ormai maturi per una soluzione alternativa che sommi i benefici nati con l’editoria on-line alla semplicità d’uso del mondo cartaceo. Stiamo parlando dell’e-book, un lettore digitale di testi e immagini che sembra proprio la novità tecnologica determinante, in quanto utilizza il cosiddetto inchiostro elettronico (e-ink). Si tratta di una tecnologia a display che cerca di simulare l’aspetto dell’inchiostro sul foglio di carta. Infatti, lo schermo dell’e-ink non è retroilluminato come quello dei display LCD, ma riflette la luce. Tale prerogativa permette una lettura in qualsiasi condizione, quindi anche in pieno sole, molto più facile e riposante rispetto al monitor di un portatile o di un cellulare. Non solo, è possibile anche leggere su schermi flessibili in quanto l’elettronica e le dimensioni dell’e-ink sono molto più semplici e duttili di quelle degli schermi LCD. La tecnologia è tuttavia giovane: gli schermi degli e-book in commercio nel 2009 presentavano 16 toni di grigio e il tempo di refresh dello schermo appariva più lento degli attuali LCD.
Il lettore di e-book può comunque adottare tutte le funzioni e i gadget tipici degli smartphones contemporanei, innanzitutto il chip telefonico e le porte per connettersi alle reti non cablate, come la Wi-Fi (Wireless Fidelity). A vantaggio delle promesse del nuovo mercato della carta elettronica gioca oggi anche l’ingresso di grandi operatori del commercio editoriale on-line (primo tra tutti Amazon, che ha lanciato di recente la nuova versione del suo e-book reader), e la diffusione di reti wireless che consentano un pratico e agevole scaricamento dei testi stessi, nel formato elettronico, in qualsiasi punto l’utente si connetta. Senza dubbio il libro tradizionale, in quanto oggetto non solo dotato spesso di una fisicità di culto, ma soprattutto legato a un diverso modo di consultazione e di studio, costituisce una realtà difficilmente sostituibile e non favorisce l’entrata in scena degli e-book. Ma per quanto riguarda tutto il mercato dei prodotti volgarmente detti usa e getta, rappresentato nel nostro Paese fondamentalmente dai libri acquistabili nelle edicole, l’e-book annuncia diversi vantaggi. Quando potrà essere dotato di uno schermo a colori (previsto tra 3 anni) e di una maneggevolezza che oggi non detiene ancora, potrà contare sia su costi molto più bassi di produzione e vendita (verrebbe eliminata la carta, l’immagazzinamento e i trasporti del distributore tradizionale, oltre al punto vendita), sia su tutte le particolarità e le convenienze della piattaforma di rete.
La collaborazione
La rete, fin dal periodo precedente l’avvento del web e addirittura di Internet negli anni Settanta, ossia quando si presentava sotto forma di piccole reti geografiche che connettevano via linea telefonica comunità altamente specializzate e motivate (le cosiddette BBS), ha sempre avuto un’anima anarcoide e libertaria. Le parole d’ordine erano quelle di proporre uno strumento accessibile a tutti, in cui ognuno, almeno potenzialmente, poteva far sentire la propria voce presso un pubblico vasto e remoto.
Gli echi di questo atteggiamento sono rimasti ben saldi in quella nicchia di professionisti della rete che sono i programmatori, i progettisti, gli artefici della tecnologia, ossia coloro che sono dietro al web. Grazie a questi personaggi, continuano a sorgere iniziative legate al free software e agli open source movements. Si tratta di organizzazioni che promuovono e distribuiscono risorse gratuite, specialmente in ambiti tecnicamente specialistici, come quello dei sistemi operativi e degli ambienti/linguaggi di programmazione, permettendo quindi a tutti, almeno potenzialmente, di cimentarsi nei nuovi spazi lavorativi ruotanti attorno alla rete e al web. Molti casi di successo di tecnologie e di aziende software degli ultimi anni sono avvenuti in quegli ambiti, premiando il carattere artigianale e imprenditoriale della one-man-company o del piccolo gruppo di individui, spesso studenti universitari se non addirittura liceali (come nel caso dell’inventore di Napster, lo statunitense Shawn Fanning).
Di recente, il mondo dei social networks ha iniziato a strutturarsi anche da punti di vista propri delle piattaforme tecnologiche, seguendo l’atteggiamento open che abbiamo appena tracciato. Lo spirito di queste piattaforme è quello del software detto open social che si rivolge al mercato delle terze parti, ossia agli sviluppatori esterni, affinché vengano migliorate le performances e aggiunte nuove funzioni nei social networks. Questi ultimi, nell’attuale fase di trasformazione, sembrano assumere la forma di ambienti aperti di sviluppo, come lo erano stati il linguaggio Java e il sistema operativo Linux nell’informatica tra gli anni Ottanta e Novanta. Con la differenza che i social networks non sono costituiti solo da software, ma sono innanzitutto grandi reti di persone e di contenuti. È in atto, quindi, un notevole cambiamento rispetto ai paradigmi dell’informatica del passato, dove i programmi tendevano a essere separati dalle basi di dati o dai profili utente (che semmai giungevano in un secondo tempo, come personalizzazione in un ambito ben preciso, per es. il sistema di paghe e contributi di una certa azienda). Ora, invece, gli applicativi delle terze parti tendono a immergersi in una rete dove le informazioni sono già contenute, e gli utenti già connessi; non solo, agiscono per creare nuove modalità di comunicazione e accogliere nuove utenze (mentre anche solo nel web del decennio scorso, l’aumento d’interesse per un sito nasceva da un’iniziativa centrale, e non dalle interazioni tra gli utenti stessi). Il richiamo al general intellect, termine di cui alcuni sociologi della rete si sono serviti per descriverne i meccanismi, è esemplificativo di questa tendenza.
Merito di queste strategie di interazione è ancora una volta il collaborative software, una vera e propria sottodisciplina che si sta amplificando notevolmente, sotto le spinte del nuovo web. Nei social networks, queste modalità agiscono su percorsi meno evidenti ed esposti al pubblico non esperto, a differenza di quelli orientati all’edificazione di un grande progetto comune e preciso, come Wikipedia. Si tratta, però, degli aspetti più promettenti del web 2.0, come, per es., le folksonomies e il social bookmarking. Le folksonomies, diffusesi con i siti di contenuti condivisi (come YouTube per i video, Flickr per le immagini statiche), sono insiemi di parole chiave (tags), decise dallo stesso utente che vuole esporre un contenuto e lo vuole caratterizzare (come indicatori vengono spesso utilizzati gli argomenti e i temi principali del contenuto, in maniera tale che possa essere trovato e fruito da tutti). Possono essere viste come una forma alternativa ai motori di ricerca (localmente al sito in oggetto), in cui non è il sistema automatico che indicizza un certo contenuto (ossia la classifica per poterlo far emergere in una ricerca), ma l’utente stesso che lo detiene.
L’utilizzo di questi tags personalizzati può essere anche esteso alle applicazioni che raggruppano gli indirizzi dei siti web preferiti (bookmarks) che, solitamente, vengono utilizzati come memo all’interno dei browsers dell’utente. Se queste liste di bookmarks diventano pubbliche, possono dar luogo a gruppi omogenei di indirizzi preferiti. Una sorta di campionamento delle scelte sociali degli utenti nel web che, se ben organizzato, potrà servire per associare parole chiave a gruppi di indirizzi (social bookmarking). In pratica, si tratta di un motore di ricerca globale sul web, che estende quanto detto rispetto alle folksonomies.
L’effetto di questi nuovi tools è che, nei siti che promuovono e organizzano contenuti di tipo condiviso, non esiste più un organismo centrale (generalmente l’amministratore del sito o dell’archivio) il quale classifica le pagine e i contenuti per parole chiave o, ancora, un insieme di algoritmi, come quelli adottati da Google, ma sono gli stessi utenti a consigliare. Anche in questo caso, come abbiamo mostrato prima con Wikipedia, le divergenze e gli errori vengono ridotti: sebbene chiunque possa classificare un contenuto come più gli piace, quindi anche con termini inadatti, le folksonomies tenderanno, comunque, a mettere in evidenza i temi più importanti e numerosi, a patto che i contenuti e gli utenti siano molti.
Il fenomeno sta crescendo e condizionando le tecniche di searching più diffuse. Da questo punto di vista, è da rilevare la nascita di sistemi ibridi, proprio a partire dalle recenti iniziative intraprese dal motore di ricerca più diffuso (Google), che ha proposto una personalizzazione (detta search-wiki) a cui può contribuire chiunque effettui una ricerca. L’utente stesso potrà intervenire sia cambiando l’ordine dei risultati di una ricerca sia aggiungendo commenti. Un effetto che non rimarrà isolato nel computer di chi ha eseguito la ricerca, ma condizionerà anche quelle successive degli altri utenti.
In definitiva, si annuncia una sorta di riconquista umana del controllo di una piattaforma enorme ed eterogenea come il web, la quale, nella sua fase iniziale, aveva agito in maniera opposta, privilegiando le tecniche puramente automatiche e allontanando e sottovalutando l’apporto di chi se ne serviva.
Pregi e difetti
La rete rappresenta oggi il terreno migliore per proporre un antico conflitto: quello tra determinismo utopico (basato sulla convinzione che l’innovazione tecnologica faciliti il progresso) e distopico (fondato sull’ipotesi che il progresso disumanizzi la nostra società o, comunque, che l’oro promesso luccichi facilmente, ma nasconda un versante in ombra tacito e pericoloso). Perfino Umberto Eco, uno dei precursori in Italia della cultura umanistica in formato digitale, affronta criticamente la rete Internet in una sua raccolta di articoli del 2006 (contenuti nel volume A passo di gambero. Guerre calde e populismo mediatico), inserendola tra i fenomeni emergenti che stanno contribuendo a un’involuzione socioculturale, a una marcia indietro rispetto ad alcune conquiste del secolo scorso. Eco non si riferisce, ovviamente, alle innovazioni scientifiche della rete, che in questa sede abbiamo tracciato, ma a quei fenomeni di sottocultura, come il chiacchiericcio vuoto e ripetitivo di molte chat-line, la pornografia e il gran rumore di massa della comunicazione sul web, che vengono inseriti nel calderone dei peggiori effetti delle tecnologie a portata di tutti.
È ovvio che il web risenta di molti mali e degenerazioni della cultura contemporanea ma è, comunque, uno strumento che offre informazioni e servizi a tutti, tra cui diffusione di opere culturali a prezzi molto bassi, sistemi di formazione a distanza (e-learning), utili specialmente per le centinaia di milioni di persone che vivono in Paesi in via di sviluppo, iniziative istituzionali dedicate alla medicina, atte a migliorare il dialogo medico-paziente, a facilitare la gestione burocratica di visite e analisi, con l’obiettivo finale di effettuare visite remote (telemedicina).
L’importante è separare i vizi e i rischi di un’eterogenea comunicazione globale, quale il web rappresenta, dai benefici, come quelli degli strumenti collaborativi e di nuove economie di scala che possano contribuire a una più efficiente società civile.
Bibliografia
A.-L. Barabási, Linked. The new science of networks, Cambridge (Mass.) 2002 (trad. it. Torino 2004).
J. Battelle, The search. How Google and its rivals rewrote the rules of business and transformed our culture, New York-London 2005 (trad. it. Milano 2006).
D. Tapscott, A.D. Williams, Wikinomics. How mass collaboration changes everything, New York-London 2006 (trad. it. Milano 2007), nuova ed. London 2008.
T. Burrows, Blogs, Wikis, MySpace, and more. Everything you want to know about using web 2.0 but are afraid to ask, Chicago 2007.
B.L. Jones, Web 2.0 heroes. Interviews with 20 web 2.0 influencers, Indianapolis 2008.
A. Shuen, Web 2.0. A strategy guide, Beijing 2008 (trad. it. Milano 2008).
F. Metitieri, Il grande inganno del web 2.0, Roma-Bari 2009.