Web design
Il web design è un settore ibrido per eccellenza, per vari motivi: intreccia differenti discipline, ma soprattutto si evidenzia come una pratica di scrittura e, allo stesso tempo, come un’attività di configurazione. Si parla normalmente di web-architecture, per es., e tutta la terminologia è allora intrisa di portali e piazze elettroniche, per non parlare della nozione stessa di sito. Anche l’interfaccia ha a che vedere con l’idea di facciata. E questo quando del web si vogliano cogliere i caratteri strutturali, diremmo statici, e distributivi; ma nell’immaginario del web è molto presente anche la terminologia della mobilità, che ci parla di processi soggettivi, progressivi e dinamici: vi si trovano termini come navigator, explorer e simili. Spazio ma anche tempo. Il web design assume però contemporaneamente un carattere ‘terzo’, di disciplina trasversale – diciamo così – di servizio: si occupa infatti di come fare affiorare e di come porgere contenuti prodotti da altri e informazioni da data-base, e li presenta graficamente. Non solo graficamente, ma, come vedremo, in versione multimediale. In altre parole, se il design di interfacce consisteva in prima istanza nel dare forma alla metaforica membrana osmotica che ha luogo fra oggetto e utilizzatore, successivamente il web design si è concentrato su come mostrare informazioni di provenienza anche lontanissima e svariata sullo schermo del nostro personal computer.
Oggi il web design sta però vivendo una profonda trasformazione, legata ai cambiamenti tecnologici che hanno investito gli strumenti informatici, con il trasferimento delle tecnologie digitali e ICT (Information and Communication Technologies) nel campo, per non dire addirittura nel corpo, degli oggetti tecnici e degli oggetti d’uso. A questo punto, per es., risulta sempre più difficile – si pensi al wearable computing – anche solo isolare la membrana osmotica di cui parlavamo, senza vederla intrecciata e distribuita nella rete degli oggetti che costituiscono l’ambiente in cui viviamo.
Non sarà forse che nel giro di qualche lustro, così come è nato e si è sviluppato, il web design è giunto oggi alla propria estinzione?
Una definizione
Con web design si intende la progettazione di artefatti comunicativi – o, se usiamo una terminologia informatica – di applicativi fruiti da utenti finali sul world wide web, per mezzo di un browser o di un altro software basato su tecnologie web. Questo tipo di progettazione – che ha per oggetto pagine, siti e applicazioni web – è per sua natura multimodale, in quanto manipola i diversi ingredienti che vanno a costituire le tecnologie mediali (per es., font e calligrafie, e poi filmati, foto, disegni, illustrazioni, schemi e icons; ma anche: parlato, musica, canto, rumori ed earcons; o perfino: dinamismi, cinetismi, gestualità e mimiche), coinvolgendo così una gamma di attività operative appartenenti a diverse branche della comunicazione, quali il design grafico, l’immagine coordinata, l’architettura delle informazioni o infodesign, la tipografia, la fotografia, l’animazione, la human-computer in-teraction, e molte altre (Anceschi, Botta, Garito 2006).
A sua volta, il web design può essere considerato un vero e proprio sottoinsieme dell’interaction design, e questo sia da un punto di vista concettuale sia per il fatto che, nel nostro equipaggiamento di artefatti, si vanno sempre più diffondendo le applicazioni delle ICT che impiegano sistemi basati sul web. L’impatto di queste tecnologie ha avuto una ricaduta fondamentale sulla configurazione stessa degli oggetti d’uso e degli artefatti comunicativi. Le loro modalità di progettazione ne sono state profondamente trasformate: da un sistema cronologicamente stringente, strettamente vincolato alla sequenzialità di ciò che sta prima e ciò che sta dopo e basato sull’‘impaginato’, si è passati a una logica esperienziale e immersiva, coreografica e registica, basata sulla ‘messa in scena’.
I contenuti web possono essere statici – quando vengono progettati e realizzati una volta e richiedono per ogni modifica l’intervento di un operatore – oppure dinamici: quando sono capaci in altre parole di integrare in maniera automatica contenuti o formattazioni, sia come risultato delle attività dell’utente oppure del gestore del sito sia come manifestarsi dell’approvvigionamento di informazioni da data-base.
Il primo ‘sistema’ web, realizzato nel 1991 dall’allora ricercatore presso il CERN (Conseil Européen pour la Recherche Nucléaire) di Ginevra Sir Timothy Berners-Lee, combinava due tecnologie già esistenti da decenni: la rete (o web) creata a fini militari nel secondo dopoguerra per lo scambio di informazioni in tempo reale, in un ‘ambiente’ informatico controllato ma soprattutto non monocentrico; e l’ipertesto, un sistema di organizzazione delle informazioni testuali scritto in HTML (Hyper Text Mark-up Language). Questo primo esempio di sito web di fatto univa alla gerarchia del testo, formattato e distinto in paragrafi, la possibilità di creare connessioni – link – al suo interno e all’esterno, garantendo così la navigabilità fra pagine.
Nel tempo il sistema HTML si è evoluto, permettendo di integrare immagini e tabelle nelle pagine web. In particolare, la costruzione di tabelle – per la presentazione di informazioni in forma di tabulati – è stata piegata alla progettazione dei siti web, fornendo quell’ossatura modulare della pagina che nella progettazione editoriale chiameremmo gabbia.
L’avvento dei CSS (Cascading Style Sheets), o fogli di stile, ha permesso un’operazione importante: i CSS consentono, sempre utilizzando il sistema HTML nella progettazione web, di trattare i contenuti separati dalla loro presentazione formale (formattazione del testo, colori, sfondi, stili).
La progettazione di siti web viene generalmente considerata affine alla progettazione editoriale, quando in realtà se ne discosta in maniera significativa. Mentre l’insieme di saperi coinvolti nel processo progettuale è molto simile – al punto che potremmo parlare di una sorta di baricentro disciplinare comune – a essere ben diverse sono le capacità redazionali che definiscono la gerarchia e la gestione delle informazioni. Nella progettazione di siti web, per quanto dinamici nella variazione e nell’adattamento dei contenuti, la pianificazione iniziale, cioè la redazione di contenuti con un taglio e un linguaggio adatti alla lettura a schermo, la gerarchizzazione delle informazioni, la progettazione della navigazione e infine il presupposto che il web va inteso come servizio, sono passaggi preliminari e indispensabili, specifici della disciplina nel senso che garantiscono o meno l’efficacia e il successo dell’artefatto. Solo a questo punto e fatte salve queste condizioni preliminari, un sito web (e in generale un’applicazione testuale informatica) diventa un artefatto per la presentazione di informazioni, che funziona in maniera non troppo differente da un libro composto da testo e immagini, di cui rappresenta l’evoluzione tecnologica (Bolter 20012). La differenza principale consiste nel fatto che ora testi e immagini possiedono una potenzialità in più: quella che potremmo chiamare profondità temporale grazie alla quale ‘cliccando’ si può procedere nella specificazione percettiva e concettuale di termini e figure.
Dal web 1.0 al 2.0
Nel 1999 venne coniata la locuzione web 2.0 come prefigurazione del web futuro, rispetto alla sua condizione, ritenuta in quel momento embrionale: il web sarebbe diventato un «meccanismo di trasporto, l’etere attraverso cui si sarebbe realizzata l’interattività» (D. DiNucci, Fragmented future, «Print», 1999, 4, p. 32), cioè il canale, più che il supporto, di ogni futura interazione con gli artefatti fisici e con il loro carico di informazioni. Web 1.0 è quindi un retronimo con cui si indica lo stato del web e del web design precedentemente all’esplosione dei domini ‘.com’ – siti web di proprietà commerciale – avvenuta nel 2001.
Ai tempi del web 1.0, le connessioni a Internet attraverso modem dial-up, cioè a chiamata, rendevano l’esperienza di fruizione dei siti web lenta e frustrante, soprattutto in presenza di contenuti non testuali (immagini, video, audio). Le pagine web inoltre, erano statiche, ospitate in server remoti, e non rendevano possibili commentare i contenuti.
Il passaggio dal web 1.0 al 2.0 può quindi essere visto come il risultato di una serie di concause, tra cui le innovazioni tecnologiche, come la diffusione della banda larga, il miglioramento dei browser, la diffusione di piattaforme con applicazioni Flash e lo sviluppo di massa della ‘widgetizazzione’. Un widget è una parte di un codice HTML – per es., una pagina web – che aggiunge un contenuto non statico al codice stesso, prendendo spesso la forma di un’applicazione a pieno schermo in grado di fornire informazioni generalmente di contesto: sul clima, l’andamento del mercato, il tempo. Molte piattaforme di condivisione di contenuti che hanno segnato il passaggio al web 2.0 fanno ampio uso di codici widget per la gestione dei contenuti in maniera dinamica.
Fondamentale in questo passaggio è stato anche il cambiamento nei comportamenti degli utenti del world wide web. Rispetto a una prima fase pionieristica della progettazione di interfacce web, e alla nascita della figura professionale del web designer, il web 2.0 ha visto un’ampia diffusione sia della fruizione della rete sia delle conoscenze pratiche necessarie a immettere e gestire contenuti, oltre alla diffusione in tutto il pianeta dell’hardware: i personal computer o altri prodotti incorporanti ICT per la fruizione del web (computer palmari, telefoni cellulari, reti wireless) sono onnipresenti nei Paesi del cosiddetto primo mondo, e si stanno diffondendo anche nei Paesi in via di sviluppo per sopperire alla mancanza di altre infrastrutture per la comunicazione, come le reti di telefonia fissa. In altre parole si è trattato complessivamente del passaggio da un tipo di medium gerarchico, a comunicazione unidirezionale, a un sistema bidirezionale, oltre che multimodale. Il web design integrava già, pur con alcuni limiti tecnici, i media classici come il cinema, la televisione e la radio, oltre al ‘testo scrittorio’. Ma con l’avvento del web 2.0 la comunicazione fra gli utenti del web – per es., sito e fruitore – è divenuta sempre più paritetica o colloquiale: si osservi in tal senso la diffusione di strumenti di scambio di informazioni sia in differita (i forum) sia in tempo reale (le chat, i servizi di telefonia Internet, le videoconferenze).
Oggi i blog – abbreviazione di weblog – e i social networks sono generati in maniera dinamica: permettono agli utenti commenti sui post. I post sono le immissioni di contenuti che caratterizzano quei siti o portali in cui uno o più utenti inseriscono contenuti multimediali. A questo tipo di utenti, che fruisce e al tempo stesso produce contenuti web, ci si riferisce con il termine di prosumer – neologismo risultato della crasi fra producer e consumer –, diffuso anche nell’ambito del design. Si è trattato quindi di un passaggio dalla pubblicazione alla partecipazione, dai contenuti web intesi come risultato di un investimento individuale a un processo dinamico e interattivo di natura sociale se non addirittura collettiva, e dai sistemi centralizzati di content management ai link basati sulla pratica del tagging (folksonomy, o in italiano folksonomia: cfr. Flew 20083).
Folksonomy (crasi di folk e taxonomy) è un neologismo che indica la pratica collettiva di attribuzione di un significato ai contenuti web: un’attribuzione – diciamo così – dal basso. Questa si realizza conferendo una specifica categoria a testi, immagini, video, audio attraverso l’utilizzo di parole chiave (tags) che funzionano da didascalie ai contenuti immessi nel web. Questo tipo di collaborazione spontanea contiene nell’etimo di folk un tradimento della ‘tassonomica’ classica, a indicare la spontaneità, la non rigorosità disciplinare che si sviluppa spesso nei social network o nei siti di condivisione dei contenuti. Il tagging è diventato sia una forma euristica – è possibile ricercare i contenuti di un sito o di un blog scegliendo i tag come chiavi di ricerca – sia uno strumento di costruzione delle pagine web. Ma esiste addirittura un uso improprio e provocatorio del tagging: si è diffusa nei social network la pratica di ‘taggare’ in una fotografia i volti dei partecipanti al gruppo ritratto, ma allo stesso tempo è invalso l’uso di taggare dentro a una qualsiasi immagine i nomi di tutte le persone che ci si vuole garantire vedano l’immagine in questione.
Il web 2.0 si riferisce nel suo insieme a questa seconda generazione dello sviluppo e della progettazione di siti web, caratterizzata da forme di comunicazione facilitata, dalla condivisione di informazioni e dalla collaborazione fra utenti.
Una nuova prospettiva progettuale
Le innovazioni tecnologiche e i cambiamenti sociali – l’estendersi cioè delle comunità di utenti e il modificarsi delle modalità di fruizione del web – hanno portato a una trasformazione radicale del web design. Non si tratta più infatti di progettare siti web intesi come singoli artefatti, e nemmeno come portali che danno accesso a un insieme di servizi che poi, come effetto dell’applicazione di un progetto di immagine coordinata, sono costituiti di pagine fra loro coerenti. Nel web 2.0 l’artefatto ‘sito’ non è più al centro del progetto, mentre le piattaforme, i motori di ricerca, le interfacce, intese come sistemi di significazione, diventano di primaria importanza. Anche nella progettazione dei siti web si tende quindi a prescindere da una logica di artefatto. Non si progetta più un sito come un manufatto da usare o abitare, ma si preferisce un approccio ‘teatrale’ o ‘coreutico’. Si tratta, insomma, di progettare una ‘scena’ per l’azione del fruitore e, contemporaneamente, gli ‘attrezzi di scena’, per es., in forma di widget, che ognuno può montare o utilizzare come vuole. Si tratta quindi di configurare le condizioni affinché l’attività di scambio fra uomo e macchina avvenga fluidamente: progettare interazioni non solo attraverso la creazione di apposite interfacce, ma soprattutto attraverso l’adozione di altre forme di interfacciamento, come il linguaggio naturale o il movimento gestuale, alla ricerca di una scioltezza comportamentale totale. In questo senso il nucleo e il campo di lavoro del web designer saranno sempre più centrati sull’interazione fra utente e apparato informatico, piuttosto che sul design delle interfacce web, in quanto i media attraverso cui i sistemi informatici e tecnologici sono destinati, appunto, a interfacciarsi con le comunità di utenti sono diversi e numerosi. Non si tratta quindi nemmeno più di immaginare la varietà delle coreografie per un unico supporto (design esperienziale), ma di prevedere, accogliere e gestire la varietà delle possibili interazioni nella loro spontaneità (design evenemenziale).
La diffusione della piattaforma multimediale Flash – inizialmente prodotta da Macromedia e poi da Adobe, che l’ha integrata con altri strumenti per il publishing appartenenti alla Creative suite – a partire dal 1996 ha profondamente influenzato il dibattito disciplinare sul web design. Flash divenne – in un panorama di siti realizzati in HTML e quindi statici e ‘tabellari’ – lo strumento per aggiungere attrattiva ai siti web. Il software omonimo permette infatti di realizzare animazioni e di innestare nelle pagine componenti dotate di motilità, ma anche di inserire contenuti video, consentendo di manipolare contenuti raster – cioè composti da pixel – o anche vettoriali, ossia scalabili all’infinito senza perdere in definizione. Per determinare questi contenuti, che si sviluppano in uno spazio chiamato stage, proprio come il palco teatrale, Flash utilizza un sistema di notazione denominato ActionScript. Per la visualizzazione di contenuti Flash, i browser devono disporre di un componente specifico (il cosiddetto plug-in Flash). La grande innovazione del software Flash per la creazione di animazioni è stata la presenza di una timeline che assimila il programma a un sistema di montaggio video, con la possibilità di inserire contenuti multimediali: immagini, video, tipografia e così via. ActionScript permette di creare, oltre alle animazioni, intere applicazioni, come video interattivi e videogiochi.
La diffusione di animazioni Flash, segnatamente come ‘intro’ alle home pages dei siti del web 1.0, ha suscitato, a suo tempo, un dibattito disciplinare sull’usabilità dei siti che le incorporano, come sostenuto da Jakob Nielsen (2000). L’anatema di Nielsen – che però, diventato in seguito consulente di Flash, ha modificato la sua posizione – suonava così: i contenuti artistoidi prodotti in Flash non sono editabili, né selezionabili, né copiabili, né modificabili e, soprattutto, rallentano l’accesso degli utenti ai contenuti del sito (in quel periodo vi era anche scarsa diffusione di connessioni veloci). La creazione di contenuti animati che, in quella fase iniziale di abuso creativista del software, erano di inevitabile fruizione, riavvicinava il web design a un altro medium, la televisione, da cui si distingueva chiaramente e sempre più per l’interattività e per la comunicazione biunivoca (one-to-one) invece che strettamente gerarchica (one-to-many). Inoltre, la personalizzazione degli elementi di interfaccia dei siti abbassava il livello di standardizzazione del web in un momento in cui la sua diffusione come ipermedium di comunicazione di massa richiedeva uno sforzo di uniformazione (Nielsen, Loranger 2006).
In questo senso, lo sviluppo del web design è andato di pari passo con la definizione della graphic user interface (GUI). La denominazione GUI è legata allo sviluppo di interfacce per personal computer, quando il sistema grafico, non più verbocentrico ma ‘per oggetti’, sviluppato dalla Xerox Palo Alto research unit venne proposto come alternativa al sistema di interfacciamento legato alla riga di comando, rigidamente scrittoria e lineare, impiegato, per es., sui personal computer MS-DOS fino alla diffusione dell’ambiente Windows. Le GUI permettono all’utente di agire direttamente, attraverso un puntatore (tipicamente, il mouse), su icone, finestre e menu, elementi da cui deriva l’acronimo WIMP (Window, Icon, Menu, Point-ing device). Nella massima parte dei personal computer e dei loro sistemi operativi, gli elementi della GUI risultano modellizzati attraverso la metafora della scrivania. Anzi sarebbe forse meglio parlare di allegoria, cioè di metafora prolungata e articolata, che crea un ambiente di lavoro concettualmente e graficamente coerente (Botta 2006).
La diffusione di tecnologie aptiche (tattili) nei prodotti elettronici di consumo e il continuo investimento nei sistemi multi-touch hanno portato alla diffusione di schermi tattili: l’esempio più famoso è quello di iPhone della Apple, ma schermi aptici erano già ampiamente diffusi in apparecchiature automatiche come gli sportelli bancari automatici o le macchine emettitrici di biglietti. Le interfacce tattili presentano una situazione di grande interesse in quanto il monitor o la superficie di interazione diventano lo strumento su cui l’utente agisce con la sua mano (punta, ruota, sposta), e integrano ogni altra componente hardware tradizionale che compare o scompare a seconda delle necessità: tastiera, visore per camera e videocamera, pannello di controllo audio e così via. Le GUI infatti permettono un numero limitato di operazioni rispetto a quelle che un utente può effettuare agendo direttamente attraverso la gestualità tattile: un esempio molto chiaro è dato dalle operazioni manuali che possiamo compiere con immediatezza su un iPhone, e che richiederebbero invece diversi passaggi in un ambiente bidimensionale e l’ausilio di un puntatore.
Nel tempo il web design e il design di interfacce hanno visto i rispettivi campi d’azione sempre più sfumati e sovrapposti: si sono diffuse piattaforme ‘proprietarie’ – cioè determinate da logiche commerciali – che offrono non solo contenuti ma anche applicativi. Il caso lampante è quello di Google: nato come motore di ricerca, presenta oggi una vasta offerta di servizi, come caselle di posta elettronica, mappe multimediali, condivisione di documenti, vendita di merci, ricerca su testi scientifici, consultazione di opere cartacee digitalizzate. Un servizio-locomotiva che trascina con sé un intero, stratificato, portale di servizi. In questo senso, non risulta più possibile distinguere fra web design e design delle interfacce: quanto avviene attualmente sul monitor, il flusso di informazioni e significazioni che vi transita, ci pone di fronte a interrogativi radicali rispetto al ruolo del designer. Questi non si occupa più soltanto di presentare informazioni prodotte da terzi in una logica di servizio, ma è impegnato a costruire sistemi di semiotica visiva che creano abitudini e fidelizzano gli utenti nell’accesso ai contenuti e ai significati del web. Google sta cercando di definire una serie di interfacce standard per i propri prodotti: non si tratta più e soltanto di corporate image applicata alla GUI, ma di mediazione dell’accesso ai contenuti del world wide web e quindi, di conseguenza, dei significati stessi (C. Vandi, La strategia di Google. Abiti e pratiche, e, su posizioni diverse, C. Gianelli, Progettare l’interazione attraverso l’azione. Le interfacce open source, in Il discorso sul design, «E/C», 2009, 3, 4 pp. 163-72 e 173-82).
Progettare comunità
Un fattore di profonda innovazione per il web design è costituito dalla diffusione di tecnologie per la gestione dei contenuti, ovvero i CMS (Content Management Systems). Si tratta generalmente di applicazioni web che permettono la gestione di contenuti HTML anche a utenti non specializzati e consentono il controllo e l’operabilità di pagine dinamiche comprendenti testo, immagine e altri elementi, come video o musica, che possono essere incorporati nelle pagine attraverso l’inserimento di un codice fornito dalla piattaforma in cui i contenuti risiedono, come nel caso dei video presenti su YouTube.
Generalmente un applicativo per web CMS fornisce gli strumenti per creare e gestire contenuti da parte di utenti senza conoscenza di linguaggi di programmazione. Questi applicativi utilizzano dei data-base per archiviare dati a essi relativi, e impiegano interfacce interne ai browser: si evidenzia così nuovamente la sovrapposizione fra web design e design delle interfacce. Mentre l’utente di un CMS ha nessuna o poca esperienza nella gestione di un sito, l’autore del sistema CMS deve essere un ingegnere informatico o un designer, in modo da poter rendere il mantenimento dei siti web un’operazione relativamente semplice per amministratori non tecnici.
Il PHP (Personal Home Page) è un linguaggio di programmazione per produrre pagine web dinamiche, creato nel 1995 e diffuso in forma libera, poi diventato una modalità standard della programmazione di pagine HTML. Questo linguaggio agisce principalmente come filtro su una serie di contenuti, eseguendo delle operazioni che producono come output una pagina HTML, cioè visibile sul web. Alcuni siti web di particolare interesse sono scritti in linguaggio PHP, come, per es., Facebook, Wikipedia, Wordpress, YouTube e diversi altri.
In questo senso, gli applicativi CMS e il linguaggio PHP hanno contribuito a disfare la logica che connetteva i designer al design di siti web, intesi come artefatti. La diffusione di portali, di siti basati su sistemi di gestione dei contenuti e di comunità on-line ha annullato le distanze progettuali fra utente e web. Il design dei siti web diventa sempre più costruzione di ‘infrastrutture’ informatiche, cui provvedono ingegneri e programmatori, lasciando le scelte formali agli utenti finali. Queste interfacce, in cui la variabilità è rappresentata dalla definizione dei CSS, sono espressione di «una diffusa riluttanza alla figuratività, probabilmente sintomo di una serie di pregiudizi verso la questione della forma, che ancora è intesa come un vezzo progettuale, mentre la progettazione di sistemi comunicativi informatizzati avviene utilizzando approcci e metodi di tipo funzionalista, un funzionalismo di ritorno che è poi puro formalismo» (Botta 2006, pp. 249-50). In altre parole, accanto agli ingegneri e programmatori sarebbero auspicabili figure di designer che padroneggino la tecnologia, molto simili all’antico industrial designer o al designer sistemico delle comunicazioni – in un ruolo che potrebbe essere quello di rappresentante degli utenti finali – al tavolo delle trattative del progetto web e informatico.
La diffusione di pratiche comunitarie sul web è stata possibile proprio grazie a queste innovazioni nella gestione tecnologica dei sistemi comunicativi. Minimizzando le competenze necessarie alla gestione dei siti, i sistemi CMS hanno reso fattibile l’accesso al web per gli utenti meno esperti. Un primo approccio si è concentrato specialmente sui contenuti testuali, come è avvenuto per i primi weblog o blog, siti web gestiti secondo una logica diaristica. L’autore-gestore del sito scrive liberamente dei post – ma oltre al testo formattato, è possibile inserire immagini, audio e video, in un ambiente grafico governato da CSS, modificabile e implementabile – di cui può autorizzare e filtrare i commenti. La pratica di commento ha reso possibile lo sviluppo di comunità: in ogni blog figurano gli amici dell’autore, sotto forma di link a blog del medesimo portale o di avatar (parola di origine sanscrita che si riferisce alla discesa in terra di una divinità, in forma umana, animale o fantastica e che nell’uso corrente indica l’icona che rappresenta l’utente all’interno di un software di gioco o in un social network on-line). Questa comunità globale basata sul web ha preso il nome di blogosphere, o blogosfera, ossia un network sociale interconnesso virtualmente – e anche fattualmente – attraverso link, commenti, post e blog collettivi che, per livello di specializzazione, assumono in certi casi il ruolo di ‘riviste’ tematiche e diventano spesso le fonti dei mass media tradizionali. Le pratiche del tagging dei contenuti e la folksonomia rendono possibile la ricerca dei contenuti per analogia: una pratica fondamentale per la costruzione di queste comunità virtuali.
Tali comunità esistevano ovviamente anche prima della diffusione dei blog, in forma di gruppi di partecipanti a forum virtuali che lasciavano messaggi e commenti in differita su piattaforme web condivise. I primi blog erano pagine web statiche modificate manualmente dagli autori: in questo senso la disponibilità di CMS e di portali di blog ha reso possibile la diffusione indiscriminata dei blog e delle relative comunità di blogger.
La programmazione di un blog può avvenire in maniera autonoma, utilizzando una base Wordpress, uno dei fornitori più attenti alla qualità grafica dei format di blog, usando PHP e un sistema di gestione di data-base. Ma l’apparente semplicità di progettazione è tale soltanto se l’utente si accontenta di uno dei temi o generi grafici disponibili. In alternativa, è necessaria una buona conoscenza di CSS e PHP (Budd, Collison, Davis et al. 2006). L’impiego di un linguaggio di programmazione di apprendimento non immediato sposta nuovamente il focus delle competenze necessarie al web designer – sempre più informatico e sempre meno grafico – oppure scinde la progettazione di siti in competenze strutturali-funzionali e formali-estetiche.
Mentre i blog e gli applicativi necessari al loro funzionamento possono essere implementati nei siti web degli utenti, la diffusione di comunità on-line basate, per es., su un interesse degli utenti per un medium specifico ha stabilito nuovi confini nel web design. I siti destinati agli appassionati di fotografia – quali Fotolog e Flickr – permettono, per es., di raccogliere immagini, creare didascalie e tag, stabilire pratiche di gestio-ne dei diritti in un ambiente comunitario, destinato sia a individui sia a gruppi. Generalmente, le pagine di gruppi raccolgono immagini che sono state prodotte nelle pagine di individui. La ricerca nel data-base di questi siti permette anche agli utenti non registrati di visualizzare risultati per analogia sulla base di tag e didascalie. Selezioni di immagini provenienti dai siti hanno anche prodotto pubblicazioni (Fotolog.book, 2006) o mostre virtuali, come nel caso di Jpeggy. Ciò che conta è che questo tipo di siti non ha ragione d’essere come oggetto commisurato alle esigenze di un utente specifico: il progetto grafico del sito è già un progetto di comunità, di una serie di pagine standard che si dipanano a partire dalla home page e che sono riempite da contenuti gestiti in maniera semplificata dagli utenti registrati. La personalizzazione di questi ‘palcoscenici individuali’ è limitata alla definizione delle dimensioni delle immagini, alla loro scelta, alla loro classificazione.
Un’altra comunità significativa è quella di Last.fm: un sito che permette di importare il contenuto audio presente sul proprio personal computer e di renderlo disponibile all’ascolto sulla propria pagina personale. Di nuovo, è l’analogia a costruire connessioni dinamiche fra utenti secondo la logica: «se ti piace il cantante x, dovrebbe piacerti anche il gruppo y». Questo tipo di interazione automatizzata e resa possibile da filtri e algoritmi, costruisce relazioni, contenuti e sistemi sulla base di informazioni altrimenti ‘residenti’ su macchine individuali e non interconnesse.
Il sito YouTube è nato come piattaforma di condivisione di contenuti video attraverso tecnologie Flash. Le pagine personali prendono in questo caso il nome di canali. Prima del lancio del sito nel 2005, esistevano pochi metodi per condividere contenuti video sul web: per es., caricando file video su un server e rendendoli visibili attraverso opportuni plug-in, con difficoltà di caricamento per connessioni lente alla rete. L’interfaccia utente del sito ha reso possibile il caricamento e la conversione dei video per la loro condivisione. Inoltre, è possibile incorporare i video depositati in YouTube all’interno di altri siti, semplicemente copiando una sequenza di codice HTML. E ciò perché non esiste un metodo consentito per scaricare i video destinati a essere fruiti soltanto attraverso l’interfaccia di YouTube o tramite altri siti in cui vengono incorporati, che raramente sono ‘canali individuali’ per la fruizione diretta. YouTube ha diffuso sia la pratica del tagging sia la fruizione random, resa celebre dall’uso di altri prodotti, come iPod mini di Apple, un lettore di file audio MP3 che non incorporava un visore e proponeva quindi l’ascolto di musica in ordine casuale. Nel caso di YouTube, la folksonomia e il tagging sono i criteri principali che regolano l’ordinamento dei contenuti in un sito che possiamo considerare un deposito o un magazzino di contenuti – per così dire – immateriali.
Due siti, infine, hanno stabilito nuovi standard nella definizione grafica del web: Second life e Facebook, non a caso esempi ibridi di applicazioni web, siti e software allo stesso tempo, con componenti informatiche scaricabili o fruibili sul web. Second life è un ambiente-mondo virtuale lanciato nel 2003, accessibile attraverso un applicativo gratuito e la rete Internet. Gli utenti, chiamati residenti, possono interagire con l’ambiente e fra loro attraverso degli avatar. All’arrivo nel ‘mondo’ di Second life, ogni utente ‘rinasce’, e sceglie il proprio sesso e il proprio aspetto, attraverso un processo generativo per tappe che rappresenta uno dei momenti di maggiore interesse (Gerosa 2007). Questo genere di vita virtuale e mediata da un avatar era stato sperimentato dai MMOG (Massive Multiplaying Online Games), per es., EverQuest, che attualizzava il regno virtuale di Norrath, dove ‘vivevano’ più di 500.000 giocatori iscritti, o il coreano Lineage, con 8 milioni di ‘abitanti’.
Il concetto di avatar era stato reso popolare nella narrativa fantascientifica, in particolare in quel filone definito cyberpunk, nel quale si postulava una pronta diffusione della realtà virtuale immersiva, profezia che si è invece scontrata con la difficoltà di produrre ambienti virtuali tridimensionali con velocità di refresh per ottenere, come avviene nell’ambito del cinema, che l’occhio umano non riesca a registrare la frammentazione del movimento.
In Second life si realizza una situazione ibrida di reale e virtuale: l’evoluzione delle ICT applicate al web permette di fatto un’autorappresentazione identitaria digitale, dinamica e interagente: siti e ambienti web vengono a sovrapporsi al reale in scala 1:1. I residenti di Second life esplorano un mondo definito grid, dove incontrano altri residenti, partecipano ad attività ricreative o commerciali – è possibile acquistare a un cambio variabile una valuta chiamata Linden dollar, dal nome del produttore del software di Second life – costruiscono oggetti grafici tridimensionali virtualmente fruibili, abitabili, a seconda dei desideri. Queste realizzazioni, cui si possono aggiungere funzionalità attraverso un linguaggio di programmazione, sono prodotte attraverso strumenti semplici. In Second life sono presenti, oltre agli utenti individuali, organizzazioni e istituzioni che si occupano di scopi non-profit, come università e musei che offrono attività didattiche o culturali in un ambiente tridimensionale, il cui aspetto figurale e grafico è il risultato sistemico della collaborazione fra utenti e sviluppatori, in una logica di prosuming.
Alla luce dell’esperienza di Second life, Facebook è un’enorme raccolta di avatar in senso lato. Non si tratta di repliche dell’utente o di personaggi mossi da lui sulla scena tridimensionale del grid come una marionetta. Sono rappresentanti virtuali dell’utente su una scena sociale artificiale. E sono rappresentanti in gran parte ‘mimetici’. In altre parole, generalmente, ritraggono più o meno fedelmente l’utente, o comunque l’utente li considera rappresentativi di sé. Il nome stesso del sito tradisce un progetto di raccolta dei volti degli utenti. Le loro facce associate ai loro dati personali e attraversate dagli strumenti di ricerca garantiscono un’esperienza di interazione rafforzata e rassicurata dalla promessa veridittiva del volto, generalmente quello reale, ridotto a immagine fotografica, bidimensionale e statica (Il fenomeno Facebook, 2008). Si può pensare a Facebook come a un campo di gioco: in fondo il designer/ingegnere informatico – o, in altre parole, Facebook in quanto intrapresa – è l’ideatore e il costruttore del ‘tavoliere di gioco’ e delle regole per giocare. Il partecipante ha tutte le libertà, se resta dentro le regole. E, come avviene con il gioco delle bambole o con quello della guerra, Facebook insegna comportamenti: per es., le regole della netiquette (come accogliere o rifiutare amicizie nell’elenco della posta dentro al gioco esibizionista/voyeurista delle proprie conoscenze galanti o importanti, perché visibili a tutti gli altri utenti), ma insegna anche direttamente delle abilità, per es., a comunicare in sincronia (in chat) o in differita (sul wall). Facebook è il luogo di un’evasione – è infatti, anche, un gigantesco surprise party – ma un’evasione confinata, come un quartiere protetto, da regole precise e dall’impunità del virtuale; è infine un luogo ibrido reale/virtuale, una versione virtuale del mondo reale. È costitutivo dell’esperienza Facebook il piacere/fastidio derivante dalla presenza discreta di tutti gli altri utenti accettati come amici, come amici degli amici e così via.
Facebook – dal nome degli annuari americani, che riportano volti e nomi degli studenti – è un vero e proprio mondo a parte, con regole proprie rispetto al diritto d’autore e al copyright: ogni elemento – testo, immagini, audio e video – diventa proprietà dell’ospite Facebook, che in cambio di un’interfaccia grafica coerente entra in possesso di contenuti e dati personali degli utenti con evidenti problemi di privacy. Gli utenti possono così organizzare il proprio network, oltre che ricercando nomi e indirizzi e-mail dei propri amici, operando ricerche sui tag personali: città di nascita e residenza, scuole frequentate, posti di lavoro e così via. Facebook ha integrato molte delle funzioni particolari svolte da altri siti che sono stati oggetto di analisi, per es., la condivisione di blog e microblogging – cioè scrittura in tempo reale di poche righe di testo –, di immagini organizzate in gallerie e di video, incorporati da YouTube. Con il risultato di raggiungere una carica di contenuti multimediali che offre un aggiornamento – in tempo reale – per tutto il network sulle attività degli utenti, in un ambiente grafico ordinato e prestabilito, in cui l’utente può controllare la disposizione di widget presentati nella sua pagina personale. Facebook si basa inoltre su tassonomie proposte dal sito, permettendo, attraverso algoritmi che costituiscono un segreto industriale della piattaforma, l’accrescimento del proprio network e l’affiliazione a gruppi di utenti, che rappresentano prodotti, persone, pratiche comuni. Gli utenti possono, anzi sono – per così dire – ‘sospinti’ a comunicare attraverso un sistema di posta elettronica interno al sito, attraverso forum o mediante conversazioni in diretta (chat). Si tratta di un sito gratuito, destinato all’intrattenimento, che produce profitti sulla base della vendita di spazi pubblicitari, personalizzati sugli utenti, venduti con la stessa logica dei media tradizionali (pubblicità tabellare), ma in collaborazione esclusiva con un’azienda di computer come Microsoft.
L’interfaccia grafica di Facebook è fortemente normalizzata: è sensibilmente diversa da quella, per es., di MySpace, un sito che permette una maggiore personalizzazione delle pagine dei membri attraverso HTML e CSS. Facebook ammette il caricamento di contenuti eterogenei, rendendo personalizzabili informazioni di pubblico dominio, ma non permette una modifica dell’aspetto delle pagine personali. Per sviluppare applicazioni in Facebook, come, per es., versioni elettroniche degli scacchi o di Scarabeo, esiste un Facebook mark-up language, che ha permesso la diffusione del sito nelle sue versioni per telefoni cellulari.
Scenari aperti
Abbiamo già evidenziato come il web design abbia visto il proprio campo di applicazione estendersi e sovrapporsi con quello delle interfacce. Ma di fronte alla nascita dell’interaction design, la stessa progettazione dei siti web diventa una delle regioni di quest’ambito progettuale. Soprattutto in uno scenario che vede sempre più frequente l’incorporazione di tecnologie digitali e ICT dentro gli oggetti d’uso. Si tratterà sempre meno di progettare interfacce interattive e sempre più di immaginare interazioni tattili, vocali, coreutiche. In particolare, l’ubiquitous computing – ossia il diffondersi di tecnologie distribuite nell’ambiente e il trasformarsi dell’intero ambiente in un ‘ambiente sensibile’ – in prospettiva tenderà a ridurre in gran parte il lavoro del web designer. Non solo, ma, come abbiamo visto, il sito web è sempre meno oggetto di progettazione da parte del singolo designer, ed è sempre più il riflesso di un progetto di ampia portata, che fornisce gli strumenti di gestione di una o più pagine a utenti con conoscenze solo elementari di design, realizzato da ingegneri e programmatori, e forse neodesigners.
Il web è divenuto un ambiente performativo, l’ambiente in cui si gioca una partita esistenziale: ognuno propone e produce i propri contenuti, ed è nell’interazione fra utenti che si realizza un’ulteriore diffusione e rielaborazione. Peraltro, di fronte a queste nuove prospettive di design delle ‘infrastrutture’ della comunicazione e di design degli ‘attrezzi di scena’, i media classici rischiano di dissolversi: libri e giornali rischiano di diventare un modello di diffusione delle informazioni e della cultura non sostenibile per diversi motivi – ambientali, ecologici, economici – e in questo senso, ossia nella migrazione da libri e riviste cartacei a media elettronici, il (web) designer ha ancora molto da fare. La progettazione grafica esecutiva di libri e riviste è passata dalle mani dei tecnici tipografici direttamente a quelle dei grafici attraverso l’uso di applicativi di impaginazione e gestione di immagini, vettori e tipografia – è il caso di Adobe indesign o di QuarkXPress – che nel tempo hanno iniziato a costituire la base ‘registica’ di un’ulteriore serie di applicativi che, a loro volta, implementano soluzioni web, come HTML: è possibile cioè inserire rimandi interni ed esterni a un testo che viene impaginato con i medesimi applicativi destinati ai media ‘cartacei’. È quindi possibile implementare funzioni web dentro un file PDF (Portable Data Format), il formato più conosciuto, che per essere visualizzato richiede un plug-in di diffusione ormai globale. Questo apre nuove prospettive nel campo della progettazione di siti web, che forse vedranno nuovamente all’opera il grafico inteso come progettista di artefatti comunicativi, ora elettronici, aggiornabili, cliccabili che, per il momento, sono alla ricerca dei propri e specifici canali di fruizione. Amazon – un sito che vende principalmente libri, ma anche altre merci – ha sviluppato, per es., una piattaforma software e hardware per diffondere la pratica dell’e-book: libri in formato elettronico, quindi immateriali, acquistabili sul proprio sito web e visualizzabili su una periferica – il Kindle – che permette di stivare e leggere testi in bianco e nero. La migrazione digitale dei testi è un processo inarrestabile, che offre nuove possibilità al design per definire il comfort, i metodi e le configurazioni degli ipertesti del futuro (Questione di leggibilità, 20082).
Web design: la fine o un nuovo inizio
Alla domanda iniziale, relativa alla possibile estinzione di questa specializzazione disciplinare, nel corso dei veloci sviluppi che vivono ora tanto il web quanto il design, non si può francamente rispondere che il web design è estinto. Finché ci saranno entità organizzate che intendono presentarsi autonomamente sulla rete, ci saranno siti, e quindi ci saranno progettisti di siti: siti che informano l’utente (per es., che propongono un’immagine istituzionale o presentano un catalogo di prodotti e servizi) e altri che gli consentono di compiere operazioni a distanza (telecertificazione, teleacquisto e così via). Ma la stragrande maggioranza del traffico che passa in rete non è ormai più strutturato secondo un modello di comunicazione gerarchica: un’entità forte che parla a molti destinatari. Il web è diventato un ambiente della socializzazione.
Chi naviga nel web si muove nei corridoi di un immenso e onnivoro archivio/galleria/biblioteca, e questo nella prospettiva di cercare e/o offrire un particolare contenuto e in quello di frequentare i suoi analogici dintorni (come ci insegnano, in modi diversi, Google, Wikipedia o YouTube). Chi esplora e passeggia sul web si muove lungo i passages di un immenso mall: il luogo del mercato, dove scambiare beni e servizi (come E-bay e Amazon). Chi soggiorna sul web frequenta oggi una sorta di immenso parco di divertimento, un ambiente unificato del loisir e del tempo libero (come i MMOG, Facebook, e tutti i siti dedicati all’erotismo e alla pornografia).
Transito è la parola chiave. Chi progetta il web oggi progetta, insomma, i flussi del transito degli utenti e dentro e intorno a essi. Crea main streets e piazze: in altre parole disegna le infrastrutture di un grande sistema della mobilità virtuale. Si tratta, in questa prospettiva, di creare movimento, fornire opportunità, generare occasioni, costruire canali, attorno ai quali si dipana la vita sociale, si mettono in atto la fruizione e il consumo culturale e si sviluppano il mercato, il consumo e il profitto. Dentro a questo, che è solo parzialmente un progetto consapevole ma è soprattutto un grandioso andamento socioculturale, il problema dell’estensione se non dell’universalizzazione dell’accesso, diventa fondamentale (e ci riferiamo all’accesso materiale, non solo attraverso l’aggiornamento continuo delle tecnologie dell’informazione e della comunicazione, ma pensiamo anche alla disponibilità dell’hard-ware necessario a fruire i contenuti da parte di tutti i ‘mondi’, come nel caso del laptop XO, nato come personal computer a basso costo per i Paesi poveri da un’idea di Nicholas Negroponte). Ma soprattutto si tratta di accesso cognitivo e concettuale. Di un sapere e saper fare diffuso e condiviso. In fondo l’intera storia dell’informatizzazione non è che la storia di un tumultuoso avanzare tecnologico (con la svolta cruciale di Silicon Valley), ma anche la storia della massimizzazione del numero degli utenti. Una massificazione che è anche articolazione sempre più sfumata delle specializzazioni e degli interessi. Ma è allo stesso tempo la storia dello sforzo per superare le difficoltà dell’accesso appianandole, rendendole amichevoli, mascherandole e nascondendole. È la storia dello sforzo di rendere accessibili a un pubblico di non esperti le cose che la tecnologia ci consente di fare. E sarà sempre più la storia del passaggio dai criptici commands del sistema operativo MS-DOS, che passo per passo prescrivevano al computer cosa fare, al gesto sintetico del mouse, della cloche della playstation, del puntatore di Wii, per cui il computer ci deve capire a cenni, come un buon animale ammaestrato.
Il ruolo del designer informatico – e massimamente del web designer – è diventato, e diventerà sempre più, quello di facilitare lo scambio di informazioni. Il designer informatico è prima di tutto il progettista delle infrastrutture ed è poi l’orchestratore dell’interazione e dell’interfaccia percorribile che rendono il web fruibile, comprensibile, gestibile, piacevole.
Bibliografia
J. Nielsen, Designing web usability. The practice of simplicity, Indianapolis 2000 (trad. it. Web usability, Milano 2000).
J.D. Bolter, Writing space. Computers, hypertext, and the remediation of print, Nahawah (N.J.) 20012 (trad. it. Milano 2002).
G. Anceschi, M. Botta, M.A. Garito, L’ambiente dell’apprendimento. Web design e processi cognitivi, Milano 2006.
M. Botta, Design dell’informazione. Tassonomie per la progettazione di sistemi grafici auto-nomatici, Trento 2006.
A. Budd, S. Collison, Ch.J. Davis et al., Blog design solutions, Berkeley (Cal.) 2006.
J. Nielsen, H. Loranger, Prioritizing web usability, Berkeley (Cal.) 2006 (trad. it. Web usability 2.0. L’usabilità che conta, Milano 2006).
Fotolog.book. A global snapshot for the digital age, ed. A. Long, N. Currie, London 2006.
M. Gerosa, Second life, Roma 2007.
T. Flew, New media. An introduction, Oxford 20083.
Il fenomeno Facebook. La più grande comunità in rete e il successo dei social network, «nova24» - «Il Sole 24 ore», Milano 2008.
Questione di leggibilità. Se non riesco a leggere non è solo colpa dei miei occhi, a cura di L. Baracco, E. Cunico, F. Fogarolo, Venezia 20082.
Il discorso del design. Pratiche di progetto e saper-fare semiotico, a cura di D. Mangano, A. Mattozzi, «E/C», 2009, 3-4, n. monografico.