Design della comunicazione
Le attività progettuali connesse alla comunicazione, in particolare alla comunicazione visiva, si diversificano e si ridefiniscono in relazione alle innovazioni tecnologiche, agli sviluppi produttivi e alle riorganizzazioni sociali. È opportuno quindi circoscrivere, per quanto possibile, le implicazioni dell’espressione design della comunicazione. Essa è inscindibile dall’esistenza di una specifica categoria di operatori che in tale ambito si riconoscono e in quanto tali vengono riconosciuti dall’ambiente in cui sono attivi: l’associazione professionale europea di gran lunga più rappresentativa, la Chartered society of designers, è stata fondata a Londra nel 1930 come Society of industrial artists, e solo nel 1960 ha preso il nome di Society of industrial artists and designers, per assumere l’attuale denominazione nel 1986.
Nel termine design, infatti, continuano a coesistere gli apporti di molteplici tradizioni: da un lato, quelle di natura più artistica, dall’idea vittoriana e poi europea delle arti applicate, attraverso le avanguardie del Novecento che più si sono poste obiettivi di tipo utilitaristico; dall’altro, quelle di natura più spiccatamente tecnica e scientifica. Appare opportuno ricordare però che El Lissitzky (1890-1941), uno dei grandi protagonisti del movimento costruttivista russo, definì sé stesso un ingegnere, mentre oggi appare più come un peculiare tipo di artista, visionario prefiguratore di forme che poi altri avrebbero sottoposto ai vincoli delle procedure tecniche e scientifiche; e che le pretese di funzionalità dell’avanguardia razionalista, e poi dei suoi epigoni della seconda metà del Novecento, si sono rivelate più che altro vere e proprie scelte stilistiche. Alcune realizzazioni tradizionaliste e ‘artistiche’ del primo Novecento, d’altra parte, appaiono assai più efficienti, dal punto di vista della comunicazione, di quanto, stigmatizzandole, le giudicassero i modernisti.
L’epoca in cui viviamo, l’epoca della globalizzazione, sembra inoltre caratterizzata non tanto da stili e metodologie riconoscibili e tassonomizzabili, quanto dalla compresenza di approcci molteplici in mutevoli rapporti tra loro. Appare quindi illusorio dare del design una definizione univoca, pur sottolineando che nella seconda metà del Novecento in Italia l’espressione è stata associata più alla progettazione di prodotti d’uso che alla comunicazione visiva.
Assumeremo in questo saggio che, nella terminologia italiana e negli assetti didattici e istituzionali, per design della comunicazione s’intende oggi (rispetto al termine più generico grafica, il cui significato tende ormai più verso l’ambito espressivo) la progettazione di artefatti comunicativi, in particolare di tipo visivo, svolta da operatori specializzati in presenza di precisi vincoli produttivi e con obiettivi più nettamente tesi agli aspetti di tipo funzionale, legati alla risoluzione di specifici problemi posti da determinate committenze, pubbliche o private.
Design e tecnologia elettronica
La tecnologia elettronica ha mutato radicalmente le condizioni del design. Non ha però portato sostanziali novità per quel che riguarda gli assetti formali del singolo artefatto comunicativo. Tutto quello che attualmente si fa con il computer, infatti, poteva essere fatto con le tecniche tradizionali. La grande rivoluzione è avvenuta nel corso del Novecento, con la diffusione della stampa offset e della fotocomposizione, che hanno consentito, anche per grandi tirature, l’espansione dei linguaggi delle avanguardie, con l’emancipazione dalle severe costrizioni ortogonali proprie della composizione tipografica a piombo e la possibilità di sovrapposizioni e incastri dei materiali da stampa.
Analoga considerazione si può fare per l’ipertestualità, dove il fattore innovativo è ancora di tipo quantitativo, di velocità e di ampiezza dei repertori disponibili. Strutture ipertestuali di relazioni, all’interno di uno stesso testo o tra testi diversi, sono da sempre in uso, e non si tratta certo di una novità della tecnologia elettronica. Basti pensare alle innumerevoli interpretazioni presenti in un semplice mazzo di tarocchi, o ai Cent mille milliards de poèmes (1961) di Raymond Queneau, dove con un libro di sole dieci pagine, ognuna delle quali contiene un sonetto di quattordici versi, ciascuno su una striscia di carta, vengono generati, componendo in modo diverso le strisce, 1014 sonetti (centomila miliardi).
I mutamenti sono quindi più complessivi, relativi alle modalità e ai contesti della tecnologia elettronica: prima di tutto l’aumento di velocità dei processi progettuali ed esecutivi, che implica la possibilità di valutare rapidamente diverse alternative (con il risvolto di limitare però il tempo della riflessione); quindi tutte le potenzialità dinamiche risultanti dall’animazione, resa assai più gestibile; e ancora la consultabilità delle im-mense risorse in rete. Da tener presenti, peraltro, anche gli aspetti meno positivi: la postura tipica dell’operatore al computer, con il corpo quasi immobile, difficilmente può essere considerata liberatrice di grandi potenzialità ideative, rispetto alla molteplicità di movimenti e di operazioni richiesta dalle procedure tradizionali. L’attuale fase di evoluzione della tecnologia elettronica, a ben vedere, può ancora essere considerata primordiale, e si confida quindi negli sviluppi a venire: schermi flessibili, input vocale e gestuale, processori quantistici e tutto ciò che per ora viene prefigurato dalla narrativa fantascientifica. Si aggiunga che molte innovazioni, pur essendo già a punto, devono attendere che l’investimento nella ricerca effettuata in precedenza sia pienamente ammortizzato dalla presenza nel mercato delle tecnologie che ne sono risultate.
Insieme alla parallela trasformazione degli assetti sociali e produttivi (con la progressiva scomparsa della ‘bottega’ artigianale, ormai inadeguata alle esigenze del mercato), la tecnologia elettronica sta modificando profondamente il ruolo sociale del designer della comunicazione. È in atto, infatti, una sostanziale ridefinizione delle mansioni associate, perché gran parte di quelle tradizionali, com’è giusto che sia, vengono sempre più svolte da operatori di vario tipo che posseggono spesso solo una conoscenza di base nella gestione di un computer. Sono ormai disponibili software di facile acquisizione che assicurano uno standard qualitativo medio per la realizzazione di artefatti di uso corrente: pieghevoli promozionali, cataloghi commerciali, bollettini aziendali, siti web, prodotti di piccola editoria e così via vengono ormai prodotti da personale non specializzato.
Questo processo è in atto da sempre. Roberto Calasso, rievocando la storia della casa editrice Adelphi, così scrive: «Volevamo poi far a meno dei grafici, perché – bravi e meno bravi – erano accomunati da un vizio: qualsiasi cosa facessero, appariva subito come ideata da un grafico, secondo certe regole un po’ bigotte che osservavano i seguaci della vulgata modernista» (In copertina metteremo un Beardsley, «la Repubblica», 28 dic. 2006). Un prestigioso editore, quindi, ha progettato l’immagine della sua intera produzione, una delle più apprezzate e riconoscibili del panorama italiano e non solo, senza far ricorso a specialisti esterni. Il computer non fa che moltiplicare questa tendenza, non solo del tutto legittima ma senz’altro auspicabile: è evidente che, nel caso ne abbia la possibilità e gli strumenti, chi ha un’esigenza di comunicazione può ormai risolverla in modo appropriato ed economico. In definitiva è questa la ragion d’essere del computer da tavolo e il motivo della sua diffusione: il fatto di fornire a qualunque generico operatore un’estensione delle proprie potenzialità. Per quel che riguarda la realizzazione di artefatti comunicativi, il computer consente di gestire in proprio, fino all’utilizzazione di una stampante da ufficio, processi che in precedenza erano delegati, a pagamento, alla competenza di personale tecnico specializzato che ora rischia di apparire parassitario. I professionisti del design, come qualunque altra categoria professionale, esprimono spinte corporative di autoperpetuazione: hanno di fronte a sé la sfida di riuscire a superarle. Il ruolo richiesto è quello di intellettuali tecnici, provvisti di solide basi che li mettano in grado di interagire efficacemente all’interno di gruppi di lavoro interdisciplinari.
Nuove acquisizioni concettuali
Ci occuperemo qui, più che delle singole categorie merceologiche e dei particolari settori applicativi, destinati a moltiplicarsi e diversificarsi in modi imprevedibili, di alcune questioni che appaiono oggi cruciali per le prospettive del design della comunicazione; questioni teoriche e metodologiche di natura generale che ne costituiscono le premesse.
Prima di tutto, la scrittura, la forma della scrittura. È la base imprescindibile del design della comunicazione: è arduo, infatti, parlare di comunicazione in senso stretto, e di comunicazione visiva in particolare, in assenza di scrittura. La sua comprensione, la sua gestione e la sua progettazione ne costituiscono il fondamento necessario. Le elaborazioni più recenti tendono a mettere in discussione una serie di luoghi comuni relativi alla scrittura, che appaiono oggi piuttosto come pregiudizi tipici della storia culturale europea (Harris 2000). Una pur breve esposizione della questione può aiutare a fare chiarezza su quali siano attualmente le sfide poste al design della comunicazione, che in tutte le sue forme potrebbe ben essere descritto come design della scrittura.
Va rivista, in primo luogo, l’opposizione che viene di consueto instaurata tra immagine e scrittura. Questa opposizione sembra ignorare che la scrittura, intrinsecamente, ha sempre e comunque una forma, anzi molte forme. La scrittura, rispetto ad altri tipi di immagini, gode certo di più strette relazioni con il linguaggio verbale; d’altra parte è anche vero che in essa convivono sempre aspetti che con il discorso orale hanno poco a che fare. Si vedrà che non è possibile tracciare linee di demarcazione precise tra scritture orientate al linguaggio e scritture che non lo sono, e tra queste ultime e le immagini in generale; e come ormai comincino a essere elaborati strumenti concettuali che ridefiniscono la nozione di scrittura.
Un’altra questione di rilievo è rappresentata dalle nuove direzioni di ricerca. Le neuroscienze, infatti, in anni recenti hanno potuto servirsi di strumenti di osservazione diretta dell’attività cerebrale, come la tomografia a emissione di positroni e la risonanza magnetica, che ne hanno consentito uno sbalorditivo sviluppo. La neurofisiologia evolutiva, la disciplina che studia la mente alla luce dell’evoluzione biologica dei suoi processi, può ben essere definita la frontiera della conoscenza del comportamento comunicativo umano. Da tali progressi iniziano a essere riconfigurate le tradizionali discipline utilizzate dal design in relazione alla conoscenza delle attività percettive e cognitive. Mentre l’approccio ‘classico’, che derivava dal Grundkurs (corso di base) della Bauhaus e poi dal basic design della sua diaspora americana e dalle varie esperienze legate al mondo delle avanguardie, si basava in definitiva su metodi induttivi, costruiti sull’interrogazione dei soggetti della percezione, oggi si comincia a esplorare quello che Giovanni Anceschi (2005) definisce new basic design, attento alle acquisizioni della neurofisiologia. Particolare importanza assumono in questo contesto le ricerche in campo sinestesico, che rivelano affascinanti relazioni tra le attività visive e uditive, e dalla cui integrazione emergono prospettive progettuali interamente nuove (Riccò 2008). La neuroestetica, inoltre, inizia a dar conto di come l’esperienza dell’arte sia collegata al funzionamento del cervello (Zeki 1999).
La ricerca antropologica e l’archeologia hanno contribuito a fondare nuove prospettive nella definizione della comunicazione. Interi subcontinenti, l’Africa subsahariana e l’Australia, hanno rivelato insospettate ricchezze e complessità di strategie comunicative. La scrittura maya è stata finalmente decifrata e quella azteca comincia a essere riconosciuta come tale: ambedue aprono prospettive teoriche e progettuali (Boone 2000). Le tradizioni artiche e oceaniche hanno evidenziato nuovi aspetti del problema. La stessa storia della comunicazione nel Medio Oriente antico comincia a poter essere riscritta (Schmandt-Besserat 2002).
Alcuni ricercatori, riprendendo le riflessioni di Nelson Goodman (1906-1998) su notazione e rappresentazione, iniziano a ridefinire la nozione di immagine (Elkins 1999). La semiotica può avvalersi di nuove categorie interpretative: dalla nozione di entassi (introdotta dal semiologo francese Pascal Vaillant nel 1999), che permette di studiare più efficientemente le relazioni interne a un segno, a quella di sinsemia, che affronta l’analisi semantica delle forme non lineari di scrittura come, per es., quella azteca (Perri 2007). Dallo sviluppo sistematico di alcune idee di uno dei fondatori della semiotica, Charles S. Peirce (1839-1914), emerge la centralità del diagramma per la descrizione delle basi cognitive del pensiero (Stjernfelt 2007).
La scrittura
Base della descrizione tradizionale della scrittura, come essa viene profondamente radicata sin dalla prima infanzia dal nostro sistema educativo, è un celebre passo di Aristotele: «Quelli della voce sono simboli dei moti dell’anima, e i segni scritti sono simboli di quelli della voce» (De interpretatione, 16 a, 3-4). Una netta affermazione, quindi, di uno schema concettuale a tre livelli: la mente si esprime attraverso la voce, che poi viene trascritta per mezzo della scrittura. La gran parte della linguistica del Novecento ha assunto, o piuttosto dato per scontato, questo schema. Ferdinand de Saussure (Cours de linguistique générale, 1916), nel rivendicare il ruolo del discorso orale come oggetto della linguistica, non fa che replicarlo con termini diversi, sostenendo che lingua e scrittura sono due distinti sistemi di segni: l’unica ragion d’essere del secondo è la rappresentazione del primo. Di fatto, con quasi l’unica eccezione di Josef Vachek (1909-1997) del Circolo linguistico di Praga, la linguistica non si è interessata della scrittura, e non ha mai sottoposto le affermazioni aristoteliche a una revisione critica.
Risvolto complementare dell’idea di scrittura come pura trascrizione del parlato è che l’alfabeto sia l’imperfettibile apice di un processo evolutivo che parte dalla raffigurazione (il pittogramma), passa poi attraverso l’ideogramma per approdare infine, in un primo tempo sotto forma di sistemi sillabici, alle rappresentazioni fonetiche. Il cosiddetto primato dell’alfabeto e la linearità di un presunto schema evolutivo cominciano invece ad apparire vacillanti, riflesso di ideologie eurocentriche (Harris 2000). Corollario di questi luoghi comuni è la diffusa indifferenza alle forme visibili della scrittura, quelle non riconducibili all’oralità e al modello trascrittivo: mentre ci si aspetta che una persona ‘di cultura’ sia in grado di distinguere una facciata barocca da una neoclassica, raramente si richiede che riconosca un carattere tipografico del Seicento rispetto a uno dell’Ottocento.
L’idea della scrittura come pura trascrizione del parlato non tiene conto di quanto sia dubbia la corrispondenza tra segni grafici e fonemi, che invece ne sarebbe il postulato. Sin dall’Alto Medioevo, con la progressiva introduzione dei segni d’interpunzione, delle abbreviazioni, delle scansioni e titolazioni, delle diverse modalità semantiche di disposizione dei testi sulla pagina, e poi con le varianti della scrittura tipografica (tondo, corsivo e nero), la buona fruizione di un testo dipende infatti da una serie di convenzioni grafiche che non hanno corrispettivo nella lingua parlata.
Scritture non alfabetiche
Archeologia e antropologia culturale hanno recentemente addotto una vasta serie di argomentazioni che intaccano gli schemi tradizionali. Uno studioso italiano di preistoria, Francesco d’Errico, così introduce un suo saggio sui sistemi notazionali del Paleolitico superiore: «La scrittura non è un semplice sostituto visivo della parola, e l’analisi dei più antichi sistemi di segni dimostra che la sua storia non può essere seguita come un percorso ideale che vada dalla pittografia alla scrittura alfabetica» (d’Errico 2002, p. 5). L’archeologa americana Denise Schmandt-Besserat ha studiato i piccoli gettoni in terracotta (tokens), rinvenuti in grande quantità nei siti mediorientali e databili fin dal 6° millennio a.C., antecedenti delle prime scritture cuneiformi. Si tratta di contrassegni per diversi tipi di merci, che essi accompagnavano con la funzione di una moderna bolla di consegna. Le loro forme non hanno alcun riferimento raffigurativo con le merci rappresentate: costituivano quindi un codice notazionale stabilito per convenzione. Tuttavia una parte di queste forme in seguito sono state adattate, conservando il medesimo significato, alla scrittura su tavoletta: risulta quindi che i primi segni di scrittura non avevano un’origine pittografica (Schmandt-Besserat 2002).
La storia della recente decifrazione della scrittura maya è esemplare. Per quanto il sistema notazionale numerico e calendariale fosse noto da tempo, si negava che quella che poi è risultata essere una scrittura fonetica potesse essere tale. Benché lo studioso sovietico Yuri Knorozov avesse intuito già dal 1947 la vera natura dei glifi maya, gli americanisti si ostinavano a ritenere che si trattasse di semplici segni decorativi, e si sono dovuti aspettare decenni perché una decifrazione sistematica avesse inizio. Ne è risultata, tra l’altro, la rivalutazione di una magnifica tradizione calligrafica, paragonabile a quelle araba e cinese. Il problema consiste nel fatto che si tratta di un sistema di scrittura del tutto peculiare (i grafemi sillabici vengono configurati in glifi, che rappresentano le parole), che non può trovare alcun posto nello schema ‘dal pittogramma all’alfabeto’.
Quella azteca stenta a essere riconosciuta come scrittura, e talvolta viene ancora definita come pittografia. Tuttavia in realtà pittografie vere e proprie non ne esistono e non ne sono mai esistite, per due ordini di ragioni: a) è piuttosto difficile che segni stilizzati vengano correttamente intesi come raffigurativi senza preventivi accordi che riguardino le convenzioni grafiche applicate; b) è quanto mai arduo costruire un discorso visivo a prescindere dalle strutture sintattiche e dai repertori retorici di una lingua naturale di riferimento. I codici aztechi, sia i rari sopravvissuti alla conquista spagnola sia quelli redatti nel primo periodo coloniale, di fatto sono veri e propri esempi di scrittura sinsemica, ricchissimi repertori di strategie comunicative (Boone 2000).
Tra i sistemi di scrittura non alfabetici oggi in uso, quello cinese merita qualche riflessione. Considerato un relitto arcaico e poco studiato dai linguisti occidentali, si pensava fino a pochi anni fa che, con l’avvento dell’era informatica, fosse destinato a essere sostituito dall’alfabeto latino. Quasi per paradosso, sono state invece le tecnologie elettroniche a restituirgli piena plausibilità, perché ora, con lo standard Unicode per la codifica dei testi, il cinese è perfettamente gestibile in qualunque software applicativo, e qualsiasi argomentazione sulla sua scarsa efficienza si rivela pretestuosa di fronte all’evidenza, e rivela piuttosto qualche carenza concettuale nei criteri sui quali si basa. Un numero abbastanza considerevole di persone, com’è noto, utilizza infatti la scrittura cinese per gli scopi più diversi (dalla poesia alla fisica delle particelle) e non sembra che da ciò derivino particolari problemi (è vero invece che il sistema non è esportabile, perché del tutto evolutosi sulle peculiari caratteristiche della lingua cinese). I luoghi comuni esistenti sulla difficoltà di apprendimento e sulle decine di migliaia di caratteri da memorizzare alla verifica dei fatti si dimostrano futili: si pensi, per es., che il Vocabolario Treccani (5 voll., 20093) contiene 800.000 tra lemmi e accezioni. Si tratta in realtà di un sistema fortemente strutturato, nel quale gli aspetti visivi non possono in alcun modo essere dimenticati, come di consueto accade invece con l’alfabeto latino: con sei tratti base si compongono meno di duecento caratteri fondamentali, i cosiddetti radicali, con i quali si formano tutti gli altri.
Il sistema coreano hangul è del tutto peculiare, perché non arriva, come tutti gli altri sistemi di scrittura, da una storia plurisecolare o plurimillenaria di adattamenti, prestiti e pratiche scrittorie, ma è stato ideato ‘a tavolino’, intorno alla metà del 15° sec., per dotare la lingua coreana di un sistema di trascrizione più efficiente di quello cinese sino ad allora in uso. Nella scrittura coreana ci sono ventiquattro segni alfabetici (dieci per le vocali e quattordici per le consonanti), i quali però vengono configurati in sillabe, iscritte in un quadrato virtuale, per mezzo di semplici regole compositive che prescindono dalla sequenza dei fonemi nella lingua parlata. La riga di scrittura (che per l’inesperto può in qualche modo somigliare graficamente a quella di un testo in cinese) presenta di conseguenza una successione di unità visive che non sono né lettere né parole, ma sillabe. Vedremo in seguito come la scrittura coreana patisca oggi proprio dell’essere stata forzosamente ‘alfabetizzata’.
Il sistema di scrittura giapponese, che incorpora in quello cinese diversi repertori di segni sillabici, è ancora più complesso; altrettanto ovviamente, non appare aver implicato grandi problemi all’ingresso di chi lo usa nel pianeta globalizzato. È possibile ancora osservare che il bambino giapponese, come quello cinese e quello coreano, apprende durante il suo percorso scolastico anche l’alfabeto latino; è quindi presumibile che i sistemi di scrittura orientali diventeranno in un prossimo futuro veri e propri sistemi misti. Altrettanto presumibile è che qualcosa di simile accada anche in quelli alfabetici.
Nuovi panorami
In The domestication of the savage mind (1977; trad. it. 1981), l’antropologo Jack Goody, più recentemente noto per gli studi di storia globale, propone uno schema triangolare, alternativo a quello aristotelico: parola e scrittura sono collocati allo stesso livello, ambedue espressioni tra loro interagenti di ciò che accade nella mente. Il linguista Giorgio Raimondo Cardona, nel suo Antropologia della scrittura (1981), parla di sistemi grafici nei quali «ciò che ‘precipita’ nei segni è direttamente un universo concettuale e non la sua codificazione in termini linguistici» (p. 51). Il semiologo Roy Harris (2000) avvia la costruzione di nuovi modelli interpretativi, alla luce di un approccio ‘integrazionale’, che cioè tenga conto nel loro complesso dei contesti nei quali avviene l’atto scrittorio. Nel suo precedente saggio, Signs of writing (1995), Harris affermava: «Ciò che è rimasto sostanzialmente inavvertito, è che il computer è uno strumento che con il suo potere innovativo sovverte le conoscenze tradizionali sulla relazione fondamentale tra lingua, parola e scrittura. Sgretola la distinzione tra verbale e non verbale. Ridefinisce la nostra nozione di unità di comunicazione. [...] La nuova tecnologia offre una forma di comunicazione che frantuma il mito della scrittura come sistema di comunicazione ancillare, asservito alla lingua parlata. Fa anche giustizia dell’idea che la scrittura sia solo un modo particolare di comunicazione e spalanca un futuro nel quale la scrittura sarà il processo essenziale, sistematicamente creativo, e la lingua parlata un semplice commento a ciò che la scrittura ha creato. Questo radicale scambio di ruoli, possiamo ragionevolmente presumere, sarà la chiave della psicologia dell’educazione nel prossimo secolo» (pp. 162-63).
Progettare la scrittura
Lo strumento tecnico e concettuale primario per progettare comunicazione è la tipografia. In italiano, con tipografia (scrittura con i tipi), purtroppo si denomina anche lo stabilimento dove si stampa, uso residuo dell’epoca in cui la stampa era solo quella realizzata con i caratteri tipografici. Con questo termine si deve qui più correttamente intendere l’insieme delle procedure che permettono di replicare a piacere i segni della scrittura una volta che essi siano stati definiti. Tipografia, quindi, è sia la realizzazione di caratteri tipografici sia la loro successiva disposizione, e tipografo è chi si occupa di tipografia (e non lo stampatore, il quale può avere ben poco a che fare con ciò). Più in generale, la tipografia assicura oggi la trasmissione della conoscenza. Ne risulta, e non è poco, che le problematiche e le contraddizioni a essa connesse sono inestricabilmente legate allo stato e all’auspicabile evoluzione non soltanto del design ma anche dell’intera società umana (Unger 2006).
Nei primi anni dell’era informatica, sulla scorta delle celebri riflessioni di Marshall McLuhan sul ritorno all’oralità, pareva che la ‘morte di Gutenberg’, vale a dire la progressiva scomparsa della tipografia e delle sue modalità conoscitive, fosse ormai vicina. Con l’avvento della tipografia digitale (la tipografia al computer), l’attesa si è rivelata illusoria.
Precisiamo che il termine font indica l’insieme dei segni di scrittura (caratteri tipografici) contenuti in un unico file. Nell’informatica è stato assunto dal gergo tipografico inglese, dove già dal 16° sec. denominava l’insieme dei caratteri ottenuti attraverso un’unica fusione in lega di piombo. A sua volta, l’inglese font era stato assunto dal sostantivo femminile francese fonte («fusione»), usato nel linguaggio della tipografia francese assai più avanzata; ne risulta che in italiano la parola (usata al femminile o al maschile) andrebbe meglio declinata al femminile. Ebbene, si valuta che le font digitali attualmente in circolazione siano dell’ordine delle centinaia di migliaia, centinaia di volte di più di quante ne siano state realizzate in metallo dall’introduzione della stampa a caratteri mobili in poi. L’apoteosi di Gutenberg, piuttosto che la sua morte.
D’altra parte, come per tutto il resto dello specifico frasario, non si tratta solo di prestiti terminologici da parte di un nuovo ambito tecnologico. Le procedure fondamentali della tipografia digitale replicano passo per passo quelle della tipografia tradizionale, a partire dal fatto che ogni segno è circoscritto da un rettangolo virtuale, assolutamente analogo al parallelepipedo di lega di piombo che costituiva il supporto del carattere da stampa. E così è del tutto analoga la sequenza delle operazioni necessarie per il compimento dell’atto dello scrivere: i segni vengono prima predisposti nella loro forma definitiva, quindi sono collocati in appositi contenitori (il cassetto del compositore a piombo, come lo specifico folder del computer) e infine vengono prelevati e giustapposti nella riga di scrittura. La tastiera, d’altronde, non è altro che quella della macchina da scrivere, in uso dalla seconda metà dell’Ottocento, applicata al computer dopo aver trasformato i tasti in interruttori.
Certo è ben comprensibile, di fronte all’obiettivo della scrittura elettronica, che gli avventurosi pionieri dell’informatica non abbiano fatto altro che un calco della tecnologia esistente. La scrittura al computer, inoltre, ha introdotto anche qualche impoverimento rispetto a quella a piombo. Sin dai primordi della stampa a caratteri mobili i tipografi sono stati consapevoli della complessità dei meccanismi preposti alla lettura, in particolare del fatto che la percezione di una forma non sia indifferente alle sue dimensioni: perché abbiano una resa percettiva analoga a quelle più grandi, è necessario che le forme più piccole abbiano i tratti più spessi e che le distanze tra loro siano leggermente maggiori. Venivano così incise diverse serie di caratteri in piombo, una per ciascuna dimensione di composizione. La stessa font, con lo stesso identico disegno, viene invece utilizzata con il computer qualunque ne sia la dimensione. Le strade da percorrere avrebbero in effetti potuto essere ben altre, assai più innovative. Dalla storia risulta infatti un’esasperata digitalizzazione, e anche qualche incongruenza, come nel caso del sistema di scrittura coreano.
Lo standard attuale per la codifica elettronica della scrittura è quello messo a punto, a partire dal 1991, dall’Unicode consortium. Il precedente standard ASCII (American Standard Code for Information Interchange), nella sua forma estesa, codificava i caratteri nel sistema binario di 0 e 1 con una stringa di 8 bit: la lettera ‘A’ maiuscola, per es., veniva codificata dalla sequenza 01000001. Il totale delle combinazioni possibili, con 8 bit, è 28, pari a 256, sufficienti per la lingua inglese e per la simbologia di base, ma largamente inadeguate persino per codificare tutti i segni diacritici in uso nelle varianti dell’alfabeto latino. Con la diffusione dei computer le esigenze di interscambio sono ovviamente aumentate, parallelamente all’aumento della velocità di elaborazione: Unicode consortium ha potuto quindi proporre, e infine far accettare, uno standard di 16 bit, nel quale le combinazioni possibili salgono a 216, pari a 65.536, e dove la traduzione binaria della ‘A’ diventa 0000000001000001. È stato così possibile non solo codificare tutti i segni diacritici applicabili all’alfabeto latino, e agli alfabeti diversi, come quello greco, quello cirillico e quelli indiani e sudorientali, ma anche rendere elettronicamente intercomunicabili sistemi di scrittura radicalmente differenti, in particolare quello cinese, quello giapponese e quello coreano.
Ma proprio il sistema coreano, come si accennava sopra, suscita qualche perplessità. In Unicode ne vengono infatti codificate tutte le possibili sillabe, anche quelle che quasi non appaiono nella lingua parlata, per uno sconcertante totale di circa 11.000, che occupano una notevole percentuale dell’intero spazio disponibile. Poiché in realtà, come si è detto in precedenza, le sillabe della scrittura coreana sono componibili con algoritmi quanto mai semplici, esistevano già software in grado di generarle correntemente. L’adozione di Unicode come standard, quindi, ha portato in questo caso a risolvere un problema di comunicazione in modo pesante, a tutto scapito della semplicità e dell’eleganza concettuale. Analoghe considerazioni si possono fare per i caratteri cinesi, anch’essi componibili (per quanto la questione sia qui nettamente più complessa) a partire dai caratteri fondamentali, i radicali. Queste incongruenze sono il riflesso della sistematica segmentazione insita nell’alfabeto latino.
Caratteri digitali
I caratteri tipografici sono gli elementi costitutivi per mezzo dei quali, successivamente, si progetta la comunicazione visiva. Nella progettazione dei caratteri (type design) è all’opera l’intero spettro delle problematiche del design della comunicazione: la buona forma, la valutazione della risposta dell’utente, ogni tipo di questioni connesse alla percezione, l’ineludibile confronto con la storia, il controllo tecnico delle variabili del disegno, la conoscenza delle procedure informatiche, la considerazione di un quid così complesso come la leggibilità, e infine il fatto che si tratta della progettazione di sistemi, di serie molto vaste di segni che devono formare insiemi coerenti. Va tenuto presente che il problema progettuale diventa interessante quando si tratta di caratteri da testo, ossia da utilizzare per la composizione corrente, oppure di caratteri per usi specifici (segnaletica, visualizzazione su schermo, notazioni scientifiche, lettura in dimensioni molto piccole ecc.); nel caso di caratteri per titolazioni o per usi effimeri, i vincoli progettuali si riducono fin quasi a scomparire, e ognuno agisce a proprio piacimento secondo le circostanze.
La tipografia del Novecento è stata segnata dalla compresenza, e dal rapporto talvolta drammatico, tra tradizionalisti e modernisti. I tradizionalisti (Stanley Morison, Beatrice Warde, Jan van Krimpen e così via) hanno svolto un immenso lavoro di recupero, fornendo magnifiche interpretazioni di caratteri tratti dal grande patrimonio dei secoli precedenti, sempre però pensati per disposizioni sulla pagina di tipo piuttosto convenzionale. I modernisti (Jan Tschichold, Piet Zwart, László Moholy-Nagy ecc.) hanno invece liberato lo spazio della pagina, ma non hanno prodotto caratteri tipografici effettivamente utilizzabili. Il diverso approccio delle due scuole è una delle ragioni per cui il tradizionalismo si è sostanzialmente riversato nella fattura del libro, mentre il modernismo ha modellato piuttosto gli stampati tecnici e commerciali. Soltanto negli ultimi decenni del Novecento sono apparse alcune prime interessanti integrazioni tra il know-how del tradizionalismo e le nuove proposte del modernismo, in particolare nei lavori di Adrian Frutiger ed Erik Spiekermann. Ma la contrapposizione permane ancora (Kinross 2004).
L’informatica, si diceva qualche anno fa, ha ‘democratizzato’ la tipografia. Con le tecnologie tradizionali la realizzazione di un carattere da testo era un’impresa non indifferente: personale tecnico specializzato, apparecchiature costose e lunghi tempi di lavorazione (e quindi investimenti finanziari), distribuzione sul mercato. Oggi è sufficiente un computer da tavolo con l’appropriato software applicativo, e chiunque può farsi una font in poche ore; ma il rapido sviluppo della tipografia digitale comincia a rendere illusoria la presunta democratizzazione. Un carattere da testo richiede che se ne realizzino tutte le varianti (tondo, corsivo, nero ed eventualmente maiuscoletto); con la diffusione dello standard Unicode, inoltre, il numero dei segni presenti in ciascuna font è cresciuto nettamente, perché oggi è sempre più indispensabile che siano presenti tutti i segni diacritici per mezzo dei quali l’alfabeto latino viene declinato nelle diverse lingue. Poi c’è la simbologia matematica di base, le cifre a spaziatura costante oppure differenziata, gli esponenti, che andrebbero disegnati a sé, come il maiuscoletto, perché usare i segni normali significa ridurne eccessivamente lo spessore dei tratti. Una singola font professionale per testo di un buon produttore (che abbia magari anche il greco o il cirillico) può contenere ora alcune migliaia di segni. Per il problema cui si accennava sopra, della necessità di compensazione al variare della dimensione, la risposta attuale è quella di fornire diverse font con diversi disegni, a seconda che vengano utilizzate per titoli, sottotitoli, testi o note; e si usa ormai fornire il carattere in almeno quattro varianti di peso (chiaro, normale, nero e nerissimo). In totale, trentadue font e circa sessantamila segni. È chiaro che lo si può fare solo con un’organizzazione produttiva e investimenti adeguati. Si pensi poi che questo lavoro lo si sta facendo anche per tutti gli alfabeti non latini (arabo, ebraico, cirillico, devanagari ecc.), oltre che per i sistemi di scrittura orientali.
Questo enorme sviluppo della tipografia ha portato sostanziali mutamenti nel mondo della comunicazione: non vi è ormai alcun grande quotidiano o settimanale internazionale che non sia composto con caratteri tipografici specificamente progettati. Il carattere è l’elemento costitutivo essenziale dell’immagine grafica di un giornale, ed è evidente che quest’immagine non la si può progettare se non si progetta contemporaneamente anche un carattere. Se nel 1932 soltanto «The times» di Londra poteva permettersi un’operazione di tale portata (durata tre anni e dalla quale ci viene l’unico carattere tipografico diffusamente conosciuto, il Times, appunto), oggi qualunque grande gruppo editoriale può affrontarla serenamente. L’ultima impresa di grande rilievo è quella di «The guardian», che dal 12 settembre 2005 esce interamente composto nei caratteri progettati dal giovanissimo designer statunitense Christian Schwartz (due anni di lavoro e circa duecento font).
Ma questo sviluppo ha portato anche un nuovo manierismo, del tutto antitetico alle prefigurazioni di McLuhan e dei suoi epigoni. In merito al dibattito tra modernismo e tradizionalismo, la gran parte della tipografia di alto livello qualitativo è di tipo tradizionalistico. La maggior parte della produzione libraria in alfabeto latino viene composta in caratteri che sono redesign o interpretazioni di caratteri tradizionali; in Italia il carattere da libro più diffuso è tuttora il Garamond Simoncini, commissionato dall’editore Einaudi alla fine degli anni Cinquanta, basato sui modelli del tipografo francese Claude Garamond della prima metà del Cinquecento. Modelli quindi, come tutti quelli dell’epoca, basati a loro volta sulla scrittura umanistica. Ci si può chiedere come mai si insista a utilizzare forme di cinque secoli fa: forse la risposta è che si tratta di retorica conservatrice, perché non è in alcun modo possibile dimostrare che queste forme siano più leggibili di quelle elaborate nei secoli successivi. Le numerose prove di leggibilità svolte nel corso degli anni portano tutte alla stessa conclusione: una volta che siano assicurate le condizioni di buona visibilità, ciascuno legge meglio i caratteri ai quali è più abituato (Potenzialmente leggibile, 2006). Ma non vi è dubbio che oggi qualunque soggetto mediamente alfabetizzato sia quotidianamente esposto a una molteplicità di caratteri dalle forme più diverse. Si aggiunga che, nell’alfabeto latino, mentre le lettere minuscole sono state sottoposte a un lungo processo che le ha portate ad assumere le forme attuali a partire dalle maiuscole romane e a configurarle in un insieme coerente, le maiuscole sono rimaste identiche a quelle iscrizionali di duemila anni fa, costituendo come allora un insieme disomogeneo che sistematicamente evidenzia le incongruenze di spaziatura tra le lettere. Siamo dunque pronti, sulla scorta delle acquisizioni che sempre più arrivano dalle ricerche neurofisiologiche, ad aspettarci modifiche nella forma delle lettere.
Alternative
Uno dei padri dell’informatica, Donald E. Knuth della Stanford University, ha ideato quello che ormai da vent’anni è lo standard di scrittura al computer per le pubblicazioni scientifiche, il linguaggio TeX, che permette di configurare simbologie matematiche complesse. Come supporto al TeX, Knuth ha realizzato Metafont, un programma per la realizzazione di caratteri con il quale i segni non vengono disegnati ma descritti per via matematica. In questo modo è possibile inserire nella descrizione fattori variabili, al variare dei quali viene modificata la forma dei segni. È possibile generare così, a partire da una singola descrizione, un illimitato numero di varianti (da chiaro a nero, da stretto a largo, da tondo a corsivo ecc.). Si tratta di un approccio che rovescia l’acronimo WYSIWYG (What You See Is What You Get, ossia ciò che vedi è ciò che ottieni, mai vero in realtà), simbolo della diffusione del computer, nel prometeico seppur impronunciabile WYGIWYW (What You Get Is What You Want, ciò che ottieni è ciò che vuoi). Un’entusiasmante sfida per il design, che però non ha mai seguito questa via, per la semplice ragione che i designer sono mediamente sprovvisti di basi matematiche.
Da citare, inoltre, un’interessante ricerca di scrittura non tipografica al computer. Il matematico Edo H. Dooijes, nell’ambito di ricerche sulle dislessie infantili, ha presentato nel 1991 un programma che simula la scrittura a mano, facendo uso di semplici procedure matematiche. Le lettere vengono tracciate da un punto che percorre la superficie di un modello analogico costituito da un sistema di cilindri: non ci sono quindi ‘tipi’ e non c’è tipografia, perché lo scrivere diventa un fatto interamente dinamico. Anche qui, con le opportune variabili, possono essere generate varianti illimitate; e anche questa strada, purtroppo, non è ancora stata percorsa dal design.
Il dispiegamento del testo
Il libro rimane un luogo fondamentale per la definizione del design della comunicazione: ci vorrà ancora tempo prima che l’e-book raggiunga l’interattività del supporto cartaceo. Il semplice atto di sfogliare un libro permette di assumere da esso, nel giro di pochi secondi, un considerevole numero di informazioni: l’estensione e la densità; l’articolazione in capitoli, paragrafi e sottoparagrafi; la frequenza e la qualità delle illustrazioni; la presenza e la struttura degli apparati (note, appendici, indici, bibliografia, mappe ecc.). Il fruitore esperto, inoltre, ne valuterà altre ancora, a partire dai caratteri tipografici e dalla qualità dell’editing e dell’impaginazione. Tutte informazioni che sul supporto elettronico, per quanto si aprano altre notevoli potenzialità (la possibilità di scegliere le condizioni di leggibilità ottimali, la ricerca e il rapido collegamento a link interni o esterni), ancora si acquisiscono più faticosamente. Va innanzitutto sottolineato un qualche ritardo nella forma del libro, elettronico e cartaceo, e come essa risulti per il momento, nella grande maggioranza della produzione, piuttosto tradizionale rispetto alle possibilità che vengono offerte dai nuovi orizzonti della comunicazione.
Nella produzione libraria corrente i vincoli economici pesano notevolmente. Muovere le pagine in disposizioni sinsemiche corrisponde comunque a maggiori superfici di bianco; quindi più pagine e più carta, per non parlare del maggiore investimento richiesto da parte dell’editore per il lavoro di impaginazione. Ne risultano ineluttabilmente libri quanto mai convenzionali, quasi come se la sperimentazione delle avanguardie fosse stata del tutto dimenticata.
Cominciano comunque ad apparire libri innovativi dal punto di vista formale. Un esempio fra tutti è House of leaves dello scrittore statunitense Mark Z. Danielewski, pubblicato nel 2000 (trad. it. Casa di foglie, 2005). A differenza delle opere delle avanguardie, sempre realizzate per un pubblico molto ridotto, si tratta in questo caso di un vero e proprio romanzo popolare (lo testimoniano il successo e le numerose traduzioni, affrontate nonostante l’impaginazione impegnativa), sulla scia della narrativa fantasy e neogotica. È una vicenda piuttosto complicata, con diverse storie che si incastrano l’una nell’altra parallelamente a come si incastrano misteriosamente i diversi ambienti della casa del titolo (dove le foglie in realtà sono i fogli del libro). Può piacere o non piacere (o meglio si può avere o non avere lo stimolo alla lettura): sta di fatto che l’autore ha dato al romanzo una forma tipografica strettamente funzionale alla narrazione, con pagine ‘normali’ che si alternano a pagine rovesciate, inclinate o quasi vuote, con un sistema di note all’interno di altre note, con l’inserimento di codici dei quali il lettore deve trovare la chiave. A seconda delle edizioni vi è poi, per es., la presenza o meno di diversi colori di stampa.
Danielewski ha sfruttato le potenzialità della videoscrittura, e quindi dell’impaginazione in proprio, e per questo rappresenta un caso interessante. Prefigura l’attuazione del visionario programma di El Lissitzky pubblicato nel 1923 (Topographie der Typographie, «Merz», 4) «Le parole del foglio stampato vengono guardate, non udite. [...] La configurazione dello spazio del libro [...] deve corrispondere alle tensioni di trazione e di pressione del contenuto. [...] Il libro nuovo esige uno scrittore nuovo» (trad. it. in R. Kinross, Tipografia moderna. Saggio di storia critica, 2005, p. 117). È un programma ancora tutto da esplorare. Quando per la lettura saranno disponibili efficienti supporti elettronici, sarà anche superato il problema del dispendio di carta rispetto al bianco della pagina.
Design dell’informazione
La pubblicazione nel 1936 da parte di Otto Neurath di International picture language, il manifesto programmatico del sistema Isotype (International system of typographic picture information), segna la nascita ufficiale di quello che nella terminologia attuale viene definito information design. Vale la pena di accennarne, per quanto, secondo le premesse qui stabilite, ci sia una sostanziale coincidenza tra design dell’informazione e design della comunicazione. Neurath, una notevole figura di intellettuale impegnato a tutto campo (era stato, con Rudolf Carnap e Kurt Gödel, uno dei membri del Circolo di Vienna, fondato nel 1922 da Moritz Schlick), si era trovato ad affrontare la rappresentazione di dati statistici come direttore, dal 1924, del Gesellschafts- und Wirtschaftsmuseum di Vienna, e aveva poi elaborato il sistema Isotype con la collaborazione di Marie Reidemeister, del grafico tedesco Gerd Arntz, e poi del linguista inglese Charles K. Ogden, ideatore del BASIC (British American Scientific International Commercial) English, e del tipografo cecoslovacco Ladislav Sutnar, che ebbe poi un notevole ruolo negli Stati Uniti del secondo dopoguerra. Isotype proponeva «una lingua internazionale per immagini [...] nella quale è possibile esprimere proposizioni tratte da qualsiasi lingua naturale del pianeta. [...] L’educazione mediante immagini, realizzata in armonia con il sistema Isotype, contribuirà in modo determinante a dotare le differenti nazioni di un comune sguardo sul mondo» (A. Zaruba, Il mondo dimenticato della moderna comunicazione visuale, «Progetto grafico», 2003, 2, p. 12). Isotype ha avuto enorme influenza: da lì derivano i pittogrammi dell’attuale standard internazionale della segnaletica aeroportuale come quelli che vengono progettati per ogni edizione dei Giochi olimpici.
Isotype appare attualmente più circostanziale di quanto i loro promotori ritenessero: i pittogrammi di Arntz sono infatti legati allo specifico stile figurativo di quell’epoca, e difficilmente possono oggi aspirare all’univoca essenzialità cui tendevano le dichiarazioni programmatiche. Per quanto Neurath fosse ben consapevole del fatto che la sua lingua per immagini doveva essere imparata, c’era una fiducia eccessiva nell’immediatezza dei linguaggi figurativi; fiducia che ha modellato, talvolta in modi aberranti, il design della seconda metà del Novecento realizzato da operatori assai meno avvertiti. Appare ora più chiaro che i codici visivi vanno sempre appresi, proprio come le lettere dell’alfabeto. Non esiste segno che possa presumere di essere ‘intuitivamente’ comprensibile senza uno specifico addestramento, esplicito o implicito che sia. Il segno stilizzato della freccia, così diffuso e apparentemente così immediato, esige una serie piuttosto complessa di premesse, per poter essere capito senza equivoci. Prima di tutto, perché assuma il suo significato simbolico, esso deve essere inteso come freccia, un oggetto che va da un luogo a un altro; ma trattandosi appunto di un segno stilizzato, potrebbe anche somigliare poco alle frecce di cui si ha esperienza (le frecce rappresentate nei codici aztechi, per es., invece di alette hanno piume, a loro volta rappresentate in forma simbolica e certo non immediatamente riconoscibile). Il segno inoltre potrebbe essere letto nella direzione opposta, come una sorta di becco dal quale esce una lingua. Ma una volta che si sia capito che si tratta di una freccia, non ne consegue automaticamente che essa indichi una direzione: potrebbe invece, poiché le frecce fisiche feriscono, segnalare pericolo. Analoghe osservazioni si possono fare per la rappresentazione infantile del Sole come cerchio con i raggi: poiché il Sole non lo si vede così, e poiché è molto difficile che il bambino sia in grado di realizzare un’astrazione simbolica così sofisticata, si tratta di una rappresentazione convenzionale indotta. Il segno, infatti, non viene capito dai soggetti non alfabetizzati di culture che tradizionalmente non adottano quella rappresentazione.
L’esistenza di un lingua visiva, e quindi di una scrittura universale, che prescinda dalle lingue naturali e possa di per sé avere evidenza ‘intuitiva’, appare piuttosto un’utopia che riecheggia quelle seicentesca e settecentesca dei «caratteri reali» di John Wilkins (1614-1672) o della «pasigrafia» di Joseph De Mamieux (1753-1820), delle quali ha raccontato Umberto Eco nel suo La ricerca della lingua perfetta (1993). Saranno forse le neuroscienze a poter indicare in futuro quali strutture visive potranno aspirare al ruolo di segni comunicativi ‘universali’.
Negli anni recenti i temi del design dell’informazione sono stati promossi in particolare da Edward R. Tufte, docente di statistica ed economia politica alla Yale University, in una serie di pubblicazioni che hanno riscosso grande successo non soltanto negli ambienti del design ma anche in quelli della ricerca scientifica, che hanno in gran parte stimolato quanto si sta facendo oggi (Tufte 20012).
Un’interessante novità è la collezione di carte comparative Worldmapper, che si cominciano a vedere anche sulla stampa italiana. Frutto del lavoro di un team della University of Sheffield, nel South York-shire, promosso da Danny Dorling e formato da matematici, statistici, geografi e sociologi, le carte si basano su algoritmi messi a punto da Mark Newman, fisico dei sistemi complessi della University of Michigan. Rappresentano dati statistici su un planisfero nel quale le aree dei diversi Paesi vengono ingrandite o rimpicciolite a seconda dei dati quantitativi immessi, e consentono un’immediata percezione della distribuzione dei fenomeni in macroaree, pur conservando la riconoscibilità dei singoli Paesi.
Sono poi da segnalare designer che sono anche teorici e divulgatori di notevole rilievo, come il nederlandese Paul Mijksenaar, autore, per es., del sistema di informazione dell’aeroporto Schiphol di Amsterdam (dal 2001), e lo statunitense Saul Wurman, ideatore di una fortunata serie di esemplari guide di viaggio, le Access travel guides. Benjamin Fry, formatosi nel Media laboratory del MIT (Massachusetts Institute of Tech-nology), sta elaborando affascinanti sistemi di visualizzazione dinamica delle informazioni genetiche; insieme a Casey Reas, dell’UCLA (University of California Los Angeles), ha inoltre elaborato il linguaggio di programmazione Processing, pensato per il design e la ricerca artistica, ormai molto diffuso tra i giovani designer più consapevoli. Soltanto con la programmazione informatica, infatti, si possono realizzare visualizzazioni veramente efficienti di fenomeni complessi.
Prospettive
Come con l’alfabetizzazione è venuto meno il ruolo dello scriba pubblico, che scriveva le lettere per chi non ne era in grado, così la diffusione del computer ha fatto sì che gran parte delle mansioni correnti, affidate al design della comunicazione nella seconda metà del Novecento, vengano ormai gestite in proprio da chi ne ha bisogno. Il design, perché la sua ragion d’essere si perpetui, si deve quindi collocare a un livello di più alta complessità rispetto ai problemi comunicativi da risolvere. Per arrivare a questo, deve fornirsi di strumenti adeguati; prima di tutto, per poter interagire attivamente con le discipline scientifiche e con il computer stesso su basi matematiche, al momento largamente insufficienti.
Premesso che è prefigurabile un’evoluzione della tecnologia informatica che la porti a nascondere sempre più in profondità la sua natura digitale per simulare pienamente qualità di tipo sintetico e analogico, sono destinate a moltiplicarsi quelle forme di scrittura sinsemica che già si stanno rapidamente sviluppando; da una parte, negli ambiti della rappresentazione delle dinamiche dei processi (sociali, fisici, tecnologici ecc.), dall’altra, in quelli dell’illustrazione e del graphic novel. Di pari passo, le forme più trascrittive di scrittura ingloberanno presumibilmente segni desunti da tradizioni diverse e segni non verbali.
Si può ormai affermare, senza formule dubitative, che le neuroscienze forniranno acquisizioni sostanziali, come già stanno facendo, per quel che riguarda le modalità percettive multisensoriali e l’individuazione dei livelli più profondi delle attività cognitive, comprese quelle di tipo estetico. Le istituzioni scolastiche, pur con la lentezza che le caratterizza, stanno aggiornando i loro programmi in base ai mutamenti in atto. Il ruolo fondamentale è quello della scuola primaria: si dovrà insegnare anche ai bambini a leggere una mappa o un diagramma e si dovrà addestrarli alla disposizione del testo sul supporto bidimensionale e quindi a un uso efficiente dell’estensione computer.
In questi termini, le prospettive del design della comunicazione possono essere considerevoli. Da una parte, vi è l’evoluzione dei settori più ‘di frontiera’: la segnaletica autostradale come quella museale, il way finding, vale a dire i sistemi di orientamento integrati, il type design per usi specializzati, l’editoria manualistica, cartacea e on-line, la rappresentazione di dati statistici e il vastissimo campo della divulgazione (sociale, scientifica, storica, economica ecc.), che nella prospettiva di democrazie mature, come prefigurava Neurath, deve mettere il cittadino medio in grado di poter assumere in modo efficiente informazioni esaurienti su tutto ciò che accade.Dall’altra, vi sono campi nuovi, a malapena prefigurabili, e tutto quanto potrà venire dall’auspicabile convergenza, già in atto, delle tradizioni artistiche e di quelle scientifiche.
Bibliografia
J. Elkins, The domain of images, Ithaca (N.Y.)-London 1999.
S. Zeki, Inner vision. An exploration of art and the brain, New York 1999 (trad. it. Torino 2003).
E.H. Boone, Stories in red and black. Pictorial histories of the Aztec and Mixtec, Austin 2000.
R. Harris, Rethinking writing, London 2000 (trad. it. La tirannia dell’alfabeto, Viterbo 2003).
E.R. Tufte, The visual display of quantitative information, Cheshire (Conn.) 20012.
F. d’Errico, Le prime informazioni registrate, «Le scienze dossier», 2002, 12, n. monografico: Dal segno alla scrittura, pp. 4-9.
D. Schmandt-Besserat, Dalla contabilità alla letteratura, in Origini della scrittura, a cura di G. Bocchi, M. Ceruti, Milano 2002, pp. 58-68.
R. Kinross, Modern typography. An essay in critical history, London 2004 (trad. it. Viterbo 2005).
G. Anceschi, Il campo della sinestesia: conduttori e commutatori, «Il Verri», 2005, 27, pp. 35-44.
G. Unger, Terwijl je leest, Amsterdam 2006 (trad. it. Il gioco della lettura, Viterbo 2006).
Potenzialmente leggibile, a cura del gruppo Exp, «Progetto grafico», 2006, 8, pp. 8-87.
A. Perri, Evento linguistico vs. evento scrittorio: verso un nuovo modello, «Rivista di psicolinguistica applicata», 2007, 3, pp. 125-45.
F. Stjernfelt, Diagrammatology, Dordrecht 2007.
Culture visive. Contributi per il design della comunicazione, a cura di V. Bucchetti, Milano 2007.
D. Riccò, Sentire il design. Sinestesie nel progetto di comunicazione, Roma 2008.