Interaction design
La relazione uomo-macchina
La creazione della locuzione interaction design viene attribuita a Bill Moggridge e a Bill Verplank, membri della società statunitense di ricerca e design IDEO, che alla fine degli anni Ottanta la adottarono in sostituzione della precedente, user interface design, che non appariva più adatta a indicare tutte le nuove applicazioni di prodotti di industrial design contenenti software. Sebbene tale locuzione possa riferirsi sia ad applicazioni di tipo umano, meccanico, sia elettronico, è soprattutto rispetto a quest’ultima accezione che si è assistito alla crescita di un acceso dibattito in merito alla natura e alle caratteristiche della disciplina. Accompagnato dalla pubblicazione di molteplici saggi e manuali di riferimento, il dibattito ha dato luogo a frequenti e ragionevoli fraintendimenti o anche a sovrapposizioni con aree disciplinari più specifiche, come, per es., human-computer interaction, interface design, user experience design.
Le basi metodologiche generali dell’interaction design si fondano su un complesso insieme proveniente sia da ambiti disciplinari diversi (psicologia cognitiva, scienza del comportamento, analisi dei sistemi percettivi e semiotica) sia parallelamente da studi di ricerca sui criteri di usabilità e di valutazione dei parametri di progettazione legati alle caratteristiche dei materiali oppure alle proprietà specifiche del software (ingegneria, ergonomia, scienza dei materiali, informatica e product design).
Si può quindi affermare che quando ci si riferisce all’interaction design generalmente si intende indicare un’attività di analisi e progetto delle modalità di interazione fra uomo e macchina (solitamente di tipo elettronico), volta a valorizzare in particolare gli aspetti sia di carattere fisico, dinamico, intellettivo, sia comportamentale ed emozionale di questa relazione.
Alcune definizioni dei soggetti stessi della relazione uomo-macchina riscuotono un consenso abbastanza generalizzato, sebbene l’indissolubile legame con i ritmi incalzanti del progresso tecnologico, e con il conseguente adeguamento dei modelli comportamentali, ne determinino una costante necessità di revisione e aggiornamento.
Lo studio del rapporto di interazione fra gli elementi di un sistema non è certo cosa recente. Già negli anni Quaranta lo psicologo inglese Hywel Murrell utilizzò il termine ergonomics per indicare la qualità della relazione fra utente e mezzo utilizzato, aprendo la strada a una nuova scienza della modernità, evidentemente rivolta al pieno superamento del rapporto di subalternità dell’essere umano nei confronti della macchina tipico del modello di lavoro teorizzato, e praticato, da Frederick Winslow Taylor e Frank Bunker Gilbreth nei primi anni del Novecento.
Nel corso del 20° sec. lo studio dell’ergonomia ha avuto un percorso evolutivo e ha rivestito un ruolo centrale nel design industriale in molteplici settori, imponendosi come parametro di qualità dei livelli di semplicità d’uso, comfort e adattamento di macchine, oggetti e ambienti alle necessità umane.
La rapida evoluzione della produzione di tecnologie e del relativo sistema di marketing iniziata negli anni Ottanta ha determinato un’analoga trasformazione del prodotto e del suo destinatario, che si sono allontanati dalla prassi uniformante del mass market del periodo precedente in direzione di nuovi significati valoriali e d’uso degli oggetti e di una più matura consapevolezza nei consumatori. Tale trasformazione ha determinato rinnovate letture e la definizione di nuovi scenari sociali, in considerazione delle implicazioni non soltanto economiche, ma soprattutto sociologiche e antropologiche emerse da queste mutate dinamiche relazionali, e ha sottolineato inoltre la necessità di sviluppare nuove interpretazioni e definizioni degli aspetti ergonomici.
L’oggetto tecnologico, oltre a riflettere nuove caratteristiche simboliche e più saldamente legate a stimoli emozionali, stabilisce la necessità di integrare valori di semplicità e immediatezza per un uso reiterato, oltre a dover rispondere a criteri di prestazione e affidabilità non così fortemente rilevanti per altre tipologie di prodotto. Il soggetto utilizzatore, dal canto suo, non è più un consumatore che esaurisce il proprio ruolo nel semplice atto dell’acquisto: si profila infatti la figura dello user (fruitore), ovvero di un soggetto preparato ed esigente che mette in gioco le proprie caratteristiche fisiche, intellettive ed esperienziali nelle sue modalità di interazione con l’oggetto.
All’interno del panorama delle diverse filosofie del design, questo modello relazionale ha dato sviluppo a un criterio di progettazione denominato user-cen-tered design (UCD): l’oggetto non viene più disegnato con la pretesa di imporre all’utente finale lo sforzo di apprendimento delle sue caratteristiche e modalità d’uso, ma piuttosto le esigenze, i desideri e le volontà dello user sono viste come il nucleo fondante su cui modellare la progettazione dell’oggetto stesso. Secondo questo criterio di progetto, che non corrisponde necessariamente ad alcune esperienze coeve o precedenti di design partecipativo, si tratta di sviluppare una complessa struttura metodologica che contenga in sé differenti fasi di analisi e rilevamento delle aspettative e delle necessità dell’end-user (fruitore finale), riferendosi spesso a specifiche categorie di fruitori, all’interno delle quali rivestono particolare importanza alcuni tipi di test effettuati su campioni di possibili utilizzatori reali.
Si può pertanto affermare che la crescente diffusione di oggetti tecnologici abbia accelerato lo sviluppo di atteggiamenti human-oriented all’interno del design, allargando il fuoco del proprio oggetto a una figura umana corrispondente alle esigenze del mercato globale, in grado di riunire in sé le caratteristiche appartenenti a riferimenti e tradizioni culturali diversi.
Principi di interaction design
Nella nutrita bibliografia di settore si possono trovare differenti criteri di valutazione delle principali caratteristiche dell’interaction design, ciò nonostante è possibile riassumere alcuni aspetti peculiari che sembrano essere comunemente condivisi.
In particolare ci si riferisce ad alcune riflessioni maturate da Gillian Crampton Smith (Moggridge 2007, pp. XIII-XVI), che appaiono sufficientemente duttili per poter essere generalizzate, in grado di stabilire un ordito di base su cui costruire il tessuto di un complesso insieme di elementi di analisi e indicazioni di direzione. Non si tratta di stabilire apoditticamente passaggi consequenziali ordinati secondo una logica procedurale, quanto piuttosto di individuare alcuni principi basilari, che comprendano i diversi aspetti necessariamente afferenti alla disciplina, per costruire uno scheletro concettuale di riferimento in grado di fornire indicazioni di progetto.
Particolare rilevanza assumono gli aspetti relativi all’intelligibilità, ossia al design di prodotti e applicazioni la cui logica di funzionamento risulti accessibile a un pubblico eterogeneo per formazione, cultura e caratteristiche personali. Rispetto a questa esigenza di universalità di accesso, si definisce un primo punto di riferimento che si potrebbe riassumere con la necessità di progettare allo scopo di rendere immediatamente decifrabile un chiaro modello mentale (clear mental model) di ciò con cui stiamo interagendo. Le metafore utilizzate, sia nelle caratteristiche fisiche di interazione sia nell’eventuale sistema iconografico di interfaccia, devono essere coerenti e logicamente distribuite, in modo da rendere fluido il percorso di apprendimento delle modalità d’uso del manufatto o del servizio. L’utente deve essere agevolato nel tracciare in tempi veloci un modello mentale di riferimento relativo all’oggetto, seguendo le modalità di ragionamento induttivo e deduttivo a cui è abituato. Un secondo punto, potrebbe essere definito come risposta rassicurante (reassuring feedback), ovvero la capacità di un manufatto, o di un software, di reagire in modo chiaro e diretto, e quindi confortante, alle azioni dello user. Una reazione attesa a un’azione intenzionalmente mirata a provocarla aiuta l’utilizzatore a prendere confidenza con l’oggetto e concorre al consolidamento di una sensazione di sicurezza e affidabilità. Per raggiungere questo scopo, si rende necessaria la pratica di minimizzazione degli errori, attraverso continui test di utilizzo che rivelino i punti deboli in cui il software rischia, in particolare, di indurre a reazioni sbagliate o non chiare. La navigabilità (navigability) è un terzo elemento essenziale soprattutto per tipi di interazione che avvengono attraverso uno schermo. Il soggetto di interazione deve avere sempre la possibilità di identificare con precisione le proprie coordinate di riferimento rispetto al sistema generale, potendo tracciare in modo intuitivo il proprio percorso in corrispondenza del punto di inizio e attraverso i vari passaggi intermedi. Le diverse opzioni e le possibilità di apportare modifiche al proprio itinerario devono essere agevolmente identificabili e applicabili, salvaguardando la consapevolezza della propria posizione nonché la logica consequenzialità del processo. Proprio la coerenza (consistency) del sistema, infatti, costituisce un ulteriore momento di definizione e riferimento, indicando una rispondenza coerente del sistema nelle sue diverse parti e modalità di esecuzione: a una stessa azione deve sempre corrispondere la medesima reazione. Il sistema di riferimento degli strumenti di comando e controllo principali deve essere sempre coerente in qualunque punto dell’applicazione, garantendo all’utente un uso affidabile e prevedibile.
Se questi primi punti si riferiscono principalmente agli aspetti cognitivi e strutturali dell’interazione, dal punto di vista del rapporto fisico con l’artefatto, gli obiettivi principali per il conseguimento della semplicità d’uso possono essere identificati nell’interazione intuitiva (intuitive interaction) e nella qualità (quality). Il primo caso si riferisce all’uso immediato e continuativo degli oggetti quotidiani, come nel caso di prodotti elettronici, elettrodomestici, autovetture, dove è rilevante la necessità di confrontarsi con sistemi di interazione fisica che non necessitino di approfondimenti e di complesse pratiche di apprendimento. La conformazione fisica stessa dei comandi e dei sistemi di controllo deve assicurare un’intuizione immediata del loro scopo e utilizzo, entrando in collaborazione con la chiarezza del software.
Questo sforzo verso la semplicità dell’interazione è in diretta corrispondenza con la qualità del prodotto, ovvero con la qualità del suo design. La qualità, in questa accezione, non è tanto riferita alle prestazioni dell’oggetto, quanto piuttosto alla sfera più emozionale che è in grado di stimolare attivando i sensi percettivi, per es. attraverso il contatto tattile con un certo materiale, il suo colore, l’eventuale riflettenza o gradevolezza della luce emessa, la sensazione di leggerezza e precisione nella pressione di un bottone a sfioramento o la fluidità di un sistema di scorrimento, o la piacevolezza dei suoni che accompagnano i comandi. L’intensità della stimolazione del sistema percettivo e la qualità percepita costituiscono una delle ragioni principali del successo di un prodotto. Nella qualità del design, in cui si deve comprendere anche la qualità della sua comunicazione commerciale, si concentrano di fatto le chiavi per la conquista del consenso di un prodotto, ottenuto attraverso il fascino che esercita sul pubblico e il ruolo di status symbol che riesce a conseguire, come dimostrato dal successo di alcuni telefoni cellulari o lettori MP3.
I punti generali sopra descritti potrebbero essere, almeno in parte, integrati in un discusso criterio generale che appare frequentemente come il parametro di giudizio per la valutazione di un sistema interattivo: la usabilità (usability), sebbene rappresenti un criterio riferito principalmente ad applicazioni di interface design. Seppure il senso stesso del concetto di usabilità, la generalizzazione della sua applicabilità e le caratteristiche che dovrebbero definirla siano ancora materia controversa e oggetto di ampio dibattito, il termine viene spesso utilizzato per definire, in un unico parametro, il grado di semplicità, intuitività ed efficienza dei prodotti dell’interaction design dal punto di vista particolare del fruitore. Occorre rilevare che questo concetto è stato recepito dalle normative internazionali, portando alla compilazione di un sistema di standard ISO (ISO 13407), che però definisce principalmente indicazioni generali di processo di design human-centered piuttosto che stabilire parametri o metodi.
Giochi
Uno dei settori produttivi in cui l’interaction design ha svolto un ruolo predominante e dove ha avuto la possibilità di essere sperimentato in modo ampio e diffuso è sicuramente quello dell’entertainment portato all’interno delle mura domestiche. Infatti le console per videogiochi di ultima generazione propongono un divertimento reale, che coinvolge tutto il corpo e arriva ad assumere i connotati di una vera e propria attività fisica. Al contempo cambiano anche le modalità di fruizione dell’oggetto: non esiste più solo un singolo utente, ma svariati giocatori che, attraverso una periferica altamente interattiva, possono adottare comportamenti di utilizzo più complessi, coinvolgenti e allargati a un intero gruppo di partecipanti.
Le console immesse sul mercato dal 2000 in poi sono state progettate proprio a partire dalle capacità e dalle caratteristiche degli utenti: sono stati presi in considerazione punti di forza e debolezza del comportamento del corpo ed è stato studiato l’approccio cognitivo dell’essere umano in relazione al dispositivo tecnologico. Uno dei primi esempi di dispositivo di tale genere risale al 2002, data in cui lo SCEE London studio, uno dei team di ricerca e sviluppo europei di Sony computer entertainment, ha proposto l’uso di EyeToy, una speciale videocamera che ha integrato e potenziato le caratteristiche di Playstation 2. Questa tecnologia consente di riprendere i movimenti del giocatore e poi di utilizzarli per controllare e definire le modalità di funzionamento di una collezione di giochi semplici, resi così più coinvolgenti rispetto a quelli della generazione precedente. Ma l’idea di riprendere i movimenti compiuti da uno o più utenti a scopi video-ludici ha fatto compiere un ulteriore passo in avanti e ha condotto alla nascita della Wii (presentata nel 2005 all’Electronic entertainment expo di Los Angeles), la più recente versione di console da gioco interattiva prodotta dall’azienda Nintendo. Il carattere innovativo di questa console ruota attorno al Wii remote, il controller senza fili che ne diviene fondamentale punto di forza: questo speciale dispositivo, grazie ai sensori presenti al suo interno, consente di catturare tutti i movimenti compiuti dall’utente che vengono poi codificati e riprodotti in tre dimensioni. In questa prospettiva di utilizzo, il videogioco, da semplice attività di intrattenimento, diventa un metodo per svolgere un’attività fisica completa in grado di attivare tutte le funzioni del corpo.
Il 21° sec. ha portato a nuovi tipi di sperimentazione, come i location-based games (o street-based games), videogiochi basati sul rilevamento di posizione tramite GPS (Global Positioning System) e connessioni Wi-Fi (Wireless Fidelity), con la possibilità di interagire nell’ambiente circostante in modo dinamico. Così in questi videogiochi la realtà materiale e l’ambiente simulato costituiscono alla fine una specie di super-realtà unica. È del 2004 un esempio famoso, Pac-Manhattan di area/code, ossia una versione di Pac-Man da giocare nelle strade di New York. Sempre più il videogioco sta diventando un terreno di sperimentazione urbanistica e relazionale, all’interno del quale vengono ipotizzati e testati nuovi modi di vivere lo spazio urbano e nuove forme di interazione sociale.
Interaction design e prodotti tecnologici
Nel 21° sec. l’applicazione dell’interaction design ai prodotti tecnologici di consumo ha aumentato la condivisione dell’esperienza e il coinvolgimento dell’utente. La nuova generazione di smart products (tecnologie dell’informazione integrate in strumenti di uso quotidiano) ha determinato anche, come già detto, un nuovo tipo di consumatore, che non è più solo semplice utente o cliente, ma diviene prosumer (contrazione dei termini producer e consumer) cioè fruitore attivo.
Le più importanti aziende del settore elettronico-informatico da tempo investono nella ricerca e nello sviluppo di prodotti ad alto contenuto di interattività, con particolare riguardo alla tecnologia multi-touch (schermo multi-tattile) Quest’ultima consiste in uno schermo tattile, che riconosce più punti simultaneamente al tocco di una mano e prevede anche una parte software deputata all’interpretazione degli stessi punti. Infatti il software agisce riconoscendo la posizione, la distanza dei movimenti e l’interazione fra più dita o mani, così che l’utente possa interagire in modo fortemente intuitivo e legato alla gestualità più immediata. Il multi-touch è programmato per supportare anche diversi utenti che possono agire contemporaneamente sulla medesima superficie.
La tecnologia multi-touch è stata applicata concretamente a un prodotto di consumo nel 2007, quando Apple inc. ha lanciato sul mercato iPhone e Microsoft ha presentato Surface. L’innovativo prodotto di Apple è un sistema di connettività che può fungere contemporaneamente da lettore multimediale, telefono, brows-er web e fotocamera digitale; è dotato di uno schermo multi-touch, che consente un tipo di fruizione immediata, intuitiva e molto semplice senza l’utilizzo di tastiera o pennino. La grande innovatività del prodotto iPhone consiste proprio nell’introduzione di un sistema di puntamento basato sull’utilizzo delle dita, che semplificano e rendono più diretto il controllo dell’interfaccia del dispositivo. Anche Microsoft Surface si basa su una tecnologia multi-touch, che viene inserita all’interno della superficie di un tavolo. Lo schermo di questo sofisticato prodotto è dotato di tecnologia capace di riconoscere oggetti fisici e può essere controllato e gestito, attraverso l’uso delle mani, anche da più utenti contemporaneamente. Con un tocco delle dita, per es., è possibile ridimensionare immagini, riprodurre video, consultare mappe digitali e interagire con il sistema, appoggiandovi sopra oggetti fisici che vengono riconosciuti in automatico dal dispositivo.
Anche l’azienda olandese Philips nel 2005 ha sviluppato Simplicity, un progetto alquanto ambizioso, che consiste nella realizzazione di prodotti ad alto contenuto interattivo con l’obiettivo di migliorare la qualità della vita negli ambiti della cura e del benessere del proprio corpo, del lifestyle e dell’illuminazione. Le grandi potenzialità di questi prodotti lasciano intravedere scenari futuri caratterizzati dall’avvento di oggetti ‘ibridi’, che integrano diverse funzionalità, rendendo in tal modo la tecnologia più rilevante e significativa per l’uso quotidiano.
Il futuro dei prodotti tecnologici sembra tuttavia andare verso un superamento del modello di consumo finora evidenziato, in cui l’utente si trova a dover scegliere tra una gamma di oggetti messi in commercio dalle aziende. Infatti si stanno già sviluppando progetti in cui l’autonomia dell’utente è sempre più centrale, e si sta andando verso un modello di consumo evoluto che vede il fruitore sempre più protagonista dell’invenzione tecnologica.
In questa prospettiva è significativo il progetto del Personal fabricator (Fab Lab), che porta la firma di Neil A. Gershenfeld, direttore del Center for bits and atoms (CBA) del Massachusetts institute of technology (MIT). Gershenfeld spiega che un personal fabricator è «una macchina che costruisce macchine: è come una stampante che può stampare cose anziché immagini. Per fabbricazione personale intendo non solo la creazione di strutture tridimensionali, ma anche l’integrazione della logica, dei sensori, dei comandi e dei display di visualizzazione: tutto ciò che serve per fare un sistema funzionante completo» (2005; trad. it. 2005, p. 5).
Nella sua prima versione del 2002 il Fab Lab era costituito da un plotter laser per ritagliare forme in due dimensioni, un plotter da taglio, una fresa, alcuni strumenti per programmare minuscoli controllers: un insieme di macchine capaci di trasformare un’elaborazione digitale tridimensionale in un oggetto reale. Nel 2005 il costo complessivo di un Fab Lab era di circa 20.000 dollari e le sue dimensioni risultavano eccessive, ma con il progresso tecnologico di questi ultimi anni si sta cercando di arginare i costi di produzione e di realizzare sistemi di grandezza sempre più contenuta, come è avvenuto nell’evoluzione del personal computer.
L’impiego del Fab Lab può avere anche delle implicazioni sociali molto importanti come è risultato da sperimentazioni già effettuate in varie regioni del mondo. In India occidentale, nel villaggio di Pabal, per es., il Fab Lab è stato impiegato per sviluppare dispositivi di misurazione della sicurezza del latte e dell’efficienza delle macchine agricole. In Ghana sono state messe a punto delle macchine in grado di sfruttare l’abbondante luce solare per superare il limite imposto dalla carenza di elettricità. Mentre finora, per una serie di motivi, l’introduzione del personal computer nei Paesi in via di sviluppo non ha portato benefici tangibili a quelle popolazioni, il Fab Lab o applicazioni simili potranno assumere un ruolo fondamentale per lo sviluppo economico e sociale dei Paesi del Sud del mondo.
Sperimentazione e arte interattiva
Un contributo rilevante all’approfondimento dei temi legati all’interazione proviene dalle esperienze artistiche e sperimentali, che hanno spesso indagato le relazioni uomo-macchina attraverso strade e modalità a volte parallele, altre decisamente divergenti da quelle praticate nell’ambito della produzione industriale.
Sebbene le prime sperimentazioni di applicazioni artistiche legate all’uso del computer risalgano alla seconda metà del Novecento, la crescente diffusione delle nuove tecnologie e di piattaforme di sviluppo come quelle sopra indicate ha permesso a un numero sempre maggiore di soggetti l’accesso a strumenti e conoscenze tecniche specifiche, consentendo il delinearsi di una scena sperimentale interessata all’approfondimento delle potenzialità estetiche, narrative ed emozionali del medium.
Pur rimanendo irrisolta la questione dei legami storici e degli aspetti filologici di queste esperienze con la storia dell’arte, e la loro stessa legittimità a esserne considerate parte, come del resto l’annosa relazione fra arte e scienza, è indubbio che alcune figure di questa scena hanno contribuito in modo determinante alla diffusione dei sistemi interattivi fra il grande pubblico, analizzando, e spesso anticipando, temi e dinamiche successivamente integrate nell’interaction design in ambito produttivo.
L’arte interattiva, per definizione, non può prescindere dalla partecipazione del pubblico al funzionamento dell’opera. Il tentativo è quello di superare la relazione intellettuale o contemplativa del binomio artista-spettatore, attivando stimoli emozionali che coinvolgano il pubblico in un percorso di esperienza partecipata. Viene così valorizzato il rapporto uomo-macchina proprio sul piano dell’emozionalità: utilizzando la tecnologia come medium espressivo per stabilire un canale di comunicazione, il pubblico è infatti spinto a mettere in gioco il proprio corpo come strumento, come organo sensibile di trasmissione fra oggetto e soggetto.
Dal punto di vista tecnico, installazioni e ambienti immersivi vengono di norma realizzati attraverso l’uso di sensori in grado di rilevare stimoli ambientali come, per es., il movimento, il tocco, la temperatura che a loro volta divengono input per innescare corrispondenti reazioni nell’interfaccia di output, che può essere video, software o audio.
L’artista americano Jim Campbell (n. 1956) ha elaborato nel 2000 uno schema piuttosto efficace (Formula for computer art) per descrivere il rapporto di trasposizione fra dati in ingresso (input) e risultato finale (output), attraverso il passaggio nel sistema di interpretazione-elaborazione (program). Osservando questo schema procedurale, al quale in effetti è ascrivibile qualsiasi pratica di arte interattiva ma non solo, risulta chiaro come la discriminante del dato di input, del processo di elaborazione, e l’efficacia estetica dell’output, considerati singolarmente e nel loro complesso, siano elementi di una possibile composizione artistica, fertili a un’attribuzione di valenza poetica in base alla sensibilità e al giudizio del progettista/artista, nell’ambito quindi di un intreccio fra tecnologia, poetica e ingegneria. Nel caso particolare dell’arte interattiva, l’aspetto dell’immissione dei dati costituisce la colonna portante del sistema, essendo a tutti gli effetti il punto in cui il pubblico attraverso la propria azione, prevista e programmata dall’artista, immette significato nel processo, attivandolo.
Per ragioni di sintesi non è possibile tracciare qui un’ampia ed esaustiva casistica, ma ci si limiterà a indicare alcuni casi rappresentativi di diversi atteggiamenti ed esperienze di interazione, rispetto al rapporto con lo spazio e al ruolo del pubblico, delineando in modo generico quattro macrocategorie di intervento: ambiente immersivo interno, interazione con un oggetto definito, scala urbana e social-interaction, scala della geolocalizzazione e social-networking.
Rispetto alla prima tipologia di intervento, si possono ricordare, per es., il gruppo italiano Studio Azzurro (che dai primi anni Ottanta ha iniziato a realizzare videoinstallazioni interattive), lo statunitense Jeffrey Shaw, i tedeschi Bernd Lintermann e Torsten Belschner e il giapponese Masaki Fujihata che, prevalentemente attraverso la creazione di ambienti immersivi, incoraggiano il pubblico a creare una narrativa in collaborazione con il loro lavoro; la proposta del contenuto rimane esclusiva dell’autore, ma i diversi tempi e modalità di interazione con esso possono innescare un’ampia varietà di risultati. Di norma, il pubblico è stimolato ad attivare un contenuto attraverso l’esplorazione, innescando reazioni del sistema ad azioni spesso definite.
Di tipo diverso il lavoro dell’artista statunitense Daniel Rozin (n. 1961), caratterizzato dalla continua sperimentazione sul tema dello specchio elettronico, che si sofferma sull’estetica della rappresentazione/interpretazione dell’immagine reale. I lavori di Rozin sono oggetti circoscritti nello spazio, grandi specchi realizzati con materiali diversi dove motori elettrici, controllati dal computer, azionano superfici materiche per ricreare l’immagine specchiata ripresa da una telecamera in tempo reale. L’interazione è immediata e semplice: siamo in assenza di un contenuto narrativo occultato da svelare, ma la presenza fisica dell’opera, sebbene dotata solitamente di un proprio carattere plastico, non è di per sé portatrice di significato finché il suo funzionamento non viene attivato dalla sola presenza di fronte a essa del pubblico, la cui immagine, che su essa è riflessa, le attribuisce senso e ne rivela la funzione.
La partecipazione diretta è invece necessaria per la fruizione di Scrapple (2005), installazione dell’artista statunitense Golan Levin (n. 1972), dove la libera distribuzione di comuni oggetti su un piano viene trasformata in suono al ciclico passaggio di un linea luminosa di scansione sulla superficie, trasformando la consistenza fisica degli oggetti, in relazione alla loro posizione, in una partitura musicale e visiva. Il soggetto dell’interazione si trova davanti a uno strumento tecnologicamente molto sofisticato, ma con una modalità di interazione semplice e intuitiva, che incentiva alla partecipazione, al mettersi in gioco direttamente nell’atto della composizione, sperimentando forme e suoni in un contesto performativo.
Le reazioni del pubblico davanti a manufatti interattivi, o comunque reattivi (reactive) a stimoli ambientali, sono state oggetto di approfondito studio da parte di Anthony Dunne (n. 1964) e Fiona Raby (n. 1963), del dipartimento di Design interactions del Royal college of art di Londra. Nel loro progetto Placebo (2001), non si è in presenza di un’interazione vera e propria, ma di oggetti in grado di reagire ai campi elettromagnetici presenti nell’ambiente, rilevati attraverso sensori e resi percepibili attraverso le reazioni degli oggetti stessi. L’oggetto, che assume la forma di una sedia, di un tavolo, o comunque di un elemento conosciuto, proprio di un comune ambiente domestico, diviene in questo modo un manufatto sensibile che rende visibili forze normalmente invisibili, anche se parti integranti di qualunque oggetto tecnologico, mettendo il pubblico in diretta relazione con esse attraverso un percorso sorprendente e inatteso.
L’artista messicano Rafael Lozano-Hemmer (n. 1967) ha sperimentato invece processi interattivi su larga scala, realizzando installazioni urbane in grado di coinvolgere contemporaneamente un pubblico molto ampio attraverso l’interazione con media diversi, lavorando quindi su modelli di social-interaction partecipativa, amplificando lo spazio dell’opera d’arte interattiva al di fuori del luogo tridimensionalmente circoscritto della galleria d’arte. Nella sua installazione urbana Amodal suspension, realizzata nel 2003 per l’inaugurazione dello Yamaguchi Center for Art and Media in Giappone, il pubblico era invitato a inviare messaggi SMS ad altre persone attraverso il proprio te-lefono cellulare o attraverso un sito Internet dedicato. I messaggi, prima di essere inviati al destinatario, venivano rilevati da un sistema di controllo e trasformati in impulsi luminosi proiettati verso il cielo da potenti fari controllati roboticamente e installati nello spazio urbano circostante, dando luogo a un’enorme architettura luminosa visibile anche a grande distanza.
Lo spazio pubblico è l’arena in cui agisce anche il gruppo Graffiti research lab (fondato nel 2005 da Evan Roth e James Powderly), che si richiama alla scena del graffitismo urbano attraverso l’uso di tecnologie laser in grado di disegnare composizioni luminose, e quindi temporanee, su edifici e grandi superfici esterne.
La disponibilità sempre più frequente di punti di accesso alla rete e quindi l’opportunità di creare comunicazioni veloci e continue, in aggiunta alle tecnologie di geolocalizzazione e all’espansione delle dinamiche web 2.0, hanno contribuito al sorgere di esperienze legate all’interaction design urbano con particolare riferimento alle pratiche del social network-ing e social tagging, spesso afferenti a contesti di protesta politica e aggregazione sociale. Fra i possibili esempi, merita di essere citato il progetto glocalmap.to, ideato e prodotto in occasione delle Olimpiadi della cultura di Torino 2006 dal gruppo italiano Performing media, diretto da Carlo Infante. La descrizione del progetto ne chiarisce bene la struttura e le finalità: glocalmap.to è un geoblog che permette di inserire messaggi su una mappa interattiva di Torino. I messaggi possono contenere in allegato testi, foto, audio e video, ed è possibile inviarli via web, SMS o MMS, e associarli a un indirizzo o a un punto preciso della mappa. Questo inedito blog geosincronizzato permette l’interazione con la mappa di Torino, mediante un motore di geo-coding basato su un sistema peculiare di ortofotogrammi del territorio rilevato, in corrispondenza di ogni numero civico, via GPS. I messaggi inoltre possono contenere da uno a tre tags, parole chiave che identificano gli argomenti principali del contenuto. La mappa rende attivi e visibili quelli che si definiscono social taggings cioè le tracce delle azioni sociali, ludiche e partecipative, che i cittadini e i turisti-play-ers postano sulla piattaforma rilanciando il concetto di social bookmarking diffuso nel web e che ricorda per altri versi i tags del graffitismo metropolitano teso a marcare ‘tribalmente’ il territorio.
Pur costituendo un caso particolare, perlomeno nei termini di un rapporto di partecipazione diretta del pubblico, vanno comunque menzionate le esperienze in ambito performativo e teatrale, spesso legate alla danza moderna, che utilizzano tecnologie ‘indossate’, o comunque controllate dagli attori, come estensione della dinamica del movimento e della rappresentazione. Il gruppo newyorkese Troika ranch (fondato nel 1994 da Mark Coniglio e Dawn Stoppiello) ha una lunga tradizione di sperimentazione tecnologica, sviluppata nell’arco di vent’anni, che prevede l’uso di sensori e microtelecamere per realizzare processi di interazione fra performers e media digitali. I dispositivi elettronici divengono per gli attori protesi per la dilatazione e amplificazione dei movimenti, che sono tracciati ed elaborati da un computer e riproposti in forma visiva o sonora come parte integrante della performance.
Levin ha presentato nel 2003 all’Ars electronica festival di Linz, il progetto Messa di voce, dove le voci modulate dei due vocalists sul palco vengono trasformate in tempo reale in composizioni visive che riproducono le singole variazioni di volume, intensità e tono definendo uno spazio in cui l’invisibilità del suono si trasforma in forma visibile, costruendo una sorta di tela dipinta dalle voci davanti agli occhi dello spettatore.
Gli esempi fin qui trattati non rendono giustizia a una scena che è in effetti molto più articolata e ricca di spunti interessanti, ma costituiscono un’indicazione, seppur parziale, di alcuni temi e forme di espressione, alle diverse scale, dell’interaction design in ambito artistico e sperimentale. Meriterebbe infatti maggior approfondimento il ruolo svolto da alcune esperienze sperimentali sul piano epistemologico e della ricerca estetica, che hanno spesso esplorato territori di confine poco frequentati dalle scienze informatiche e dagli ambienti accademici, rivelandosi non di rado capaci di attribuire notevole spessore a quelle che taluni possono sprezzantemente liquidare come divertissements non privi di una certa vena ludica e affetti da eccessivo entusiasmo.
Va inoltre detto che esistono esperienze ibride, a metà strada fra il campo artistico e quello commerciale, che prendono spesso spunto da realizzazioni in ambito artistico. Un esempio è costituito dall’azienda tedesca ART+COM che, partendo da un percorso più puramente artistico, si è poi specializzata nella realizzazione di oggetti e ambienti interattivi a uso divulgativo e commerciale: tra i prodotti più noti il tavolo interattivo sul quale si può navigare tra contenuti di vario genere mediante il semplice sfioramento delle immagini videoproiettate dall’alto. Questo esempio non è un caso isolato. La diffusione capillare delle esperienze sperimentali ha dato consistenza a uno scenario immaginifico di uso delle tecnologie interattive che si estende progressivamente al di fuori degli spazi definiti dell’arte. È sempre meno raro imbattersi in ambienti interattivi a scopo divulgativo nei musei di recente costruzione, o volti a veicolare comunicazione in allestimenti per esposizioni internazionali, o nati per semplice intrattenimento in ambito pubblicitario e commerciale. La scena sperimentale costituisce un bacino di esperienza molto ampio e ricco di sollecitazioni, i cui protagonisti si muovono all’interno di una nuova formazione interdisciplinare, dove la fusione di competenze tecniche e cultura umanistico/artistica dà vita a un virtuoso intreccio professionale che delinea i contorni di un percorso possibile per i tempi a venire.
Sviluppo rapido di prototipi
A partire dal 2000 si è assistito all’emergere di diverse realtà di sviluppo di software e hardware indirizzate alla produzione di manufatti e di applicazioni interattive in tempi veloci e attraverso modalità di assemblaggio molto semplici, in grado di consentire anche a utenti privi di un’approfondita competenza tecnica di elaborare agevolmente prototipi di studio. Questa tipologia di strumenti di sviluppo presenta alcune caratteristiche peculiari: innanzitutto nasce solitamente in ambito didattico, proprio per rispondere all’esigenza di affiancare ai modelli di formazione sull’interaction design attività che abbiano il proprio punto di verifica nella prototipazione di modelli reali elaborati dagli studenti. In secondo luogo, si sviluppa con la logica dell’open source, costruendo attorno a sé comunità di volontari che contribuiscono all’ottimizzazione e al supporto dei progetti, dando luogo a un sistema puntiforme e distribuito di intelligenza collettiva applicata, ossia una sorta di nucleo di sviluppo e test permanente che vede nella rete il suo centro di aggregazione, condivisione e diffusione, seguendo quindi la vocazione specifica dei nuovi media.
Il progetto Processing (2001), sviluppato dagli americani Casey Reas e Ben Fray sulla base delle ricerche svolte all’interno dello Aesthetics and computation group presso il MIT Media Lab diretto da John Maeda, può essere considerato un caso esemplare. In questo storico dipartimento del MIT, il gruppo di Maeda ha lavorato per lungo tempo su modelli sperimentali di ambienti di sviluppo e linguaggi software pensati per designer, con l’idea di portare l’utente a maturare il concetto del passaggio dal sistema numerico della programmazione al disegno della forma. Questo progetto, chiamato Design by numbers, si è concretizzato in un vero e proprio tool di sviluppo e in un libro dallo stesso titolo, scritto da Maeda nel 1999, che ne spiega il metodo.
Processing, che è a pieno titolo un’evoluzione di Design by numbers, nasce come ambiente di sviluppo software open source con un proprio linguaggio di programmazione, basato sul linguaggio Java, specificamente mirato a studenti, artisti, designer per la composizione di applicazioni generative e/o interattive. La piattaforma consente un apprendimento degli elementi di programmazione attraverso un linguaggio semplificato e completamente dedicato ad applicazioni visive, sviluppando nel progettista la capacità di disegnare e controllare strutture software attraverso la traduzione della scrittura in codice per la generazione della forma. Sospinto dal supporto di una nutrita community di riferimento, il progetto è cresciuto nell’arco di pochi anni, aggiudicandosi anche il prestigioso Golden Nica (categoria Net vision) del Prix ars electronica nel 2005, consolidando una vera e propria filosofia di approccio alla programmazione da parte dei designer e diventando il simbolo di un nuovo modello di approccio all’autoapprendimento e all’insegnamento delle discipline legate ai media elettronici.
Un ulteriore punto di interesse infatti è costituito dalla capacità di questo tipo di progetti di contribuire nel tempo alla definizione di veri e propri modelli di approccio disciplinare, come nel caso del progetto Wiring (2003) e del suo derivato e forse più noto Arduino (2005), che in breve tempo si sono assestati come piattaforme di riferimento per lo sviluppo di prototipi interattivi, non solo per utenti privati ma soprattutto in ambito scolastico; diffondendosi internazionalmente e contribuendo all’incremento di work-shops e corsi tematici, hanno dato luogo a un modello metodologico di insegnamento basato sull’esperienza diretta, il learning by prototyping. Nato dapprima all’interno dell’Interaction design institute di Ivrea a cura di Hernando Barragán, il progetto Wiring si propone come un’interfaccia hardware per la prototipazione elettronica in ambito physical computing e tangible media: si appoggia a Processing per la programmazione software, in grado di gestire e controllare una varietà di sensori, i quali consentono di catturare input ambientali che possono essere liberamente elaborati. Del tutto simile al gemello Wiring, e sviluppato anch’esso da un gruppo di docenti dell’Interaction design institute di Ivrea formato da Massimo Banzi, David Cuartielles, David Mellis e Nicholas Zambetti, Arduino gode di forse maggior diffusione del progetto ispiratore, rappresentando oggi la piattaforma hard-ware e software più diffusa per la prototipazione. Commercializzato rigorosamente solo via web, a costi assolutamente accessibili, il kit consente in tempi brevissimi, attraverso esempi e tutorials introduttivi, di apprendere le caratteristiche tecniche di base dei sistemi interattivi, centrando pertanto il proprio obiettivo di permettere l’accesso a un vasto pubblico all’esperienza diretta e alla sperimentazione pratica su semplici prototipi interattivi funzionanti.
L’abbattimento dei tempi di sviluppo e l’abbassamento della soglia di competenza tecnica di accesso fanno della prototipazione rapida, con particolare riferimento alla sua applicazione in ambito didattico, una pratica che se da un lato contribuisce indubbiamente a una comprensione e un approfondimento maggiori delle caratteristiche tecniche e strutturali di un sistema, dall’altro dovrà presto scontrarsi con il rischio del livellamento della varietà progettuale, fenomeno spesso riscontrabile al consolidarsi di uno standard di sviluppo. L’osservatore attento, difatti, riconosce nelle molteplici casistiche di produzioni prototipali, sviluppate all’interno di scenari anche molto diversi fra loro ma accomunati dall’uso del medesimo tool di sviluppo, un lento ma costante replicarsi di sistemi di interazione afferenti a modelli archetipi consolidati, che rileva una tendenza alla ri-costruzione, piuttosto che all’individuazione di nuove forme sperimentali.
La collettivizzazione delle esperienze attraverso la pubblicazione e la discussione in rete tende difatti a coagularsi in una sorta di esposizione pubblica permanente in continuo aggiornamento, fornendo costantemente stimoli e stati di avanzamento su specifiche soluzioni tecnico-creative, e dando luogo a una tendenza di espansione in senso orizzontale, che si potrebbe stigmatizzare in termini di accelerazione dei tempi di sviluppo e finalizzazione, a volte a scapito di una dimensione verticale intesa come un tempo di sedimentazione ed elaborazione necessario per l’approfondimento e l’individuazione di nuove strade per la ricerca. Questo fenomeno non è certo imputabile ai progetti sopra indicati, ai quali si deve invece riconoscere l’innovativo e importante ruolo svolto nella diffusione della conoscenza delle tecnologie interattive specialmente nell’ambito della formazione, quanto piuttosto al reiterarsi di un passaggio culturale conosciuto e rintracciabile anche in altre epoche storiche (basti pensare al secolo appena trascorso) che si manifesta ogni qualvolta l’introduzione di nuove tecniche comporti il formarsi di un nuovo paradigma culturale. La riflessione non riguarda quindi i risultati di questa trasformazione, soprattutto in considerazione dei pochi anni passati dal momento della diffusione di alcuni prodotti e tecnologie, ma va piuttosto rivolta verso il necessario sforzo di individuazione delle mete possibili a cui possono approdare le diverse sperimentazioni in atto, tracciando percorsi e stabilendo collegamenti, per costruire un metodo, senza il quale si rischia di essere testimoni di una produzione diffusa sterile ed evanescente.
Ubiquità e periferiche portatili
Nell’ambito dell’evento Being human. Human-computer interaction in the year 2020 (2008), organizzato da Microsoft research per stabilire i futuri sviluppi dell’informatica, è stato redatto un documento che inquadra la situazione attuale come l’era del passaggio ai dispositivi portatili. Tale cambiamento è stato innescato dall’avvento dei primi computer palmari, strumenti non particolarmente evoluti con funzioni limitate, tipiche di un organizer. Il passo successivo ha condotto alla nascita di strumenti portatili più complessi, primo fra tutti iPhone. Lo stesso documento stabilisce che entro il 2020 avverrà un ulteriore passaggio, caratterizzato dal concetto di ubiquità. Questo termine indica la capacità di essere presenti contemporaneamente in più luoghi, condizione resa possibile attualmente dall’impiego di computer e di altri dispositivi che sfruttano le potenzialità della rete. Il concetto di ubiquità applicato all’informatica delinea una scenario futuro in cui la grande maggioranza degli utenti avrà a disposizione molti oggetti tutti caratterizzati da microprocessori e sensori incorporati. Tale aspetto, in concomitanza alla possibilità di essere costantemente connessi a Internet, porterà a una condizione di iperconnettività, termine che indica la capacità di essere in contatto e in relazione con altri utenti sparsi in tutto il globo, attraverso l’uso di molteplici strumenti utilizzati contemporaneamente.
L’evoluzione del fenomeno, che negli ultimi anni ha avuto un incremento esponenziale, definirà nuovi sistemi sociali altamente fluidi, in cui verranno ridefiniti completamente i confini relazionali, sociali e lavorativi. Questa prospettiva ipotizza scenari di semplificazione e facilitazione dei rapporti sociali, ma implica la necessità di riflettere in merito alle questioni legate alla tutela della privacy e alla qualità della vita. In particolare con la possibilità sempre crescente di memorizzare e archiviare qualsiasi genere di informazione, si giungerà a una condizione in cui qualsiasi movimento sarà tracciabile e qualunque azione facilmente monitorata. Se certamente sarà più agevole lo svolgimento di attività che richiedono attualmente l’impiego di tempo ed energia notevoli, potrebbero tuttavia verificarsi situazioni di uso non lecito o lesivo delle informazioni.
Realtà aumentata
La augmented reality, ovvero la realtà aumentata, è un sistema che consente di sovrapporre un contenuto virtuale alla normale percezione dell’ambiente reale. La conseguenza principale di questa operazione è la coesistenza tra spazio reale e virtuale, con la possibilità per l’utente di muoversi liberamente nello spazio generato, interagendovi. Più precisamente l’obiettivo della realtà aumentata è potenziare il reale del quotidiano aggiungendovi informazioni, sensazioni e possibilità che vanno oltre l’umana sensorialità. A differenza della realtà virtuale, che presuppone un’immersione dell’utente in un mondo alternativo, essa genera un sistema composto, risultato della combinazione tra la scena reale vista dall’utente e quella virtuale prodotta da un computer. Perché un tale sistema funzioni correttamente, è necessario allineare e sincronizzare con assoluta precisione l’oggetto virtuale realizzato digitalmente con l’immagine reale, indipendentemente dalla posizione dell’utente e da quella dell’oggetto considerato.
Esistono diversi tipi di tecnologie per mettere in atto la realtà aumentata. I dispositivi più efficaci e maggiormente utilizzati sono quelli che si possono indossare, come gli apparati HMD (Head Mounted Display) optical see-through e video see-through. In tal modo l’utente si sente immerso nella scena, ma contemporaneamente ha le mani libere per intervenire attivamente. Tali sistemi possono trovare un largo utilizzo in svariati campi, dall’istruzione all’intrattenimento, dall’ambito militare a quello medico. Per quanto riguarda l’istruzione, recenti sviluppi hanno portato alla nascita di dispositivi che possono integrare i tradizionali mediatori culturali: attraverso la sovraimpressione di elementi virtuali è possibile decodificare in modo più percepibile dei concetti teorici, per es. un fenomeno scientifico o un avvenimento storico.
In ambito militare e di difesa l’impiego di speciali visiere fornisce informazioni digitali sovrapponibili all’ambiente considerato: per es., può essere definita la conformazione di un territorio, possono essere individuate le posizioni e i movimenti di eventuali mezzi presenti; o più semplicemente si utilizza la realtà aumentata per l’addestramento militare. L’applicazione di sistemi di realtà aumentata in campo medico, in particolare in ambito chirurgico, consente, attraverso la sovrapposizione di immagini digitali in combinazione con i tradizionali sistemi di diagnosi (TAC, risonanza magnetica ecc.) di visualizzare il corpo di un paziente quasi come se fosse sottoposto a raggi X, ma in modo meno invasivo. In tal modo il chirurgo può eseguire delle procedure anche molto complesse, diminuendo fortemente i rischi e le possibilità di errore.
Scenari aperti
L’era del touch screen è ormai iniziata. Il mouse, pietra miliare della filosofia dell’interfaccia metaforica, segna il passo e apre la via a un coinvolgimento diretto nelle azioni di selezione e modifica, che porta la qualità dell’interazione fra esseri umani e oggetti digitali rappresentati sullo schermo a essere sempre più vicina alla meccanica del rapporto con gli oggetti fisici.
Questo cambiamento, che si è visto essere ben rappresentato da alcuni prodotti di largo consumo recentemente resi disponibili sul mercato, definisce un passaggio sostanziale in termini di interaction design, sebbene non rivoluzionario e non correlato a un proporzionale avanzamento nella logica di interface design, che sembra corrispondere a quella ricerca della semplicità fortemente sostenuta da ricercatori come Maeda, assunta come parola d’ordine da una grande azienda come Philips e sempre più spesso presente nelle dichiarazioni di intenti espresse dai principali protagonisti del mondo della ricerca e dello sviluppo.
È proprio il rapporto fra interazione e interfaccia, a volte di sovrapposizione a volte di mutua relazione, a porsi come uno dei temi centrali di una ricerca di semplificazione e usabilità. Una semplicità simbolica, quasi ideologicizzata, un moderno logos in opposizione a una genericamente indefinita complessità, o forse per meglio dire complicatezza, associata alle idee di vecchio, superato, obsoleto, non ergonomicamente corretto. Se questa ricerca della semplicità, ispirata a un diffuso senso di ritorno al concetto di naturalezza, appare essere un punto nodale della ricerca sul rapporto fra esseri umani e oggetti, si delinea all’orizzonte il crescere di una complessità relativa al contesto in cui l’oggetto si troverà immerso, alle valenze che si troverà a rivestire e al sistema di relazioni con cui si dovrà confrontare.
Un punto ulteriore che emerge dalle recenti direzioni dello sviluppo tecnologico, e che appare come un indicatore di tendenza verso nuovi campi di ricerca per l’interaction design, riguarda infatti gli aspetti relativi al social netwoking e, ancora più in generale, alla relazione fra gli oggetti stessi e pertanto ai temi dell’interazione fra singole persone verso insiemi sociali diffusi e fra persone e sistemi diffusi di oggetti. Lo scrittore di fantascienza americano Bruce Sterling, attento osservatore e critico dei nuovi media, ipotizza nel suo libro Shaping things (2005) l’emergere di una nuova tipologia di prodotto, rappresentata da manufatti fisici contenenti le proprietà degli oggetti digitali e denominati spimes (contrazione delle parole space e time). Lo spime possiede sia identità spaziale sia temporale, essendo dotato sia di tecnologie in grado di identificarne la posizione (e la posizione di altri oggetti) sia di sistemi di memoria per la registrazione della propria storia e delle proprie fasi di sviluppo, interagendo attraverso sensori, e il collegamento permanente in rete, con l’ambiente e con gli altri oggetti. Il concetto di spime va letto in relazione alla formulazione dell’idea di ‘una Internet delle cose’, definita anche nel 2005 dall’ITU (International Telecommunication Union) Internet report, ovvero di una rete di oggetti dotati di tecnologie di identificazione, collegati fra di loro, in grado di comunicare sia reciprocamente sia verso punti nodali del sistema, ma soprattutto in grado di costituire un enorme network di cose dove ognuna di esse è rintracciabile per nome e in riferimento alla posizione. Se l’idea di spime si riferisce all’identità spaziotemporale degli oggetti e alla relazione fra sé stessi e con l’ambiente, fino al configurarsi di un tessuto connettivo di dispositivi elettronici di varia natura, le ricerche nell’ambito delle nanotecnologie applicate stanno portando in luce aspetti interessanti per quanto riguarda le caratteristiche fisiche, energetiche e di relazione di cui potranno essere dotati gli oggetti di prossima generazione.
Il progetto Morph elaborato congiuntamente dal Nokia research center e dal Cambridge nanoscience center e presentato al pubblico nel 2008 in occasione della mostra Design and the elastic mind al Museum of Modern Art di New York, si presenta sotto forma di un concept per una periferica di comunicazione portatile futuribile in grado di dilatarsi, piegarsi, ricaricarsi attraverso energia solare, di riportare dati relativi all’ambiente grazie a sensori integrati, evidenziando così nuove modalità di interazione in concomitanza con l’emergere delle recenti possibilità offerte dai materiali.
Da un lato quindi le ricerche in ambito di ingegneria atomica e molecolare e di scienza dei materiali, porteranno al confronto con nuovi materiali ‘intelligenti’, in grado non solo di modificare anche in modo sostanziale il nostro rapporto con gli oggetti, ma anche e soprattutto dotati di caratteristiche tali da rispondere all’urgenza di una domanda di sviluppo ecosostenibile e di risparmio energetico; dall’altro, sembra delinearsi con sempre maggior chiarezza l’importanza degli aspetti ‘socializzanti’ del progetto tecnologico, che vede spostare il proprio baricentro verso logiche di mobilità e di accesso permanente alla rete.
La diffusione sempre più estesa di reti Wi-Fi comporta un proporzionale crescente accesso a sistemi di interconnessione, un coagularsi di insiemi sociali diffusi con cui ognuno si troverà sempre più in relazione e rispetto ai quali si imporranno necessità di interazione più evolute e complesse. In considerazione di questo scenario, occorrerà inoltre interrogarsi con attenzione su aspetti di primaria importanza legati all’accesso e alla partecipazione, il cosiddetto digital divide (divario digitale), che se al momento indica una parte sociale vittima involontaria di una esclusione dovuta a cause economiche o infrastrutturali, si porrà presto in termini più ampi, con il crescere del dissenso che questa linea di sviluppo sociale alimenterà, ponendo questioni critiche decisive relative alla tutela della privacy e alle politiche di controllo.
In questo quadro emerge in modo chiaro l’importanza di sviluppare una sensibilità verso le questioni sociali e una capacità di analisi sempre più puntuale da parte dei designer dell’interazione, che si accompagni all’attenzione verso le esigenze funzionali e le qualità estetiche, senza rinunciare a una funzione critica e di stimolo, in grado di interagire in modo dialogico con lo sviluppo tecnologico da una parte e con le istanze provenienti da una società in continuo mutamento dall’altro: così, la consapevolezza che il progetto tecnologico si carica di significati e responsabilità più ampie contribuisce a determinare comportamenti e modelli di riferimento in grado di condizionare la qualità di vita di tutti. Questa attenzione verso l’impatto sociale delle tecnologie diffuse dovrà porsi come un tema privilegiato per il design nel suo complesso, che dovrà ritrovare un ruolo centrale nel dibattito sullo sviluppo anziché rischiare di disegnarne solo la forma.
Bibliografia
S. Brand, The Media Lab. Inveting the future at MIT, New York 1987 (trad. it. Media Lab. Il futuro della comunicazione, Bologna 1993).
D.A. Norman, The psychology of everyday things, London 1998 (trad. it. La caffettiera del masochista, Milano 2009).
G.C. Bowker, S.L. Star, Sorting things out. Classification and its consequences, Cambridge (Mass.)-London 1999.
A. Dunne, Hertzian tales. Electronic products, aesthetic experience and critical design, Cambridge (Mass.)-London 2005.
N.A. Gershenfeld, Fab. The coming revolution on your desktop: from personal computers to personal fabrication, New York 2005 (trad. it. Torino 2005).
B. Sterling, Shaping things, Cambridge (Mass.)-London 2005 (trad. it. La forma del futuro, Milano 2006)
J. Thackara, In the bubble. Designing in a complex world, Cambridge (Mass.)-London 2005 (trad. it. Torino 2008).
W. Aprile, B.Britta, S.Mirti, Interaction design prime, 1° vol., Milano 2006.
B. Moggridge, Designing interactions, Cambridge (Mass.)-London 2007.