Rappresentare il progetto
Nel processo progettuale di architettura, design e ingegneria industriale, l’essenza prima del concetto di ‘rappresentare il progetto’ è nella compresenza interagente del mezzo (rappresentare) e del fine (progettare) rappresentato. Ed è proprio lo sviluppo di questo connubio, con tutti i suoi possibili sviluppi, che consente di procedere verso la soluzione cercata.
Rappresentare il progetto ha anche il significato di ‘traduzione’, di fase attraverso la quale il progettista realizza il passaggio dall’idea impressa nella sua mente alla specificazione delle qualità formali, materiali e costruttive dell’artefatto concepito. Ed è in questo passaggio che la fase ‘allografica’ si riallaccia direttamente alla fase ‘autografica’, nella quale il testo progettuale viene spiegato affinché possa essere realizzato tramite la stretta collaborazione del progettista e delle forze produttive ed economiche necessarie. In questo ruolo di medium, la rappresentazione è un attivo strumento di composizione che fornisce la possibilità di oggettivizzare le nostre idee in uno spazio strutturalmente simile allo spazio reale, attraverso una serie di convenzioni che fanno riferimento a sistemi associativi complessi e a criteri basati sull’analogia e sull’opposizione che li ordinano organicamente.
Se gli anni Novanta del 20° sec., con l’introduzione di sistemi grafici digitali di terza generazione, hanno visto la nascita di nuovi strumenti e tecniche, è nell’ultimo lustro che questi sono stati progressivamente selezionati, consentendo di costituire un nuovo processing ideativo e di produzione del progetto basato su categorie, modi di realizzazione e presentazione ai potenziali fruitori sostanzialmente differenti da quelli tradizionali; processing che si vuole ricompreso all’interno di un sistema dotato di potenzialità assai maggiori.
In questo senso si pone quindi la questione di un progredire che non perda la ricchezza di significati, la molteplicità di letture e interpretazioni, e perfino la confortevole ambiguità, dei ‘vecchi’ disegni, consentendo, nel contempo, di ampliare le possibilità di esprimere i contenuti del progetto in funzione di quello che resta il suo fine deputato, ovvero la realizzazione dell’artefatto, nonché di produrre immagini che, stimolando la fantasia, facciano ipotizzare più di quello che è direttamente possibile vedere.
Media
digitali e processi progettuali
L’introduzione del digitale ha mutato in modo sostanziale gli schemi mediatici di rappresentazione del progetto, poiché i dispositivi messi a punto per le operazioni di input e output hanno alterato il rapporto di mnème, cioè i modi con cui l’operatore realizza praticamente la sua figurazione. Le condizioni di imitazione offerte dall’elaboratore sono, infatti, assai differenti rispetto a quelle dell’operare manuale, poiché l’innovazione tecnologica trasferisce nel virtuale processi finora reali, alterando in modo considerevole il rapporto tra la realtà stessa e l’immaginario.
Un aspetto essenziale in questo contesto è quello dell’interazione tra computer e utente, argomento che può essere considerato una vera e propria disciplina, la quale comprende lo studio, la progettazione e la valutazione non soltanto dei dispositivi mediante i quali si interagisce con il computer – e quindi la definizione degli strumenti – ma anche delle interfacce del software. Un altro aspetto fondamentale è rappresentato dalla dilatazione e dalla specializzazione dei processi per cui la tradizionale distinzione tra momento ‘autografico’ e momento ‘allografico’, spesso così sfumata nella procedura tradizionale, giunge a una separazione completa per quanto concerne i metodi di produzione e le tecniche illustrative. Di contro, si assiste invece a una vera e propria riconciliazione e riunificazione in un unico medium dei momenti progettuali di concezione ed ‘esecuzione’.
In questa direzione risultano due i temi centrali. Il primo è quello delle transizioni da disegno 2D a modello 3D, e da modello 3D a dispositivo di visualizzazione 2D: circostanza che non si pone nel sistema analogico in quanto, operando con sistemi separati, la realizzazione del modello a partire dal disegno implica la necessità di ricominciare da capo, e operativamente modello fisico ed elaborati grafici mantengono una scissione permanente uno rispetto all’altro. Il secondo è quello della manipolazione e della visualizzazione dei modelli 3D digitali, la cui dimensione immateriale ne definisce limiti e opportunità.
Il corposo e importante lavoro fatto su questi punti è proprio ciò che qualifica il digitale come mezzo unificante ed essenziale della progettazione senza soluzione di continuità dall’idea all’esposizione finale. Infatti, è noto come esistano innumerevoli problemi quando si cerca di trasporre uno schizzo in un modello 3D o, ancor più, un insieme di viste bidimensionali in un oggetto reale, e viceversa come sia difficile produrre, comprendere o analizzare un complesso modello servendosi unicamente di tastiera e mouse e di un piccolo monitor. A questo proposito va notato come sia arduo ipotizzare che in futuro una nuova tecnica digitale possa sostituire completamente lo schizzo manuale con matita e penna come metodo di lavoro nella prima fase ideativa. Nel contempo va rilevato come ciò che caratterizza gli schizzi rispetto ai modelli 3D sia un intrinseco limite nella quantità di informazione geometrica che essi possono contenere. Divenendo con grande rapidità troppo complessi e dettagliati per essere modificati, costringono i progettisti a distribuire l’‘informazione complessiva’ su più schizzi. Questa distribuzione presenta innumerevoli effetti positivi: per es., incoraggia il progettista a segmentare il problema di progetto, e quindi l’utilizzo di molti schizzi differenti diventa pressoché imprescindibile.
Tuttavia, l’imprescindibilità dello schizzo nelle prime fasi del processo di progettazione ha fatto sì che negli ultimi anni molti sforzi siano stati indirizzati alla messa a punto di sistemi, detti di sketching digitale, volti a simulare lo schizzo a mano libera. A questo fine si è fatto ricorso a tecniche, denominate di painting, che possono sia imitare gli strumenti convenzionali (matita, carboncino ecc.) sia creare immagini con un ‘look digitale’, offrendo, nel secondo caso, nuovi mezzi espressivi alla creatività dei progettisti. Nel contempo, i sistemi di sketching informatizzati consentono una rapida integrazione con la successiva fase di creazione del modello. In questo modo si è rapidamente superato il tipico problema degli schizzi, cioè quello di essere rappresentazioni bidimensionali di un’idea tridimensionale che non definiscono ‘l’intermediario’, ovvero l’informazione che sta tra lo schizzo e l’oggetto.
In particolare, nella grande maggioranza dei casi l’interpretazione di uno schizzo 2D non risulta univoca nelle sue implicazioni 3D, rendendo così problematico sviluppare le idee che gli schizzi sottendono ma che non riescono a esplicitare compiutamente. I sistemi digitali ibridi, del tipo ‘disegno 2D a mano li-era/modellazione tridimensionale’, cercano di colmare questo gap, consentendo al progettista di passare rapidamente e senza soluzione di continuità dall’abbozzo a tecniche di modellazione e visualizzazione 3D.
Se è vero che ogni progetto vale per l’idea, ma che è il modo in cui lo si elabora che ne determina il successo o l’insuccesso, la fortuna o l’oblio, è altrettanto vero che le tecniche di ‘prototipazione’ digitale aumentano il grado di elaborazione del progetto e la qualità di questa elaborazione ben oltre ciò che si può fare con il disegno bidimensionale. E in ciò è determinante l’apporto che possono fornire metodi e tecniche di manipolazione di forme e dati, nonché di visualizzazione dell’informazione.
L’accessibilità di dispositivi di interazione con il modello che consentano di rapportarsi a esso come se fosse fisicamente presente (magari muovendo grandi oggetti con un singolo gesto o realizzando cambiamenti di forma agitando una mano) permette di oltrepassare le inevitabili distanze tra immaterialità del disegno su foglio di carta e materialità dell’oggetto finito.
L’evolversi dei mezzi di visualizzazione consente di realizzare su vasta scala la tipica ambizione di ogni progettista, ma anche di ogni committente. Il sogno di ogni progettista è sempre stato quello di sapere, prima ancora di vederla edificata, come sarà la costruzione da lui concepita, onde valutarne la consistenza, la bellezza, gli aspetti di suo gusto o quelli non conformi alle proprie aspirazioni, suggerire eventuali modifiche, anticipare il futuro. In questa direzione, stabilita la fine del connubio tra scala della rappresentazione e caratteri del disegno proprio della tecnologia analogica, il digitale rilancia la possibilità di qualità centrate sulla visione iconica umana, anziché semplicemente su uno schematismo mutuato da categorie stratificate nel tempo, che fanno riferimento a corrispondenze tra la realtà e il segno sul foglio o il modello fisico in scala.
Si tratta di una vera e propria rivoluzione copernicana, che permette per la prima volta di attingere a categorie e modi che sono connaturati alla percezione umana anziché a una grammatica e a una sintassi convenzionali, nonché di realizzare processi praticamente impossibili con le tecniche tradizionali se non con costi economici e temporali improponibili in un flusso di lavoro destinato alla produzione. In questo contesto i fattori chiave relativi alla percezione di un modello sono il modo con cui lo si vede e il modo in cui si riescono a identificare chiaramente e univocamente le informazioni a esso connesse.
La visualizzazione è un metodo per rappresentare grandi quantità di dati complessi in modo che siano facilmente comprensibili e analizzabili, così da supportare pienamente le decisioni progettuali. In generale si tratta di un mezzo per trasferire sistemi conoscitivi complessi. Oggi la visualizzazione è integrata completamente nel processo di creazione e modifica dei sistemi CAD (Computer Aided Design), ben oltre la semplice rappresentazione ‘a fil di ferro’ dei primi modelli digitali (mutuata dalle tecniche di tracciamento in uso fin dalla più remota antichità), fino a fare di tali sistemi degli strumenti per la progettazione in forma iconica e percettiva, superando le consuete tecniche basate sull’astrazione della proiezione ortogonale e delle convenzioni grafiche che devono surrogare l’esperienza non rappresentabile. Questo risultato è stato ottenuto creando strumenti specifici per la visualizzazione in tempo reale o precalcolata, atti a dare soluzione a specifiche situazioni.
Alla General motors, per es., l’interesse verso la visualizzazione è iniziato a metà degli anni Ottanta del 20° sec. con le ricerche di John C. Dill sui metodi di restituzione della curvatura delle geometrie e di David R. Warn sul controllo della luce nella restituzione dei renderings (idee progettuali sviluppate mediante modelli digitali servendosi di immagini fotorealistiche), ricerche sfociate nell’applicativo Autocolor. Successivamente è iniziato l’utilizzo di sistemi di visualizzazione in tempo reale grazie all’introduzione della prima workstation che l’ha resa possibile, la Silicon graphics SGI 4D70GT.
Gli studi sulla visualizzazione in tempo reale, poi, sono iniziati da una richiesta, pervenuta da un centro di certificazione di modelli, che riguardava l’aspetto di una superficie NURBS (Non Uniform Rational B-Splines), ossia la rappresentazione geometrica con cui sono progettate anche le carrozzerie delle automobili, e da una ricerca sull’ombreggiatura in tempo reale delle stesse superfici. Questi studi si sono evoluti in un’applicazione per la visualizzazione ad alta qualità delle superfici chiamata SQV (Surface Quality Visualization) e in un’applicazione per realizzare modelli fisici denominata Surf-seg. La visualizzazione in tempo reale si è sviluppata intorno alla metà degli anni Novanta in VisualEyes, un’applicazione per la realtà virtuale (virtual reality, VR) elaborata da Randy Smith. Ma è solo con il 21° sec. che il processo è giunto a maturità, permettendo lo sviluppo dell’intero processo progettuale tramite applicazioni dedicate specificamente alla visualizzazione in tempo reale, come UGS Teamcenter visualization (per revisioni di progetto in real time e prototipazione digitale), Autodesk maya (per il render-ing e l’animazione di immagini fotorealistiche) e RTT DeltaGen (per presentazioni di alta qualità inerenti gli esterni e l’interior design del veicolo).
Infine, gli strumenti e le tecniche digitali cercano di fornire risposte all’istanza di partecipazione attiva al processo progettuale da parte di più attori, in tre aree specifiche: a) la possibilità che i dati convoglino informazioni tra membri di gruppi, rispetto a problemi quali formato dei file, organizzazione dei dati e flusso dell’informazione; b) la possibilità di lavorare contemporaneamente allo stesso progetto in sedi diverse e da parte di differenti tipologie di progettisti; c) la possibilità di disporre di efficienti strumenti di design review, capaci di far condividere il progetto non solo a membri dello stesso gruppo di lavoro, ma anche a persone estranee al processo di progettazione.
Attorno a questi requisiti, a partire dal pionieristico sistema di visualizzazione interattivo di grandi dimensioni Liveboard (messo a punto nel 1999 allo Xerox PARC – Palo Alto Research Center – da un gruppo di ricercatori capeggiato da Scott Elrod), sono nate soluzioni che servono come mezzo per presentare, acquisire e scambiare idee, e che rappresentano un concetto completamente nuovo di strumento. Shared design space, per es., è un ambiente da tavolo basato sulla sovrapposizione di oggetti virtuali a immagini reali, la cosiddetta realtà aumentata (augmented real-ity, AR), ed è nato per migliorare la collaborazione frontale (cioè quella fra più soggetti impegnati contemporaneamente nel processo progettuale; Haller, Brandl, Leithinger et al. 2006). Partendo dalla constatazione che nel processo creativo rimane fondamentale l’uso della carta e di grandi tavoli per mettere a fuoco ed esternalizzare le idee, shared design space potenzia gli strumenti tradizionali con elementi virtuali, consentendo così di mettere in comune una vasta gamma di concetti verbali e grafici per collaborare effettivamente. Alias visualization studio è una struttura che ospita varie facilities per meeting aziendali (come ampi display a muro) e fornisce la possibilità di realizzare incontri di gruppo con il supporto del computer, presentazioni e collaborazione remota.
Per rispondere ai requisiti del lavoro in team sopra indicati, la tecnologia di visualizzazione sta cambiando: sfrutta cioè le opportunità tecniche offerte da reti capaci di trasportare dati ad alta velocità.
Tecnologie software standardizzate di gestione dell’immagine a partire da modelli 3D, come le librerie grafiche OpenGL – oltre 250 funzioni grafiche memorizzate a livello del sistema operativo utilizzabili da ogni applicativo, cosicché la realizzazione del disegno corrisponde semplicemente a un loro richiamo –, assieme alla disponibilità di hardware grafico anch’esso standardizzato e scalabile su un’ampia gamma di soluzioni differenziate solo per potenza e costo, hanno permesso oggi di realizzare vari sistemi che integrano software innovativo e hardware ad ampio spettro: work-station, server, networking, grafica. Hewlett-Packard RGS (Remote Graphics Software) e Silicon graphics VUE (Visual User Experience), per es., possono trasmettere complesse immagini 2D e 3D da un sistema origine (sistema host) verso una rete di computer remoti. Gli utenti remoti interagiscono con il sistema origine e le sue applicazioni come se le stessero utilizzando su un computer locale. È così possibile per gli utenti lavorare con le applicazioni e i dati in remoto – per es., in strada con un portatile – come se disponessero di potenti supercomputer e di software di visualizzazione di alto livello.
Vedere e progettare
Le tecniche di visualizzazione si propongono di consentire la comprensione di grandi e complessi insiemi di dati nel modo più semplice e intuitivo possibile, anche all’osservatore non esperto. In esse rientrano due grandi categorie: la visualizzazione iconica e la visualizzazione come sistema conoscitivo.
In questo contesto, la locuzione real time rendering si riferisce alla capacità computazionale di generare immagini sintetiche in modo abbastanza veloce (almeno 25 immagini al secondo) per permettere all’osservatore di interagire con l’ambiente virtuale stesso, senza percepire alcun ritardo (o perlomeno non un ritardo significativo) fra l’input di avvio e la risposta del sistema. Quindi lo scarto di tempo tra l’input dell’utente e la risposta dell’applicazione (latenza) deve mantenersi costante, e deve avere un valore abbastanza piccolo da non essere percepito affinché l’osservatore possa utilizzare l’applicazione in modo naturale. Per applicazioni dettagliate (come quelle di costruzione di modelli 3D per il progetto), la latenza è approssimativamente di 100 ms.
Al fine di ottenere il ricalcolo di un’immagine a frequenze tipiche da real time, è necessario implementare l’esecuzione degli algoritmi di illuminazione e ombreggiamento nell’hardware dedicato alla grafica, la GPU (Graphic Processing Unit). Per questo ormai tutti i sistemi computazionali grafici sono organizzati nello stesso modo, cioè sono dotati di una o più GPU messe in parallelo per eseguire i calcoli relativi al rendering, talvolta supportati dai microprocessori del computer (CPU, Central Processing Unit). Grazie anche alla spinta impressa dai videogame, le GPU stanno avendo una veloce evoluzione, con rapidi incrementi delle potenze computazionali e l’implementazione di architetture di calcolo che consentono un costante miglioramento della qualità dell’immagine, oggi di livello praticamente fotorealistico.
Dal punto di vista del progettista, il real time rendering consente di passare dal tradizionale processo ‘penso, rappresento e infine (al massimo) pre-vedo’, al concetto ‘mano a mano che lo concepisco, vedo l’oggetto che sto creando come apparirà nella realtà’. Il metodo, quindi, accorpa tutte le fasi del progetto in uno spazio e in un tempo unici, destinati a evolvere direttamente per impulso del progettista e in grado di fornire direttamente il prodotto finale.
Come ampiamente testimoniato dall’industria dell’automobile, nel settore del disegno industriale di prodotto la rappresentazione tramite modelli ombreggiati ha permesso di costruire una metodologia capace di condurre senza soluzioni di continuità il fil rouge del progetto dalla concezione all’oggetto finito, attraverso i disegni, la prototipazione, la visualizzazione finalizzata ad analisi specifiche (termiche, strutturali, di verifica delle interferenze ecc.) e illustrative (marketing, divulgazione, manualistica ecc.). Nel car design, ogni variazione da apportare a un modello richiede un feedback in tempo reale. A questo fine, si è assistito alla messa a punto di tutta una serie di strumenti di diagnostica digitale real time – come sovrailluminazioni, riflessioni di linee luminose, indicatori di curvatura, sezionamenti dinamici, analisi di disegno, mappe di riflessione – in grado di mostrare rapidamente, in modo efficiente e complementare, ogni difetto di progettazione.
Nel campo dello sviluppo delle tecnologie per la visualizzazione di modelli 3D ombreggiati in tempo reale, l’ultima frontiera è la visualizzazione di modelli complessi ad alta qualità, tramite algoritmi di ray-trac-ing semplificati, una tecnica di rendering elaborata nei primi anni Ottanta che descrive il trasporto della luce in un ambiente generico basandosi su una formulazione di tipo ottico-geometrico del suo comportamento. Oggi questo metodo è stato rispolverato, studiandone semplificazioni in grado di permettere la generazione in tempo reale di immagini con degrado non percettibile della qualità rispetto alla soluzione che prevede il calcolo completo di ogni termine e il tracciamento di tutti i raggi. Il principale vantaggio di questa soluzione è la possibilità di ottenere l’interazione sui moderni hardware grafici con modelli CAD complessi formati da qualche centinaio di milioni di poligoni (per es., un edificio, un aeroplano, un’autovettura completa), a fronte della capacità degli algoritmi tradizionali di ‘renderizzare’ qualche milione di poligoni al secondo.
Le strutture di accelerazione del ray-tracing sono dunque in grado di mostrare modelli complessi durante il percorso progettuale, consentendo di realizzare visivamente, sullo schermo di un computer, processi di controllo della qualità, di prototipazione rapida e di reverse modeling. A questo proposito la Boeing ha recentemente dimostrato come la tecnologia di ray-tracing in tempo reale possa essere utile nei processi di controllo della qualità. Verso la metà degli anni Novanta, il Boeing 777 era stato realizzato attraverso un processo completamente digitale, procedendo tuttavia ‘pezzo per pezzo’. Oggi, invece, la tecnologia grafica consente di visualizzare l’intero aereo tutto in una volta: 14 gigabyte di dati per 350 milioni di poligoni, che rappresentano 16.000 modelli di parti singole. In questo modo è possibile osservare le interferenze fra le singole parti e quindi le ripercussioni delle modifiche di ognuna di esse; in secondo luogo, si può analizzare ogni problema nel suo complesso, evitando il rischio di dimenticare qualcosa.
Dal punto di vista della qualità dell’immagine, il real time rendering si avvale dei progressi compiuti dalla simulazione realistica. Negli ultimi anni la descrizione dei materiali, dell’illuminazione e del tono dell’immagine (cioè di ciò che cambia a seconda della condizione di illuminazione in cui si trova l’osservatore rispetto al soggetto osservato) si è affrancata quasi completamente dalle semplificazioni tipiche della computer graphics degli anni Ottanta; oltre a questo, tale migliore qualità dell’immagine è stata implementata anche in real time.
Così, per es., grazie agli studi di un gruppo dell’Università di Bonn (Müller, Meseth, Sattler et al. 2005), materiali realistici basati sulla BTF (Bi-directional Texture Function) – una descrizione matematica fornita qualche anno prima da alcuni studiosi della Columbia University (Dana, van Ginneken, Nayar, Koenderink 1999) per rendering precalcolato – hanno sostituito la formulazione semplificata utilizzata in precedenza, che impediva di restituire correttamente materiali con variazioni nella trama e nella riflessione, quali tessuti, pelli e intonaci. Le simulazioni della luce, basate sul tracciamento di fotoni, hanno inoltre fornito un’accurata rappresentazione dei fenomeni di interriflessione tra gli oggetti di una scena e poi di illuminazione globale. Infine, riguardo alla resa complessiva dell’immagine sono apparse tecniche di real time tone mapping in grado di restituire il colore corretto delle immagini ‘renderizzate’, secondo le proprietà di visualizzazione del sistema visivo umano e dei monitor.
Un campo di applicazione di grande effetto è quello dell’automobile, in cui le nuove tecniche di real time rendering sono applicate nella visualizzazione accurata della vernice della carrozzeria, dei vetri dei finestrini e dei parabrezza, e nella descrizione complessiva dell’ambiente. In particolare, le vernici delle automobili mostrano una vasta gamma di effetti ottici che devono essere simulati: perlescenza, scintillio, riflessione sull’auto dell’ambiente circostante. Attualmente queste caratteristiche possono essere simulate con l’uso di tecniche che fanno uso di environment mapping – una serie di mappe di immagini che memorizzano la riflessione globale dell’ambiente circostante e la luce incidente su un oggetto – per la riflessione speculare, e di più livelli di texture, ciascuno preposto a simulare un effetto specifico, per gli strati della vernice. L’interno dell’auto è assai più complesso in quanto dotato di materiali quali stoffe, pelli, plastiche, tessuti, metalli e legno, per i quali si usano tecniche di texture mapping basate sull’analisi e la restituzione della microstruttura della superficie che sono implementate direttamente nei chip grafici.
Una delle applicazioni più convincenti della simulazione digitale è quella concernente il rendering per il progetto di interni e l’ambientazione dell’arredo. Accanto alla distribuzione geometrico-materiale delle forme, nell’interior design gioca un ruolo determinante la luce, ovvero il mezzo informativo che agisce sul nostro sistema sensoriale visivo, per la percezione dei colori e delle luminanze, al fine di determinare l’apparenza visiva. Differenti livelli e distribuzioni dell’illuminazione contribuiscono a modificare la percezione degli ambienti e la predisposizione psicologica alla loro fruizione. Disegnare una forma e un colore significa, infatti, gestire anche l’informazione luminosa che questi ci trasmetteranno.
L’esplorazione di un modello virtuale, nel quale si siano utilizzate tecnologie di rendering per produrre sequenze d’immagini calcolate con un metodo di illuminazione globale (cioè con algoritmi che tengono conto non solo dell’illuminazione diretta, ovvero quella ricevuta direttamente da una sorgente di luce, ma anche dell’illuminazione indiretta, ossia quella riflessa, diffusa o rifratta da altre superfici), è un’operazione ormai relativamente rapida anche su un normale computer da tavolo. Proprio per questo, tra vari strumenti di presentazione del progetto (all’utente finale, al rivenditore, all’ufficio marketing ecc.), il furniture design fa ormai comunemente ricorso a tecniche di visualizzazione basate su rendering statico invece che su ambienti fotografati, al fine di simulare in modo più economico, efficiente e rapido non solo il singolo arredo ma anche veri e propri moods d’ambiente.
A partire dal 2005 hanno cominciato a essere disponibili soluzioni visualizzabili in tempo reale che simulano l’illuminazione globale anche in un interno, e che sono ottenute precomputando e ottimizzando alcuni algoritmi. Si tratta di un importante progresso del processo progettuale e dei suoi output, perché la visualizzazione di real time rendering non soltanto consente di coprire le tradizionali uscite dei sistemi che utilizzano funzioni di batch rendering (creazione di immagini statiche e dinamiche come animazioni precalcolate), ma offre un valore aggiunto dovuto alla possibilità di avere un output interattivo in tempo reale. Pertanto, alla possibilità di creare immagini/animazioni per cataloghi (rappresentazione globale del prodotto con le sue funzioni specifiche e le sue finiture), per pubblicità (ricostruzione di situazioni di immersività dell’oggetto in contesti ambientali fotografati, con la possibiltà di fusione del virtuale con il reale), per manuali tecnici (riproducibilità del dettaglio tecnico e degli schemi funzionali dell’oggetto), si affianca la possibilità di creare configuratori (per consentire le variazioni interattive) e simulatori tridimensionali (per rendere il più reale possibile la scena).
Le modalità attraverso le quali l’utente finale può interagire con questi nuovi strumenti di visualizzazione del prodotto sono molteplici: da postazioni dedicate negli showrooms aziendali – con soluzioni che pre-vedono, per es., monitor montati su basamenti tipo totem – a soluzioni facilmente trasportabili come DVD, CD e web. A questi supporti di visualizzazione a basso costo e limitata iconicità si affiancano altri dispositivi di visualizzazione a elevata iconicità come, per es., le sale a proiezione immersiva, o di semplice proiezione (monoscopica oppure stereoscopica) con l’utilizzo di pareti piane, supportate da monitor touch-screen in grado di consentire l’interazione.
Nel 2006 il Politecnico di Milano, RTTag e B&B Italia hanno realizzato un progetto pilota per la sperimentazione e l’implementazione dei sistemi di visualizzazione in real time nel settore del prodotto di arredo per interni. La sperimentazione ha elaborato un sistema capace di agire come configuratore e simulatore. Si tratta di un prototipo a suo modo, però, paradigmatico di un filone di ricerca che promette rapidi e significativi sviluppi.
Strumenti per progettare
Quasi tutti gli elementi chiave che compongono un sistema interattivo di grafica sono elencati nel primo paragrafo della tesi di dottorato di Ivan E. Sutherland, Sketchpad: a man-machine graphical communication system (discussa presso il Massachusetts institute of technology nel 1963 e pubblicata nel 1964 in Proceedings of the SHARE design automation work-shop, ed. P.O. Pistilli, pp. 6329-46). Su questo stesso schema sono impostati anche gli attuali sistemi, i quali hanno cercato di sviluppare, da un lato, la capacità gestuale dell’utente nell’atto creativo, dall’altro la capacità di being there (sostituendo l’ambiente fisico con quello virtuale).
Il più comune dispositivo di input per visualizzare, esplorare e modificare modelli tridimensionali è certamente il mouse a tre tasti. Tuttavia l’interazione tra utente e modello tramite il mouse e alcune combinazioni da tastiera risulta complicata e poco spontanea. Ciò ha portato alla necessità di mettere a punto strumenti specifici. Tra questi, il sistema di input più familiare al progettista è certamente il pen&tablet, che è formato da penna fisica e monitor sensibile in funzione di tavoletta, e che permette di visualizzare istantaneamente il segno dove lo si traccia, in modo simile a quanto avviene per il disegno analogico. Da un punto di vista operativo, quindi, la perfetta sovrapposizione di fisico e virtuale è cruciale, e la tavoletta fisica e quella virtuale devono avere la stessa dimensione.
Un logico sviluppo di questo sistema per supportare il lavoro collaborativo è dato dai touch-tables, cioè tavoli sensibili al tatto. Il Media lab del Massachusetts institute of technology ha sperimentato varie tecnologie per riconoscere il tocco dell’utente su grandi superfici verticali. Una di queste utilizza un campo elettrico che attraversa l’utente e viene rilevato da ricevitori posti agli angoli dello schermo in plexiglass. Anche DiamondTouch di Mitsubishi fa ricorso a un segnale elettrico, ed è in grado di ‘tracciare’ le mani di due utenti su una superficie orizzontale, trasmettendo il segnale attraverso le sedie su cui questi sono seduti e una griglia di antenne poste sul tavolo. Microsoft surface è invece la soluzione touch-table immessa sul mercato da Microsoft nella primavera 2008: lo strumento permette di operare su un tavolo-display della dimensione di 30 pollici consentendo l’interazione da parte di piccoli gruppi.
Il sistema pen&tablet è eccellente per fornire input grafico 2D a un mezzo anch’esso bidimensionale, e costituisce un sensibile progresso rispetto al mouse, ma risulta inadeguato a fornire input 3D, richiedendo necessariamente la costruzione di un piano ausiliario di tracciamento parallelo al piano dello schermo. Per questo sono stati messi a punto strumenti che generano segnali quando si compiono gesti o segni con le mani mediante guanti o esoscheletri. Questi dispositivi registrano il gesto dell’utente tracciandone il relativo segno mediante una campionatura continua della posizione (che determina il punto di vista) e dell’orientamento (che determina il punto osservato) dell’osservatore nello spazio. Sulla base di questo rilevamento, la telecamera viene riposizionata nello spazio virtuale. I sistemi di tracciamento oggi più comuni sono basati sulla visione, e utilizzano una o più camere per acquisire il video dell’azione compiuta dall’utente, in abbinamento con tecniche di elaborazione dell’immagine per identificare posizione e/o orientamento.
Dispositivi di input ‘discreto’, cioè fornito solo dietro azione dell’utente, consentono invece di interagire con pulsanti cui sono associate attività predefinite. In questo caso, la scelta del tipo di strumento dipende dal grado di precisione o dal livello di naturalezza che si intende associare all’interazione, ed è strettamente legata all’applicazione finale, al contrario di quanto avviene per il mouse, che è uno strumento multiuso in grado di adattarsi a innumerevoli contesti.
Una soluzione radicale di periferica per gestire input 3D è data dalle interfacce haptic; esse generano segnali meccanici che stimolano canali umani cinestetici e tattili, mentre le interfacce tradizionali forniscono informazioni visive e audio. Le interfacce haptic dotano inoltre l’utente di mezzi tramite i quali interagire con l’ambiente circostante. È possibile perciò definirle come dispositivi che, attraverso l’associazione della gestualità del tatto e del cinestesico, permettono la comunicazione tra uomo e macchina e possono essere progettate per restituire una riproduzione letterale dei fenomeni che si verificano nel corso della manipolazione. Una delle prime applicazioni in cui sono state impiegate è stato il miglioramento dell’interfaccia grafica oggi in uso, fornendo una restituzione meccanica dei suoi elementi costitutivi (windows, bottoni, menu a tendina, parole di testo, disegni). Nella progettazione digitale, servendosi di interfacce haptic è possibile sperimentare tattilmente dettagli minuti, difficilmente analizzabili visivamente, per verificarne la rispondenza alle intenzioni. Un tipico esempio è la valutazione della levigatura di una superficie.
A partire dai primi anni del 21° sec. sono stati sviluppati sistemi specificamente dedicati alla progettazione in ambiente 3D, caratterizzati dall’uso di metodi di interazione multimodale basati sulla metafora della penna. Assieme a essi sono stati messi a punto appropriati paradigmi di interazione che oggi consentono con facilità la creazione e modifica di superfici a forma libera. Solitamente queste soluzioni trovano applicazione nella progettazione di automobili, ma le considerazioni che se ne possono trarre sono facilmente estensibili ad altri campi di lavoro.
Un gruppo di ricercatori (Grossman, Balakrishnan, Kurtenbach et al. 2001) ha messo a punto un sistema basato sull’interazione bimanuale. Esso introduce tecniche di disegno e valutazione del progetto che si servono di nastrini bidimensionali adesivi (una specifica tecnica da car designer), operando su schermi che consentono di avere rappresentazioni dell’auto fino alla scala 1:3. Andando oltre la semplice visualizzazione su desktop, questo sistema si propone in prima istanza come strumento con cui poter disegnare a grande scala e fino a scala 1:1 già nelle prime fasi dell’ideazione. Per questo è dotato di elementi che consentono di realizzare schizzi e modelli con un’interfaccia adatta a grandi schermi. Dato che consente gesti bimanuali, è possibile, per es., usare la mano destra per indicare il centro di una circonferenza mentre la sinistra ne specifica il raggio. E l’utilizzo di entrambe le mani che lavorano in parallelo per governare strumenti di input è una soluzione che non soltanto permette di guadagnare tempo, perché le mani lavorano in parallelo, ma, per di più, muta radicalmente la percezione dell’azione.
Una ricerca (Schmalstieg, Fuhrmann, Hesina 2000) condotta all’interno del progetto SmartSketches – coordinato dall’Institut Graphische Datenverararbeitung del Fraunhofer-Gesellschaft tedesco – ha portato a sperimentare un sistema con le stesse finalità del precedente che incorpora tecniche di augmented reality ed è denominato SketchAR. Anch’esso consente di lavorare con tecniche bimanuali servendosi di nastrini per correggere le curve esistenti o per crearne di nuove, ma in più è in grado di creare il modello direttamente nello spazio tridimensionale usando un ambiente immersivo e non più solo curve e interfacce bidimensionali. SketchAR supporta modellazione 3D anche in realtà virtuale aumentata, sincronizzando dati visivi con una precisa rappresentazione CAD dell’oggetto progettato, e per questo sovrappone le funzionalità di modellazione a un sistema di AR. Inoltre supporta lavoro collaborativo, cosicché più utenti possono modellare differenti parti del modello virtuale.
È possibile avere importanti benefici nell’input introducendo tecnologie a grande diffusione. La connettività wireless, per es., permette di ottenere libertà di movimento per l’utente. Dispositivi portatili multifunzione come i telefoni cellulari – che sono in grado di supportare testo, immagini e altri dati multimediali, navigazione sul web, riproduzione di musica o di video – rappresentano un’interfaccia naturale e trasparente di dati digitali multimediali. Inoltre permettono l’interazione contemporanea multiutente per ambienti in rete con visualizzazione su dispositivi esterni (come, per es., un sistema di videoproiezione) e lo scambio e la collezione di dati multimediali. Forniscono dunque la possibilità di raccogliere e richiamare dati, stabilire relazioni tra dati e modelli 3D, e realizzare analisi accurate.
Pensare e produrre il progetto
Le ricerche più recenti nell’ambito dei sistemi di rappresentazione digitali sono volte a fornire nuovi strumenti in grado di rimuovere le barriere tra proiezioni piane e modellazione 3D e di superare la divisione tra i diversi sistemi di rappresentazione. Per questo i software di progettazione digitale tendono a integrare ambienti di sketching 2D tramite pen&tablet e modellazione 3D, cercando di minimizzare gli scompensi dovuti al passaggio da un sistema basato su immagini e due dimensioni a uno basato su vettori e tre dimensioni.
Autodesk AliasStudio, uno dei sistemi più diffusi presso i designer di automobili e le case automobilistiche per il progetto di ‘stile’, è un ambiente integrato 2D e 3D, che permette l’uso di dati 3D per fornire allo sketching 2D un effettivo supporto tridimensionale. Un interessante effetto risiede nella possibilità di utilizzare dati 3D come base di disegno su cui sviluppare direttamente il progetto di massima (concept). Non solo ciò consente di presentare varie idee, ma la geometria sottostante fornisce profondità visiva a prospettive accurate e rapide da ogni punto di vista. A partire da schizzi bidimensionali, eventualmente importati da immagini scansionate, l’utente può poi creare curve 3D, producendo la base delle superfici finali che costituiranno il modello. Queste superfici possono supportare altri schizzi che permettono di simulare rapidamente fasi più evolute del progetto, senza perdere tempo all’inizio nel creare dettagli che comporterebbero lunghe e tediose tecniche di modellazione. Nella maggior parte dei casi, valutare modelli mappati con schizzi che rappresentano dettagli è una tecnica figurativa efficiente per prendere le prime decisioni sul concept di un oggetto.
La stessa Autodesk – maggiore produttrice mondiale di software per la progettazione grafica – nei primi anni del 21° sec. aveva lanciato Architectural studio, una soluzione che, in un unico ambiente destinato allo sviluppo delle prime idee progettuali nel campo dell’architettura, integrava lo schizzo 2D, un modellatore 3D semplificato e la possibilità di sovrapporre immagini digitalizzate (per es., altri schizzi o fotografie). Sebbene rapidamente abbandonato, questo sistema, nato dalla tesi di dottorato di Moreno A. Piccolotto presso la Cornell University, è stato il progenitore di una generazione di software che si sta ora affermando, e di cui l’esempio più noto è Google SketchUp.
La problematica soluzione delle tecniche di concept in architettura ha visto il fiorire di innumerevoli prototipi sperimentali; fra questi Mental canvas (Dorsey, Xu, Smedresman et al. 2007), che propone lo schizzo nello spazio tridimensionale come strumento di progettazione nelle prime fasi ideative. In Mental canvas, l’utente inizia con una serie di disegni 2D per i quali non è fatta inizialmente alcuna ipotesi su posizione dell’osservatore o direzione di vista. È poi possibile posizionare questi disegni nello spazio 3D, come se si stessero affiggendo schizzi cartacei su una bacheca. L’utente a questo punto può cominciare a fondere i vari disegni e a considerare le viste come parti di un unico insieme, trasferendo i segni su nuovi piani, diversi da quello su cui sono stati disegnati. L’operazione è assistita dal software, essendo consentito all’utente di osservare i segni da differenti punti di vista e di controllare posizionamento e orientamento del piano a cui assegnare ogni tracciamento. Progressivamente il progettista può così costruire e rifinire un insieme di piani 2D che contengono gli schizzi, giungendo a generare uno spazio 3D di essi. Questo modo di lavorare corrisponde al processo cognitivo del progetto ideativo, cioè al modo in cui un architetto muove dalle idee preliminari verso modelli precisamente definiti.
Nel campo del design, altri approcci cercano forme di ibridazione tra schizzo e modello, cogliendo il meglio delle due tecniche, per farli crescere assieme fino al prototipo digitale (digital mock-up, DMU) finale.
Levent B. Kara, Chris M. D’Eramo e Kenji Shimada (2006) hanno messo a punto una tecnica per migliorare l’attuale pratica che permette ai designer di utilizzare i loro schizzi su carta insieme a modelli digitali esistenti in modo da facilitare un rapido e fluido sviluppo della geometria 3D. L’input è dato da uno schizzo di concept digitale o digitalizzato e da un generico modello 3D wireframe, chiamato template, che rappresenta la forma-base dell’oggetto. In un primo passaggio il template è allineato con lo schizzo digitale, e la sua proiezione viene fatta aderire il più possibile all’oggetto schizzato. Quindi, usando una penna digitale, l’utente ricalca sullo schermo del computer – anche con una certa approssimazione – gli spigoli caratteristici dell’oggetto contenuto nello schizzo. I segni bidimensionali dell’utente sono processati e riconosciuti in 3D per far assumere la forma desiderata al template ubicato sotto l’immagine. In modo simile, altri schizzi che mostrano punti di vista diversi possono essere utilizzati per modificare differenti parti del template. In alternativa, l’utente può abbandonare l’uso degli schizzi di input e continuare a schizzare direttamente sul template. Una volta ottenuta la forma voluta, il template è convertito in superficie per produrre un modello solido.
Dall’autografico all’allografico
La presentazione di un progetto – alla committenza, all’ufficio marketing, a potenziali acquirenti, ad altri protagonisti del processo costruttivo – costituisce il momento ‘allografico’ per eccellenza del ciclo di produzione del progetto. Nello schema mediatico operativo del digitale, tale fase presenta una forte distanza dal momento ‘autografico’, ovvero dalle fasi di concept ma anche da quelle di elaborazione.
In confronto alla matericità del disegno su foglio di carta, l’immaterialità del risultato del disegno (un insieme ordinato di bit visualizzato su uno schermo) spinge a una separazione – certamente proficua – tra dispositivi e tecniche di visualizzazione del progetto in corso di redazione, e dispositivi e tecniche di visualizzazione in sede di presentazione e revisione. Quest’ultima fase, certamente la più impegnativa, giacché si tratta di comunicare gli esiti anche a non esperti, è quella più suscettibile di mutamenti e, allo stesso tempo, è soggetta a forti spinte nella direzione dell’affinamento delle forme di rappresentazione.
Le maggiori innovazioni riguardano l’affiancamento alle strategie tridimensionali digitali rendering-based di mezzi di visualizzazione ad ampio campo visivo e in grado di mostrare modelli digitali alla scala reale.
I tipi attualmente più comuni di schermi di visualizzazione a grande formato in grado di soddisfare queste istanze possono essere orizzontali, chiamati anche workbenches, o verticali, simili a pareti (walls), ottenuti dalla disposizione bidimensionale di una serie di proiettori a matrice (ma attualmente anche uno solo, per es. il Sony 4K SXRD con risoluzione di 4096×2160 pixel) che retroproiettano ad alta risoluzione pareti di dimensioni superiori a 5×2 m2. Si tratta di sistemi messi a punto nell’ultimo decennio del 20° sec., ma che solo a partire dai primi anni del 21° hanno visto un progressivo abbattimento dei costi e sono divenuti effettivamente utilizzabili da un largo numero di utenti. Al pari dei disegni tecnici su carta dell’era industriale, tali soluzioni sono in grado di restituire accurati elaborati in proiezione ortogonale a scala 1:1, ma consentono, in più, visualizzazioni ombreggiate e con una rappresentazione accurata delle superfici, dei materiali e delle riflessioni in forma iconica.
Un altro sistema, ormai assai diffuso tra quelli con più superfici planari e configurazioni poligonali, come un cubo o un dodecaedro, è il CAVE (Cave Automatic Virtual Environment). Si tratta di un dispositivo che proietta un video ad alta risoluzione su tre pareti e sul pavimento di uno spazio cubico. La retroproiezione viene utilizzata al fine di evitare problemi di interferenza con le immagini. La visualizzazione è consentita da un sistema hardware-software che gestisce i proiettori (uno per schermo), in sincronia tra loro per offrire continuità e corrispondenza tra le immagini proiettate. Nel suo interno possono essere presenti più persone che osservano la scena utilizzando degli occhiali stereoscopici, ma un solo utente può interagire con il modello tramite un sistema di tracciamento della sua posizione nello spazio, mentre gli altri sono solo spettatori passivi.
Un potente complemento all’ampio campo visivo offerto da questo genere di schermi può essere fornito dalla visualizzazione stereoscopica, che conferisce al digitale un senso di maggiore presenza: l’indicazione di profondità binoculare permette una migliore descrizione del volume, ed è particolarmente efficace per la riproduzione di oggetti in movimento lento entro una distanza visiva di 10 m. Una rappresentazione stereoscopica digitale non è altro che un sistema ottico la cui componente finale è la mente umana: funziona sottoponendo al cervello lo stesso tipo di viste sinistre e destre che si possono vedere nel reale.
Due tipici campi di applicazione del design review sono l’architettura e il car design. Per essi un recente progetto finanziato dall’Unione Europea ha individuato scenari d’uso ormai divenuti consueti (Santos, Stork, Gierlinger et al. 2007).
Innanzitutto è stato osservato che i due settori presentano problematiche completamente differenti. I costruttori di automobili operano all’interno di grandi aziende che durante gli ultimi quindici anni hanno spinto la tecnologia di VR agli attuali livelli, mentre l’architettura deve in genere confrontarsi con un contesto operativo costituito da molte piccole imprese che non possono permettersi costose installazioni.
Uno scenario futuribile (ma già possibile, e in qualche modo convalidato dagli utenti) per il progetto di architettura è il seguente:
a) il progetto ha inizio con studi volumetrici che si propongono di verificare possibili configurazioni formali in grado di soddisfare il programma di occupazione del suolo e valutare l’integrazione dell’intervento con l’ambiente circostante. In questa fase il progettista ha la possibilità di operare in situ, usando un sistema Tablet PC (cioè un personal computer dotato del sistema pen&tablet già visto) per i primi schizzi, e occhiali seethrough (che consentono cioè AR) per visualizzare nel relativo ambiente fisico l’idea delineata;
b) la fase successiva consiste nella rifinitura dello schizzo nella postazione di lavoro in atelier. Il risultato viene valutato assieme ai collaboratori e, sempre in laboratorio, presentato ai committenti che vengono dotati di una coppia di HMD (Head Mounted Display). L’HMD è un dispositivo composto da due piccoli schermi separati – uno per ogni occhio – che, con l’ausilio di un sistema di tracciamento, consente a un singolo utente la percezione senza soluzione di continuità dell’ambiente virtuale in un campo visivo variabile che va da 110° a 130°. La distanza tra i visori rende possibile fruire di stereoscopia tramite un sistema ottico di lenti poste davanti agli schermi. Un sistema di interazione diretta 3D a penna permette di creare annotazioni e cambiamenti;
c) il progetto di massima si conclude con la sua valutazione in situ assieme alla committenza. Questa operazione può essere condotta servendosi di più HMD per la visualizzazione, e di un’ampia area di tracciamento dei gesti per l’interazione.
Contrariamente al caso dell’architettura, per la quale è ipotizzabile un dispositivo di visualizzazione semplice e di uso singolo come l’HMD, i designer di autovetture hanno già la consuetudine di operare con schermi di grandi dimensioni. Per questo desiderano semplicemente migliorarne le caratteristiche tecnologiche. Lo scenario di design review per la progettazione automobilistica è quindi ipotizzabile come segue:
a) il nuovo modello è visualizzato su un wall retroproiettato in scala 1:1, e gli utenti (progettisti, manager ecc.) posti di fronte allo schermo sono equipaggiati con delle Tablet PC che mostrano, a risoluzione ridotta, la stessa scena proiettata sul display a grandi dimensioni. In questo modo, essi sono posti in condizione di proporre cambiamenti, fare annotazioni o suggerire consigli usando input scritti manualmente sulle loro Tablet PC e che possono, di seguito, essere riconnesse al sistema ‘grande schermo’;
b) più utenti possono lavorare fianco a fianco, realizzando un’interazione diretta sul modello con una penna tridimensionale;
c) utenti singoli di fronte al grande schermo possono interagire direttamente con il wall servendosi di tecniche di gestualità delle mani.
In questa direzione, il gruppo PSA Peugeot Citroën sfrutta dal 2000 uno schermo di 6×2,5 m2 per revisioni di progetto di esterni di veicoli alla scala di 1:1 in stereoscopia. Oltre a questo, a Vélizy (Yvelines), dov’è situato il nuovo centro di progettazione PSA, sono raggruppate più attrezzature immersive stereoscopiche, come un CAVE, all’interno del quale si effettuano lo studio della visibilità interna durante la guida o le simulazioni di montaggio, e un workbench.
Come accennato, l’impiego di grandi schermi di visualizzazione è già oggi una strategia di presentazione del prodotto al cliente. Per es., a partire dal dicembre 2007 i rivenditori delle automobili Lamborghini sono dotati di un configuratore 3D che, in real time e con qualità fotorealistica, consente di operare assieme ai clienti per scegliere un modello, equipaggiarlo con specifiche adattate e creare un’offerta. Il sistema, oltre alle consuete opzioni, come colore dell’esterno e specifiche dell’interno, permette la personalizzazione di dettagli come le cuciture e le giunture dei sedili. Se lo si desidera è possibile visualizzare dinamicamente l’intera configurazione tecnica. La Lamborghini configurata può essere vista in real time da una vasta gamma di punti di vista, e si può ottenere un’offerta economica in tempo reale. Il configuratore Lamborghini è strutturato con una Tablet PC, che funziona da sistema di interazione, e con uno schermo al plasma da 50 pollici per la visualizzazione. Lo stesso software RTT POS (Real Time Technology Point Of Sale) fornisce l’interfaccia di visualizzazione a partire da una serie di modelli preformattati sullo schermo al plasma e quella di configurazione sulla Tablet PC.
Bibliografia
K.J. Dana, B. van Ginneken, S.K. Nayar, J.J. Koenderink, Reflectance and texture of real-world surfaces, «ACM Transactions on graphics», 1999, 1, pp. 1-34.
D. Schmalstieg, A. Fuhrmann, G. Hesina, Bridging multiple user interface dimensions with augmented reality, in Proceedings of the IEEE and ACM international symposium on augmented reality (ISAR 2000), Los Alamitos (Cal.) 2000, pp. 20-29.
T. Grossman, R. Balakrishnan, G. Kurtenbach et al., Interaction techniques for 3D modeling on large displays, in Proceedings of the 2001 symposium on interactive 3D graphics, ed. J.F. Hughes, C.H. Séquin, New York 2001, pp. 17-23.
T. Akenine-Möller, E. Haines, Real-time rendering, Natick (Mass.) 20022.
G. Burdea, P. Coiffet, Virtual reality technology, New York 20032.
R. Klein, J. Meseth, G. Müller et al., Realreflect. Real-time visualization of complex reflectance behaviour in virtual protoyping, in Proceedings of Eurographics 2003 industrial and project presentations, ed. P. Brunet, D. Fellner, Granada 2003, pp. 1-14.
M. Pharr, G. Humphreys, Physically based rendering. From theory to implementation, Amsterdam-London 2004.
D. A. Bowman, E. Kruijff, J. LaViola, I. Poupyrev, 3D user interfaces. Theory and practice, Boston 2005.
G. Müller, J. Meseth, M. Sattler et al., Acquisition, synthesis and rendering of bidirectional texture functions, «Computer graphics forum», 2005, 1, pp. 83-109.
M. Haller, P. Brandl, D. Leithinger et al., Shared design space. Sketching ideas using digital pens and a large augmented tabletop setup, «Lecture notes in computer science», 2006, 4282, n. monografico: Advances in artificial reality and tele-existence. Proceedings of the 16th international conference on artificial reality and telexistence, ed. Z. Pan, A. Cheok, M. Haller et al., pp. 185-96.
L.B. Kara, C.M. D’Eramo, K. Shimada, Pen-based styling design of 3D geometry using concept sketches and template models, in Proceedings of the 2006 ACM symposium on solid and physical modeling, ed. L. Kobbelt, W. Wang, New York 2006, pp. 149-60.
J.R. Wilson, M. D’Cruz, Virtual and interactive environments for work of the future, «International journal of human-computer studies», 2006, 64, 3, pp. 158-69.
B. Buxton, Sketching user experiences getting the design right and the right design, Burlington (Mass.) 2007.
J. Dorsey, S. Xu, G. Smedresman et al., The Mental Canvas. A tool for conceptual architectural design and analysis, in Proceedings of the 15th Pacific conference on computer graphics and applications, ed. M. Alexa, S. Gortler, T. Ju, Washington D.C. 2007, pp. 201-10.
D. Kasik, B. Brüderlin, W. Corrêa et al., State of the art in massive model visualization, San Diego (Cal.) 2007.
P. Santos, A. Stork, Th. Gierlinger et al., IMPROVE. An innovative application for collaborative mobile mixed reality design review, «International journal of interactive design and manufacturing», 2007, 1, 2, pp. 115-26.
Human-centered visualization environments, GI-Dagstuhl research seminar, Dagstuhl Castle, 2006, ed. A. Kerren, A. Ebert, J. Meyer, Berlin-Heidelberg 2007.