Interfaccia uomo-calcolatore
L’interazione tra uomo e macchina (o tra uomo e programma) può intendersi come un processo che consente la comunicazione e il controllo delle applicazioni informatiche da parte degli utenti. Si tratta quindi di un rapporto fra un essere umano e i programmi applicativi che servono a portare a termine un compito: calcolo, elaborazione testi, grafica e disegno, creazione musicale, posta elettronica e così via.
Il programma che serve a facilitare la comunicazione e che fornisce i comandi è detto interfaccia, proprio perché si colloca fra l’applicazione (anch’essa un programma) e l’utente, il quale non è ormai più rappresentato da un esperto o da un tecnico, ma può essere un qualunque individuo senza competenze specifiche nel campo informatico.
In fisica si definisce interazione ogni processo in cui due o più corpi agiscono uno sull’altro modificando il loro stato o le loro energie. I corpi possono essere particelle, materiali, sistemi semplici o complessi; con la locuzione interazioni forti, per esempio, si intende il legame che intercorre fra protoni e neutroni all’interno del nucleo di un atomo. Analogamente, in sociologia si può definire interazione il processo attraverso il quale due o più soggetti entrano in un insieme di relazioni reciproche e interdipendenti che acquistano significato in quanto oggetto di comune interesse ed esperienza.
In informatica si può indicare come interazione fra esseri umani e programmi (interazione uomo-macchina) la relazione di mutua influenza fra i due attori che sottopongono o ricevono comandi mirati a far eseguire una qualunque computazione. In realtà, questa definizione presuppone una totale simmetria e libertà di azione: ciò non è esatto, in quanto per sistemi digitali a programma memorizzato (come accade negli attuali calcolatori), le azioni del programma sono quelle originate dalle istruzioni fornite dai programmatori e quindi ciò che avviene è un insieme di azioni umane e reazioni della macchina controllate dal programma stesso, anche se sarà soltanto l’utente a determinarne la sequenza. Di natura diversa è invece l’interazione tra esseri umani: ogni attore può assumere infatti atteggiamenti e reazioni diverse a seconda degli stimoli che riceve dall’altro. In un certo senso potremmo descrivere la prima interazione (quella di natura informatica) come deterministica, mentre la seconda (quella sociale) come casuale o non deteministica.
L’evoluzione dell’informatica degli ultimi venti anni ha comportato un aumento della quantità di programmi disponibili, unito a un incremento di dispositivi di calcolo e comunicazione con interfacce progettate tenendo conto dei vincoli fisici, di peso, di robustezza e di usabilità rispetto a un’ampia classe di potenziali utenti: la metà del codice inserito nei programmi applicativi è dedicata all’interazione e quindi è collegata all’interfaccia.
L’uso del colore, la scelta della grafica e delle icone, la gestione delle finestre, l’analogia fra le funzioni disponibili tra diverse piattaforme di calcolo, sono tutte questioni di natura tecnologica affrontate dai progettisti per assicurare un’elevata facilità d’uso al maggior numero possibile di utenti. Vista l’estensione del calcolatore a un numero sempre maggiore di utenti non specialisti, è necessario infatti facilitare il più possibile, attraverso l’impiego di adeguate interfacce, la prima dura fase di acquisizione cognitiva di una nuova applicazione.
I problemi tecnici che generalmente insorgono nell’utilizzo delle interfacce (programmi destinati a rappresentare l’applicazione nella mente dell’utente), sono i seguenti: (a) difficoltà nel valutare le possibili preferenze (scelte od opzioni) che il programma può fornire; (b) presa di coscienza delle diverse funzioni disponibili nell’applicazione; (c) possibilità di invertire le azioni mediante un comando di recupero o comando ‘disfa’ (undo); (d) capacità di uscire da situazioni di emergenza dovute a errori umani o a stallo del sistema di calcolo.
Per quanto concerne eventuali criticità di ordine tecnologico, si possono rilevare situazioni di questo tipo: il calcolatore è collegato in rete e non si conosce il funzionamento di tale rete; si è in coda di stampa; vari processi sono attivi nel calcolatore (per es., calcolo con il foglio elettronico, aggiornamento di data e orologio, cancellazione di dati su disco) e così via. Tutto ciò rende all’utente difficile sapere in quale stato si trovi esattamente la macchina al momento di una richiesta di utilizzo, o più correttamente, in quale stato – tra quelli possibili e in numero finito – si trova il calcolatore-automa (a programma memorizzato). Se vengono schiacciati due tasti contemporaneamente, non è dato sapere quale dei due andrà a buon fine. Se, prima che il programma applicativo sia pronto per essere esguito, si preme la barra spazio, oppure il tasto cancella, l’utente non è in grado di sapere l’effetto della sua digitazione (si parla in casi del genere di problema del type-ahead o di battitura anticipata).
Come si può vedere da questi semplici esempi, l’interazione fra uomo e programma implica una gamma di comportamenti diversi ma, soprattutto, non garantisce la predeterminazione, vale a dire l’utente può avere difficoltà nel prevedere cosa succederà esattamente sottoponendo un comando al sistema o all’applicazione, attraverso l’uso dell’interfaccia. Pertanto affinché l’utente possa lavorare naturalmente con un’applicazione può essere utile costruirsi un modello mentale di tale applicazione, il più possibile coincidente con quello che il progettista aveva concepito al momento della progettazione dell’applicazione.
In alternativa, con una serie di comandi iniziali, dopo pochi risultati coerenti e omogenei, l’utente deve poter dedurre un modello mentale dell’applicazione che sta adoperando. La creazione di un modello mentale di riferimento di tale applicazione gli consentirà di memorizzare facilmente tutto ciò che l’applicazione stessa può eseguire e in quali situazioni contestuali e con quali possibilità è in grado di importare ed esportare dati rispetto ad altre applicazioni sulla stessa macchina o su altri calcolatori posti in diverse sedi geografiche.
Da ultimo va segnalato che mentre la comunicazione, e quindi l’interazione che ha luogo durante una conversazione telefonica, non subisce trasformazioni (è presente un unico canale acustico che non viene modificato), durante la comunicazione attraverso il calcolatore gli oggetti dell’interazione (ovvero dati numerici, segnali, disegni, figure, suoni ecc.) sono trasformati opportunamente per ridurre lo spazio di memoria occupato e per aumentare l’affidabilità e la sicurezza dell’informazione trasmessa. Ciò comporta modifiche che possono anche influenzare la natura stessa dell’informazione (distorsione delle figure, degradazione dei segnali, impoverimento del testo ecc.) e l’interazione non risulterà sempre fluida, naturale e corrispondente alla presenza fisica dei membri che agiscono durante tale processo come se fossero tutti nello stesso ambiente. Di fatto, le videoconferenze risentono di sovrapposizioni di suoni (diverse persone che parlano contemporaneamente), immagini non sempre nitide e di scarsa qualità televisiva (riprese male illuminate) o semplicemente interruzioni nel corso della stessa videoconferenza.
In questi anni sono state presentate varie strategie per poter progettare con successo le interfacce, tra queste le più note sono: (a) la progettazione centrata sull’utente; (b) la progettazione basata su prototipi (mock-up) e (c) la progettazione guidata da specifiche ben formulate. Quest’ultima è stata in realtà la prima a essere introdotta e corrisponde all’idea di poter costruire programmi basandosi completamente su specifiche formali. Purtroppo, questo approccio non ha portato buoni risultati, in quanto non è possibile formulare un modello canonico (ovvero esprimibile con formule) dell’utenza. Il secondo approccio, che sfrutta la possibilità di usare modelli fatti di carta o di schermate, resta incompleto e non soddisfa pienamente, poiché molte osservazioni vitali (che solo l’utente può fornire) risultano assenti o poco documentate. Rimane infine il primo approccio, centrato sull’utente, nel quale la conoscenza del tipo di attività che deve svolgere un’applicazione informatica attraverso la sua interfaccia è considerata fondamentale.
Mentre la conoscenza degli strumenti informatici appartiene ai progettisti (sistemisti e analisti) e ai programmatori, la conoscenza del settore lavorativo, in particolare del dominio dell’applicazione (geografica, gestionale, bancaria, inventariale, commerciale, navigazionale ecc.) appartiene solamente agli utenti. La progettazione è frutto solitamente del lavoro congiunto di vari esperti (rappresentante degli utenti, sistemista, programmatore, studioso di problemi di interazione uomo-macchina), che continua per almeno un paio di cicli di progettazione-analisi-discussione, sulla base di modelli sempre più raffinati.
Esistono nel mondo esperti di progettazione che cercano di sintetizzare le linee guida necessarie per produrre interfacce usabili (facili da apprendere e da utilizzare), efficaci (che consentano il raggiungimento totale degli obiettivi dell’utente), efficienti (che ottengano i risultati sfruttando il minimo di conoscenze) e piacevoli (joy of use).
Alcune linee guida possono servire per una buona progettazione (oltre che per poter valutare un’interfaccia): innanzi tutto, gli utenti dovrebbero stabilire il passo dell’interazione (la velocità, controllabile, con la quale il sistema passa da uno stato a quello successivo), collaborare alla costruzione dell’applicazione (con la sua interfaccia) basandosi sulle loro conoscenze accumulate (memoria impiegata, dati necessari, dati intermedi, risultati grafici, stampe ecc.).
L’utente inoltre dovrebbe essere in grado di focalizzare la sua attenzione (attività volontaria) sul luogo di interesse (locus of attention) che è unico e che decade dopo 200 ms (mentre le percezioni auditive decadono dopo 1500 ms e non tutte sono memorizzate). Infine, l’uso del linguaggio, delle parole e dei nomi per le azioni e le strutture dati deve far parte della cultura dell’utente: solo così possiamo aspettarci una buona comprensione e utilizzo dell’interfaccia risultante. In caso contrario, sorgeranno dubbi e saranno necessari messaggi di aiuto, manuali d’uso, linee calde (hot lines) per aiutare l’utente a ritrovare la strada smarrita.
A questo punto potremmo chiederci come far sì che il risultato della progettazione dell’applicazione e dell’interfaccia sia misurato, valutato ed eventualmente migliorato. Nei cosiddetti esperimenti controllati, gruppi di persone, omogenei dal punto di vista culturale (rappresentanti della stessa classe di utenti), utilizzano in parallelo un sistema (o due sistemi diversi). Una classe omogenea, per esempio, di studenti universitari (età 18÷28 anni, corsi di ingegneria e/o scienze matematiche, fisiche e naturali), di impiegati di banca (22÷35 anni, livello intermedio nella carriera) o di disc-jockey (età 18÷38 anni), viene suddivisa in due gruppi e a entrambi si fa svolgere lo stesso lavoro su due interfacce diverse, per poter poi confrontare i vantaggi e gli svantaggi di ciascuna. Osservatori esterni raccolgono quindi le impressioni di questi utenti che diventeranno poi utili suggerimenti per esempio per migliorare l’interfaccia, facilitare lo svolgimento del compito, evitare di fornire una documentazione troppo pesante ecc. In questo modo è possibile fare una prima valutazione di un sistema messo a confronto con un altro e, soprattutto, avere delle indicazioni da parte degli utenti sui punti critici nonché sui possibili miglioramenti da apportare.
Come si è visto sopra, la progettazione di un’interfaccia (associata a un’applicazione) non può farsi in un unico ciclo (one-shot design) ma deve necessariamente passare attraverso qualche fase iterativa (che può anche consistere in uno schizzo primario, un disegno, una schermata, un prototipo) per poi diventare l’oggetto di studio e di analisi. Tipicamente due o tre cicli iterativi sono necessari per apportare al progetto le modifiche che lo renderanno più usabile.
Anche per quanto riguarda la valutazione possiamo distinguere tre metodi: (a) la valutazione euristica; (b) la valutazione attraverso un questionario veloce e (c) la valutazione con un questionario esauriente e intervista.
La valutazione di tipo euristico consiste nell’analisi da parte di un esperto di usabilità che verifica le caratteristiche di apprendimento, utilizzazione, efficacia, efficienza e godimento che presenta l’interfaccia quando viene impiegata nel suo ambiente di lavoro per eseguire il compito per il quale era stata costruita. Se l’esperto di usabilità è anche esperto del dominio applicativo, i risultati saranno naturalmente ancora più credibili e significativi.
Il secondo metodo (valutazione attraverso un questionario veloce) può esemplificarsi attraverso la compilazione di un breve questionario, chiamato SUS, di sole dieci domande; esso fornisce un’idea molto approssimativa della qualità dell’interfaccia (quick and dirty). Alle domande di tale questionario possono corrispondere una fra cinque possibili risposte (graduate su una scala di Likert, da uno a cinque) e vanno da ‘completamente d’accordo’ (massima convergenza) fino a ‘completamente in disaccordo’ (massima dissonanza), naturalmente poste in posizione alternata per non creare abitudini di automatismo alla risposta. Esse sono: (a) penso di usare il sistema frequentemente in futuro; (b) ho trovato il sistema complicato rispetto ai compiti da svolgere; (c) pensavo che il sistema fosse facile da usare; (d) penso che per usare il sistema sia necessario ricorrere a un esperto; (e) le funzioni del sistema sono ben integrate; (f) ho trovato troppa incoerenza nel sistema; (g) penso che la maggior parte delle persone impari a usare il sistema molto velocemente; (h) ho trovato il sistema molto scomodo da usare; (i) ho trovato il sistema molto sicuro da usare; (l) ho avuto bisogno di imparare molte cose prima di cominciare a usare il sistema. Mediante una semplice somma algebrica pesata, si ottiene, in un tempo estremamente breve, un risultato indicativo sull’usabilità dell’interfaccia considerata.
La valutazione con un questionario esauriente e intervista, infine, si basa su un questionario molto articolato (per es., di cento domande), valido sia per l’interfaccia sia per l’applicazione, il quale può anche essere corredato da interviste sul campo, da ispezioni nell’ambiente di lavoro nonché da una serie di colloqui con gli utenti finali. Con questo sistema si possono avere risposte molto esaurienti sull’usabilità del sistema, tali da incoraggiare la progettazione di un nuovo sistema o la realizzazione di una sua nuova versione.
Come corollario, indichiamo una soluzione ibrida, che parzialmente interrompe il lavoro degli utenti ma non richiede di rispondere ad alcun questionario. Si tratta della possibilità di segnalare difficoltà di impiego dal terminale (per es., un calcolatore impiegato in ufficio) a un calcolatore centrale (server) per far sì che questo raccolga tutte le informazioni dei terminalisti senza richiedere l’impiego di esperti (ispezione euristica) o di autori di questionari (ingegneri dei fattori umani) né di altri specialisti, così da riunire insieme critiche e/o suggerimenti degli utenti in merito all’usabilità dell’interfaccia.
Il concetto di usabilità introdotto si riferisce a una proprietà necessaria per le interfacce (e le applicazioni) che devono servire la pubblica amministrazione (e quindi risultare adeguate a tutti i cittadini) in tutti i Paesi della Comunità Europea. L’usabilità è regolata da norme comunitarie e precisamente dallo standard ISO 9241 del novembre 1995. David F. Redmiles definisce l’usabilità come una proprietà dei sistemi che li rende sia utili che usabili, oltre che accessibili, agli utenti. In realtà, poiché l’usabilità dipende anche dagli utenti (oltre che dal sistema) bisogna specificare la classe di utenza e l’ambiente di lavoro nel quale funzionerà il sistema (applicazione-interfaccia).
Per quanto concerne l’accessibilità, questa proprietà riguarda le caratteristiche necessarie di un’interfaccia affinché essa venga sfruttata anche da portatori di handicap (mnemonico, uditivo, visivo, tattile, motorio) e quindi possa essere certificata come accessibile dalla Comunità Europea e dalle pubbliche amministrazioni dei Paesi membri. L’accessibilità è ora codificata dallo standard ISO 16071 che fornisce anche delle linee guida per la sua implementazione. Purtroppo non viene considerata in aree dove non vi è ancora stata ricerca applicata su questo tema e quindi bisogna attenersi a un modello di riferimento per l’accesso universale che potrà servire a espandere le specifiche dello standard ISO per passare da specifiche tecniche a uno standard internazionale.
I temi di ricerca più seguiti in questo settore sono elencati di seguito.
Calcolo ubiquo. Il calcolo pervasivo coincide con quello ubiquo, con la conseguenza che gli utenti non dovrebbero più avere con sé (in ufficio, in casa ma potremmo dire ovunque) un proprio calcolatore, ma dovrebbero poter sfruttare le potenze di calcolo (e di comunicazione) presenti su sistemi integrati con edifici, pareti, mobili, ecc., facilitando anche la loro interazione attraverso gesti, parole, sguardi o movimenti del corpo. In effetti, i sistemi integrati nell’ambiente dovranno essere sensibili ai cambiamenti del loro habitat, adeguandosi a esso automaticamente, e agire sulla base del fabbisogno dell’utente e delle sue preferenze. Come esempi di semplici applicazioni, possiamo citare il segnale GPS (Global positioning system, sistema di posizionamento globale) che arriva a un navigatore di un’automobile, fornendo le indicazioni necessarie per giungere a destinazione.
Sistemi a elevata funzionalità. Sono quelli che possono assolvere molte funzioni e quindi non risultano facilmente apprendibili da utenti. Essi devono potersi impiegare senza difficoltà e presentare una grafica assistita, sempre più necessaria in applicazioni statistiche ma anche nei videogiochi o nei software di modellazione e simulazione. Si tratta della possibilità di visualizzare processi che dipendono da molte variabili senza ricorrere alla programmazione.
Sistemi multimediali. Sistemi che possono manipolare con facilità dati multimediali come immagini, suoni, strutture dati, video-clips ecc., in modo da favorire sia l’uso domestico per l’intrattenimento sia quello professionale.
Interazione su larga banda. All’aumentare della banda anche l’interfaccia dovrà cambiare per poter gestire una quantità di dati maggiore in tempi minori spingendo quindi l’utente a lavorare con la realtà virtuale e con i segnali video attraverso il calcolatore.
Da un punto di vista tecnologico, possiamo invece distinguere: (a) i nuovi dispositivi di visualizzazione con una maggiore quantità di elementi di immagine (pixels); (b) le periferiche di ultima generazione (mouse inno-vativi, penne, memorie portatili, sistemi di connessione senza fili ecc.) che renderanno più complessa la gestione della macchina e quindi richiederanno interfacce molto esplicative; (c) i sistemi incapsulati (embedded), dove il microprocessore è integrato nell’applicazione (in futuro, diverse applicazioni di questo genere saranno collegate fra loro e quindi sarà necessario coordinarle affinché il lavoro venga svolto nel migliore dei modi); (d) le interfacce per gruppi (il tema della collaborazione attraverso strumenti informatici è molto attuale, sia per l’obiettivo di risparmio nella mobilità delle persone sia per utilità); (e) i canali per le informazioni di servizio (notizie sportive, di borsa, metereologiche o altre di natura più commerciale come le vendite on-line o i biglietti low-cost).
Purtroppo, la possibilità di vedersi, parlare e interagire con un’interfaccia di natura sincrona non è ancora tecnicamente realizzabile in modo robusto e affidabile con una buona dose di realismo: ecco perché questo tema resta ancora da sviluppare.
In realtà vi sono ancora molte barriere psicologiche e informatiche allo shopping on-line: questo dipende essenzialmente dall’interfaccia e dalle pagine web presentate all’utente, non sempre chiare, disponibili, aggiornate, sicure. Dobbiamo inoltre menzionare due ambienti informatici di grande rilevanza per gli aspetti legati all’interazione uomo-calcolatore: il sistema operativo e la rete Internet. Il primo, presente in ogni calcolatore, è il programma che serve per gestire tutte le risorse disponibili del calcolatore (programmi applicativi, programmi di utilità e servizi, programmi per la stampa e per l’utilizzo delle varie unità periferiche ecc.) mentre il secondo è senz’altro uno degli eventi tecnologici di maggiore importanza degli ultimi anni, attraverso il quale è possibile trovare, comunicare, elaborare e gestire ogni tipo di informazione che si trovi su qualunque calcolatore collegato in rete.
Considerando questi due ambienti appena descritti sommariamente dal punto di vista interattivo, è importante che gli utenti possano apprendere una nuova applicazione quando gli strumenti presenti sull’interfaccia si vedono e si comportano come nelle altre applicazioni già note all’utente; in questo modo, le applicazioni ben progettate non entrano in collisione con l’esperienza dell’utente, ma al contrario favoriscono la sua attività. Gli utenti con richieste speciali potranno trovare maggiore accessibilità ai nuovi prodotti (programmi e/o servizi). Inoltre, la nuova applicazione sarà più facile da documentare in quanto la sua interfaccia sarà intuitiva e si comporterà in modo standard e ci vorrà minore sforzo per il supporto ai clienti. Infine, essa sarà più semplice da localizzare e da trasformare rispetto alla zona geografica e agli utenti di quella zona.
Per quanto riguarda invece l’accessibilità alla rete Internet, vi sono lavori recenti che mirano a rendere possibile a persone con handicap cognitivo e comunicativo una loro interazione soddisfacente. Si tratta di un’attività di ricerca applicata all’interno del progetto WWAAC (World wide augmentative and alternative communication) finanziato nel 2004 dalla Comunità Europea, il quale mira a soddisfare particolarmente le persone che impiegano simboli invece di testo per la comunicazione con gli altri. La specifica dei requisiti e le attività preliminari di valutazione all’interno del progetto hanno portato a elencare delle linee guida che dovranno ancora essere raffinate e validate nella fase finale di questo progetto.
Anche per quanto riguarda le interfacce di telefonia mobile esistono gli stessi problemi di interazione che abbiamo considerato per altri dispositivi. In effetti, il comitato tecnico per lo studio di fattori umani (ETSI Technical committee on human factors) che è costituito dalle maggiori aziende di telefonia mobile, sotto gli auspici della Comunità Europea, ha studiato in dettaglio l’insieme degli elementi universali per l’interazione che aumentano il trasferimento di conoscenza durante l’impiego di dispositivi mobili e servizi, al fine di poter migliorare tale trasferimento in un mondo di dispositivi ubiqui e di servizi per i giovani, gli anziani e i portatori di handicap.
Esistono due settori di calcolo interattivo molto recenti: il calcolo affettivo e il calcolo trasparente. Nel primo, la qualità affettiva può definirsi come la capacità di suscitare una modifica al nucleo emotivo di una persona: questa proprietà, che si trova nello stimolo, è anche presente nell’interfaccia o nel sistema che viene considerato. In altre parole, questi oggetti determinano la qualità affettiva in quanto vengono interpretati dall’utente sulla base di quanto risultano piacevoli o spiacevoli, eccitanti o noiosi, scatenanti o bloccanti, e quindi influenzano le conseguenti reazioni a tali stimoli.
I concetti di affetto ed emozione sono di natura complessa e difficili da esprimere quantitativamente e, ancor più, da inserire in programmi o in macchine che dovranno interagire con umani; ciononostante, la psicologia può aiutarci a capire qual è il ruolo delle emozioni nei nostri comportamenti e quindi perché ne dobbiamo tenere conto durante la progettazione di sistemi informatici come le interfacce e, più in generale, di programmi applicativi. Di quali emozioni umane possiamo parlare, nel senso che vengono riconosciute dalla macchina (ovvero da opportuni programmi) in modo tale da adeguare le successive interazioni ai nostri umori? Come si può facilmente vedere, ci troviamo davanti a una situazione simmetrica – fra umano e sistema – dove le emozioni giocano un ruolo importante per la buona riuscita delle successive interazioni.
Diamo ora uno sguardo al futuro, ovvero a ciò che la ricerca sulle interfacce e sull’interazione uomo-macchina sta affrontando oggi riguardo al concetto di calcolo trasparente. Nell’informatica, la trasparenza è sempre stata vista come quella proprietà che rende evidente uno strato di programmazione (interfaccia trasparente è quella che non si vede), facilitando quindi il lavoro dell’utente affinché non debba preoccuparsi dei dettagli implementativi delle funzioni (per es., la gestione delle finestre sullo schermo) e possa quindi concentrarsi sul lavoro da svolgere (ovvero utilizzare le applicazioni).
Da poco tempo, su suggerimento di Steve Tanimoto, è nata l’idea di una computazione di natura trasparente, dove i meccanismi interni e i meccanismi esterni al sistema sono visibili agli utenti. Normalmente, la visibilità dei dettagli del sistema, delle ipotesi di partenza, dei processi attivi e di altre caratteristiche del comportamento del sistema stesso, sono in contrasto con i metodi basati sulla scatola nera, sull’incapsulamento degli oggetti e, più in generale, sui metodi classici dell’ingegneria del software.
In questo approccio, la visione del calcolo trasparente fornisce la possibilità di visualizzare – a diversi livelli – l’evoluzione della computazione, del calcolo numerico, delle trasformazioni di immagini, del percorso sopra un grafo o della sua espansione. Questa possibilità, controllabile dall’utente, ha prodotto due conseguenze rilevanti: una migliore comprensione del significato dei programmi e della computazione e una maggiore adeguatezza di presentazione di un sistema o di una piattaforma a scopi didattici e di addestramento. La trasparenza, a differenza dell’ingrandimento o del livello di granularità nell’astrazione, può fornire diversi aspetti di uno stesso sistema, più adeguati per un utente che deve apprendere, riparare o spiegare tale sistema. Si possono anche aumentare le trasparenze sintattiche (dettagliando le regole), semantiche (fornendo i corrispondenti significati), temporali (visualizzando i diversi stati del sistema nell’arco del tempo).
URL di riferimento per tutti i vari significati dell’interazione uomo-calcolatore: http://www.hcibib.org/.
Brooke 1986: Brooke, John, SUS (System Usability Scale) - A quick and dirty usability scale (Redhatch Consulting Ltd., 12 Beaconsfield Way, Earley, Reading RG6 2UX, United Kingdom, email: john.brooke@redhatch.co.uk).
Levialdi, Tanimoto 2006: Levialdi, Stefano - Tanimoto, Steve, Multitransparent user interfaces: definitions, examples and guidelines (presented at AVI 2006, Advanced Visual Interfaces, International Working Conference, May 23-26, Venezia, Italy, 2006).
Tanimoto 2004: Tanimoto, Steve, Transparent interfaces: models and methods (presented at the Workshop on Invisible and Transparent Interfaces, Gallipoli, Italy, May 25, 2004).
Zhang, Na 2005: Zhang, Ping - Na, Li, The importance of affective quality, “Communications of the ACM”, 48, 2005, pp. 105-108.