Informatica musicale
Con lo sviluppo delle tecnologie multimediali la musica è diventata una delle fonti d'informazione trattate dall'informatica, al pari dei numeri, dei testi, della grafica e della visione. Ciò ha favorito lo sviluppo di importanti applicazioni in campo musicale e ha portato i sistemi informatici a diventare uno 'strumento' musicale di riferimento, come lo fu il pianoforte nel 19° secolo. Il termine strumento non ha qui l'accezione musicale corrente, in quanto il complesso delle funzioni svolte dai sistemi informatici è molto più ampio di quello di uno strumento tradizionale. L'elaboratore non genera soltanto suoni, ma elabora tutta l'informazione musicale, dal microlivello (il suono) al macrolivello (la forma). Ciò ha comportato una sostanziale trasformazione dei metodi del fare musica, con il coinvolgimento di tutti i settori, dalla creazione alla produzione musicale, favorendo la nascita di nuove figure professionali.
Un sistema informatico completo di opportuni programmi e periferiche svolge molte funzioni musicali. È strumento musicale polifonico e politimbrico; simula i suoni degli strumenti acustici oppure diventa il mezzo per comporre nuove sonorità elettroniche; svolge le funzioni di uno studio di registrazione audio per editing, elaborazione, montaggio di suoni e di brani musicali, stampa di CD audio; viene utilizzato nell'editoria musicale, nella ricerca musicologica, nell'archiviazione e nell'esecuzione automatica di partiture. Il compositore, oltre a ciò, dispone di una grande varietà di strumenti di aiuto alla composizione che lo assistono nelle varie fasi del processo creativo e di realizzazione dell'opera. Inoltre, con l'evoluzione dei sistemi informatici multimediali, molte di queste funzioni possono essere messe in stretta relazione con il mondo della grafica, del video, dello spettacolo, della realtà virtuale e delle telecomunicazioni per ottenere prodotti artistici e culturali multimediali. Infine, alcuni derivati dei progetti di ricerca o dei programmi professionali trovano un ampio consenso nel vasto mondo dei musicisti dilettanti e dell'intrattenimento informatico, alimentato dall'industria dei personal computer e dal successo di Internet.
La musica informatica è nata nella seconda metà degli anni Cinquanta seguendo all'inizio due differenti linee di ricerca: una, orientata al trattamento simbolico dell'informazione musicale, studia la codifica dei testi musicali, la generazione automatica di partiture per la composizione, le tecniche informatiche di analisi musicologica; l'altra (computer music), più attenta all'aspetto acustico e percettivo della musica, affronta la codifica numerica dei suoni, la progettazione dei convertitori per dotare l'elaboratore di un'interfaccia audio con l'esterno e, quindi, le tecniche di analisi, sintesi ed elaborazione dei suoni.
Fino agli ultimi anni Settanta le principali ricerche venivano svolte in centri di ricerca scientifica utilizzando elaboratori collettivi (mainframe) e programmi che imponevano lunghi tempi di attesa tra la formalizzazione dell'idea musicale e il suo ascolto. Nei concerti si presentavano musiche registrate su nastro che talvolta accompagnavano solisti o piccoli ensembles di esecutori tradizionali o cantanti. La mancanza di un rapporto diretto e immediato con il suono ha in parte ostacolato la produzione musicale mentre, al contrario, ha favorito lo sviluppo di solide basi teoriche e di alcuni programmi per la sintesi dei suoni ancora oggi utilizzati in campo scientifico e musicale (v. musica: I centri di ricerca musicale, in questa Appendice). Con l'avvento degli elaboratori a monoutenza (minicomputer) i tempi di attesa sono diminuiti e, grazie a essi, si sono sviluppati i primi prototipi di sintesi e trattamento dei suoni in tempo reale, utilizzando periferiche particolari. Grazie a questi nuovi sistemi in tempo reale la musica può rientrare nella tradizione dell'esecuzione dal vivo, anche se al mezzo informatico viene assegnato un ruolo più ampio e soprattutto diverso da quello del singolo strumento. Si sono sviluppati i concerti di live electronics, in cui i sistemi in tempo reale generano eventi sonori complessi o trasformano dal vivo i suoni di voci o strumenti tradizionali.
Negli anni Ottanta due innovazioni hanno contribuito alla diffusione dell'informatica nel mondo musicale, specialmente nelle sue applicazioni più semplici: l'avvento dell'elaboratore personale (personal computer) e la definizione del codice di comunicazione MIDI (Musical Instrument Digital Interface; v. oltre: Sistemi MIDI). Quest'ultimo ha segnato l'ingresso dell'industria degli strumenti musicali elettronici nel mondo della musica informatica: nell'arco di pochi anni i sintetizzatori analogici della musica elettronica sono diventati obsoleti, sono nati i campionatori, i sintetizzatori digitali e un'ampia gamma di dispositivi accessori di ausilio al musicista (sequencer, multiprocessori di effetti). Grazie al MIDI tali strumenti possono essere collegati fra loro creando una rete di apparecchiature digitali in cui l'elaboratore personale è spesso il cuore del sistema. I risultati della ricerca scientifica degli anni Settanta sono stati rapidamente trasferiti dall'industria su strumenti a basso costo e offerti a un'ampia utenza musicale. Nel corso degli anni Novanta è aumentato il predominio della tecnologia digitale nella musica, sia a livello professionale che amatoriale. L'elaboratore personale sempre più potente, 'amichevole' ed economico viene dotato di periferiche e programmi specifici e diventa il nuovo 'strumento musicale' in grado di assistere il musicista nello svolgimento delle più svariate attività: dalla ricerca astratta alla produzione commerciale. La locuzione musica informatica, che sino alla fine degli anni Settanta identificava un settore della musica contemporanea con precisi ambiti linguistici ed estetici, a partire dagli anni Ottanta ha perduto progressivamente questa identità per assumere un significato di pura connotazione tecnica, data la diffusione del mezzo informatico in tutti i generi musicali.
Rappresentazione dell'informazione musicale
L'informatica tratta la musica con due principali forme di rappresentazione: audio, che codifica il suono in sequenze discrete di numeri, e simbolica, che codifica l'informazione percettiva, esecutiva e astratta, prendendo come riferimento il sistema tradizionale di notazione musicale.
La codifica del suono si realizza convertendo il segnale analogico in segnale digitale, ovvero campionando la forma d'onda del suono. Tale operazione si basa su due fattori caratteristici: la frequenza di campionamento e il numero di bit con cui si rappresentano i campioni. Il primo fattore incide sulla frequenza massima rappresentabile dal segnale digitale, mentre il secondo fissa il rapporto segnale/disturbo e quindi il tasso di rumore aggiunto nella fase di conversione. I valori di riferimento sono quelli del CD audio (44.100 c/s, 16 bit), anche se si usano valori ridotti per la codifica della voce e per i segnali di allarme, o valori superiori per l'audio professionale di qualità. Entrambi i fattori incidono sulla quantità di informazione necessaria a rappresentare il flusso sonoro della musica. Per ridurre il volume dei dati musicali si sono sviluppate efficaci forme di compressione che si basano sulle caratteristiche della percezione uditiva umana.
La codifica simbolica trova nel codice MIDI il sistema più diffuso per rappresentare i gesti elementari dell'esecuzione musicale. Per la codifica del sistema tradizionale di notazione musicale esistono vari linguaggi simbolici o sistemi grafici di scrittura che si differenziano in base al tipo di applicazione: editoria musicale, analisi musicologica, aiuto alla composizione.
Sintesi dei suoni
La sintesi dei suoni consiste nel generare mediante un procedimento di calcolo un segnale acustico e trova due campi di applicazione musicale: la simulazione dei suoni prodotti dagli strumenti musicali tradizionali e la generazione di suoni, quest'ultima soggetta, in quanto atto compositivo, alle scelte estetiche del musicista. Anche se gli obiettivi sono diversi, in entrambi i campi si utilizzano le stesse tecniche di sintesi poiché queste si fondano su basi teoriche generali. I modelli di sintesi del suono si distinguono in modelli di sorgente e modelli di segnale. I primi simulano con il mezzo informatico il modello fisico della sorgente sonora, mentre i secondi simulano la forma d'onda che raggiunge l'ascoltatore. I modelli di segnale hanno avuto la maggiore diffusione a causa della loro semplicità ed efficienza computazionale.
Il modello di segnale più semplice è quello basato sulla tecnica di campionamento, che viene ampiamente usata nei sistemi di riproduzione. Tale tecnica sta alla base degli strumenti digitali chiamati campionatori, e offre buoni risultati nella simulazione di strumenti tradizionali di tipo percussivo. I suoni di uno strumento vengono campionati nei vari registri e con le principali tecniche esecutive (dinamica e gesto), in modo da creare un repertorio di campioni il più completo possibile per un dato strumento. Durante l'esecuzione viene riprodotto il suono campionato più vicino alla nota suonata, effettuando eventuali trasformazioni quali trasposizione di altezza, variazioni di durata (looping), inviluppo di ampiezza, filtraggio statico o dinamico, interpolazione fra più campioni. Alla semplicità computazionale della sintesi per campionamento corrisponde un'elevata richiesta di memoria che aumenta in funzione della qualità richiesta.
La sintesi additiva si basa sul teorema di Fourier per generare suoni complessi mediante somma di suoni sinusoidali la cui ampiezza e frequenza sono variabili nel tempo. È un modello molto generale che fornisce i migliori risultati nella sintesi di suoni pseudoarmonici con basso tasso di rumore. Alla generalità si contrappone un elevato numero di parametri di controllo e una complessità computazionale che aumenta con la densità spettrale del suono. La sintesi additiva, per gli evidenti legami con l'armonia musicale, ha trovato molti esempi di applicazione nella composizione astratta di suoni.
La sintesi granulare, al pari di quella additiva, utilizza più suoni elementari per costruirne uno complesso. Questo è dato da una successione di suoni di breve durata (qualche centesimo di secondo) chiamati grani. Tale tecnica ricorda il processo cinematografico, in cui il movimento è dato da una rapida successione di immagini statiche. I grani possono essere porzioni di suoni acustici campionati, oppure suoni astratti generati per via algoritmica. Inoltre, si distingue la sintesi granulare sincrona con il periodo del suono, da quella asincrona utilizzata per generare tessiture sonore.
La sintesi sottrattiva è prevalentemente una tecnica di trasformazione di un suono dato, il quale ha generalmente uno spettro molto ricco e può essere campionato o generato tramite semplice algoritmo. Nella formulazione più generale si utilizza un banco di filtri per evidenziare o sopprimere precise zone nello spazio della frequenza del suono dato. I filtri possono essere statici o dinamici. Nel primo caso il suono subisce un processo di equalizzazione, mentre nel secondo vengono alterate le sue caratteristiche temporali in funzione delle variazioni nel tempo dei parametri dei filtri.
La sintesi per modulazione di frequenza (FM) rientra nelle tecniche non lineari di trasformazione. Nella formulazione più semplice un oscillatore sinusoidale, detto portante, con frequenza p, viene modulato in frequenza da un oscillatore sinusoidale, detto modulante, di frequenza m. Lo spettro risultante è composto da frequenze p+km, con k intero che approssimativamente varia da −I a +I, essendo I=d/m l'indice di modulazione, in cui d è la massima deviazione di frequenza della portante. Quest'indice determina il numero di componenti parziali che costituiscono lo spettro risultante, mentre il rapporto p/m determina il tipo di spettro: per rapporti interi e semplici si ottengono spettri armonici. Quindi con due soli oscillatori è possibile generare suoni complessi che possono variare nel tempo il numero di componenti spettrali semplicemente variando il valore di I. Grazie alla semplicità di calcolo e all'efficienza sonora, la sintesi FM ha avuto moltissime applicazioni musicali ed è stata scelta nei primi sintetizzatori digitali commerciali.
La sintesi per distorsione (waveshaping) è anch'essa una tecnica di trasformazione non lineare, in cui un suono semplice (spesso una sinusoide) viene arricchito di armonici tramite una funzione distorcente generalmente definita come somma di polinomi di Čebyčëv. Anche in questo caso, controllando l'indice di distorsione è possibile ottenere spettri variabili nel tempo. Per ottenere spettri inarmonici spesso si moltiplica il suono distorto per una sinusoide (modulazione ad anello, ring modulation) ottenendo una traslazione dello spettro attorno alla frequenza portante di modulazione.
Tra i modelli di sorgente che rientrano nella sintesi comunemente chiamata per modelli fisici, la maggior parte si basa sull'interazione fra eccitatore (la causa della vibrazione, con comportamento non lineare) e risonatore (il corpo dello strumento, con comportamento lineare). L'interazione può essere feedforward nei casi in cui l'eccitatore non riceve informazioni dal risonatore, oppure feedback, quando i due interagiscono. Tali modelli si classificano in relazione al modo in cui la realtà fisica viene rappresentata, simulata, o discretizzata. Esistono inoltre dei modelli di sorgente chiamati pseudofisici, i quali traggono solo ispirazione da fenomeni fisici del mondo reale per simulare processi generativi arbitrari.
I modelli meccanici dividono il sistema fisico in elementi (normalmente schematizzabili a configurazioni massa-molla) per ottenere le equazioni differenziali che ne descrivono struttura e interazione. Tali equazioni si risolvono con tecniche numeriche che impongono successive approssimazioni e sono fonte di alti costi computazionali.
Una particolare interpretazione della scomposizione del sistema fisico in singoli elementi viene data nella sintesi modale, in cui i modi di vibrazione vengono realizzati mediante la somma di oscillatori smorzati. Tale tecnica si basa sulla scomposizione modale studiata dalla teoria dei sistemi.
I modelli a guide d'onda (waveguide) sono modelli computazionali che simulano, mediante linee di ritardo, il comportamento di un'onda che si propaga all'interno di un mezzo (per es. un tubo o una corda). Le discontinuità del mezzo vengono simulate con giunzioni di dispersione, mentre altre strutture fisiche possono essere simulate mediante filtri. Data la loro efficienza computazionale questi modelli hanno trovato validi esempi di applicazioni musicali.
I modelli di sorgente si sono rivelati particolarmente efficaci nella resa dei gesti musicali tipici delle frasi ricche di spunti agogici. Si differenziano da quelli di segnale perché si avvalgono di parametri di controllo che corrispondono alle azioni che il musicista compie sullo strumento fisico, anziché a parametri astratti quali la frequenza di un oscillatore o la larghezza di banda di un filtro. Ciò inevitabilmente porta a due conseguenze: il modello deve disporre di controlli gestuali potenti e il musicista deve imparare a suonare la sorgente virtuale con le tecniche tradizionali di apprendimento musicale.
Elaborazione dei suoni. - L'elaborazione numerica dei suoni (Digital Signal Processing) si ottiene mediante programmi che adottano un procedimento di trasformazione del segnale. Vediamo le principali tecniche utilizzate in relazione agli effetti che si ottengono nei parametri musicali di tempo, altezza, dinamica, timbro e spazio.
La traslazione di un suono nel tempo si ottiene mediante una linea di ritardo che produce un'eco semplice. L'eco può essere iterata se il ritardo è chiuso in un anello di retroazione. Inserendo in tale anello altri elementi di trasformazione si possono ottenere ripetizioni ogni volta diverse. Se i tempi di ritardo sono dell'ordine di qualche decina di secondi, tale schema di ripetizione simula la struttura musicale a canone con variazione.
La durata del suono può essere variata in diversi modi e con tecniche analoghe alla variazione di altezza. Rallentando e accelerando un suono, tramite una variazione della frequenza di campionamento, si ottengono rispettivamente un'altezza più grave e una più acuta. Le tecniche di analisi/sintesi quali Phase Vocoder (PV), Wavelet e Linear Prediction Coding (LPC) consentono di modificare la durata in maniera indipendente dall'altezza e viceversa. Il processo di elaborazione è diviso in due fasi: la prima di analisi, dalla quale si estraggono i dati per la fase successiva di sintesi. Il PV analizza il suono mediante una successione (con sovrapposizione) di trasformate di Fourier a tempo breve (STFT, Short Time Fourier Transform). Gli spettri risultanti sono utilizzati come dati per sintetizzare il suono in sintesi additiva. Elaborando tali dati si possono ottenere compressioni o stiramenti temporali fino al congelamento di un suono, come pure trasposizioni d'altezza. Combinando opportunamente i dati di analisi di due suoni diversi è possibile creare la cosiddetta sintesi incrociata, ovvero sintetizzare un suono ibrido dei due suoni originali. La tecnica di trasformazione Wavelet è concettualmente simile al PV, ma cambia il metodo di analisi. Diversa è la tecnica LPC, nata per la codifica del parlato nelle comunicazioni a banda limitata. La sintesi LPC non genera perciò una fedele riproduzione dell'originale, ma offre diverse possibilità nell'elaborazione dei suoni. In essa il suono viene considerato come il prodotto di una funzione di eccitazione (corda vocale), il cui segnale viene sottoposto alle trasformazioni di una cavità risonante (tratto vocale), normalmente realizzata con un filtro a soli poli variabile nel tempo che simula i formanti della voce. Il processo di analisi determina l'andamento nel tempo dei parametri del filtro ed estrae alcune caratteristiche generali per l'eccitazione: individua se il suono è rumoroso (consonanti) oppure ad altezza determinata (vocali), nel qual caso fornisce la frequenza della fondamentale. Nella fase di sintesi è facile alterare l'altezza del segnale di eccitazione, come pure accelerare o rallentare la scansione temporale dei parametri del filtro. Anche con LPC è possibile creare suoni ibridi scegliendo in modo arbitrario il suono di eccitazione che viene plasmato dal filtro variabile seguendo i parametri estratti dall'analisi di un altro suono. Le variazioni di altezza e di durata, se effettuate su ampi valori di scala, provocano rilevanti trasformazioni anche sul piano timbrico.
La dinamica del suono si viene a modificare non soltanto variando l'ampiezza del segnale, ma anche trasformandone alcuni tratti timbrici (lo spettro tramite filtraggio; il transitorio di attacco mediante inviluppo di ampiezza) in modo da rendere il suono più morbido per dinamiche piano e viceversa più aggressivo per dinamiche forti.
Le tecniche più comuni per l'elaborazione del timbro, oltre a quanto si è già detto, sono: il filtraggio (filtri passa-basso, passa-alto, passa-banda, taglia-banda; banchi di filtri equalizzatori; filtri a pettine ricorsivi, che provocano vari effetti variando il tempo di ritardo: effetto coro, flanger, phasing); la modulazione (ad anello, che sposta l'energia del suono attorno alla frequenza della portante sinusoidale soppressa; a banda singola, che trasla il segnale in frequenza rendendo inarmonico un suono armonico); la granulazione (che estrae piccoli grani di suono moltiplicando il segnale per brevi inviluppi d'ampiezza) e la convoluzione, che effettua il prodotto spettrale di due suoni.
Quest'ultima tecnica si è dimostrata efficace nella simulazione di spazi sonori: se si ascolta il prodotto di convoluzione fra un suono registrato in una sala anecoica e la risposta all'impulso di un'altra sala, si ha la sensazione che il suono sia stato registrato in quest'ultima. Questo è un metodo efficace per realizzare riverberatori che simulino precisi spazi reali. Altre tecniche di riverberazione, meno onerose sul piano computazionale, prevedono l'utilizzazione di gruppi di filtri a pettine, passa-tutto, e la simulazione mediante linee di ritardo delle riflessioni prodotte dalle pareti di una sala. Particolarmente efficaci sono le tecniche di simulazione delle sorgenti sonore in movimento, mediante le quali si possono collocare e far muovere i suoni nello spazio seguendo percorsi e variazioni di velocità. Nella spazializzazione dei suoni si distinguono le tecniche di simulazione per l'ascolto binaurale (in cuffia o con due altoparlanti) dai sistemi multicanale che avvolgono l'ascoltatore con una rete di altoparlanti. Anche nel caso dello spazio, si distinguono i modelli che simulano la collocazione dei suoni in spazi reali e che rientrano nelle tecniche definite di auralizzazione dai sistemi che utilizzano la tecnologia informatica per inventare spazi sintetici frutto di scelte artistiche.
Sistemi MIDI
Il MIDI è un protocollo di comunicazione seriale a 8 bit e velocità di trasmissione di 31.250 bit/s, ideato per codificare i gesti esecutivi che il musicista compie quando suona una tastiera elettronica sensibile al tocco e trasmetterli in tempo reale ad altri dispositivi. Sulla stessa linea di comunicazione possono transitare sedici canali di dati; da un punto di vista musicale ciò significa poter suonare contemporaneamente sedici strumenti polifonici. I principali comandi sono: i comandi di nota, in cui vengono indicati il tasto e la relativa velocità di pressione; i controlli continui, per la variazione continua di parametri; il cambio di programma, generalmente usato per la selezione del timbro; i controlli in tempo reale, per la sincronizzazione di più dispositivi; i controlli esclusivi di sistema, le cui sintassi e funzione sono definite dal costruttore dello strumento.
Un elementare sistema MIDI è costituito da una tastiera elettronica muta (master keyboard), collegata a uno o più sintetizzatori di suoni (expander) e a un elaboratore personale nel quale generalmente opera un programma chiamato sequencer. I gesti esecutivi del musicista pilotano la generazione sonora dell'expander e possono essere registrati nell'elaboratore e, in momenti diversi, essere corretti, modificati e integrati da successive esecuzioni sincronizzate fra loro. Il sequencer svolge una funzione analoga al registratore audio multitraccia, con la differenza che quest'ultimo registra i suoni, mentre il primo registra sequenze di comandi chiamate MIDIfiles. Esistono in Internet ampie banche dati di sequenze MIDI che contengono i principali titoli del repertorio classico e leggero. La maggior parte dei sequencer consente di registrare la musica anche in tempo differito con diverse interfacce-utente, una delle quali utilizza il tradizionale sistema di notazione su pentagramma. Questo consente di passare in modo automatico dalla partitura visualizzata sullo schermo alla sua esecuzione sonora. È possibile anche il contrario, ovvero visualizzare (e stampare) la musica che viene suonata dal vivo e trascritta in tempo reale. Va rilevato che non esiste una corrispondenza biunivoca fra il linguaggio di notazione musicale e il codice MIDI. Pertanto tali trascrizioni non sono una fedele riproduzione dell'originale, soprattutto per quanto riguarda l'aspetto temporale. La necessità di quantizzare la scansione del tempo porta a grossolane semplificazioni oppure a eccessive suddivisioni se l'interprete modula il tempo a fini espressivi. Infatti, per es., se l'esecuzione non fornisce un riferimento temporale esplicito, cambi di tempo quali accelerandi o rallentandi vengono inevitabilmente riportati in partitura non come variazioni di metronomo, ma come alterazione delle figure ritmiche originali, rendendo complessa la notazione di parti musicali anche molto semplici.
Nonostante sia molto lento, abbia una codifica dei dati spesso insufficiente, e in molti casi si sia rivelato inadeguato alla trasmissione del massiccio flusso dei dati di un'esecuzione musicale, il MIDI è il protocollo di comunicazione universalmente adottato dall'industria degli strumenti musicali informatici. Inoltre, grazie alla sua semplicità e alla vasta diffusione, il MIDI viene adottato per il controllo di processi anche molto diversi da quelli per cui era stato ideato, tanto da risultare utilizzabile anche per applicazioni non prettamente musicali del mondo dello spettacolo.
Sistemi per l'esecuzione
L'esecutore tradizionale suona strumenti codificati e stabili da secoli, impara per imitazione dal maestro e sviluppa un'abilità gestuale che sfrutta lo strumento come fosse un'estensione del proprio corpo. Nel mondo della musica informatica, invece, i dispositivi si evolvono seguendo il passo della tecnologia, che è in costante accelerazione. Inoltre, pochi apparecchi sono autonomi, come invece sono gli strumenti musicali acustici: ognuno di essi fa usualmente parte di un insieme di apparecchiature digitali che, opportunamente collegate fra loro e programmate, costituiscono l'entità che può essere assimilata al vecchio concetto di strumento e che nel mondo tecnologico viene chiamata sistema. Generalmente il sistema prende come ingresso i segnali audio da elaborare, è dotato di dispositivi di controllo che consentono di variare i parametri di trattamento o di generazione del suono, di visualizzare vari aspetti del segnale audio e dei parametri di controllo, e infine fornisce in uscita i segnali elaborati. Con l'aumento della potenza di calcolo dei processori e la miniaturizzazione dell'hardware, molti elementi del sistema sono stati integrati come componenti software o come schede aggiuntive di un solo elaboratore, ottenendo così soluzioni alquanto compatte. Per l'esecuzione di un brano il musicista informatico progetta l'ambiente esecutivo che gli consente di trasformare un sistema tecnologico in strumento musicale, rendendo i controlli del sistema funzionali all'esecuzione, con unità di misura sonologico-percettive o musicali e un campo di variabilità predefinito che segue una legge determinata. Molto spesso i controlli sono multifunzionali, al fine di ottenere da un singolo gesto una variazione contemporanea e coerente di più parametri del sistema. Questo consente una riduzione dei controlli dell'esecutore, favorisce un accesso immediato alle principali funzioni esecutive e un rapido apprendimento dell'ambiente esecutivo. Per taluni parametri, inoltre, è più efficace l'uso di dispositivi di controllo gestuale con reazione, che estraggono più informazioni da un singolo gesto e che addirittura impongono una fatica fisica all'interprete quando cerca di raggiungere le zone estreme di esecuzione. Infine, la tecnologia degli ambienti multimodali interattivi (AMI) consente di rilevare e analizzare il movimento, la voce, i suoni prodotti da uno o più esecutori per controllare in tempo reale vari dispositivi, quali strumenti per la sintesi dei suoni, algoritmi di composizione automatica, effetti visuali ecc. Gli AMI sono dei 'trasduttori cognitivi' che osservano, reagiscono ed espandono la realtà e pertanto sono efficaci nella costruzione di strumenti musicali virtuali (iperstrumenti).
Ricerche di musicologia
L'i. m. ha dato un notevole impulso ad alcuni filoni di ricerca in campo musicologico per la possibilità di verificare, mediante la realizzazione di un modello informatico, teorie musicali impossibili da validare con i metodi tradizionali. Il principale metodo analitico è chiamato di analisi mediante sintesi, e viene applicato per lo studio delle regole compositive nei diversi periodi storici. Lo stesso metodo si utilizza anche nello studio dell'interpretazione musicale per validare modelli che descrivono teoricamente prassi esecutive dei diversi stili.
L'i. m., inoltre, contribuisce in maniera determinante al restauro di materiali audio deteriorati dal tempo e dalla cattiva conservazione. Le principali funzioni svolte dai programmi di restauro audio sono la riduzione del rumore di fondo e l'eliminazione dei disturbi di tipo impulsivo.
Programmi di aiuto alla composizione. - I programmi di aiuto alla composizione (CAC, Computer Aided Composition) trasformano l'elaboratore in una sorta di assistente musicale che aiuta il compositore nelle varie fasi di creazione dell'opera. Essendo il processo creativo estremamente libero, tali programmi soddisfano solo alcune fra le varie tendenze estetiche o prassi compositive: in alcuni casi, infatti, si è rivelato più efficace ricorrere a un linguaggio di programmazione di uso generale. Pertanto, ci troviamo davanti a un panorama molto vasto e articolato che deve soddisfare le esigenze del compositore tradizionale che scrive per strumenti acustici, come pure del musicista informatico che compone musica elettroacustica, ma anche di compositori professionisti che operano con linguaggi e generi musicali molto lontani fra loro, senza contare il più vasto panorama dei musicisti dilettanti che utilizzano l'elaboratore come strumento di intrattenimento musicale personale.
Va rilevato che la musica nel corso della sua storia si è spesso prestata alla sperimentazione di teorie astratte nate in campi disciplinari diversi. L'i. m. ha particolarmente rafforzato il legame fra musica e scienza, e sono così nati programmi CAC che consentono di tradurre in fatti musicali processi generativi deterministici o stocastici. In particolare, troviamo applicazioni derivate da sistemi personali di regole, teorie del caos, grammatiche formali, intelligenza artificiale, automi cellulari, sistemi esperti, reti neurali ecc. I processi generativi messi in atto possono essere applicati a singoli aspetti della composizione come a parti più ampie, per giungere nei casi estremi alla composizione automatica dell'intera opera. La maggior parte dei programmi CAC opera a livello simbolico e consente l'ascolto dei risultati via MIDI utilizzando campionatori e sintetizzatori. I programmi orientati alla composizione tradizionale trasformano innanzitutto l'elaboratore in un editor di testi musicali mediante il quale viene scritta, corretta, eseguita e stampata la partitura. Oltre alle solite funzioni di editing si possono applicare al testo musicale operatori o processi di trasformazione, come pure generare algoritmicamente parti o elementi della partitura. Anche se la musica verrà suonata in concerto da musicisti tradizionali, è utile per il compositore poter sperimentare e verificare diverse soluzioni compositive disponendo dei risultati parziali sia in forma acustica sia in notazione grafica.
Il compositore di musica elettroacustica, invece, ha esigenze diverse, in quanto lavora direttamente sul suono e utilizza strumenti che gli consentono di registrare, editare, generare, trasformare e montare i suoni. Il montaggio avviene con l'aiuto di una partitura grafica che fa corrispondere alla disposizione dei simboli grafici in uno spazio bidimensionale la collocazione dei corrispondenti segmenti sonori nel tempo. Per quanto riguarda la sintesi e l'elaborazione dei suoni esistono programmi di aiuto alla composizione che integrano la maggior parte delle tecniche esposte in precedenza. Si aggiunga che alcuni programmi consentono di trattare contemporaneamente l'informazione simbolica e quella acustica, offrendo un ambiente integrato di aiuto alla composizione musicale. Infine, esistono dei programmi di composizione algoritmica che sono orientati alla composizione in tempo reale. Anziché suonare delle note, il musicista controlla, in questo caso dal vivo, i parametri che gestiscono uno o più processi di generazione automatica di eventi musicali. Tali processi possono trattare sia l'informazione musicale simbolica sia quella acustica, e quindi possono essere utilizzati autonomamente oppure per trasformare dal vivo i suoni prodotti da altri musicisti.
bibliografia
M.V. Mathews, The technology of computer music, Cambridge (Mass.) 1969.
I. Xenakis, Formalized music. Thought and mathematics in composition, Bloomington (Ind.) 1971, Stuyvesant (N.Y.) 1992².
A.V. Oppenheim, R.W. Schafer, Digital signal processing, Englewood Cliffs 1975 (trad. it. Milano 1981).
J.R. Pierce, The science of musical sound, New York 1983 (trad. it. Bologna 1988).
Musical grammars and computer analysis, Atti del Convegno: Modena 4-6 ottobre 1982, a cura di M. Baroni, L. Callegari, Firenze 1984.
C. Dodge, Th.A. Jerse, Computer music. Synthesis, composition, and performance, New York 1985.
C. Ames, Automated composition in retrospect: 1956-1986, in Leonardo, 1987, 2, pp. 169-86.
J.-B. Barrière, Le timbre, métaphore pour la composition, Paris 1991.
C. Roads et al., The computer music tutorial, Cambridge (Mass.) 1996.
J. Chadabe, Electric sound. The past and promise of electronic music, Upper Saddle River (N.J.) 1997.
Musical signal processing, ed. C. Roads, S.T. Pope, A. Piccialli et al., Lisse 1997.