Automazione
Nell’automazione si fondono contenuti e metodologie che si sono sviluppate nella scienza dell’automatica e nella ricerca operativa grazie all’impiego di tecnologie provenienti da altre discipline dell’ingegneria, appartenenti principalmente ai settori industriale e dell’informazione e, solo in misura minore, quello civile. I sistemi di automazione possono essere considerati dei prodotti dell’ingegneria progettati al fine di consentire a sistemi fisici di vario tipo (quali macchine per la lavorazione industriale, autoveicoli, aerei e altri mezzi di locomozione, processi chimici, ecosistemi, apparecchiature biomedicali e così via) di mantenere un comportamento dinamico preimpostato, reagendo spontaneamente a eventuali variazioni dell’ambiente circostante. I componenti fondamentali di un sistema di automazione (control system) sono i dispositivi di misurazione o sensori e un algoritmo di elaborazione. I primi consentono di conoscere, quantitativamente e in tempo reale, lo stato in cui si trova il sistema in un dato istante; il secondo, sulla base dell’informazione ricevuta dai sensori, permette di decidere, in maniera autonoma, come impartire al sistema (mediante dispositivi detti attuatori) i comandi per la variazione desiderata di un suo stato. Un semplice esempio di sistema di automazione è il termostato presente nell’impianto di riscaldamento domestico che, sulla base delle misure della temperatura ambiente, ottenute tramite un sensore, comanda l’accensione o lo spegnimento della caldaia (che qui rappresenta l’attuatore), allo scopo di mantenere il valore impostato della temperatura, indipendentemente dalle variazioni di quella esterna.
L’ingegneria dell’automazione affonda le proprie radici nella Rivoluzione industriale del XIX sec., quando James Watt inventò un dispositivo centrifugo per mantenere costante la velocità di rotazione di una macchina a vapore indipendentemente dalle oscillazioni della potenza fornita e dal valore del carico. Nel XX sec. la diffusione applicativa dei sistemi di automazione ha riguardato inizialmente la soluzione di problemi di controllo in campo aeronautico e astronautico (soprattutto grazie all’impulso delle applicazioni militari); successivamente, l’automatica ha trovato sempre maggiore impiego nei processi industriali continui di trasformazione, per esempio nell’industria chimica, petrolchimica e della lavorazione della carta.
L’automatica, pur condividendo con discipline quali l’informatica, le telecomunicazioni, il calcolo numerico e la ricerca operativa solide radici metodologiche (per es., la teoria dell’informazione o la teoria delle equazioni differenziali), dalla seconda metà del secolo scorso ha conosciuto un forte sviluppo individuale. Si prevede invece che in futuro sarà sempre più necessaria la convergenza e l’integrazione di tali discipline nella realizzazione di sistemi di automazione di nuova concezione. Solo per fare un esempio, è attualmente allo studio da parte delle maggiori aziende produttrici di sistemi di automazione lo standard SP100 per la cosiddetta automazione senza fili, in cui lo scambio di informazioni all’interno del sistema di automazione non avviene più attraverso una connessione wired ma mediante comunicazione radio (wireless).
Dopo i primi sistemi di automazione di tipo puramente analogico, dagli anni Cinquanta del XX sec., con lo sviluppo dell’elettronica e dell’informatica, le macchine a controllo numerico si affermarono rapidamente in tutta l’industria metalmeccanica. La programmazione con un nastro perforato, mediante il quale si trasmettevano i comandi direttamente ai servomeccanismi, venne superata dai supporti magnetici con linguaggi di programmazione specifici sempre più evoluti, tra cui l’APT (Automatic programming tool). A partire dagli anni Sessanta entrarono in fabbrica i primi industriali, che presto divennero un paradigma della produzione automatizzata, e nacquero i primi insiemi coordinati di macchine con controllo supervisore. Per il coordinamento si fece largo uso dei controllori logici programmabili (PLC, Programmable logic controller), evoluzione in tecnica digitale dei controllori a relé già impiegati nel controllo di sequenza delle operazioni delle macchine, sia nella produzione continua sia in quella manifatturiera, e tuttora largamente utilizzati nell’industria. Le tecnologie informatiche dei PLC e delle reti locali che li interconnettono (LAN, Local area network) e li connettono sia al governo operativo delle macchine, sia ai livelli tattici di gestione della produzione, raggiunsero un alto livello di standardizzazione. Ciò contribuì notevolmente alla diffusione della flessibilità operativa dei dispositivi e dei sistemi automatici.
Dal pieno sviluppo degli strumenti di controllo automatico delle macchine utensili nacquero i centri di lavorazione con sistema di caricamento automatico dei pezzi da lavorare, controllo della forza esercitata dall’utensile, cambio automatico dello stesso, magazzini per diverse decine di utensili (anche più di cento), programmabili automaticamente nella sequenza delle operazioni, oltre che nella loro esecuzione. I centri di lavorazione e le altre macchine utensili dedicate presentavano già, in qualche misura, quelle caratteristiche di flessibilità, programmabilità e integrabilità che sono emblematiche per i robot. I primi sistemi del tipo che verrà poi chiamato FMS (Flexible manufacturing systems), o anche sistemi di automazione flessibile, nacquero come insiemi coordinati di macchine, integrati da un sistema di trasporto dei pezzi programmabile dal controllo supervisore, per produzioni di medio volume e con limitata variabilità. I sistemi di trasporto furono, all’inizio, dello stesso tipo di quelli impiegati nelle linee dell’automazione rigida (carrelli su binari, vie a rulli, binari sopraelevati con ganci sospesi, nastri trasportatori) con dispositivi per biforcazioni o incroci, controllati tramite la rete informatica di supervisione.
Furono poi sviluppati gli AGV (Automated guided vehicle), carrelli automatici guidati su pista magnetica. Gli AGV permettono una riconfigurazione meno onerosa del sistema, in quanto la pista magnetica è ottenuta semplicemente mediante un filo fissato sotto il pavimento, che porta anche i segnali di controllo e misura dell’AGV.
L’Italia fu presto all’avanguardia nell’automazione flessibile. Agli inizi degli anni Settanta furono installati i primi robot e AGV. La flessibilità operativa acquisita dall’automazione dimostra sul campo di poter modificare l’economia delle attività produttive, consentendo investimenti in automazione che non sono vanificati dalla diversificazione richiesta dal mercato. Inoltre, con la diffusione capillare di dispositivi di misura e con le reti a elaborazione distribuita che raccolgono e aggregano dati, oltre a trasmettere comandi, i sistemi per l’automazione flessibile permettono anche di soddisfare una richiesta di qualità dei prodotti, ottenibile altrimenti solo con una verifica continua dei processi produttivi (si manterrà la verifica a campione sul prodotto solo per constatare il raggiungimento del livello di qualità richiesto).
L’integrazione ‘orizzontale’ del livello operativo della produzione ha spinto verso l’integrazione ‘verticale’ con il livello tattico, dando luogo all’idea di poter gestire in modo integrato tutte le attività di progettazione-produzione-vendita, ossia di realizzare il cosiddetto CIM (Computer integrated manufacturing). Negli anni Ottanta i robot diventarono via via più sofisticati, compiendo operazioni sempre più complesse, essendo anche integrati in celle con diversi elementi cooperanti. Ciò si verificò in modo particolare nei processi di assiematura, dove la manipolazione, la predisposizione e la combinazione di un numero rilevante (fino a molte decine) di pezzi diversi, con operazioni di inserimento anche molto complesse e verifiche di insieme con parti anche in movimento, richiedevano la cooperazione di robot e macchinari di diverso tipo con precisioni elevate e, soprattutto, una notevole capacità di affrontare situazioni variabili. I sistemi FMS, eventualmente comprendenti celle robotizzate per l’assiematura, divennero economicamente convenienti e necessari alla competitività aziendale negli anni Ottanta. Negli anni Novanta si è arrivati a concepire celle multirobot in grado di gestire il proprio lavoro, verificarne i risultati e coordinarsi con il sistema di produzione complessivo (costituito anche da un FMS con movimentazione automatica delle parti e degli utensili).
Nell’industria di processo si sono diffusi i sistemi SCADA (Supervisory control and data acquisition), in grado di monitorare e controllare in maniera supervisiva processi industriali distribuiti spazialmente. Un sistema di automazione di tipo SCADA opera la supervisione in maniera centralizzata, sfruttando la disponibilità di componenti di acquisizione e di controllo (tipicamente PLC) dislocati nell’impianto. Dalla metà degli anni Settanta sono poi stati introdotti i sistemi di controllo distribuito DCS (Distributed control systems). In tali sistemi di automazione gli elementi decisionali sono dislocati in varie parti dell’impianto di produzione piuttosto che centralizzati in un’unica sala di controllo. I vari controllori hanno il compito di regolare parti specifiche del processo in maniera indipendente ma concertata grazie a una rete di comunicazione che li interconnette.
Mentre la maggior parte dei sistemi SCADA è proprietaria, uno sforzo per uniformare le tecnologie dei sistemi di automazione è stato compiuto intorno alla metà degli anni Novanta con la creazione dello standard OPC (Object-linking and embedding (OLE) for process control) da parte di un certo numero di aziende operanti nel settore. Tale standard detta le modalità mediante le quali i dispositivi di controllo, indipendentemente da chi li ha prodotti, devono comunicare in tempo reale i dati di processo.
A oggi l’automazione trova applicazione nei campi più disparati. Oltre alle applicazioni più tradizionali nei settori dell’industria chimica, farmaceutica, metallurgica, della carta, della raffinazione del petrolio, aeronautica, aerospaziale, navale e automobilistica, negli ultimi anni si sta affermando anche in settori quali la (solitamen-te con l’obiettivo del risparmio energetico), la biologia molecolare, le biotecnologie, le nanotecnologie, la medicina (per es., i sistemi automatici per il dosaggio dell’insulina), il controllo del traffico aereo, i sistemi ambientali, l’economia e la finanza, le reti di produzione e distribuzione dell’energia elettrica.
L’automazione tradizionalmente poteva essere considerata una tecnologia ‘nascosta’, preposta prevalentemente alla movimentazione di apparecchiature e processi macroscopicamente ben visibili. Oggi, grazie alla possibilità di distribuire in maniera pervasiva componenti microelettronici, codice software e reti di comunicazione stanno diventando sempre più importanti nella competizione di mercato, consentendo la realizzazione di prodotti sempre più sofisticati dal punto di vista delle funzionalità. Questa tendenza è tangibile in particolare nell’industria automobilistica, dove ormai una grossa fetta dei costi di progettazione e di produzione è dettata dai sistemi elettronici di automazione. Un esempio emblematico dell’importanza dell’automazione nell’autoveicolo fu evidenziato durante un ‘test dell’alce’, utilizzato per determinare la stabilità di un autoveicolo a seguito di manovre effettuate per evitare ostacoli imprevisti. Nel 1997 la prima versione della Mercedes-Benz Classe A fallì tale test, con conseguenti perdite economiche ingenti da parte della casa costruttrice. Il progetto fu salvato grazie all’introduzione di un sistema innovativo di automazione di tipo ESP (Electronic stability program).
L’evoluzione dell’automazione sopra tratteggiata non sarebbe stata possibile senza fondamenti metodologici riconducibili a quattro principî fondamentali, a cui corrispondono filoni di sviluppo collegati e interagenti, ma fortemente caratterizzati: (a) retroazione, cioè intervento automatico sulla base della situazione che si sta verificando, dal regolatore di Watt alla cella flessibile di lavorazione capace di autoconfigurarsi; (b) integrazione, cioè collegamento automatico di attività e/o operazioni, dalla linea di montaggio alla fabbrica automatica integrata; (c) sintesi, cioè automazione del processo inverso dalle specifiche di progetto alla configurazione del sistema, dalla sintesi diretta di circuiti elettrici, dei regolatori o dei movimenti delle macchine utensili, del codice software che attua la politica di controllo in retroazione, alla progettazione automatica dei circuiti integrati o di segmenti di un processo produttivo; (d) supporto alle decisioni, cioè elaborazione automatica degli elementi di decisione sulla base delle misure, dalla logistica al governo di sistemi complessi di varia natura, quali navi, aerei, impianti, intere aziende.
Se il concetto di è presente in una quantità elevatissima di sistemi automatizzati, quello di integrazione ha avuto un notevole impulso a partire dagli anni Settanta, allorché i progressi dell’informatica hanno reso possibile l’elaborazione di masse sempre maggiori di dati, e dunque anche quelli necessari a realizzare il coordinamento automatico tra diverse parti di un sistema complesso (per es., negli FMS, tra il sistema di movimentazione/trasporto e i singoli centri di lavorazione). Sintesi e supporto alle decisioni sono assai presenti nei sistemi di progettazione automatica: le modifiche di configurazione del prodotto finale generano, sia in modo automatico sia attraverso fasi interattive di supporto alle decisioni, modifiche nel processo produttivo e nei programmi di lavorazione (portando sia all’integrazione della progettazione sia a nuove modalità d’integrazione delle operazioni in produzione). Si osservi che collegare il concetto di automazione con i principî sopra elencati significa riconoscerle un ruolo ben distinto sia dall’informatica, cioè dall’elaborazione automatica delle informazioni, sia dalle telecomunicazioni, cioè dalla trasmissione automatica delle informazioni. Ciò corrisponde al significato ormai consolidato del termine automazione. Nel passato (grosso modo, fino agli anni Sessanta), la distinzione tra automazione, informatica e telecomunicazioni era meno netta, anche perché dal punto di vista metodologico esistono molte radici storiche comuni.
Al di là degli aspetti prettamente tecnologici riguardanti la sensoristica, i dispositivi di attuazione, e le infrastrutture necessarie a sostenere il flusso informativo, i sistemi di automazione vengono progettati sulla base delle metodologie della teoria del controllo. Questa permette di progettare le strategie (cioè gli algoritmi) per il controllo automatico del sistema, basandosi sull’analisi del comportamento dinamico del sistema stesso.
Per la determinazione automatica dell’intervento nei sistemi complessi è necessario un modello (solitamente matematico e quantitativo) della realtà su cui si opera e degli obiettivi che si intendono perseguire, che sia utilizzabile in pratica. Questo spiega l’enfasi data alla modellistica: ragionare per modelli diventa la chiave di volta del processo di automazione. In tale processo si stenta a volte a riconoscere il classico procedimento scientifico (basato sulla sequenza ipotesi, esperimento, verifica), in quanto si usano i modelli non tanto per formalizzare ipotesi (come avviene, per es., in fisica o in economia), quanto per replicare il comportamento del processo automatizzato in condizioni assegnate. In particolare possiamo distinguere fra modelli di simulazione, mediante i quali si cerca di riprodurre numericamente il comportamento del sistema reale in determinati scenari di funzionamento nella maniera più fedele possibile, e modelli orientati alla sintesi, in cui si accetta di replicare i comportamenti in maniera magari più approssimata ma più idonea all’uso di strumenti di studio analitico e di tecniche numeriche per la sintesi delle leggi di controllo. Entrambi i modelli sono necessari: effettuata la sintesi delle leggi di controllo, il comportamento del processo sotto l’effetto di queste ultime (cioè in anello chiuso) può essere poi validato mediante un modello di simulazione più raffinato e quindi realistico.
Dal punto di vista metodologico, nello studio dei sistemi di automazione si fa largo uso sia di modelli analitici (che consentono di analizzare il sistema senza condurre esperimenti direttamente sul sistema reale) sia prescrittivi (che consentono di determinare quale azione intraprendere per conseguire certi obiettivi). I modelli del primo tipo comprendono i modelli dinamici della teoria del controllo (descritti da equazioni differenziali o alle differenze), ma anche, per esempio, i modelli di simulazione, le reti di code, le reti di Petri, le reti markoviane e, in alcuni sviluppi più recenti, i modelli di teoria dei giochi. I modelli del secondo tipo includono i modelli di controllo ottimo e di programmazione matematica (ottimizzazione lineare e non lineare). Le due tipologie di modello possono essere combinate talvolta nei cosiddetti modelli di ottimizzazione dinamica usati, per esempio, nelle tecniche di MPC (Model predictive control), in gran voga soprattutto nell’industria di processo per il controllo di sistemi con centinaia di attuatori e sensori, in cui l’azione di comando viene scelta risolvendo ripetutamente problemi di ottimizzazione vincolata. Questi si basano su un modello di programmazione matematica ottenuto a partire dall’evoluzione di un modello dinamico per un certo numero di passi nel futuro.
L’idea di ottimizzare il comportamento di un sistema dinamico, oggi facilmente attuabile grazie alla disponibilità di piattaforme di calcolo potenti ed economiche e di codici software per l’ottimizzazione molto sofisticati, risale agli anni Cinquanta e Sessanta, quando la teoria del controllo ottimo conobbe un forte sviluppo, motivato in larga parte dalle applicazioni spaziali.
Alcune tappe significative di questo sviluppo sono legate ai lavori di Richard Bellman e Rudolf E. Kalman. Bellman sviluppò la programmazione dinamica, basata sul ‘principio di ottimalità’ (in un problema di decisione sequenziale, ogni segmento di una strategia ottima è una strategia parziale ottima, dati i rispettivi punti di partenza e di arrivo), che divenne rapidamente un potente strumento per la soluzione di un’ampia gamma di problemi di controllo ottimo (più in generale di teoria delle decisioni), e grazie al quale furono prodotti diversi software per le più varie applicazioni. Kalman concepì un sistema per automatizzare il controllo di processi continui utilizzando un elaboratore, con un modello a tempo discreto del sistema (in cui misura e azione avvengono a istanti di tempo separati) e di un calcolo dei parametri ottimi in ogni intervallo di tempo, effettuato con i minimi quadrati.
Per i problemi di controllo ottimo, Kalman introdusse il concetto di variabili di stato che contengono in sé, con il loro valore istantaneo, tutta la storia passata del sistema dinamico; analizzò quindi le relazioni di dualità che esistono tra il problema del controllo e il problema del filtraggio a retroazione, fornendo poi una procedura di sintesi che offre un nuovo modo di affrontare il problema del controllo e dimostrando che con un indice di errore quadratico il controllo ottimo è ottenibile con una retroazione lineare delle variabili di stato. Tali risultati affondano le proprie radici nelle teorie del matematico italiano Jacopo Francesco Riccati.
Successivamente, Kalman definì la controllabilità e l’osservabilità dello stato con i relativi modelli. Inoltre, sulla base del concetto di controllo modale avanzato da Howard H. Rosenbrock, l’impostazione di Kalman diede luogo a procedure per l’allocazione dei poli della funzione di trasferimento. Insieme a Richard S. Bucy, egli introdusse il filtro detto di Kalman-Bucy, e dimostrò in modo rigoroso il ruolo della retroazione nei problemi di filtraggio, nonché l’equivalenza tra i problemi di controllo e filtraggio. In effetti, come per le tecniche di filtraggio del segnale adottate nel campo delle telecomunicazioni, una delle ragioni principali del successo della retroazione nei problemi di controllo è proprio la riduzione degli effetti dell’incertezza e del rumore, e quindi la capacità di aumentare la cosiddetta robustezza del sistema rispetto a perturbazioni non misurabili. Per questo motivo, è spesso inutile impiegare modelli estremamente precisi del sistema da controllare, in quanto gli errori dovuti all’approssimazione sono compensati dall’intervento del sistema di controllo a retroazione.
Un problema tipico che si presenta negli studi sull’automazione è quello di prevedere il comportamento di un sistema complesso, anche se formato da parti semplici. La complessità, dovuta alla numerosità delle parti e/o alla natura delle connessioni, può essere tale da rendere praticamente impossibile prevedere tale comportamento, anche nel caso completamente deterministico e a informazione completa. Gli studi sulla complessità computazionale, sui sistemi non lineari e, in generale, sul caos, hanno permesso di gettare una luce su questa difficoltà, purtroppo in senso negativo, ossia chiarendo le cause di tali difficoltà. D’altra parte, è essenziale poter garantire un buon comportamento per un sistema automatico, che non può prevedere azioni correttive esterne. Una tendenza recente, iniziata già negli anni Settanta, quando si andò delineando la teoria del controllo decentralizzato è allora quella di ricorrere a soluzioni strutturalmente più semplici, come i sistemi multiagente descritti nel seguito, in cui la rinuncia a perseguire una soluzione globalmente ottima è ripagata da una maggiore trasparenza di funzionamento, semplicità di controllo e quindi, in definitiva, robustezza del sistema nei confronti di disturbi o eventi imprevisti.
Gli strumenti metodologici utilizzati hanno subito nel tempo una forte evoluzione. Alcuni dei passi fondamentali nell’evoluzione dell’automazione sono dovuti proprio all’introduzione di nuovi contesti di formalizzazione. I contributi di Eli Whitney (interscambiabilità, 1798), James C. Maxwell (retroazione, 1868), Edward J. Routh (stabilità, 1876), Aleksandr Mikhailovich Lyapunov (stabilità del moto, 1892), Frederick W. Taylor (ottimizzazione del processo di lavorazione, ca. 1900), Henry L. Gantt (sequenziamento delle lavorazioni, ca. 1901), Henry Ford (linea di montaggio, ca. 1911), Harry Nyquist (studi sulla retroazione, 1932), Harold S. Black (amplificatori retroazionati, 1934), Henry Bode-Nathaniel B. Nichols (metodi per la progettazione di sistemi di controllo, ca. 1940), Norbert Wiener (filtraggio, 1949), George B. Dantzig (programmazione lineare, ca. 1947), William E. Deming (qualità totale, ca. 1950), Richard Bellman (programmazione dinamica, 1956), Delbert R. Fulkerson (reti di flusso, 1956), il già citato Kalman (sistemi dinamici e filtraggio, 1956), Lev S. Pontryagin (controllo ottimo, 1959), Carl A. Petri (reti di Petri, 1962), Anatolii Ivanovich Propoi (controllo basato su programmazione lineare, 1963), J. Richalet (controllo predittivo, 1976), V.L. Kharitonov (controllo robusto, 1979), Singheo Shingo (produzione snella, 1985) e di molti altri, sono illustrazioni importanti di questi progressi concettuali di grande portata per il contesto produttivo.
I quattro aspetti fondamentali qui introdotti riguardano sia elementi consolidati del processo di automazione, sia altri meno ben definiti che, decisi volta per volta sulla base del contesto, determinano le caratteristiche dell’intervento di progettazione in corso e le sue possibilità di dar luogo a un sistema di produzione competitivo. Si può affermare che oggi esiste, per un sistema di produzione di medie dimensioni, un nucleo di caratteristiche relative all’automazione senza il quale non è possibile operare (una macchina utensile ha sempre un controllo numerico, ha meccanismi di retroazione standard ed è integrabile con altre macchine; un ufficio di progettazione ha sempre supporti CAD più o meno sofisticati e integrabili con la produzione; i responsabili della produzione dispongono sempre di supporti più o meno sofisticati alla pianificazione e alle decisioni operative) e una serie di altre caratteristiche molto variabili (numerose caratteristiche che ieri non erano tipiche di tutti i sistemi competitivi oggi lo sono, altre viceversa diventano meno importanti) che fanno parte della specificità di un particolare sistema e che determineranno di fatto sempre più nel futuro la sua competitività (integrazione con fornitori e clienti; telecontrollo e caratteristiche di virtualità; dimensioni, decentramento delle decisioni e complessità organizzativa).
Negli ultimi decenni, un aspetto divenuto sempre più rilevante nella realizzazione di sistemi automatizzati è quello della loro gestione, intesa come l’insieme di tutte le attività volte a garantire lo svolgimento dei compiti e il perseguimento degli obiettivi per i quali il sistema è stato creato. Il problema di gestire in modo efficace i sistemi automatizzati è emerso in tutta la sua importanza nel momento in cui la tecnologia consentiva l’introduzione di sistemi complessi, efficienti e dalle grandi potenzialità. Si è reso quindi necessario mettere a punto modelli concettuali nuovi adatti a gestire l’innovazione e a progettarne l’organizzazione. A partire dagli anni Ottanta si è iniziato a comprendere come l’adozione di impianti tecnologicamente innovativi abbia conseguenze profonde non solo sul piano puramente tecnologico, ma anche su quello organizzativo o addirittura culturale. Se si valuta, per esempio, un investimento in automazione solo misurando l’incremento della produttività, non si tiene conto di una serie di altri possibili benefici in termini di rapidità di riconfigurazione, qualità e modularità del prodotto, possibilità di standardizzare l’intero processo produttivo e quindi semplicità nella gestione del ciclo di vita del prodotto. Alcuni di questi benefici non sono quantificabili in modo immediato, e sono ottenuti solo a patto di adottare politiche di gestione opportune. Per utilizzare efficacemente, per esempio, un sistema di trasporto automatizzato è necessario progettare algoritmi di instradamento dei pezzi fisici che non creino colli di bottiglia o fenomeni di congestionamento. Inoltre, la maggiore efficienza produttiva può mettere a nudo problemi che erano precedentemente mascherati dall’inefficienza globale del sistema. Questo a sua volta richiede una mentalità e una partecipazione diversa da parte dei singoli operatori, che da semplici esecutori diventano gestori di sistemi, e quindi soggetti coinvolti in prima persona nel processo produttivo.
I progressi tecnologici hanno quindi dato impulso allo sviluppo di un corpo metodologico adatto a formulare e risolvere un vasto insieme di problemi decisionali, spesso molto complessi, che prima non esistevano.
In sintesi, un impianto automatizzato può vedersi come un sistema caratterizzato sostanzialmente da due tipi di flusso: fisico e informativo. Il primo è quello visibile, per mezzo del quale le materie prime vengono trasformate in prodotti finiti, e coinvolge anche tutte le risorse fisiche (persone, sistemi di movimentazione, utensili, magazzini) necessarie a effettuare tale trasformazione. Il flusso informativo per un verso registra e misura lo stato attuale delle risorse del sistema, e dall’altro va a influenzare tale stato attraverso il rilascio di documenti (ordini di produzione, di progettazione, di manutenzione ecc.) che realizzano le azioni stesse. Tale flusso informativo realizza l’interfaccia tra la realtà fisica dell’azienda e il livello decisionale, ossia quell’insieme di attività che determinano, appunto, le azioni da intraprendere. Infatti, quale che sia la filosofia o i principî che guidano i vari tipi di decisioni, esse vengono prese sulla base di una conoscenza del sistema, che si ha attraverso una sua rappresentazione: a questo livello, dunque, si colloca l’attività modellistica in ambito gestionale, che deve fornire, di volta in volta, la chiave di lettura più opportuna per le decisioni in questione, ossia isolare le grandezze significative, descriverne i rapporti di causalità, porsi al corretto livello di aggregazione.
Dunque, a partire dagli anni Ottanta, la ricerca si è focalizzata parallelamente anche sui problemi posti dalla gestione degli impianti automatizzati. Questo ha richiesto lo sviluppo di modelli matematici ad hoc, i quali, grazie anche all’enorme aumento di potenza dei mezzi di calcolo, hanno consentito la formalizzazione e la risoluzione di una vasta gamma di problemi decisionali complessi. In conseguenza dell’elevato livello di formalizzazione raggiunto da molti problemi gestionali nati in ambito manifatturiero, possiamo dire che le problematiche della gestione dei flussi fisici nei sistemi di automazione forniscono oggi sia un banco di prova per molte metodologie matematiche di ottimizzazione, sia uno stimolo allo sviluppo ulteriore di tale corpo metodologico.
Infine, va sottolineato come l’automazione, alla luce dei concetti più moderni nella gestione dei processi, sia oggi un elemento fondamentale nel determinare il posizionamento strategico dell’azienda. Tipicamente, processi molto ripetitivi e a elevato volume si prestano meglio a essere automatizzati rispetto a processi poco ripetitivi e a basso volume. Si noti che questo paradigma si applica a uno spettro molto ampio di impianti e sistemi: non solo nella produzione manifatturiera, ma anche nei servizi (logistica, distribuzione, vendita, prodotti finanziari). Così, un tipo di autovettura destinata al grande pubblico sarà costruita su linee di montaggio a elevata automazione, mentre l’opposto accade per le auto di lusso. Analogamente, la costruzione di un portafoglio di investimenti pensato per le esigenze specifiche di pochi clienti facoltosi avviene in modo molto diverso rispetto alla definizione di fondi comuni di investimento pensati per il grande pubblico, che può essere largamente ‘automatizzata’.
4. Tecnologia
L’automazione industriale è stata oggetto di una sottile ma decisiva discussione strategica, che ha contrapposto i costruttori dei sistemi di produzione agli informatici impegnati nella realizzazione di sistemi industriali integrati. Per quanto riguarda i sistemi di produzione, questi si sono evoluti in complessità e la loro scelta dipende dalle diverse esigenze di impiego. Infatti si parte da molte macchine operatrici per ogni settore di impiego, con impiego prevalente di controllori logici programmabili incorporati negli impianti stessi, per giungere alle macchine utensili per metalli, ai robot, alle cosiddette celle (macchine utensili integrate a sistemi di movimentazione e robot asserviti), agli FMS (interi blocchi di officina integrati a più centri di lavorazione) e ai sistemi integrati di più robot.
Nel campo dell’automazione risultano inoltre interessanti le problematiche relative ai sensori, al governo del sistema di automazione, alla scelta degli attuatori e, infine, al controllo del sistema di produzione.
Per quanto riguarda i sensori, questi utilizzano diverse tecnologie (elettroottiche, a ultrasuoni, elettromagnetiche, a semiconduttore ecc.) per ottenere informazioni su temperature, deformazioni, distanze, forze, pressioni, flussi, livelli, correnti elettriche e così via.
L’elaborazione digitale dei segnali è stata utilizzata nel campo della regolazione già negli anni Sessanta, per la precisione e la riproducibilità ottenibili con essa. Ulteriori elementi a favore dei processi di regolazione digitali sono la possibilità della memorizzazione di programmi per macchine utensili, l’elaborazione di valori effettivi per l’analisi dei processi e l’ottimizzazione degli stessi. Un impiego su vasta scala dei processi di regolazione digitali non era all’epoca praticabile, dato che i metodi digitali erano gravati dall’alto costo delle apparecchiature; il loro impiego rimase pertanto limitato a pochi casi, per esempio a macchine utensili molto costose, antenne direzionali o comandi per macchine continue per la produzione di carta. Non appena è stato possibile produrre calcolatori di processo affidabili ed efficienti (cioè in grado di elaborare segnali in tempo reale), si è riusciti ad assolvere un numero maggiore di compiti di automatizzazione, con una struttura decentralizzata di automazionepilotata da calcolatore. Soltanto conl’avvento delle attuali strutture di elaborazione compatte ed efficienti, per esempio microcontrollori e DSP (Digital signal processor), è stato possibile risolvere in modo economico molti dei compiti di regolazione.
Per quanto riguarda il governo del sistema di automatizzazione con struttura decentralizzata, si deve fare in modo che i dati critici possano essere elaborati immediatamente e senza la necessità di una coordinazione con altre parti dell’impianto. Un calcolatore centrale può continuare a essere in funzione per compiti di livello superiore, come l’ottimizzazione della regolazione, ma deve trattarsi di un accoppiamento lento, non rigido, e non interessato a dati critici. Con una simile struttura del sistema sono risolvibili in modo convincente sia i problemi della limitata disponibilità, sia quelli della programmazione complessa. Pertanto l’alternativa ‘analogico o digitale’ ha perso importanza grazie alla microelettronica, dato che il costo fra le diverse soluzioni tecniche non si differenzia più in modo essenziale, e la scelta si riduce a una questione di opportunità: potrà accadere talvolta che una soluzione digitale, non necessaria per ragioni di precisione, possa essere scelta per il suo costo inferiore.
Il settore degli attuatori è stato portato avanti sviluppando competenze strategiche derivate sia dal classico settore elettromeccanico sia da quello dei nuovi materiali e delle nuove tecnologie. Nell’ e nell’informatica gli attuatori sono generalmente i dispositivi deputati al movimento, mentre nel settore delle macchine elettriche l’ corrisponde al cosiddetto , il quale comprende il convertitore, il motore e altri componenti di regolazione e controllo, tranne la parte meccanica da movimentare. Nel campo dei controlli automatici, gli azionamenti elettrici vengono identificati con alcune categorie di servosistemi. La differenza fra i termini azionamento e dipende dalla diversa storia delle discipline: da un lato si tratta di una storia molto lunga con tradizioni consolidate, dall’altro di una disciplina relativamente giovane in cui si sono assestate in modo sfumato tradizioni di altre discipline.
Mentre nel periodo compreso tra la fine degli anni Settanta e l’inizio degli anni Novanta l’evoluzione nel settore degli azionamenti è dipesa, oltre che dallo sviluppo della tecnologia dei componenti elettronici di potenza, anche da un importante mutamento nelle prestazioni delle macchine operatrici, in futuro l’evoluzione di tale settore dipenderà ancora dal progresso dei componenti elettronici sia nella microelettronica sia nell’elettronica di potenza, ma anche e fortemente dallo sviluppo dei materiali. In proposito, è in forte espansione la ricerca sui nuovi materiali e sulle tecnologie per la realizzazione dei magneti permanenti.
Per il controllo del sistema di produzione, gli studi di ingegneria dei sistemi di controllo e la grande potenza di calcolo oggi a disposizione consentono non solo di raggiungere quelle prestazioni indispensabili in particolari applicazioni e non raggiungibili con le convenzionali tecniche di controllo, ma anche di ottimizzare il comportamento del sistema secondo opportune funzioni obiettivo.
Nell’ambito della tecnologia dei controlli, due sono i principali filoni di evoluzione: (a) quello che, muovendosi dai controllori tradizionali, li aggiorna introducendo, per esempio, algoritmi di tipo adattativo; (b) quello che progetta invece il controllore da zero, adottando nuove tecnologie. Riguardo al primo filone, tra le tecniche di tipo adattativo utilizzate per migliorare le prestazioni dei controllori PID (Proportional integral derivative) si individuano la programmazione dei guadagni (gain scheduling), il controllo con un modello di riferimento (MRAS, Model reference adaptive system), i controllori PID adattativi (come gli STC, Self-tuning controller). Le tecniche adattative rappresentano una soluzione, per esempio, nelle applicazioni di robotica, ove sono richieste elevate prestazioni dinamiche unite all’annullamento, o almeno alla minimizzazione, degli effetti delle variazioni dei parametri elettrici e meccanici (quali la resistenza elettrica con la temperatura o il momento d’inerzia con l’angolo) e dell’effetto causato dai disturbi, fra i quali la variazione del carico meccanico. Nel secondo filone, invece, si inseriscono i sistemi auto-oscillanti SOAS (Self oscillating adaptive systems) e i sistemi che implementano controllori in logica fuzzy (fuzzy controller).
Si ricorda infine che con metodi di identificazione ‘in linea’ o ‘fuori linea’, messi oggi a disposizione dalla scienza dei controlli (extended Kalman filter, algoritmi di tipo recursive least squares ecc.), è possibile individuare, a partire da un certo insieme di grandezze misurate e nelle varie condizioni di funzionamento del processo, il valore di parametri associabili a un modello matematico (per es., la costante di tempo a vuoto e la costante transitoria, o più in generale la funzione di trasferimento).
Se fino agli anni Novanta gli sviluppi metodologici più innovativi potevano non trovare un immediato corrispettivo implementativo nei sistemi di automazione per oggettive difficoltà tecnologiche, a oggi i moderni sistemi di prototipazione rapida e di generazione automatica del codice software permettono ormai un’agevole sperimentazione e ingegnerizzazione di tecniche anche molto sofisticate.
Nell’impostazione dell’automatica sviluppatasi nella seconda metà del XX sec., i sistemi di controllo automatico eseguivano dei comandi, spesso dati come andamenti temporali prescritti per alcune grandezze significative (controllo automatico continuo, di base); anche nel caso del controllo ottimo la funzione di costo da minimizzare era data da una misura dello scostamento degli andamenti prescritti da quelli effettivi. Successivamente, anche con l’apporto dell’ottimizzazione combinatoria, della teoria delle code markoviane e della teoria delle decisioni, si è passati dal comando automatico di tipo continuo a sistemi di controllo a eventi discreti (in cui l’effetto del controllo è l’attivazione di un evento rappresentato come un’entità separata) che eseguono il coordinamento automatico delle successioni di eventi operativi (chiamato controllo supervisore se, a valle del coordinamento automatico, si generano i comandi per i sistemi di controllo dell’evoluzione di ogni singola operazione). Anche il controllo automatico dei sistemi a eventi discreti ha però carattere esecutivo: esegue comandi precisi, immediatamente operativi, nel coordinamento che non richiede controlli automatici di base (come in un elettrodomestico sofisticato o in un robot elementare, in cui non c’è retroazione continua dai sensori); viceversa, è un generatore di altri comandi esecutivi per i controlli continui di base nel controllo supervisore.
Nel futuro dell’automazione saranno sempre più presenti sistemi in grado di svolgere automaticamente, accumulando esperienza, alcuni processi decisionali; sistemi, cioè, dotati di larga autonomia interna, capaci di individuare le operazioni da svolgere per raggiungere obiettivi produttivi e dare, in base a queste decisioni automatiche, i comandi esecutivi, per i controlli supervisori e/o i coordinamenti e i controlli automatici di base. Un esempio di sistemi capaci di autogestirsi sono le celle robotizzate o i sistemi di robot cooperanti per l’esplorazione extraterrestre. Questo tipo di autonomia riguarda il funzionamento interno del sistema e può associarsi o meno all’autonomia esterna, cioè alla capacità del sistema di comportarsi come un agente o processo autonomo, in grado di coordinarsi con altri sistemi, automatici o non, in base a obiettivi comuni.
È prevedibile che il concetto di autonomia decisionale sarà sempre più presente anche nei sistemi di produzione, eventualmente senza la presenza continua dell’uomo (livello operativo) e collegati agli operatori mediante sistemi di telepresenza. La telepresenza è costituita dalla teleoperazione mediante interfacce aptiche (già attualmente diffusa in medicina e nelle applicazioni spaziali) e dalla telemisura, resa all’operatore con i sistemi di rappresentazione integrata multimediale che vanno sotto il nome di realtà virtuale.
Un punto cruciale nel funzionamento di sistemi di agenti autonomi è trovare il miglior compromesso tra il livello di autonomia di un sistema e la qualità del funzionamento. Infatti, concettualmente, un maggiore livello di coordinamento assicura risultati migliori, ma richiede uno scambio di informazioni più elevato. Le modalità con cui viene realizzato il coordinamento sono tipicamente di tipo euristico e fortemente legate alle modalità con cui gli agenti prendono le loro decisioni. La formalizzazione di questo aspetto del processo decisionale in un’ottica di ottimizzazione delle prestazioni è un tema di ricerca di rilevante interesse: si tratta di trovare regole di decisione locali e protocolli di interscambio di informazioni tra agenti, tali da far evolvere il sistema in modo da avvicinarsi il più possibile all’ottimo complessivo.
Askin, Standridge 1993: Askin, Ronald G. - Standridge, Charles R., Modeling and analysis of manufacturing systems, New York, Wiley, 1993.
Ayres 1992: Ayres, Robert U., Computer integrated manufacturing, II, The past, the present and the future, London-New York, Chapman and Hall, 1992.
Babbage 1832: Babbage, Charles, On the economy of machinery and manufactures, London, Knight, 1832.
Basar 2000: Control theory: twenty-five seminal papers (1932-1981), edited by Tamer Basar, New York, IEEE Press, 2000.
Bateson 2002: Bateson, Robert, Introduction to control system technology, 7. ed., Upper Saddle River (N.J.), Prentice-Hall, 2002.
Bellman 1964: Selected papers on mathematical trends in control theory, edited by Richard Bellman, New York, Dover, 1964.
Bennett 1979: Bennett, Suart, A history of control engineering 1800-1930, Stevenage, Peregrinus for the Institution of Electrical Engineers, 1979.
Bennett 1993: Bennett, Stuart, A history of control engineering 1930-1955, Stevenage, Peregrinus for the Institution of Electrical Engineers, 1993.
Bertoni, Penati 1992: Bertoni, Gianni - Penati, Maria Elisabetta, L’automazione industriale. Dal mulino da seta alla fabbrica automatica, Bologna, Progetto Leonardo, 1992.
Boed 1999: Boed, Viktor, Control and automation for facilities managers: application engineering, Boca Raton (Fla.), CRC Press, 1999.
Gould 1986: Gould, Lawrence S., Factory automation: a key to survival, Wilbraham (Mass.), LMB, 1986.
Magnani 2000: Magnani, Gianantonio, Tecnologie dei sistemi di controllo, 2. ed., Milano, McGraw-Hill, 2000.
Mayr 1970: Mayr, Otto, The origins of feedback control, Cambridge (Mass.), MIT Press, 1970.
Murray 2003: Control in an information rich world, edited by Richard M. Murray, Philadelphia, Society for Industrial and Applied Mathematics (SIAM), 2003.
Strandh 1979: Strandh, Sigvard, Machines. An illustratedhistory, London, Artists House, 1979.
The mechanization of work, “Scientific American”, 3, 1982(special issue).
Wiener 1948: Wiener, Norbert, Cybernetics or control andcommunication in the animal and the machine, New York, Wiley, 1948 (trad. it.: La cibernetica, Milano, Il Saggia-tore, 1952).