AFFIDABILITÀ.
Alla parola affidabilità vengono di norma attribuiti tre diversi significati. Il primo è quello di caratteristica di un'unità tecnologica (sistema o componente) di possedere e conservare nel tempo le qualità funzionali per cui essa è stata ideata e realizzata. In questo senso l'a. è riferita anche ad attività tecniche, produttive, commerciali, di servizio che assolvono con puntualità ed efficacia le rispettive funzioni. Il secondo significato è quello di funzione matematica, R(tt0), che quantifica il concetto precedente esprimendo la probabilità che un'unità tecnologica non presenti guasti in determinate condizioni di esercizio e per un prefissato tempo di missione t a partire da una certa età t0. Il terzo significato è quello più ampio di disciplina scientifica che s'interessa dello studio e del controllo dei guasti, quali eventi per natura non prevedibili deterministicamente. Di conseguenza la teoria dell'a. si occupa prevalentemente di processi d'inferenza statistica tendenti, per es., a elaborare informazioni sperimentali riguardanti guasti di componenti, al fine di formulare deduzioni sui relativi fenomeni originatori, oppure deduzioni sulla distribuzione di probabilità della durata di vita dei componenti stessi o dei sistemi di cui essi fanno parte. Tali deduzioni, espresse in termini di valutazioni probabilistiche, sono utilizzate per migliorare la progettazione, la produzione, l'impiego e la manutenzione delle unità tecnologiche.
Dal punto di vista metodologico l'a. è molto vicina alla biometria perché spesso sono comuni i problemi matematici da risolvere per formulare, per es., una previsione probabilistica della durata di vita di macchine o di esseri viventi, oppure per analizzare statisticamente processi di guasto o malattie.
Storicamente il problema dell'a. è nato intorno alla fine della seconda guerra mondiale, allorché si è sentita in forma evidente la necessità di effettuare l'analisi dei guasti di sistemi complessi.
Per comprendere come sia nata l'a. cominciamo col considerare più esemplari di un sistema 'a un sol colpo', come una bomba o un missile guidato, costituito da due soli componenti A a B. Supponiamo che il sistema funzioni solo se entrambi i componenti funzionano. In pratica, solo una certa frazione di esemplari di A e di B (rispettivamente Ra e Rb) funzionerà effettivamente. Pertanto, solo Ra degli esemplari del sistema non si guasterà per colpa di A; e di questi, se i due componenti si comportano indipendentemente, solo la frazione Rb non si guasterà per colpa di B. Per cui, se per es. Ra=Rb=R=0,99, solo 0,99 × 0,99=0,98 degli esemplari del sistema posti in uso risponderà correttamente alla funzione richiesta, ossia l'a. del sistema è Rs=0,98. Se però quest'ultimo è composto da un numero elevato di componenti, diciamo 300, tutti caratterizzati da una stessa a. R=0,99, appena lo 0,05=0,99300 dei sistemi provati funzionerà correttamente! Questo semplice calcolo spiega il motivo per cui la totalità dei sistemi di guida e controllo delle famose bombe tedesche V-1, costituiti da un numero elevato di componenti, non funzionò correttamente, pur essendo il tutto realizzato col massimo impegno possibile.
La formula utilizzata per questo semplice, quanto significativo calcolo dell'a. di questo modello di sistema (detto 'serie' o 'catena'), è nota come regola del prodotto. Essa fu pubblicata per la prima volta dal matematico svizzero J. Bernoulli (1654-1705), ma solo alla fine degli anni Quaranta ne furono evidenziate le sorprendenti deduzioni concernenti l'a. di grandi sistemi 'serie'. Se, per es., si volesse che il sistema considerato prima, nonostante i suoi 300 componenti, avesse un'a. almeno pari a 0,90, invece di 0,05, allora dalla regola del prodotto si dedurrebbe immediatamente che ogni componente dovrebbe avere un'a. almeno pari a R=0,90(1/300)=0,99965. In altri termini, ciascun componente dovrebbe essere tratto da una popolazione che avesse solo 35 esemplari difettosi ogni 100.000. Anche se la regola del prodotto solo raramente trova in pratica le condizioni di piena applicabilità, tuttavia essa fornisce un'efficace immagine del tipo di problemi di cui si occupa l'affidabilità.
I fondamenti metodologici. - La vasta letteratura esistente sugli aspetti statistici, probabilistici, matematici e tecnologici dell'a. indica quanto ampi siano diventati, in pochi anni, sia i suoi confini metodologici che i suoi orizzonti applicativi. Tuttavia, anche rinunziando in parte al consueto formalismo matematico, è possibile tracciare un 'percorso logico' tra i principali problemi dell'a. che consenta di comprenderne unitariamente i contenuti, le finalità, ma soprattutto di delinearne i fondamenti metodologici radicati sul terreno dei modelli statistici.
Unità riparabili. − In realtà le unità tecnologiche riparabili sono molto più diffuse di quelle 'a un sol colpo' come le V-1. Le prime però presentano leggi di guasto più complesse, che spesso richiedono l'uso di modelli di processi stocastici non-stazionari. Questi modelli servono per interpretare l'evoluzione del numero N(t) dei guasti di una generica unità funzionante in un prefissato intervallo di tempo (0, t). Se con X1, X2, ... indichiamo rispettivamente l'intervallo di tempo sino al primo guasto, tra il primo e il secondo, e così via, l'età tn corrispondente al guasto n-esimo è data da tn=¨Xi per i che va da 1 a n. Gli intervalli Xi hanno di norma distribuzioni statistiche differenti, per cui risulta che il tempo atteso tra due guasti successivi dipende dai due rispettivi numeri d'ordine.
Un parametro d'interesse fondamentale, anche per il campo della ma nutenzione, è il numero 'atteso' (ossia medio) di guasti nell'intervallo (0, t), detto come media del processo, che risulta essere M(t)=E[N(t)]=Σ{n Pr[N(t)=n]}=ΣFn(t) (per n che assume tutti i valori interi da 1 in poi) grazie alla relazione esistente tra la distribuzione di probabilità di N(t) e quella di tn indicata con Fn(t)=Pr(tn〈t). Per dedurre questa fondamentale relazione si deve innanzitutto osservare che vale la seguente semplice identità tra probabilità: Pr[N(t)〈n]=Pr[tn>t]=1-Fn(t). D'altro canto, si ha che Pr[N(t)〈n+1]=Pr[N(t)=n]+Pr[N(t)〈n] da cui, utilizzando la precedente identità, si ottiene la relazione cercata: Pr[N(t)=n]=Pr[N(t)〈n+1]− Pr[N(t)〈n]=Fn(t)−Fn+1(t).
Sfruttando il fatto che la differenza M(t+Δ)−M(t) fornisce il numero atteso di guasti nell'intervallo Δ, risulta utile introdurre la funzione m(t)=[M(t+Δ)−M(t)]/Δ, per Δ infinitesimo. Questa funzione indica la variazione istantanea del numero atteso di guasti in Δ in funzione dell'età del sistema. Poiché in pratica è plausibile ritenere che la probabilità di più di un guasto in Δ decresce in ragione di Δ2, il numero atteso di guasti in Δ risulta essere Pr(1)+0(Δ2) e quindi la funzione m(t) può anche essere interpretata come densità di probabilità di guasto (a meno di infinitesimi di ordine superiore a Δ). Per tale motivo essa è detta anche funzione densità (o intensità) del processo. Ovviamente, dalla sua stessa definizione, risulta che m(t) è la derivata rispetto al tempo della funzione M(t) e quindi è uguale a Σfn(t), con n=1, 2,...., ove fn(t) indica la densità di probabilità di tn.
Sulle relazioni precedenti è basata la seguente equazione fondamentale che lega la media del processo, M(t), e la funzione di distribuzione del primo guasto F1(t)=Pr(t1=X1〈t):
in cui M(t−XX) indica il numero medio di guasti in (0, t−X) di un'unità rimessa in funzione subito dopo il primo guasto.
In molti casi reali risulta perfettamente adeguato il modello di processo stocastico Non-Omogeneo di Poisson (NOP) con funzione media di tipo Weibull M(t)=(t/a)b, con a e b parametri incogniti da stimare statisticamente. Di solito questo particolare modello NOP si adatta bene a interpretare l'evoluzione del numero atteso di guasti di unità tecnologiche che, una volta guaste, vengono riparate ripristinando sostanzialmente le stesse caratteristiche funzionali possedute immediatamente prima del guasto. Ciò è rispecchiato nell'andamento continuo della funzione m(t) del processo. Se invece l'operazione di ripristino ristabilisce proprio le caratteristiche iniziali, ossia quelle possedute dall'unità al tempo t=0, risulta più adeguato un modello di processo detto di rinnovo (RN) per il quale risulta M(t−X|X)=M(t−X) nella [1], che in questo contesto è nota col nome di equazione fondamentale del rinnovo. Coerentemente con quanto detto, questo tipo di processo è caratterizzato da una funzione m(t) di norma discontinua in corrispondenza di ogni guasto cui segue un 'rinnovo' che, come detto prima, ne riporta il valore al livello assunto al tempo t=0. Per es., il modello NOP può essere scelto per descrivere il processo di guasto del sistema 'autovettura' che di solito non viene rimessa a nuovo ogni volta che si guasta, subendo invece solo interventi limitati alle parti in avaria. Il modello RN può invece essere scelto per interpretare il processo di guasto di quei componenti, anche della stessa autovettura, che una volta guasti vengono totalmente sostituiti, realizzando così delle perfette operazioni di rinnovo.
Le differenti caratteristiche dei processi NOP e RN diventano ancor più evidenti se si guarda agli intervalli di tempo tra guasti successivi: solo nel secondo caso essi presentano la stessa funzione di distribuzione statistica, F(t), e quindi ha senso parlare di tempo medio tra guasti successivi senza specificarne i due relativi numeri d'ordine. A ciò fa ovviamente eccezione il caso in cui i due tipi di processo coincidono avendo entrambi come funzione m(t) una stessa costante a>0. In questo caso il modello di processo è quello ben noto di Poisson omogeneo, caratterizzato da: numero N(t) di guasti in (0, t) distribuito con funzione di probabilità poissoniana Pr{N(t)=k}=exp(−a t)(a t)k/k!; da funzioni m(t)=a e M(t)=a t; e da tempi tra guasti successivi egualmente distribuiti secondo il modello esponenziale F(t)=1-exp(−a t), cui corrisponde un tempo medio tra guasti pari a 1/a (noto nella letteratura anglosassone come MTBF, Mean Time Between Failures).
Unità non riparabili. − Per le unità non riparabili il numero, N(t), può ovviamente assumere solo i valori 0 e 1. Il primo è assunto con probabilità 1−F(t) mentre il secondo con probabilità F(t), essendo questa la funzione distribuzione della mortalità dell'unità interessata. Di conseguenza, dalla definizione di media di processo, si deduce immediatamente che M(t)=F(t) e quindi m(t)=f(t), ove quest'ultima è la densità di probabilità di guasto. Allo stesso risultato si giunge pure dalla [1] essendo M(t-X|X) identicamente nulla. In questo caso la funzione a. che indica la probabilità di sopravvivenza al tempo di missione t a partire da una certa età t0 (ossia la probabilità di N(t)=0) risulta essere semplicemente
Per le unità non riparabili riveste un'importanza applicativa notevole la formulazione matematica del concetto di densità di rischio di guasto. Partendo dalla semplice considerazione che rischia di guastarsi nell'intervallo di tempo Δ solo l'unità che non è ancora guasta all'inizio di Δ, giungiamo facilmente a formulare il rischio di guasto medio in Δ come la probabilità di guasto in Δ condizionata alla sopravvivenza all'inizio di Δ: H(t)=[F(t+D)−F(t)]/R(t). Con riferimento a più esemplari di una stessa unità, ciò rappresenta la frazione di unità guastate in Δ rapportata alla frazione di quelle ancora funzionanti all'inizio di Δ. Il rapporto H(t)/Δ, per Δ infinitesimo, rappresenta proprio la densità di rischio di guasto richiesta, che risulta essere h(t)=[dF(t)/dt]/R(t)=f(t)/R(t), ove la derivata di F(t) scaturisce per definizione dal limite del rapporto incrementale di F(t). Riformulando il secondo termine di questa relazione giungiamo all'equazione differenziale h(t)=−dln[R(t)]/dt, che integrata nel generico intervallo (t0, t0+t) fornisce l'equazione:
cui sono concettualmente riconducibili tutti i modelli di a. di unità non riparabili. Lo studio empirico (per t0=0) della funzione h(t), talvolta nota come tasso di guasto, forza di mortalità o tasso di rischio, ha mostrato come questa funzione abbia di norma andamenti diversi a seconda dei periodi di vita dell'unità e dei corrispondenti tipi di guasto. La stessa funzione h(t), utilizzata in biometria, distingue l'infanzia, la maturità e la vecchiaia di un essere vivente.
Modelli di affidabilità. - Il meccanismo di guasto influenza direttamente la forma della funzione h(t) e quindi anche quella della funzione a. R(t|t0), legata alla prima dalla relazione [2]. Quindi, esiste potenzialmente un numero grandissimo di modelli di a. tra cui identificare quello corrispondente al caso in esame. La scelta è in pratica semplificata dall'esistenza di vari modelli precostituiti tra cui scegliere quello da sottoporre a test di ipotesi. Nell'ipotizzare un modello di a. è di grande aiuto la considerazione della sua coerenza col tipo e/o meccanismo di guasto in esame. Per es. il modello esponenziale può essere ipotizzato quando si hanno motivi sufficienti per ritenere che i guasti costituiscono eventi la cui probabilità non è condizionata dall'età. Infatti, il modello esponenziale R(t)=exp(−a t) è tale da fornire la stessa probabilità di sopravvivenza, all'intervallo di tempo t, qualunque sia l'età iniziale t0: R(t|t0)=R(t+t0)/R(t0)=exp[−a (t+t0)]/exp(−a t0)=exp(−a t). Di conseguenza la vita media, sia originaria che residua, caratteristica di questo modello, è sempre uguale allo stesso valore 1/a. Il fatto che quest'ultimo coincida anche con l'MTBF del processo omogeneo di Poisson, è all'origine di varie confusioni e fraintendimenti molto frequenti nelle applicazioni. Infine, si noti che il modello esponenziale è ovviamente coerente anche con l'osservazione, citata in precedenza, secondo la quale l'andamento empirico della funzione h(t) è costante in corrispondenza di fenomeni di mortalità originati da cause accidentali, ossia indipendenti per definizione dall'età.
Altre volte, invece di scegliere il modello di a. si può tentare di costruirne uno ad hoc, purché siano disponibili sufficienti informazioni sul meccanismo di guasto interessato. Consideriamo, per es., una certa unità che durante il funzionamento è sottoposta a sollecitazioni impulsive, che si verificano nell'intervallo di tempo Δ indipendentemente tra loro e con probabilità, b Δ, proporzionale all'ampiezza dell'intervallo. Se inoltre l'unità resiste a tali sollecitazioni con probabilità p(t) dipendente dall'età t, l'a. riferita al tempo t+D è data da R(t+Δ)=R(t) {(1-b Δ)+(b Δ) p(t) + (b Δ)2 [p(t)]2 + ............} da cui è facile estrarre il rapporto [R(t)−R(t+Δ)]/[Δ R(t)] il cui limite per Δ infinitesimo fornisce, per definizione, la funzione tasso di guasto h(t)=b [1-p(t)]. Nota questa funzione la relazione [2] fornisce il modello di a. cercato.
Stime statistiche non parametriche. - Se si vuole stimare l'a. di una determinata unità e non si dispone di alcuna informazione o esperienza precedente sul meccanismo di guasto che la colpisce, non c'è altro da fare che 'interrogare statisticamente' lo stesso fenomeno di guasto, facendolo evolvere in N esemplari dell'unità. Questi esemplari, messi a funzionare indipendentemente e in condizioni reali o simulate di esercizio, forniranno prima o poi una risposta in termini dei rispettivi tempi di guasto.
Se le unità sono riparabili, si può dividere il tempo totale di osservazione in più intervalli, sufficientemente piccoli, e stimare per ciascuno di questi il valore mi della funzione densità m(t) quale rapporto tra il numero di guasti osservati nell'intervallo e il numero di esemplari 'a rischio' presenti all'inizio dello stesso. Dall'insieme di valori mi, stimati per ciascun intervallo Δi, si possono dedurre le stime della funzione media M(ti)=Σ(mi Δi) ove ti è l'estremo superiore (misurato dall'origine) dell'i-esimo intervallo e la sommatoria è estesa dal primo intervallo sino all'i-esimo incluso. Tutte le stime ottenute sono quindi riunite per tracciare rispettivamente gli istogrammi delle funzioni m(t) e M(t).
Se le unità non sono riparabili, si può disporre di un campione di al più N determinazioni sperimentali (supposte indipendenti) della variabile aleatoria 'lunghezza di vita' t. Una volta ordinate le determinazioni in senso crescente con un numero d'ordine i da 1 a N, si può calcolare una statistica del tipo i/N. Questa, rappresentando la frazione dei guasti osservati sino al tempo i-esimo, costituisce una stima della funzione F(t) per t=ti. Ripetendo il calcolo per tutte le ti, e sfruttando i legami funzionali tra F(t), R(t), f(t) e h(t), è possibile disegnare gli istogrammi di tutte queste funzioni.
Tutti gli istogrammi ottenuti, per le unità sia riparabili che non, costituiscono altrettante immagini della corrispondente legge di mortalità, fornite dallo stesso fenomeno di guasto in studio.
Questo metodo di inferenza può essere esteso anche al caso di campioni comunque censurati, ossia che presentano esemplari ritirati dal funzionamento (ancora integri) sia durante la prova che dopo il k-esimo e ultimo guasto osservato (con k〈N), ovvero allo scadere di un prefissato periodo di tempo di osservazione. Infatti, considerando, per es., il caso di unità non riparabili, se Ni indica il numero di esemplari integri e funzionanti sino ad appena prima dell'inizio dell'intervallo di tempo Δi, tra il tempo di osservazione dell'(i-1)esimo guasto e quello ti del successivo, la stima della funzione h(t) per t compreso in Δi, è 1`(Ni Δi). Da questa si deduce la stima dell'integrale H(tj) della funzione h(t), per t=tj, quale sommatoria Σ(1`Ni) estesa sino all'intervallo j-esimo. Quindi, infine, la stima della funzione a. risulta, dalla [2], essere semplicemente R(tj)=exp[−H(tj)].
In linea di principio, i metodi non parametrici sono quelli più attendibili, in quanto sono fondati esclusivamente su informazioni sperimentali attinte direttamente dal fenomeno in esame. Sono però anche quelli più costosi in termini di numero di esemplari da impiegare in esperimenti di durata.
Oltre a stimare, per es., la funzione media per i sistemi riparabili e l'a. per quelli non riparabili, i metodi non parametrici consentono di formulare, per la fenomenologia di guasto osservata, molte altre inferenze statistiche in termini di: confronto tra più modelli di mortalità; bande di fiducia e test d'ipotesi di uno specifico modello; tipologia della funzione tasso di guasto; derivata rispetto al tempo della 'a. di missione' di un'unità riparabile, ecc.
Quest'ultimo tipo di inferenza costituisce un esempio particolarmente interessante per essere semplice quanto efficace per diagnosticare, tra l'altro, il cosiddetto fenomeno di 'crescita' o comunque di deriva dell'a. di un sistema riparabile, soggetto a una specifica politica di manutenzione. La peculiarità di quest'inferenza è quella di essere fondata sull'osservazione degli intervalli, tra guasti successivi, nello stesso ordine in cui essi si sono verificati. La logica d'analisi seguita è la seguente: se il valore medio dei tempi di guasto, conteggiati dall'origine, è significativamente minore della metà del tempo massimo osservato, vuol dire che i guasti sono più frequenti nella prima metà del periodo di vita studiato e, quindi, sulla base dei dati sperimentali analizzati, l'ipotesi di crescita dell'a. non può essere respinta. Questo test d'ipotesi è noto in letteratura come test di Laplace.
Stima dei parametri di un modello di mortalità. - Se si suppone noto il tipo di modello matematico che descrive il fenomeno di mortalità in studio, resta tuttavia da risolvere il problema della stima dei corrispondenti parametri incogniti. Per vari tipici modelli di mortalità questo problema è stato già risolto; da qui la convenienza di riferirsi a detti modelli tutte le volte che ciò non costituisca una forzatura, implicando approssimazioni non trascurabili proprio nell'interpretazione dello specifico meccanismo di guasto in studio. Una volta operata la scelta e stimati i parametri incogniti, il modello deve superare i consueti test d'ipotesi. Ciononostante, la scelta di un modello resta sempre una decisione 'personale', specialmente per quanto concerne la sua adozione al di fuori del campo in cui è stato possibile reperire dati sperimentali, cui solo possono riferirsi i test statistici.
Esistono molti metodi di stima la cui scelta va attentamente vagliata, caso per caso, anche in rapporto all'effettiva disponibilità dei corrispondenti stimatori in una forma matematica trattabile, ossia praticamente utilizzabile. Tra i più impiegati in pratica sono gli stimatori detti lineari-grafici perché sono fondati sull'uso di particolari statistiche legate ai parametri da stimare da relazioni lineari che risulta utile rappresentare mediante opportuni grafici. Per es., per unità riparabili per cui è valida l'ipotesi di modello NOP con funzione media del tipo Weibull, già citato in precedenza, vale la relazione ln[M(ti)]=b ln(ti)−b ln(a), in cui M(ti) è la statistica non parametrica definita nel precedente paragrafo e a e b sono i due parametri incogniti stimabili col consueto metodo dei minimi quadrati. Analogamente, per unità non riparabili per le quali per es. è valida l'ipotesi di distribuzione di mortalità Weibull, vale la relazione ln(ti)=b l{ln[1`(1-(i`N))]}+ln(a). A differenza di prima qui le ti rappresentano le durate di vita degli esemplari provati; a e b i parametri di scala e forma, della distribuzione Weibull, da stimare; i`N la statistica non parametrica proposta in precedenza, cui però si preferiscono altre, di significato meno immediato ma più corrette, quali i`(N+1) o (i-0,5)`N. Anche questa volta è il metodo dei minimi quadrati che fornisce la stima di b e quella indiretta di a.
Molto apprezzati sono gli stimatori di massima verosimiglianza che, per le unità non riparabili, forniscono come stime dei parametri incogniti quei valori che rendono massimo il prodotto L=f(t1) f(t2) ...... f(tN), detto verosimiglianza, in cui la f(t) è il modello di densità di probabilità di cui si vogliono stimare i parametri e le t1, ..., tN sono le N determinazioni sperimentali indipendenti, della variabile aleatoria lunghezza di vita, registrate per N esemplari provati sino al guasto. La logica seguita è basata semplicemente sulla considerazione secondo la quale la legge di mortalità della popolazione di appartenenza degli esemplari provati deve 'verosimilmente' essere tale da presentare la massima densità proprio sull'intervallo di tempo in cui si è effettivamente registrata la mortalità. Purtroppo non sempre questi stimatori sono formulabili in forma esplicita, richiedendo spesso l'uso di particolari procedure iterative di calcolo. Tali procedure sono, per es., necessarie per la stima dei parametri a e b della distribuzione Weibull. Invece, sempre a titolo esemplificativo, questo metodo conduce al semplice stimatore k`[Σti+(N-k) tk] per il parametro a, della distribuzione di mortalità esponenziale, sulla base delle k durate di vita osservate su un campione di N>k esemplari, nell'ambito di una prova censurata al k-esimo guasto. È interessante notare come l'inverso di questo stimatore non è altro che la somma di tutti i tempi di buon funzionamento, osservati su tutti gli esemplari in prova, divisa per il numero dei guasti registrati; cioè concorda col fatto che 1/a esprime proprio il tempo medio al guasto di una popolazione di esemplari che seguono una legge di mortalità esponenziale. Per le unità riparabili, il principio di stima non cambia dovendo solo porre attenzione al fatto che, in generale, i relativi N tempi di guasto successivi, ti, non sono indipendenti. Per cui, considerando che in questo caso la densità di probabilità di guasto è di norma condizionata all'età posseduta dall'unità al momento del guasto precedente, la funzione di verosimiglianza risulta essere L=f(t1) f(t2|t1) ..... f(tN|tN−1). È però interessante notare, per es., che per il processo NOP con funzione intensità Weibull, a differenza di quanto capita per l'omonimo modello di distribuzione, gli stimatori di massima verosimiglianza risultano essere espressi in forma esplicita b=N`Σln(tN`ti) e a=tN`N(1`b) e costituiscono anche delle statistiche sufficienti, ossia che sfruttano tutta l'informazione contenuta nel campione di dati sperimentali.
Non sempre si può disporre di congrui campioni statistici, sui quali fondare delle stime classiche, cui corrispondano livelli di incertezza sufficientemente piccoli affinché le stesse possano essere di pratica utilità. Quando alla scarsità di dati sperimentali, ridotti talvolta anche a sole poche unità, si abbina una disponibilità di altro tipo di conoscenze sui parametri da stimare, possono risultare utili gli stimatori detti bayesiani (in alternativa a tutti gli altri detti classici). Questa peculiare situazione è in campo tecnologico molto più frequente di quanto si possa ritenere a prima vista. Infatti i sistemi tecnologici sono, per loro natura, un prodotto di studi e progetti da parte di persone che finiscono per acquisire conoscenze molto precise sul valore numerico di alcune variabili, caratterizzanti la 'loro creatura', le quali sono più o meno esplicitamente legate ai parametri da stimare. Spesso ciò è sufficiente per anticipare almeno i limiti degli intervalli in cui necessariamente devono trovarsi i valori dei parametri della funzione di sopravvivenza da stimare. In sintesi, allorché si disponga di un'effettiva e attendibile informazione a priori (rispetto ai dati di campionamento), i metodi bayesiani utilizzano quest'ultima per formulare le distribuzioni, dette a priori, dei parametri incogniti. Queste distribuzioni vengono combinate con i dati di campionamento per ottenere delle nuove distribuzioni, dette a posteriori, le quali incorporano per loro natura entrambi i tipi d'informazione disponibile. La media (o la moda o la mediana) di queste distribuzioni forniscono le richieste stime parametriche puntuali, mentre i loro percentili forniscono i cosiddetti limiti di fiducia bayesiani.
Profilo di missione. - In precedenza, quando si sono esaminati dati rilevati su più esemplari, si è sempre supposto che questi funzionassero in condizioni omogenee, ossia conformi allo stesso modello statistico di profilo di missione. Il profilo di missione (PM) è definito da un insieme di fattori come livelli di sollecitazione sopportati dall'unità, condizioni ambientali, tipo di utenza e così via, i quali abbiano un effetto significativo sulla durata dell'unità stessa. Sorgono pertanto due problemi principali: identificare i fattori significativi del PM e stimarne gli effetti sull'a. dell'unità. Per risolvere entrambi i problemi, col minore impegno sperimentale possibile, è spesso molto utile programmare le prove secondo un piano statistico di esperimenti e analizzarne i risultati con specifiche tecniche come quelle di analisi della varianza. Con queste procedure sperimentali si ottengono di norma risultati molto attendibili, soprattutto perché non si perde l'indipendenza delle risposte dei singoli esemplari in prova e si evita di attribuire a un fattore sotto controllo l'effetto dovuto invece a uno o più fattori secondari non controllati.
Stima statistica di affidabilità molto elevate. - Esistono settori tecnologici, quali il nucleare o l'aerospaziale, nell'ambito dei quali è necessario garantire e dimostrare che la probabilità di alcuni guasti (o inaffidabilità) sia, per es., inferiore a 10−7. Pertanto, da una parte esiste la necessità di una verifica sperimentale e dall'altra esiste la difficoltà di effettuarla, perché è difficile osservare un numero sufficiente di guasti in unità progettate proprio per guastarsi, per es., non più di una volta ogni 10 milioni di volte!
Una maniera per risolvere l'apparente circolo vizioso è quella di utilizzare un piano di esperimenti accelerati. Tale tecnica consiste essenzialmente nel provocare i fenomeni di guasto sottoponendo le unità a un profilo di missione ben più gravoso di quello di esercizio e verificando che quest'ultimo sia tale da garantire il necessario 'sottosfruttamento' funzionale dei componenti interessati. Quindi, in generale, devono essere risolti tre differenti sottoproblemi: a) individuare la tecnica di accelerazione che non alteri il tipo di meccanismo di guasto da studiare; b) stimare la distribuzione di mortalità accelerata; c) estrapolare da questa quella di normale esercizio.
Un'altra soluzione possibile, per es. nel caso di componenti prodotti in grandi serie, è quella di procedere a prove raggruppate. Si tratta di programmare N esperimenti, ciascuno costituito da una prova di durata condotta simultaneamente su n esemplari, arrestando ogni volta la prova appena il più debole del gruppo ha manifestato il guasto. Sulla base degli N dati registrati è possibile stimare la distribuzione di mortalità 'dei più deboli', ossia la funzione di distribuzione della variabile Y=min{t1, t2, ....., tn}, tanto più facilmente osservabile quanto maggiore è l'ampiezza n dei singoli campioni. Dalla distribuzione di Y può infine essere dedotta per 'trasformazione' quella della durata t, caratteristica dell'intera popolazione.
Dall'affidabilità dei componenti a quella dei sistemi. - I metodi statistici dell'a. esposti in precedenza sono applicabili a tutte le unità, sia sistemi completi che componenti elementari. Talvolta, però, capita di dover valutare l'a. (o l'inaffidabilità) di un sistema potendo disporre solo di stime di a. riguardanti i suoi componenti. È questo il caso di sistemi complessi, come i vettori spaziali o gl'impianti industriali, costruiti (o da costruire) in pochi o addirittura in un solo esemplare. In generale, per calcolare l'inaffidabilità di questi sistemi se ne devono prima individuare le possibili modalità di guasto e poi si deve valutare la probabilità che se ne verifichi almeno una applicando le regole del calcolo delle probabilità.
Tra i sistemi statici (ossia a configurazione logico-funzionale fissa) consideriamo l'esempio classico di quello parallelo costituito da due sole unità, a e b, di cui una ridondante, perché ne basta una sola per assicurare la funzione richiesta. In questo caso si ha una sola modalità di guasto, che è ovviamente costituita dal guasto simultaneo di entrambi i componenti, per cui l'inaffidabilità è data da Pr (guasto di a e b). Se invece il sistema statico è di tipo serie ossia catena, le modalità di guasto sono tante quanti sono i componenti del sistema e l'inaffidabilità di quest'ultimo risulta essere Pr (almeno uno guasto)=1-Pr (tutti funzionanti), ove quest'ultima probabilità è facilmente calcolabile con la regola del prodotto, citata in precedenza, solo se il funzionamento corretto di ciascun componente costituisce un evento stocasticamente indipendente dai rimanenti.
Tra i sistemi dinamici (ossia a configurazione logico-funzionale variabile) è interessante considerare l'esempio elementare costituito da un componente a, attivo, più un altro, b, in attesa di funzionare non appena il primo si guasta. In questo caso, con riferimento a un tempo di missione t, le modalità di guasto sono infinite perché infiniti sono gli istanti T, compresi in (0, t), in cui a può guastarsi e b intervenire senza completare la restante parte (t-T) della missione. Se fa(t) è la densità di probabilità di guasto di a e Fb(t) la funzione di distribuzione della vita di b, l'inaffidabilità del sistema è data dall'integrale ∫fa(T) Fb(t-T) dT esteso tra 0 e t.
Per i sistemi più complessi, di tipo statico, risultano utili le tecniche della regola di Bayes e degli alberi dei guasti; per quelli di tipo dinamico sono efficaci modelli di analisi come quelli markoviani, particolarmente utili per risolvere problemi di dipendenza stocastica e per affrontare anche l'analisi della disponibilità.
Progettazione e miglioramento dell'affidabilità. - Si può dire che finché le unità interessate non 'si accorgono' dell'esistenza dell'a., nel senso che non se ne giovano perché non subiscono alcun miglioramento, le tecniche di stima dell'a. risultano fini a se stesse ovvero servono unicamente come strumento (pur indispensabile) di verifica del livello di a. già esistente. Viceversa la stima dei modelli di mortalità serve anche, o soprattutto, a comprendere meglio i processi di guasto, per individuarne i fattori inibitori da elevare o introdurre, nelle unità, sotto forma di modifiche sia intrinseche (di progetto, di scelta dei materiali, ecc.), sia estrinseche (del processo produttivo, delle specifiche d'uso, ecc.). A livello di sistema è per es. determinante la scelta della configurazione logico-funzionale che, a parità di funzioni tecnologiche svolte, assicuri la massima a. possibile.
In questo contesto emergono anche tutti i problemi di economia dell'a., che, pur sembrando i meno critici, risultano invece quelli più diffusi e decisivi per la stessa riuscita dei progetti nell'ambito della moderna competizione di mercato.
Per rendersi conto, concretamente, di quanto essi siano importan ti, basta considerare che il costo C dell'a. cresce con legge iperbolica del tipo C=K`(1-R). Quindi, se, per es., si dovesse realizzare un sistema di a. R=0,99, utilizzando una sola unità si pagherebbe un costo C=100K. Se invece si reperissero due unità uguali, a e b, che offrissero singolarmente la stessa funzione ma con a. più bassa Ra=Rb=0,90, disponendole in parallelo (e con funzionamento indipendente) si realizzerebbe un sistema con la stessa a. Rs=0,99 ma di costo pari a 2 × 10K, ossia di ben l'80% inferiore al precedente.
D'altra parte è molto importante decidere anche quale debba essere il livello di a. più conveniente di un sistema al fine di minimizzarne il costo per ciclo di vita (CCV). Infatti con l'aumentare del livello di a. intrinseca del sistema il suo costo di realizzazione aumenta, contrariamente al suo costo di gestione che diminuisce per la riduzione sia del numero di interventi riparatori e sia dei danni derivanti direttamente dalle interruzioni del servizio reso. Va peraltro considerato che un ulteriore problema economico-statistico è costituito proprio dal fatto che gli investimenti di risorse da riservare all'a. di un sistema devono essere decisi per tempo, poiché essi risultano efficaci solo se avviati nelle primissime fasi di sviluppo del progetto. Infatti si è potuto constatare che entro il primo terzo dell'intero periodo del suo sviluppo e realizzazione si è mediamente 'congelato' (anche se non ancora speso) circa il 65% dell'intero CCV del sistema.
Bibl.: R. E. Barlow, F. Prochan, Mathematical theory of reliability, New York 1965; D. R. Cox, Renewal theory, Londra 1967; M. L. Shooman, Probabilistic reliability: an engineering approach, New York 1968; B. Gnédenko, Y. Béliaev, A. Soloviev, Méthodes mathématiques en théorie de la fiabilité, Mosca 1972; N. R. Mann, R. E. Schafer, N. D. Singpurwalla, Methods of statistical analysis of reliability and life data, New York 1974; R. E. Barlow, F. Prochan, Statistical theory of reliability and life testing - Probability models, ivi 1975; A. J. Gross, V. A. Clark, Survival distributions: reliability applications in the biomedical sciences, ivi 1975; D. K. Lloyd, M. Lipow, Reliability: management, methods and mathematics, Redondo Beach 1977; L. J. Bain, Statistical analysis of reliability and life-testing models: theory and methods of lifetime data, New York 1982; H. F. Martz, R. A. Waller, Bayesian reliability analysis, ivi 1982.