PROBABILITÀ, Calcolo delle (XXVIII, p. 259; App. II, 11, p. 611)
Tutta la moderna scienza del reale è imbevuta di "probabilità" e gli sviluppi di questi ultimi sessant'anni hanno ampiamente dimostrato la potenza di penetrazione, nei più diversi campi d'indagine, degli schemi probabilistici. Si tratti di biologia o di controllo di qualità, di gestione industriale o di fisica teorica, di chimica o di piani militari, non è più lecito per gli operatori ignorare l'apporto fondamentale dato, al loro campo di ricerca, dalla moderna teoria delle p., la quale ha ormai completamente assorbito la statistica teorica (G. Castelnuovo, D. Dugué) ed è diventata parte fondamentale delle scienze assicurative (F. P. Cantelli, H. Cramer, B. de Finetti, G. Ottaviani).
Diamo qui un aggiornamento sui tre capitoli che hanno avuto un maggiore sviluppo e cioè: I) Teoria delle variabili casuali; II) Teoria delle rilevazioni parziali; III) Piano degli esperimenti; ma occorre subito aggiungere che varî altri importanti argomenti sono stati trattati tra cui, oltre i sempre nuovi "modelli stocastici", è necessario almeno ricordare: a) la teoria delle "mutabili casuali " (C. Gini, L. Galvani, M. Fréchet, R. Fortet, D. Dugué), che assumono, come determinazione, un "elemento" di natura qualunque (per es.: una funzione, una curva, un insieme di punti, ecc.) e che, quando questo "elemento" è una k-pla ordinata di numeri reali, si specializzano nelle "variabili casuali"; b) la teoria delle "decisioni" (A. Wald, B. de Finetti), articolata in varî argomenti, di alcuni dei quali si parla nella voce operativa, ricerca, in questa App.
I. - Teoria delle variabili casuali. - La teoria delle variabili casuali (abbrev. v. c.) ha avuto sviluppi grandiosi; ci limiteremo ad alcuni cenni sulle principali direttrici di sviluppo della teoria stessa. È continuata la ricerca di teoremi asintotici relativi alla somma di v. c. indipendenti, tra cui, degno di particolare rilievo, è quello che prende il nome di "legge di Kolmogoroff-Smirnoff". Si sono inoltre approfondite le ricerche sulle relazioni tra v. c. dipendenti sia attraverso la teoria della connessione e della concordanza (C. Gini, T. Salvemini, M. Fréchet, G. Dall'Aglio, G. Landenna, V. Castellano) sia attraverso la teoria della regressione (C. Bonferroni, G. Darmois, G. Pompilj, S. Rios, G. Dall'Aglio, A. Scapaticci, V. Levis). Notevole sviluppo hanno poi avuto le ricerche sulla classificazione delle v. c. Alcune di queste ricerche mirano a caratterizzare le v. c. di alcuni tipi particolari quali per es., quella normale (P. Levy, H. Cramer), quella dei piccoli numeri o di Poisson (V. Raikoff), ecc. Altre ricerche invece tendono a classificare particolari categorie di v. c. e ci limiteremo qui alle v. c. a indipendenza intrinseca e a quelle a regressione interamente pseudolineare. Una v. c. multipla si dice a indipendenza intrinseca se una trasformata affine è a componenti indipendenti (G. Pompilj) e si dimostra immediatamente che, se rispetto a certi assi le componenti sono indipendenti, esse rimangono tali dopo una qualunque traslazione. Sussiste il notevole "teorema degli assi d'indipendenza" (G. Darmois): o gli assi d'indipendenza, a meno di una traslazione sono unici, oppure ne esistono infiniti e in quest'ultimo caso la v. c. è normale. Se in una v. c. doppia tutti i polinomî di regressione, rispetto ad una certa direzione, si riducono ad essere lineari, la v. c. è, rispetto a quella direzione, a regressione pseudo-lineare e si hanno esempî di regressione pseudo-lineare che non è lineare (G. Dall'Aglio); le v. c. a regressione pseudo-lineare rispetto a tutte le direzioni si dicono a regressione interamente pseudo-lineare mentre quelle a regressione lineare rispetto a tutte le direzioni si dicono a regressione interamente lineare; si dimostra che le v. c. a regressione interamente pseudo-lineare sono a regressione interamente lineare (L. Savage); inoltre queste v. c. sono caratterizzate dal fatto che le combinazioni lineari non degeneri delle componenti sono tutte somiglianti tra di loro, a meno di un'affinità (G. Pompilj) (ricordiamo che due v. c. si dicono "somiglianti" quando hanno la stessa funzione di ripartizione).
Già dai soli risultati fin qui citati risulta evidente la grande importanza che, per la teoria generale delle v. c., è venuta assumendo la loro interpretazione geometrica recentemente sfociata nella teoria affine delle v. c. (G. Pompilj) ricca di risultati e di suggestioni; qui ci limitiamo ad accennare solo al concetto di "dimensione" che, per tale via, si è potuto attribuire a quello di "variabilità" definendo per le v. c. k-ple gli indici di variabilità a t(≤ k) dimensioni (G. Pompilj, L. De Lucia, T. Salvemini).
II. - Teoria delle rilevazioni parziali. - La teoria delle rilevazioni parziali si collega (G. Barberi) agli schemi di estrazione in blocco (cioè a caso senza ripetizione) da una o più urne e ha dato luogo a notevoli sviluppi di fondamentale importanza sia teorica sia pratica. Illustreremo qui con qualche dettaglio solo la parte più elementare di questa teoria, in quanto già la conoscenza di questi primi elementi è sufficiente per comprendere le caratteristiche essenziali della problematica connessa alla stima, mediante un campione, di una qualche grandezza. E in particolare tratteremo delle sole stime dirette, secondo lo schema a uno stadio semplice, a uno stadio stratificato e a due stadî semplici.
A) Schema a uno stadio semplice. - Si abbia un'urna U contenente H palline, distinte con i segni x1, x2, ..., xH, tutte alla pari di fronte ad una certa operazione di scelta; con questa operazione si estraggono in blocco dall'urna N palline (0 ≤ N ≤ H) e si esamina il segno che le distingue. In tal modo si definisce una v. c. multipla chiamata v. c. dell'estrazione in blocco, dove la v. c. assume il valore 1 se è stata estratta anche la pallina contrassegnata con xj mentre assume il valore 0 in caso contrario. Dalla definizione stessa della v. c. dell'estrazione in blocco segue che le H v. c. componenti soddisfano alla seguente relazione lineare:
in secondo luogo data la struttura della v. c. &out;oj, sussiste l'evidente identità
e finalmente, a causa della simmetria delle palline dell'urna U di fronte all'operazione di scelta, le H v. c. &out;oj sono tutte somiglianti tra di loro e così pure
v. c. , con i ≠ j, ecc.; dalle sopra ricordate somiglianze seguono le identità:
Siamo ora in grado di calcolare tutti i momenti della v. c. dell'estrazione in blocco. Infatti, elevando a conveniente potenza ambo i membri della [1], passando ai valori medî e ricordando le [3] e le [2], si ottengono successivamente i valori:
Se i segni xj sono numeri reali, non necessariamente distinti, veniamo a definire una massa di dati che, rispetto all'operazione di scelta di una sola pallina dall'urna, origina una v. c. &out;x la cui media e la cui varianza sono date da:
Estraendo a caso, dall'urna U, un blocco di N palline, si ottengono N valori xj1, xj, ... xj la cui media è:
la stessa media si può scrivere in modo più simmetrico, rispetto agli H valori xj, introducendo la determinazione (o1, o2, ...., oH) assunta, nel particolare caso in esame, dalla v. c. dell'estrazione in blocco dove, quindi, oj2 = oj2 = ... = ojN = 1, mentre tutte le altre H − N determinazioni oj sono nulle:
Al variare del gruppo delle N prove la media cm1 del campione varia e descrive una v. c. &out;m1 che, tenendo conto della [6], può così essere scritta esplicitamente:
Interessano la media e la varianza della v. c. &out;m1; e, data la caratteristica struttura delle argomentazioni, non ci limiteremo a riportare le formule, ma ne daremo anche la dimostrazione. Le relazioni che interessano sono le seguenti:
Per dimostrare la prima delle [8] basta calcolare il valor medio dei due membri della [7] e tener presente sia la [4] che la [5]. Per dimostrare la seconda delle [8] occorre calcolare due particolari valori medî, e precisamente prima M e poi M. Tenendo conto della [7] si ha:
dove i valori medî a secondo membro hanno diverso valore a seconda che sia i = j oppure j ≠ j; in base a questa osservazione è facile controllare l'identità:
Moltiplicando infine ambo i membri della [7] per &out;m1 e passando ai valori medî si ha:
dopo di che, tenendo conto della [9], si può scrivere:
D'altra parte σ²&out;m1&144; = M − [M]2 e quindi, per la [10] e per la prima delle [8] (già sopra dimostrata), si ha la seconda della [8]. Sotto convenienti ipotesi, in pratica generalmente soddisfatte, nel 95% dei casi circa sussiste la disuguaglianza:
si può quindi comprendere come, in sede di stima di ù mediante una rilevazione parziale, le esigenze stesse della ricerca impongono a 2σ&out;m1&144; un limite superiore 2θ che viene chiamato errore ammesso. Dal dover essere 2σ&out;m1&144; ≤ 2θ segue σ²&out;m1&144; ≤ θ2, e quindi con facili passaggi, si ottiene la diseguaglianza:
a cui deve soddisfare la numerosità N del campione. Al divergere di H il secondo membro della disuguaglianza [12] aumenta, tendendo rapidamente a σ²&out;x/θ2.
B) Schema a uno stadio stratificato. - Si disponga di k urne U1, U2, ..., Uk contenenti, ordinatamente, H1, H2, ..., Hk palline la cui generica sarà contrassegnata con xi, j(i = 1, 2, ...., k; j = 1, 2, ..., Hi). Da ciascuna urna si estraggono in blocco un certo numero di palline e precisamente dall'urna Ui si estraggono Ni palline. Se i segni xi, j sono numeri reali, non necessariamente disinti, si definisce una massa di dati che, rispetto a ogni urna, dà luogo a una v. c.; e precisamente associa all'urna Ui la v. c. &out;x1 di cui la media e la varianza sono date da:
Posto
possiamo immaginare di porre in un'unica urna U le H palline di cui sopra e definire in tal modo una v. c. &out;x la cui media e la cui varianza sono legate a quelle delle k v. c. &out;x1 dalle relazioni:
Mediante il nostro campione di N unità, scelte in blocco dalle k urne nel modo detto, si vuole stimare la media generale ù. A tale scopo si stimerà anzitutto la media relativa alle singole urne e poi si farà una media ponderata di tale stima, prendendo come pesi le numerosità delle urne stesse. Al variare del campione le stime delle medie relative alle singole urne descrivono, ordinatamente, le v. c. &out;m1(1), &out;m1(2), ...., &out;m1(k), già sopra studiate, e la stima della media generale descrive pertanto la v. c.:
Le k v. c. &out;m1(i), essendo relative ad urne diverse, sono tra di loro indipendenti, inoltre le loro medie e le loro varianze sono date dalle [8] opportunamente adattate. Ricordando che il valor medio di una combinazione lineare è uguale alla medesima combinazione lineare dei valori medî e che la varianza di una combinazione lineare di v. c. indipendenti è uguale alla combinazione lineare delle varianze fatta con i quadrati dei medesimi coefficienti si può subito scrivere:
A parità del numero complessivo N delle estrazioni si può ricercare la ripartizione ottimale N1, N2, ...., Nk che rende minima la varianza σ²&out;m1&144;. In definitiva si perviene alla seguente formula (J. Neyman) la quale dà, nel senso che appresso preciseremo, il valore della numerosità Ni nella ripartizione ottimale:
Sulla [17] bisogna però fare due osservazioni: a) il valore [17] in generale non sarà un numero intero, mentre la numerosità Ni deve esserlo; b) il valore [17] potrebbe essere maggiore di Hi mentre la numerosità Ni non può esserlo. Per quanto riguarda il primo inconveniente si consiglia, nei limiti del possibile, di arrotondare sempre per eccesso il valore non intero [17], anche se così facendo si dovranno eseguire più di N estrazioni; nei casi in cui il valore [17] risultasse maggiore di Hi si procederà, nell'urna i-ma, ad una rilevazione completa (cioè si porrà: Ni = Hi) e le estrazioni che, in tal modo, venissero risparmiate saranno eventualmente ripartite tra le altre urne. Si controlla facilmente che, con la ripartizione ottimale, la stima della media complessiva, a parità di N, è migliore di quella che si otterrebbe con il campionamento ad uno stadio semplice. Se viene inoltre assegnato l'errore ammesso 2θ, le numerosità Ni della ripartizione ottimale, salvo le osservazioni già fatte per la [17], debbono essere ordinatamente non inferiori a:
C) Schema a due stadî semplici. - La situazione è la stessa di quella a uno stadio stratificato, salvo che, invece di tener conto delle stime della media per tutte le k urne, si tiene conto solo delle stime relative a N0 urne, estratte in blocco con un'operazione di scelta rispetto a cui tutte le k urne sono alla pari. L'operazione di scelta delle N0 urne, detta "scelta di primo stadio", definisce una v. c. dell'estrazione in blocco analoga a quella sopra studiata. E infine, indicata con È la numerosità media delle urne (H = kÈ), si definisce la v. c. &out;m1 descritta dalla stima della media complessiva ù con un campionamento a due stadî semplici:
dove naturalmente le v. c. &out;m1(i), e &out;oi sono indipendenti tra di loro.
tutti con la stessa probabilità 1/k, si controlla immediatamente che sussistono le identità:
Nella precedente espressione della varianza σ²&out;m1&144; le graffe sono del tutto inutili, ma le abbiamo messe per dare risalto alle due parti che la compongono, le quali vengono rispettivamente chiamate: "varianza dell'errore di primo stadio" e "varianza dell'errore di secondo stadio". L'errore ammesso 2θ dà luogo all'errore ammesso di primo stadio 2θ1 ed all'errore ammesso di secondo stadio 2θ2, legati tra di loro solo dalla relazione pitagorica: θ²1 + θ²2 = θ2. Una volta fissati θ1 e θ2 il numero N0 delle urne da scegliere nel primo stadio e le numerosità Ni dei campioni da estrarre dalle singole urne soddisfano alle disuguaglianze seguenti:
III. - Piano degli esperimenti. - Anche questo terzo argomento ha avuto sviluppi amplissimi, soprattutto per merito di Sir Ronald A. Fisher e della sua scuola; ma non potremo qui dare che una pallida idea di tali fondamentali ricerche, trattando separatamente i 4 argomenti principali: struttura delle risposte, costruzione dei confronti, disposizione delle esperienze, analisi probabilistica dei risultati.
A) Struttura delle risposte. - I fattori che influiscono sulla risposta a un'esperienza vengono così classificati: I) fattori sperimentali, di cui si vogliono conoscere gli effetti mediante le ricerche sperimentali in programma; II) fattori di stratificazione, che riguardano le caratteristiche delle unità su cui vengono fatte le esperienze; III) fattori subsperimentali, che influiscono sulle risposte, ma non interagiscono con i fattori delle due precedenti categorie (si dice che due fattori interagiscono se l'uno fa sentire la sua influenza sui confronti tra gli effetti delle diverse modalità dell'altro); IV) caso, il quale sta a rappresentare tutto il resto dell'universo che, solidalmente, influisce sulle risposte alle singole esperienze ed inoltre non interagisce con i fattori delle tre precedenti categorie. I fattori si presentano con più modalità, una delle quali rappresenterà, eventualmente l'assenza del fattore stesso. Le combinazioni delle modalità dei fattori sperimentali si chiamano trattamenti, quelle delle modalità dei fattori di stratificazione si chiamano strati e finalmente quelle delle modalità dei fattori subsperimentali si chiamano blocchi. A parità di trattamento, di strato e di blocco si faranno poi più esperienze chiamate replicazioni; le risposte alle replicazioni simili saranno generalmente diverse tra di loro, risentendo dell'influenza del caso. Con opportune medie ponderate si tiene conto dei fattori di stratificazione e possiamo quindi, da questo momento in poi, non prenderli più in considerazione. Se indichiamo con xisr la risposta quantitativa all'r-ma replicazione, fatta col trattamento i-mo nel blocco s-mo, possiamo porre:
dove di è la parte dovuta al trattamento (cioè ai fattori sperimentali), τs quella dovuta al blocco (cioè ai fattori subsperimentali) e ξisr rappresenta l'influenza del caso. Le tre componenti figurano in modo additivo perché, per ipotesi, i fattori sperimentali, quelli subsperimentali e il caso non interagiscono fra di loro. Scopo della ricerca sperimentale è lo studio della componente di, mentre le risposte alle singole esperienze forniscono solo la quantità xisr. Occorre quindi eliminare, o almeno ridurre, il disturbo delle altre due componenti: per ridurre l'influenza della componente τs si ricorre ad un'opportuna disposizione delle esperienze, mentre per ridurre il disturbo della componente accidentale si ricorre ad un'apposita analisi probabilistica dei risultati. Prima di passare a questi nuovi argomenti conviene però esaminare come può essere strutturata la componente di dovuta ai fattori sperimentali. A tale scopo ci riferiremo ad un caso concreto di 3 fattori sperimentali con h, k, e t modalità; e precisamente il fattore A, le cui modalità indicheremo con Ai(i = 1, 2, ..., h), il fattore B, le cui modalità indicheremo con Bj(j = 1, 2, ..., k) e il fattore C, le cui modalità indicheremo con Cl(l = 1, 2, ..., t). La componente dovuta al trattamento AiBjCl può essere così strutturata:
dove la somma rispetto ad un solo indice, dei singoli parametri introdotti, è nulla. Il significato dei parametri che figurano nella [23] è abbastanza ovvio, ma ci soffermeremo un momento a richiamarlo: ã è la media di tutte le hkt componenti dovute ai trattamenti; ai, bj e cl rappresentano le influenze principali dei tre fattori; (ab)ij, (ac)il e (bc)jl rappresentano le influenze delle interazioni a due a due dei tre fattori; e finalmente (abc)ijl rappresenta l'influenza dell'interazione tripla dei tre fattori sperimentali.
B) Costruzione dei confronti. - Conviene a questo punto introdurre un opportuno algoritmo detto delle "graffe" (R. A. Fisher, F. Yates, G. Pompilj). Nel caso dei 3 fattori di cui sopra si è detto con il simbolo {AiBjCl} si intende la media delle risposte al trattamento AiBjCl ottenute in uno stesso blocco, nel quale qui supporremo che siano stati applicati tutti i trattamenti. Questa operazione di graffe soddisfa alle due seguenti condizioni: I) la combinazione lineare di più graffe di trattamenti è uguale alla graffa della combinazione lineare dei trattamenti (e viceversa); II) entro le graffe, per i simboli che rapprentano le modalità dei fattori valgono le stesse regole dell'algebra comune, con l'unica avvertenza che la somma di tutte le modalità di un fattore è uguale al numero 1.
Ne segue in particolare che {AiBj} è la somma delle medie relative a tutti i trattamenti (dello stesso blocco) in cui il fattore A assume la modalità Ai e quello B la modalità Bj. E così pure {Ai} indica la somma delle medie relative a tutti i trattamenti (dello stesso blocco) in cui il fattore A assume la modalità Ai. Si chiama confronto una combinazione lineare delle graffe dei trattamenti, applicati allo stesso blocco, in cui la somma dei coefficienti sia nulla. Nel caso in esame i trattamenti sono hkt e i confronti linearmente indipendenti sono: hkt-1. Tali confronti possono essere così ordinati: h-1 confronti per l'influenza principale delle modalità del fattore A, k-1 per l'analoga informazione su B e t-1 per l'analoga informazione su C, poi (h-1) (k-1) confronti per l'interazione tra i fattori A e B, (h-1) (t-1) per l'interazione tra i fattori A e C, (k-1) (t-1) per l'interazione tra i fatt0ri B e C, finalmente (h-1) (k-1) (t-1) confronti per l'interazione tripla. Se h = k = t = 2 i trattamenti sono 8 e i 7 confronti linearmente indipendenti vengono così indicati:
È facile controllarc che i precedenti 7 confronti soddisfano alla condizione di ortogonalità, nel senso che è nulla la somma dei prodotti dei coefficienti corrispondenti in due qualunque delle precedenti 7 combinazioni lineari.
C) Disposizione delle esperienze. - Si considerano tre tipi di disposizioni: 1) le disposizioni complete, in cui l'esperimento viene condotto in modo completo senza preoccupazioni per gli oneri che ne derivano; 2) le disposizioni ridotte, in cui l'esperimento viene ridotto di dimensione rinunciando, per contropartita, ad alcune informazioni sui fattori sub-sperimentali; 3) le disposizioni incomplete, in cui la dimensione dell'esperimento viene ulteriormente ridotta, rinunciando anche ad alcune informazioni sui fattori sperimentali. Le disposizioni complete consistono nel ripetere lo stesso numero r di volte tutti i trattamenti in ciascun blocco; ma naturalmente non sono sempre realizzabili sia perché l'esperimento potrebbe risultare troppo oneroso, sia perché uno stesso blocco potrebbe non poter contenere tutti i trattamenti. Sono stati studiati varî tipi di disposizioni ridotte (R. A. Fisher, F. Yates, R. C. Bose) ma qui ne ricorderemo solo due: le disposizioni a blocchi ridotti (balanced incomplete block designs) e le disposizioni a scacchiera (latin square, greco-latin squares, hyper-greco-latin squares). Le disposizioni a blocchi ridotti consistono nel ricorrere a blocchi che contengono tutti lo stesso numero di unità (naturalmente inferiore a quello dei trattamenti) in modo tale che per ogni coppia di trattamenti vi sia un certo numero costante k(≥ 1) di blocchi che li contengano. La costruzione dei blocchi ridotti si riconduce alle geometrie finite. Le disposizioni a scacchiera di primo grado sono applicabili solo se vi sono due fattori subsperimentali che non interagiscono tra di loro e che presentano tante modalità quanti sono i trattamenti. In tali condizioni si può in ogni blocco applicare un solo trattamento, avendo però cura che con ogni modalità di ciascun fattore subsperimentale venga fatta una prova per ogni trattamento. Nella fig. 1 è riportata una schematizzazione nel caso di 3 trattamenti A, B e C e di due fattori subsperimentali U e V ciascuno con tre modalità. Le disposizioni a scacchiera di secondo grado sono applicabili solo se vi sono tre fattori subsperimentali che non interagiscono tra di loro e che presentano tante modalità quanti sono i trattamenti. Nella fig. 2 è riportata una schematizzazione nel caso di 3 trattamenti A, B e C e di tre fattori subsperimentali U, V e Z, ciascuno con tre modalità; l'esame di tale schema farà comprendere la struttura delle disposizioni a scacchiera di secondo grado e anche di quelle di grado superiore. La costruzione delle disposizioni a scacchiera è collegata sia ai corpi numerici finiti che alle geometrie finite. Le disposizioni incomplete "conglobano" alcune informazioni sui fattori sperimentali con altre sui blocchi. Nel caso di 3 fattori sperimentali A, B e C, ciascuno con due modalità, si può, per esempio, conglobare l'interazione tripla eseguendo su ciascun blocco di un primo gruppo i 4 trattamenti: A1B1C1, A1B2C2, A2B1C2, A2B2C1, e su ciascun blocco di un secondo gruppo i 4 trattamenti: A2B2C2, A2B1C1, A1B2C1, A1B1C2. In tal modo non sarà possibile avere notizie sull'interazione tripla, ma si potranno avere tutte le rimanenti 6 informazioni.
D) Analisi probabilistica dei risultati. - Scopo di tale analisi è di decidere se i risultati dei confronti di cui sopra si è detto si allontanano da 0 perché c'è un'effettiva influenza dei fattori sperimentali o per colpa del caso, cioè delle componenti accidentali ξisr. Vi sono anzitutto varie difficoltà d'ordine logico - che si superano mediante la teoria della conformità (G. Pompilj) - derivanti dalla non conoscenza delle probabilità a priori; dopo di che è possibile ricorrere a varî schemi che si possono dividere in due gruppi a seconda che si ipotizzi o meno la normalità della v. c. descritta dalle componenti accidentali. Se le componenti ξisr sono distribuite normalmente (con media 0 e varianza σ2), vengono assai usati due particolari indici e precisamente l'indice t di Student (W. Gosset), che porta all'analisi delle medie, e l'indice F di R. A. Fisher, che porta all'analisi della varianza e della covarianza. Se non si fa l'ipotesi della normalità delle componenti accidentali si deve ricorrere ad altri indici di cui il più celebre è l'indice χ2 di Pizzetti-Pearson. Gli indici t, F, χ2 e i numerosi altri che non abbiamo nemmeno nominato descrivono altrettante v. c. di cui è nota la distribuzione e che, nel caso di "significatività", permettono di risolvere il problema sopra accennato attribuendo ai "fattori" la responsabilità dell'allontanamento dei confronti dallo 0; mentre se tale significatività manca, si deve ammettere che l'esperimento, da solo, non consente alcuna conclusione.
Bibl.: F. Yates, The design and analysis of factorial experiments, Imperial Bureau of Soil Science, Harpenden 1937; A. Wold, Sequential analysis, New York 1950; id., Statistical decision functions, New York 1950; O. Kempthorn, The design and analysis of experiment, New York 1952; M. G. Kendall, The advanced theory of statistics, 5ª ed., Londra 1952; C. R. Rao, Advanced statistical methods in biometric research, New York 1952; A. Blanc-Lapierre e R. Fortet, Théorie des functions aléatoires, Parigi 1953; J. L. Doob, Stochastic processes, New York 1953; R. A. Fisher, Design of experiments, 6ª ed., Londra 1956; H. Hansen, W. N. Hurwitz, W. G. Madow, Sample survey methods and theory, New York 1956; W. G. Cochran e G. M. Cox, Experimental designs, New York 1957; R. D. Luce e H. Raiffa, Games and decision, New York 1957; D. Dugué, Ensembles mesurables et probabilisables, Parigi 1958; id., Traité de statistique théorique et appliquée, Parigi 1958; D. Dugué e M. Girault, Analyse de variance et plans d'expérience, Parigi 1959; G. Pompilj e G. Dall'Aglio, Piano degli esperimenti, Torino 1959.