dipendente, variabile
In ambito matematico e fisico grandezza o variabile il cui valore dipende da altre grandezze o variabili. Nei modelli di regressione (➔ regressione, modelli e stimatori di) si distingue tra variabile d., di solito indicata con Y, e un insieme (➔ vettore) di covariate o regressori, di solito indicato con X. La variabile d. è normalmente quella oggetto di interesse, mentre le altre vengono usate come ausilio per comprendere la variabilità di Y o per fare previsioni più precise su di essa. Il fatto che esista una funzione che associa a diversi valori dei regressori valori differenti della variabile d. giustifica il termine ‘dipendente’, anche se in generale la relazione che lega i regressori alla variabile d. è di dipendenza statistica, non necessariamente di casualità in senso stretto. Nel caso di un modello a un solo regressore (con intercetta), vale l’equazione Y=α+βX+U, dove U è invece una componente di errore con media nulla. Tale relazione esprime il legame esistente in media tra Y e X nella popolazione. Così, se si conosce il valore di X, si può predire un valore pari ad α+βX per la variabile d. Y.
Talvolta, i regressori vengono anche chiamati variabili indipendenti, per sottolinearne il diverso ruolo all’interno del modello di regressione. È più corretto, però, parlare di esogeneità dei regressori (➔ endogeno/esogeno), che sta a indicare che i regressori non presentano una dipendenza statistica (o, più semplicemente, sono incorrelati) dalla componente di errore non osservabile del modello U (➔ covarianza). Una delle proprietà fondamentali in un modello di regressione lineare è quella dell’esogeneità, la cui caduta può avere gravi conseguenze sull’affidabilità delle stime dei minimi quadrati, che diventano inconsistenti (➔ consistenza, stimatore di; minimi quadrati, metodo dei ).