Monte Carlo, metodo
Classe di algoritmi (➔ algoritmo) che sfruttano il campionamento casuale per ottenere un’approssimazione di un risultato, il cui calcolo esatto può essere difficile o addirittura impossibile. Questo metodo è spesso usato per calcolare integrali su regioni complicate o la soluzione di problemi di ottimizzazione nei casi in cui non è possibile ottenere un risultato analitico. In statistica, il metodo M. C. è usato per descrivere aspetti rilevanti di una distribuzione di probabilità (➔), come i momenti (➔ momenti, funzione generatrice dei) o i quantili (➔ quantile). ● In generale, gli algoritmi M. C. si basano su numerose simulazioni di variabili aleatorie (➔ variabile aleatoria) indipendenti e identicamente distribuite. Per ricavare la media di una trasformazione complessa di una variabile aleatoria X, g(X), un tipico algoritmo M. C. è il seguente: generare M realizzazione x1,…, xM dalla distribuzione della variabile aleatoria X; calcolare g(x); approssimare E(g(X)) con la media aritmetica ΣMi g(xi)/M. La validità del metodo è basata sulla legge dei grandi numeri (➔ grandi numeri, legge dei). Nell’esempio, la media aritmetica ΣMi g(xi)/M è una buona approssimazione della media E(g(X)). Questa è tanto più precisa quanto maggiore è il numero di simulazioni M. È importante disporre di metodi per generare realizzazioni di una variabile aleatoria con una distribuzione prefissata (➔ numeri pseudocasuali).
Esistono diversi modi per rendere più efficiente l’algoritmo di base, in particolare per ridurre la varianza della stima Monte Carlo. Uno di questi, chiamato importance sampling, può essere illustrato considerando il caso in cui si voglia calcolare E(g(X)), dove X è una variabile aleatoria uniforme in (0,1). Data una variabile aleatoria Y con funzione di densità h(y), si ha
E(g(X))=ʃ10(x)dx=ʃ10(y)/h(y)h(y)dy=E(g(Y)/h(Y)).
In questo caso, invece di generare realizzazioni dalla distribuzione della variabile aleatoria X e calcolare g(x), può essere più conveniente farlo partire dalla distribuzione della variabile aleatoria Y e calcolare g(y)/h(y). Si dimostra che, per minimizzare la varianza della stima di M. C. così ottenuta, la funzione h deve essere proporzionale alla funzione g.
Una famiglia di algoritmi M. C. usata, abitualmente in ambito bayesiano (➔ inferenza statistica), per campionare da una distribuzione di probabilità, è chiamata Markov Chain Monte Carlo (MCMC). Questi algoritmi si basano sulla costruzione di una catena di Markov (➔ Markov, catena di; processo aleatorio) la cui distribuzione di equilibrio coincide con quella da cui si vuole campionare.
gg=1=1