proprietà di Markov
Un processo stocastico Xt indicizzato da un insieme totalmente ordinato è detto di Markov (o avere la proprietà di Markov, da Andrey Andreyevich Markov), se la distribuzione di probabilità del processo in un tempo futuro, condizionata a tutta la storia fino all’istante presente, dipende solo dal valore dello stato presente e non dalla storia passata, ossia il processo è condizionatamente indipendente dalle traiettorie del passato dato lo stato presente. Matematicamente, un processo stocastico Xt è detto di Markov se, per ogni t≤u e per ogni x reale, abbiamo che
P(Xu ≤ x ∣ Xs, s ≤ t) = P(Xu ≤ x ∣ Xt).