diseguaglianze stocastiche
Diseguaglianze che coinvolgono quantità dipendenti da variabili casuali o distribuzioni di probabilità (➔). La letteratura matematica e probabilistica offre una varietà di d. s., che trovano utilizzo in diversi campi della matematica applicata, della statistica, dell’economia. In particolare nelle applicazioni economiche, numerose d. s. hanno un ruolo di primo piano.
La d. triangolare è valida, in generale, per ogni tipo di distanza. Richiama la proprietà geometrica secondo la quale la somma delle lunghezze di due lati qualsiasi di un triangolo non può essere inferiore alla lunghezza del terzo lato. Una formulazione elementare di tale d. è la seguente: date due variabili aleatorie X e Y, tali che E∣X∣<∞ e E∣Y∣<∞, si ha E∣X+Y∣≤E∣X∣+E∣Y∣. Questa formulazione corrisponde alla d. di Minkowski con p=1.
La d. di Bonferroni è una d. elementare del calcolo delle probabilità, secondo la quale, dati n eventi A1,...,An, la probabilità dell’unione P(∪iAi)≤∑iP(Ai).
La d. probabilistica di Cauchy-Schwartz è una delle formulazioni più semplici e intuitive. Date due variabili casuali X e Y, si ha che E(XY)2≤E(X2) E(Y2) e il segno di uguaglianza si ha se e solo se X e Y sono legati da una relazione lineare, cioè se esistono due numeri a e b tali che Y=a+bX. ● Nella d. di Holder, dati due numeri non negativi p e q tali che p+q=1, si ha (E∣XY∣)≤(E∣X∣p)1/p≤(E∣Y∣q)1/q. La d. di Cauchy-Schwartz si ottiene come caso particolare per p=q=2.
La d. di Jensen è una delle d. più importanti per funzioni convesse. In un contesto probabilistico, se f è una funzione convessa e X una variabile aleatoria, si ha che Ef(X)≥f(EX). Come caso particolare, la d. di Jensen sulla funzione f(X)=X2, che è convessa, implica EX2−(EX)2≥0, ossia Var(X)≥0 (➔ anche Jensen, diseguaglianza di).
La d. di Minkowski, se X e Y sono due variabili aleatorie (e se i momenti in questione sono finiti), dice che (E∣X+Y∣p)1/p≤(E∣X∣p)1/p+(E∣Y∣p)1/p. Tale d. risulta equivalente alla d. triangolare della distanza definita da d(X,Y)=E∣X−Y∣p)1/p.
La d. di Cebysev delimita la probabilità di valori lontani dalla media più di una soglia prefissata. Se X è una variabile aleatoria con distribuzione di probabilità P, media μX e varianza finita σ2X, dato un valore a≠0, si ha che P(∣X−μX∣>a)≤(σX∣a)2 (➔ Cebysev, diseguaglianza di).